Capitolo 1 Geometria Euclidea 1.1 R3 : Struttura lineare Sia Σ lo spazio euclideo. Se fissiamo un sistema di riferimento ortogonale, ad ogni puno P ∈ Σ possiamo associare, in maniera univoca, 3 numeri reali che sono determinati proiettando ortogonalmente il segmento di estremi P e O sugli x, y e z (Figura 1.1.1). Indichiamo con R3 l’insieme ordinato di terne di numeri reali, per cui x1 R3 = x2 x1 , x2 , x3 ∈ R , x3 l’applicazione x(P ) P 7→ y(P ) z(P ) F : Σ −→ R3 è una corrispondenza biunivoca fra lo spazio euclideo e R3 . Quindi possiamo identificare lo spazio Σ con l’insieme delle terne di numeri reali R3 . L’introduzione di un sistema di assi cartesiani è dovuta essenzialmente a René Decartes, da noi chiamato Renato Cartesio. I suoi studi diedero un grande impulso allo sviluppo della geometria analitica. 1 z P z(P) x(P) O y(P) y Figura 1.1.1. x Da qui in avanti identificheremo lo spazio Σ con le terne di numeri reali R3 . Un elemento di R3 è chiamato punto o vettore. L’obbiettivo è introdurre una struttura algebrica su R3 , per cui delle operazioni, che permettano di descrivere concetti puramente geometrici, come rette e piani nello spazio, da equazioni lineari. x1 y1 Due elementi X = x2 , Y = y2 di R3 si diranno uguali, e x3 y3 scriveremo X = Y , se x1 = y1 , x2 = y2 , x3 = y3 . Se pensiamo a R3 come lo spazio euclideo, X = Y significa che X e Y sono lo stesso punto nello spazio. In R3 , definiamo le seguenti operazioni: x1 y1 a) somma: dati due vettori X = x2 , Y = y2 di R3 , definiamo x3 y 3 x1 + y1 la somma di X e Y come il vettore X + Y := x2 + y2 ; x3 + y3 x1 b) moltiplicazione per scalare: dato X = x2 e λ ∈ R, definiamo x3 λx1 λX := λx2 . λx3 2 X +Y Y X O 3/2X X O −1/2X La somma di due elementi di R3 corrisponde alla somma seguendo la regola del parallelogramma. Dati X, Y ∈ R3 , si costruisca il parallelogramma di vertici O, X e Y . X + Y è la diagonale del parallelogramma che unisce i vertici opposti a X e Y . La moltiplicazione per scalare si può pensare come nella figura precedente. La somma e la moltiplicazione per scalari godono di importanti proprietà. Proposizione 1.2. Dati X, Y, Z ∈ R3 , λ, µ ∈ R allora a) X + (Y + Z) = (X + Y ) + Z: proprietà associativa della somma; b) X + Y = Y + X: proprietà commutativa della somma; 0 c) posto 0R3 = 0 , allora 0R3 + X = X + 0R3 = X; 0 d) se X ∈ R3 , allora X + (−1)X = (−1)X + X = 0R3 . −X := (−1)X è detto opposto di X; e) (λ + µ)X = λX + µX; f ) λ(X + Y ) = λX + λY ; g) (λµ)X = λ(µX) = µ(λX). 3 Il vettore 0R3 si chiama il vettore nullo. Se X, Y ∈ R3 , denoteremo X − Y := X + (−1)Y . Sia λ ∈ R e X ∈ R3 . Allora: • 1X = X; • λ0R3 = 0R3 ; • 0X = 0R3 ; Siano X1 , . . . , Xk ∈ R3 . Definizione 1.3. Si dice combinazione lineare di X1 , . . . , Xk ogni elemento Z ∈ R3 per cui esistano λ1 , . . . , λk ∈ R tali che Z = λ1 X1 + · · · + λk Xk . I numeri reali λ1 , . . . , λk si chiamano i coefficienti della combinazione lineare. 1 1 1 1 Siano Z = 2 , X1 = 1 , X2 = 2 , X3 = 0 , vettori −1 1 −1 −1 3 di R . Stabilire se Z è combinazione lineare di X1 , X2 , X3 significa verificare se esistano λ1 , λ2 , λ3 ∈ R tale che 1 1 1 1 2 = λ1 1 + λ2 2 + λ3 0 , −1 −1 1 −1 ovvero 1 λ1 + λ2 + λ3 2 = . λ1 + 2λ2 −1 −λ1 + λ2 − λ3 Quindi Z è combinazione lineare dei vettori X1 , X2 , X3 se e solamente se il sistema lineare λ1 + λ2 + λ3 = 1 λ1 + 2λ2 = 2 −λ1 + λ2 − λ3 = −1 ammette soluzioni. Il vettore nullo è combinazione lineare dei vettori X1 , . . . , Xk . Infatti 0R3 = 0X1 + · · · + 0Xk . Quindi è sempre possibile scrivere il vettore nullo come combinazione dei vettori X1 , . . . , Xk . La combinazione lineare con tutti i coefficienti nulla è chiamata la combinazione lineare banale. Una domanda naturale è se 4 è possibile scrivere il vettore nullo come combinazione lineare dei vettori X1 , . . . , Xk con coefficienti non tutti nulli oppure se l’unica combinazione lineare dei vettori X1 , . . . , Xk uguale al vettore nullo è la combinazione lineare banale. Definizione 1.4. Siano X1 , . . . , Xk ∈ R3 . Diremo che: • i vettori X1 , . . . , Xk ∈ R3 sono linearmente dipendenti se esistono λ1 , . . . , λk ∈ R non tutti nulli, tali che λ1 X1 + · · · + λk Xk = 0R3 ; • i vettori X1 , . . . , Xk ∈ R3 sono linearmente indipendenti se non sono linearmente dipendenti. Quindi se λ1 X1 + · · · + λk Xk = 0R3 , allora λ1 = · · · = λk = 0. 1 0 0 Esempio 1.5. Siano e1 = 0 , e2 = 1 , e3 = 0 . Ogni vettore 0 0 1 3 di R si scrive come combinazioni lineare dei vettori e1 , e2 , e3 . z e3 X e2 e1 y Figura 1.5.1. x x1 Infatti, se X = x2 ∈ R3 , allora x3 x1 1 0 0 x2 = x1 0 + x2 1 + x3 0 = x1 e1 + x2 e2 + x3 e3 . x3 0 0 1 I vettori e1 , e2 , e3 sono anche linearmente indipendenti. Infatti, se α1 e1 + α2 e2 + α3 e3 = 0R3 5 allora α1 0 α2 = 0 , α3 0 per cui α1 = α2 = α3 = 0. 1 2 1 Esempio 1.6. Siano 1 , 3 , 0 . Per stabilire se i vettori sono 2 1 5 linearmente dipendenti, rispettivamente indipendenti, dobbiamo studiare per quali valori di α1 , α2 , α3 ∈ R, si ha 1 2 1 0 α1 1 + α2 3 + α3 0 = 0 . 2 1 5 0 Sviluppando il termine di sinistra, si ha α1 + 2α2 + α3 0 = 0 . α1 + 3α2 0 2α1 + α2 + 5α3 1 2 1 Quindi stabilire se i vettori 1 , 3 , 0 sono linearmente indi5 1 2 pendenti oppure dipendenti significa studiare il seguente sistema lineare α1 + 2α2 + α3 = 0 α1 + 3α2 = 0 . 2α1 + α2 + 5α3 = 0. Se l’unica soluzione del sistema è α1 = α2 = α3 = 0, allora i vettori sono linearmente indipendenti; se il sistema ammette soluzioni con α1 , α2 , α3 non tutti nulli, allora i vettori sono linearmente dipendenti. Come primo passo, vogliamo determinare dei criteri affincè un vettore oppure due vettori siano linearmente indipendenti, rispettivamente dipendenti. x1 Sia X ∈ R3 non nullo per cui X 6= 0R3 . Se X = x2 , allora uno delle x3 componenti è differente di zero. Supponiamo che x1 6= 0. Se λX = 0R3 , allora λx1 = 0 per cui λ = 0. In maniera analoga possiamo trattari i casi 6 in cui x2 o x3 sono non nulli. Quindi se λX = 0R3 , allora λ = 0. Poiché λ0R3 = 0R3 per ogni λ ∈ R, si ha il seguente criterio: X è linearmente indipendente se e solamente se X 6= 0R3 . Vediamo il caso di due vettori. Proposizione 1.7. Siano X, Y ∈ R3 . I vettori X e Y sono vettori linearmente dipendenti se e solo se esiste λ ∈ R tale che X = λY oppure Y = λX. Dimostrazione. Se X = λY allora X − λY = 0R3 . Quindi i vettori X e Y sono linearmente dipendenti poiché 0R3 è combinazione lineare a coefficienti 1 e −λ dei vettori X e Y . Il caso Y = λX è analogo. Viceversa, supponiamo che X e Y sono linearmente dipendenti. Allora esistono α e β non entrambi nulli, tali che αX + βY = 0R3 , per cui αX = −βY. Se α 6= 0, allora X = − αβ Y . Analogamente se β 6= 0, allora Y = − αβ X, concludendo la dimostrazione. Esercizio 1.8. • Siano X1 , . . . , Xk ∈ R3 . Allora i vettori 0R3 , X1 , . . . , Xk sono linearmente dipendenti; • Siano X1 , X2 , X3 ∈ R3 vettori linearmente indipendenti. Dimostrare che i vettori X1 , X2 sono linearmente indipendenti; • Siano X1 , . . . , Xk ∈ R3 vettori linearmente dipendenti. Sia Y ∈ R3 . Allora X1 , . . . , Xk , Y sono linearmente dipendenti. 1.9 R3 : struttura metrica In questa sezione analizzeremo la struttura metrica dello spazio euclideo. L’obbiettivo è descrivere le nozioni geometriche come lunghezza di un vettore e angolo fra due vettori non nulli attraverso il prodotto scalare canonico di R3 . Definizione 1.10. Il prodotto scalare canonico è una funzione che associa ad ogni coppia di vettori un numero reale come segue: R3 × R3 −→ R (X, Y ) 7→ hX, Y i = x1 y1 + x2 y2 + x3 y3 , 7 y1 x1 per ogni X = x2 , Y = y2 ∈ R3 y3 x3 Il prodotto scalare canonico gode delle seguenti proprietà: Proposizione 1.11. Se X, Y, Z ∈ R3 e λ, µ ∈ R, allora (a) hX, Xi ≥ 0 e hX, Xi = 0 se e solamente se X = 0R3 ; (b) hX, Y i = hY, Xi; (c) hX + Z, Y i = hX, Y i + hZ, Y i; (d) hλX, Y i = λhX, Y i; (e) hX, Y + Zi = hX, Y i + hX, Zi; (e) hX, λY i = λhX, Y i. x1 Dimostrazione. Se X = x2 , allora hX, Xi = x21 + x22 + x23 ≥ 0. Inoltre x3 hX, Xi = 0 se e solamente se x1 = x2 = x3 = 0, quindi se e solamente se X = 0R3 . La proprietà (b) è immediata. Dimostriamo la proprietà (c) lasciando le altre per esercizio. x1 y1 z1 Siano X = x2 , Y = y2 e Z = z2 . Allora x3 y3 z3 x1 + z1 X + Z = x2 + z2 , x3 + z3 per cui hX + Z, Y i = (x1 + z1 )y1 + (x2 + z2 )y2 + (x3 + z3 )y3 = x1 y1 + z1 y1 + x2 y2 + z2 y2 + x3 y3 + z3 y3 = (x1 y1 + x2 y2 + x3 y3 + z3 y3 ) + z1 y1 + z2 y2 + z3 y3 = hX, Y i + hZ, Y i. 8 x1 Sia X = x2 . La norma o lunghezza di X è il numero reale non x3 p p negativo k X k:= hX, Xi = x21 + x22 + x23 . Definiamo la distanza fra due vettori X, Y il numero reale non negativo d(X, Y ) =k X − Y k. In particolare la lunghezza di un vettore X ∈ R3 è la distanza di X dal vettore nullo. Siano X, Y ∈ R3 non entrambi nulli. I vettori X e Y dividono un Y θ X piano in quattro regioni e due angoli. L’angolo fra X e Y e per definizione l’angolo minore o uguale a π che nella figura anteriore è stato indicato con θ. Affermiamo che Il prodotto scalare determina cos θ, dove θ è l’angolo fra X e Y. Il vettore X + Y è la diagonale del parallalegrammo costruito a partire da X e Y , che unisce i vertici opposti a X e Y . Applicando il teorema di X +Y Y θ X O Carnot al triangolo di vertici 0, X, X + Y , si ha k X + Y k2 =k X k2 + k Y k2 −2 k X kk Y k cos ψ, dove ψ è l’angolo opposto al lato X + Y . Poiché θ + ψ = π, si ha k X + Y k2 =k X k2 + k Y k2 +2 k X kk Y k cos θ. 9 Per le proprietà del prodotto scalare, si ha k X + Y k2 = hX + Y, X + Y i = hX, X + Y i + hY, X + Y i = hX, Xi + hX, Y i + hY, Xi + hY, Y i =k X k2 +2hX, Y i+ k Y k2 da cui segue hX, Y i = cos θ k X kk Y k . Poiché X e Y sono entrambi non nulli, abbiamo dimostrato la seguente formula: hX, Y i cos θ = . k X kk Y k Vediamo alcune conseguenze della formula anteriore. Corollario 1.12. Siano X, Y ∈ R3 vettori non nulli. Allora a) L’angolo fra X e Y è acuto, rispettivamente ottuso, se e solamente se hX, Y i > 0, rispettivamente hX, Y i < 0; b) X e Y sono ortogonali se e solamente se hX, Y i = 0; c) (Disuguaglianza di Cauchy-Schwartz) |hX, Y i| ≤k X kk Y k . L’uguaglianza vale se e solamente se X e Y sono linearmente dipendenti. La discussione anteriore suggerisce la seguente definizione. Definizione 1.13. Diremo che due vettori X, Y ∈ R3 sono ortogonali, oppure perpendicolari, se hX, Y i = 0. Esercizio 1.14. Siano X, Y ∈ R3 vettori non nulli e ortogonali. Dimostrare che X e Y sono linearmente indipendenti. Sia S un sottoinsieme di R3 . Indicheremo con S ⊥ l’insieme dei vettori di R3 ortogonali ad ogni vettore di S. Quindi S ⊥ := {X ∈ R3 : hX, si = 0 ∀s ∈ S}. Poiché h0R3 , Xi = 0 per ogni X ∈ R3 , il vettore nullo appartiene a S ⊥ . 10 Proposizione 1.15. Siano v, w ∈ S ⊥ e λ ∈ R, allora v+w ∈ S ⊥ e λv ∈ S ⊥ . Dimostrazione. Dimostreremo che v+w ∈ S ⊥ lasciando la secondo proprietà per esercizio. Per ipotesi hv, si = hw, si = 0 per ogni s ∈ S. Noi dobbiamo dimostrare che hv + w, si = 0 per ogni s ∈ S. Per le proprietà del prodotto scalare si ha hv + w, si = hv, si + hw, si = λ0 + µ0 = 0. Teorema 1.16. Siano X, Y ∈ R3 . Allora k X k2 + k Y k2 =k X + Y k2 se e solamente se X, Y sono ortogonali. Dimostrazione. Per le proprietà del prodotto scalare si ha: k X + Y k2 = hX + Y, X + Y i = hX, X + Y i + hY, X + Y i = hX, Xi + hX, Y i + hY, Xi + hY, Y i =k X k2 +2hX, Y i+ k Y k2 . Quindi k X + Y k2 =k X k2 + k Y k2 se e solamente se hX, Y i = 0 quindi se e solamente se X, Y sono vettori perpendicolari. Esercizio 1.17. L’obbiettivo di questo esercizio è dimostrare la disuguaglianza di Cauchy-Schwarz utilizzando il Teorema anteriore. Siano X, Y ∈ R3 . Se Y = 0R3 allora disuguaglianza è verificata. Supponiamo che Y 6= 0R3 . Dimostrare che: i i • X = X − hX,Y Y + hX,Y hY,Y i hY,Y i Y ; i hX,Y i • hX − hX,Y hY,Y i Y, hY,Y i Y i = 0; i hX,Y i hX,Y i hX,Y i 2 2 • k X k2 =k X − hX,Y hY,Y i Y, X − hY,Y i Y k + k hY,Y i Y, hY,Y i Y k ; 2 i hX,Y i hX,Y i 2 • k X k2 ≥k hX,Y hY,Y i Y, hY,Y i Y k = kY k2 , per cui k X k2 k Y k2 ≥ hX, Y i2 i . L’uguaglianza è verificata se e solamente se X = hX,Y hY,Y i Y . 11 1.18 R3 : prodotto vettoriale x1 y1 Siano X, Y ∈ R3 con X = x2 e Y = y2 . Definiamo il loro x3 y3 prodotto vettoriale, che indicheremo con X × Y , come il vettore x 2 y3 − x 3 y2 X × Y = −x1 y3 + x3 y1 . x 1 y2 − x 2 y1 Il prodotto vettoriale definisce una applicazione R3 ×R3 −→ R3 che soddisfa alle seguenti proprietà: Proposizione 1.19. Siano X, Y, Z ∈ R3 e λ, µ ∈ R. Allora • X × Y = −(Y × X), i.e., il prodotto vettoriale è antisimmetrico; • (X + Y ) × Z = (X × Z) + (Y × Z); • (λX) × Z = λ(X × Z); • X × (Y + Z) = (X × Y ) + (X × Z); • X × (λY ) = λ(X × Y ); • X × Y è ortogonale sia al vettore X sia al vettore Y ; • X × Y = 0 se e solamente se X e Y sono linearmente dipendenti; • k X × Y k=k X kk Y k sin θ, dove θ è l’angolo fra X e Y . Quindi la norma del prodotto vettoriale è l’area del parallelogramma di lati X e Y ; Dimostrazione. Dimostreremo solamente le ultime 3 proprietà lasciando per esercizio le altre. hX, X × Y i = x1 (x2 y3 − x3 y2 ) + x2 (−y3 x1 + x3 y1 ) + x3 (x1 y2 − y1 x2 ) = x1 x2 y3 + x2 x3 y1 + x3 x1 y2 − (x1 x2 y3 + x2 x3 y1 + x3 x1 y2 ) = 0. Analogamente è possibile dimostrare che hY, X × Y i = 0. 12 y1 x1 Siano X = x2 , Y = y2 ∈ R3 tali che X × Y = 0. Allora y3 x3 x2 y3 − x3 y2 = 0 −x1 y3 + x3 y1 = 0 x1 y2 − x2 y1 = 0 Se X = 0R3 allora ho finito. Supponiamo quindi X 6= 0R3 . Se x1 6= 0, allora y1 y3 = x1 x3 y2 = xy11 x2 y1 = xy11 x1 ovvero Y = xy11 X. Analogamente gli altri casi. x1 y1 Siano X = x2 , Y = y2 ∈ R3 . Allora x3 y3 k X × Y k2 =(x2 y3 − x3 y2 )2 + (−y3 x1 + x3 y1 )2 + (x1 y2 − y1 x2 )2 =(x2 y3 )2 + (x3 y2 )2 + (y3 x1 )2 + (x3 y1 )2 + (x1 y2 )2 + (y1 x2 )2 −2 x2 y3 x3 y2 + y3 x1 x3 y1 + x1 y2 y1 x2 =x21 (y12 + y22 + y32 ) − x21 y12 + x22 (y12 + y22 + y32 ) − x22 y22 +x23 (y12 + y22 + y32 ) − x23 y32 − 2 x2 y3 x3 y2 + y3 x1 x3 y1 + x1 y2 y1 x2 = k X k2 k Y k2 − (x1 y1 )(x1 y1 + x2 y2 + x3 y3 ) + (x2 y2 )((x1 y1 + x2 y2 + x3 y3 ) +(x3 y3 )(x1 y1 + x2 y2 + x3 y3 ) = k X k2 k Y k2 −hX, Y i2 = k X k2 k Y k2 − k X k2 k Y k2 cos2 (θ) = k X k2 k Y k2 (1 − cos2 (θ)) = k X k2 k Y k2 sin2 θ. Esercizio 1.20. Siano X, Y ∈ R3 . Siano X 0 = αX + βY e Y 0 = γX + δY combinazioni lineari di X e Y . Allora X 0 × Y 0 = (αδ − βγ)X × Y. Terminiamo questa sezione descrivendo geometricamente il prodotto vettoriale. Utilizzeremo il seguente risultato che verrà dimostrato nella prossima sezione. 13 Teorema 1.21. Se X, Y, Z ∈ R3 sono vettori linearmente indipendenti, allora per ogni P ∈ R3 esistono, e sono unici, α, β, γ ∈ R tale che P = αX + βY + γZ. Lemma 1.22. Se X, Y sono linearmente indipendenti, allora i vettori X, Y, X× Y sono linearmente indipendenti. Dimostrazione. Siano α, β, γ ∈ R tali che αX + βY + γ(X × Y ) = 0R3 . Allora, tenendo in mente che X × Y è ortogonale sia a X che Y , si ha 0 = h0R3 , X × Y i = hαX + βY + γ(X × Y ), X × Y i = γ k X × Y k2 . Poiché X ×Y 6= 0R3 , tenendo in mente la prima proprietà del prodotto scalare, si ha γ = 0 per cui otteniamo una combinazione lineare dei vettori X, Y a coefficienti α e β uguale al vettore nullo. Per ipotesi, X e Y sono linearmente indipendenti, per cui si ha α = β = 0 concludendo la dimostrazione. Proposizione 1.23. Siano X, Y ∈ R3 linearmente indipendenti. Sia n ∈ R3 tale che hn, Xi = hn, Y i = 0. Allora esiste k ∈ R tali che n = k(X × Y ). Dimostrazione. Sia n ∈ R3 tale che hn, Xi = hn, Y i = 0. Per il Lemma 1.22 ed il Teorema 1.21, esistono α, β, γ ∈ R tale che n = αX + βY + γ(X × Y ). Quindi (1) 0 = hn, Xi = αhX, Xi + βhX, Y i (2) 0 = hn, Y i = αhX, Y i + βhY, Y i. Adesso, tenendo in mente che hX, Xi = 6 0, possiamo sottrarre alla equazione hX,Y i (2), hX,Xi moltiplicata per la (1): 0 = αhX, Y i + βhY, Y i − hX, Y i (αhX, Xi + βhX, Y i) hX, Xi ottenendo 0 = β hY, Y ihX, X, i − hX, Y i2 . Applicando la disuguaglianza di Cauchy-Schwartz si ha che hY, Y ihX, Xi − hX, Y i2 > 0, per cui β = 0. Dalla equazione (1) si ha αhX, Xi = 0 con hX, Xi > 0, per cui α = 0. Quindi n = γ(X × Y ) concludendo la dimostrazione. 14 Siano X e Y sono vettori linearmente indipendenti, allora ogni vettore si può scrivere in maniera unica come combinazione lineare dei vettori X, Y, X × Y ed i vettori ortogonali a X e Y sono tutti e soli i multipli di X × Y . Quindi la seguente figura X ×Y Y X descrive geometricamente il prodotto vettoriale. Se X e Y fossero ortogonali, la terna X, Y, X × Y definirebbe naturalmente un sistema di assi cartesiani ortogonali. Nella prossima sezione introdurremo il concetto di retta e piano. La discussione anteriore e l’esercizio 1.20 significa che il prodotto vettoriale dipende solamente dal piano generato da X e Y . Il verso è determinato dalla regola della mano destra mentre il modulo è l’area del parallelogramma di lati X e Y . 1.24 Rette nello spazio Possiamo pensare ad una retta nello spazio come ad una particolare traiettora di un punto che si muove, sempre secondo una certa direzione (e verso). Quindi, se pensiamo al parametro t come al tempo, i punti di una retta sono descritti da una equazione parametrica r : X = P + tA, dove t ∈ R è il parametro, P è un punto delle retta ed infine A è un vettore non nullo, chiamato vettore direttore, che ne indica la direzione e verso (Figura 1.24.1). 15 A P Figura 1.24.1. Come insieme, la retta r è l’insieme dei vettori di R3 della forma: r = {X ∈ R3 : X = P + tA : t ∈ R}. Una retta ha molte possibili equazioni parametriche. Infatti, se scegliamo un qualsiasi altro punto Q ∈ r, ed come vettore B = kA dove k 6= 0, allora r = {X ∈ R3 : X = P + tA, t ∈ R} = {X ∈ R3 : X = Q + sB, s ∈ R}. Sia to ∈ R tale che Q = P + to A. Per ogni s ∈ R si ha Q + sB = P + to A + ksA = P + (to + ks)A, per cui abbiamo dimostrato = {X ∈ R3 : X = Q + sB, s ∈ R} ⊆ {X ∈ R3 : X = P + tA, t ∈ R}. Viceversa, per ogni t ∈ R, si ha P + tA = P + tA + to A − to A = Q − to A + tA = Q + (t − to )A (t − t0 ) =Q+ B. k Dato un punto P , le rette che passano per P sono tutte e sole le rette date da equazioni parametriche X = P + tA, t ∈ R, dove A è un vettore non nullo. L’insieme delle rette passanti per P si chiama stella di rette di centro P . Se fissiamo un altro punto Q distinto dal primo allora vi è una unica retta che passa tanto per P quanto per Q. Un’equazione parametriche è data da r = P + t(P − Q), t ∈ R. 16 Verifichiamo che r è la retta passante per P e Q. Se t = 0, otteniamo P . Se t = −1 otteniamo Q. Proviamo che tale retta è unica. Sia r : Q1 + tA una retta passante per P e Q. Allora esistono t1 , t2 ∈ R tali che P = Q + t1 A e Q = Q1 + t2 A con t1 , t2 ∈ R. Poiché P 6= Q, ne segue 1 che t1 6= t2 e t1 −t (P − Q) = A (perché?). Se t ∈ R, allora 2 Q + tA = Q + t1 A + (t − t1 )A = P1 + (t − t1 )A t − t1 = P1 + (P1 − P2 ). t1 − t2 Siano r1 = P1 + tA1 e r2 = P2 + tA2 due rette nello spazio. Diremo che le rette sono ortogonali o perpendicolari se hA1 , A2 i = 0. Le posizione reciproca di due rette nello spazio sono le seguenti. r1 ed r2 sono coincidenti, e scriveremo r1 = r2 , se ogni elemento che appartiene a r1 è un elemento di r2 e viceversa. In particolare i vettori direttori sono linearmente dipendenti da cui segue che A1 × A2 = 0R3 . Poiché per due punti passa una ed una sola retta, r1 = r2 se e solo se hanno due punti in comune. Esercizio 1.25. Dimostrare che r1 = r2 se e solamente se P1 ∈ r2 e A1 × A2 = 0R3 . Le rette r1 e r2 si dicono parallele se non hanno punti in comune ed hanno la stessa direzione (vedi figura 1.25.1). r1 r2 Figura 1.25.1. I vettori direttori di due rette parallele sono proporzionali per cui A1 e A2 sono linearmente dipendenti. Questo significa che due rette sono r1 e r2 sono parallele se e solamente se r1 e r2 non hanno punti in comune ed A1 × A2 = 0R3 . Esercizio 1.26. Siano r1 : P + tA1 , t ∈ R e s : Q + sA2 , s ∈ R due rette nello spazio. Dimostrare che r1 e r2 sono parallele se e solamente se A1 × A2 = 0R3 e (P − Q) × A1 6= 0R3 17 Le rette r1 e r2 sono incidenti se hanno esattamente un punto in comune (vedi figura 1.26.1). I vettori direttori sono necessariamente linearmente indipendenti (A1 × A2 6= 0R3 ). Altrimenti le due rette sarebbero coincidenti (verificare!). r2 r1 P Figura 1.26.1. Infine, due rette si dicono sghembe se non sono né incidenti, né coincidenti e né parallele. Quindi r1 e r2 sono sghembe se e solamente se non hanno punti in comune ed i vettori direttori sono linearmente indipendenti (vedi figura 1.26.2). z s y Figura 1.26.2. x 1.27 r Piani nello spazio Possiamo pensare ad un piano passante per l’origine come l’insieme dei vettori ortogonali ad un vettore non nullo (vedi figura 1.27.1). Se n = 18 a b 6= 0, allora il piano passante per l’origine e ortogonale ad n è l’insieme c x x {n}⊥ = y ∈ R3 : hX, ni = 0 = y ∈ R3 : ax + by + cz = 0 . z z Il vettore n si chiama vettore normale al piano. Un piano nello spazio è l’insieme dei vettori di R3 che verificano una equazioni lineari. n π Figura 1.27.1. Per le proprietà del prodotto scalare è facile verificare che se k 6= 0, allora {kn}⊥ = {n}⊥ . Per questo diremo che n è un vettore ortogonale a π. Esercizio 1.28. Sia n 6= 0R3 e sia r = {tn : t ∈ R} la retta passante per l’origine con vettore direttore n. Dimostrare che il piano passante per l’origine e ortogonale a r coincide con r⊥ Sia P ∈ R3 . L’idea per definire un piano passante per P è quella di traslare lungo il vettore individuato da P , un piano passante per l’origine. a Il piano passante per P e ortogonale al vettore n = b non nullo è c l’insieme π : = X ∈ R3 : hX − P, ni = 0 x = y ∈ R3 : ax + bx + cx + d = 0 , z dove d = −hP, ni. 19 Esercizio 1.29. Sia π = X ∈ R3 : hX − P, ni = 0 un piano nello spazio. Sia Q ∈ π. Dimostrare che π = X ∈ R3 : hX − Q, ni = 0 . (Suggerimento: X − P = X − Q + (Q − P ) per cui hX − P, ni = hX − Q, ni + hQ − P, ni) 1 1 Se P = 0 e n = −5 , allora il piano π passante per P e −1 3 x ortogonale a n è l’insieme dei vettori y ∈ R3 che verificano la seguente z equazione: x − 5y + 3z + 2 = 0. Un vettore v ∈ R3 appartiene le sue coordinate soddisfano l’equazione a π se 1 / π poiché 1 − 5 − 3 + 2 6= 0; invece precedente. Per esempio, 1 ∈ −1 0 1 ∈ π poiché 0 − 5 + 3 + 2 = 0. Riassumendo, un piano nello spazio è 1 l’insieme dei vettori di R3 che verificano una equazione cartesiane del tipo π : ax + by + cz + d = 0, a dove a, b, c ∈ R non sono tutti nulli. Inoltre, il vettore n = b , è chiamato c vettore ortogonale al piano. Il piano π passa per l’origine se e solamente se d = 0. Èfacileconvincersi che per unpunto P possano infiniti piani. Infatti, se x0 a P = y0 allora per ogni n = b ∈ R3 non nullo, il piano z0 c a(x − x0 ) + b(y − y0 ) + c(z − z0 ) = 0, è un piano passante per P . Sempre in maniera intuitiva è facile convincersi che esistono infiniti piani passanti per due punti distinti. Non proveremo questa proprietà ma vogliamo porre l’attenzione che un piano contenente due punti distinti Q1 e Q2 , contiene anche la retta passante per Q1 e Q2 . 20 Esercizio 1.30. Sia π = {X ∈ R3 : hX − P, ni = 0} un piano nello spazio. Siano Q1 , Q2 due punti distinti. Il piano π contiene i punti Q1 e Q2 se e solamente se contiene la retta passante per Q1 e Q2 . Esercizio 1.31. Sia π = {X ∈ R3 : hX − P, ni = 0} un piano nello spazio e sia r : Q+tA una retta nello spazio. Dimostrare che se la retta r è contenuta nel piano π, allora hA, ni = 0. Siano P1 , P2 e P3 tre punti nello spazio. P1 , P2 e P3 si dicono non allineati se non appartengono ad una stessa retta. Caso contrario diremo che sono allineati. Possiamo esprimere la condizione di essere non allineati utilizzando il prodotto vettoriale. Infatti, P1 , P2 , P3 sono non allineati, rispettivamente allineati, se e solamente se i vettori P2 − P1 e P3 − P1 sono linearmente indipendenti, rispettivamente dipendenti, per cui se e solamente se (P2 − P1 ) × (P3 − P1 ) 6= 0R3 , rispettivamente (P2 − P1 ) × (P3 − P1 ) = 0R3 . Proposizione 1.32. Esiste un unico piano passante per tre punti non allineati. Dimostrazione. Siano P1 , P2 , P3 non allineati. Sia n = (P2 − P1 ) × (P3 − P1 ). Allora π := X ∈ R3 : hX − P1 , ni = 0 . è un piano passante P1 , P2 e P3 (verificare!). Vediamo che tale piano è unico. π 0 un piano passante per P1 , P2 , P3 . Possiamo scrivere π 0 := Siano 3 X ∈ R : hX − P1 , n0 i = 0 (perché?) per un certo n0 ∈ R3 non nullo. I vettori (P2 − P1 ) e (P3 − P1 ) sono linearmente indipendenti e ortogonali a n0 . Per la Proposizione 1.23, n0 = kn con k 6= 0. Poiché hX − P1 , n0 i = khX − P1 , ni, un punto X ∈ π se e solamente se X ∈ π 0 per cui π 0 = π. Esempio 1.33. Scrivere un’equazione cartesiana per il piano passante per i punti 1 2 3 1 , 0 , 1 . 2 3 −1 3 5 . Imponendo il passaggio per Un vettore normale al piano cercato è 2 uno dei tre punti si ottiene 3x + 5y + 2z = 12. 21 Calcolare equazioni parametriche per un piano significa risolvere un sistema lineare. Sia π : ax + by + cz + d = 0 un piano nello spazio. Poiché il vettore n = a b è non nullo, allora a, b, c non sono tutti nulli. Supponiamo che a 6= 0. c Possiamo ricavare la variabile x in funzione dell’altre: x = − ad − ab y − ac z. Quindi d b − a − a y − ac z : y, z ∈ R π= y z −b/a −c/a −d/a = 0 +y 1 +z 0 . 0 0 1 Il piano π è l’insieme dei vettori della forma: P + yv + zw, y, z ∈ R, −c/a −b/a −d/a dove P = 0 , v = 1 e w = 0 . Il vettore P ∈ π 1 0 0 mentre v e w sono vettori linearmenti indipendenti e ortogonali a n. Al variare di y e z ottengo tutti e soli i vettori che appartengono a π e sono chiamate equazioni parametriche. Analogamente gli altri casi. Se b 6= 0, allora y = − db − ab x − cb z per cui 0 1 0 π = −d/b + x −a/b + z −c/b x, z ∈ R ; 0 0 1 se c 6= 0, allora z = − dc − ac x − cb y, per cui π= 0 1 0 0 + x 0 + y 1 , x, y ∈ R . −d/c −a/c −b/c 22 Esempio 1.34. Determinare equazioni parametriche per il piano π : 2x − y + z = 4. Possiamo ricavare y = 2x + z − 4, per cui si ha x π = 2x + z − 4 : x, z ∈ R z 0 1 0 = −4 + x 2 + z 1 , x, z ∈ R ; 0 0 1 Quindi π ha equazioni paramentriche: π : P + yv + zw, y, z ∈ R, dove 0 1 0 P = −4 ∈ π, v = 2 , w = 1 . Analogamente, z = 4 − 2x + y 0 0 1 per cui x y π= : x, y ∈ R 4 − 2x + y 1 0 0 = 0 + x 0 + y 1 x, y ∈ R ; 4 −2 1 Proposizione 1.35. Sia π l’insieme dei vettori dello spazio della forma π : P + tV + sW, ∀s, t ∈ R, con V e W linearmente indipendenti. Allora π è il piano nello spazio passante per P e ortogonale a V × W = n. Dimostrazione. Se X ∈ π, allora X = P + αV + βW , per un certo α, β ∈ R. Quindi hX − P, ni = αhV, ni + βhW, ni = 0, per cui π ⊆ {X ∈ R3 : hX − P, ni = 0}. Viceversa, sia X ∈ R3 tale che hX − P, ni = 0. Per il Lemma 1.22, i vettori V, W, n = V × W sono linearmente indipendenti. Per il Teorema 1.21, esistono α, β, γ ∈ R tali che X − P = αV + βW + γn. Quindi, tenendo in mente che V , W sono ortogonali a n, si ha 0 = hX −P, ni = hαV +βW +γn, ni = αhV, ni+βhW, ni+γhn, ni = γhn, ni, 23 per cui γ = 0 (perché?). Questo significa che X − P = αV + βW , da cui segue che X = P + αV + βW ∈ π. La dimostrazione del risultato precedente descrive una procedimento per passare da equazioni parametriche a equazioni cartesiane. Sia π : P + αV + βW, con V × W 6= 0R3 , un piano nello spazio. Allora π è l’insieme dei vettori di R3 che soddisfa la seguente equazione lineare π : ax + by + cx + d = 0, a dove n = b = V × W e d = −hP, ni. Osserviamo che d si ottiene anche c imponendo il passaggio per P . 1 Esempio 1.36. Determinare un’equazione cartesiana per il piano π : 2 + −1 0 −1 t 1 + s −1 , s, t ∈ R. 1 1 −1 0 2 n = 1 × −1 = 1 1 1 1 Quindi π : 2x + y + z = d. 1 Imponendo il passaggio per 2 si ha −1 2x + y + z = 3. Esercizio 1.37. Siano P1 , P2 , P3 ∈ R3 tre punti non allineati. Dimostrare che π : P1 + t(P2 − P1 ) + s(P3 − P1 ). è l’unico piano passante per P1 , P2 e P3 . 24 Esercizio 1.38. Sia r : P + tA, t ∈ R, A 6= 0R3 una retta nello spazio e sia Q un punto non appartiene a r. Dimostrare che esiste un unico piano contenente la retta r e passante per Q. Tale piano ha equazioni parametriche π : P + tA + s(P − Q), s, t ∈ R. Esempio 1.39. Determinare equazioni parametriche e una equazione cartesiane per il piano π contenente la retta 1 −4 r : 2 + t 3 −2 2 3 e passante per Q = 3 . Il piano π ha equazioni parametriche: −3 1 −4 2 π : 2 + t 3 + s 1 . −2 2 −1 Un vettore normale al piano è dato da 5 n = (P − Q) × A = 0 . 10 Imponendo il passaggio per P si ha 5x + 10z = −15. Siano π1 : a1 x + b1 y + c1 z = d1 eπ2 : a2 x +b2 y +c2 z = d2 piani nello a1 a2 spazio. Indichiamo con n1 = b1 e n2 = b2 i rispettivi vettori c1 c2 normali. Diremo che π1 e π2 sono ortogonali se n1 e n2 sono ortogonali, per cui se hn1 , n2 i = 0. Adesso studiamo la mutua posizione di due piani nello spazio. Supponiamo che n1 × n2 = 0. Allora n1 = kn2 e possiamo scrivere equazioni cartesiane di π1 come π1 : k(a2 x + b2 y + c2 z) = d1 25 Quindi se kd2 = d1 , allora π1 = π2 altrimenti π1 ∩ π2 = ∅. Supponiamo che π1 = π2 . Possiamo scrivere equazioni parametriche per π1 : P + αV + βW , dove V e W sono vettori linearmente indipendenti e ortogonali a n1 e n2 rispettivamente. I vettori n1 e n2 sono proporzionali a V ×W per cui sono linearmente dipendenti (perché?). Quindi n1 ×n1 = 0R3 . Supponiamo che n1 × n2 6= 0R3 . Nostro obbiettivo è dimostrare che π1 ∩ π2 è una retta. Sia π1 : P + tV + sW equazioni parametriche di π1 . Ricordiamo che P è un qualsiasi punto appartenente a π1 . Passo 1: è possibile scegliere P ∈ π1 tale che P ∈ / π2 . Caso contrario, π1 ⊆ π2 per cui π1 = π2 poiché esiste un unico piano passante per tre punti non allineati. Per la discussione anteriore si ha n1 × n2 = 0R3 , una contraddizione. Osserviamo che hV, n2 i e hW, n2 i non possono essere entrambi nulli. Altrimenti, per la Proposizione 1.23 n2 = h(V × W ) per cui n1 × n2 = 0R3 . Passo 2. Se hV, n2 i = 6 0, allora esiste to ∈ R tale che P + to V ∈ π2 . Analogamente se hW, n2 i = 6 0 esiste so ∈ R tale che P + so W ∈ π2 Sia π2 = {X ∈ R3 : hX − Q, n2 i = 0}. Allora P + tV ∈ π2 se e solamente se hP + tV − Q, n2 i = 0, per cui se e solamente se hP − Q, n2 i + thV, n2 i = 0. −Q,n2 i Poiché hV, n2 i = 6 0, si ha che P +to V ∈ π2 se, e solamente se, to = −hPhV,n . 2i Il secondo caso è analogo. Passo 3. π1 ∩ π2 contiene un retta. Supponiamo che hV, n2 i e hW, n2 i sono entrambi non nulli. Per i passi precedenti, esistono so , to ∈ R tali che P + to V, P + so W ∈ π2 . Poiché P ∈ / π2 , si ha che to so 6= 0. Inoltre, tenente in mente che V e W sono linearmente indipendenti, i punti P + to V e P + so W sono distinti (verificare!). Quindi π1 ∩π2 contiene la retta passante per P +to V e P +so W . Supponiamo che hV, n2 i = 0. L’altro caso è analogo. Poiché hW, n2 i = 6 0 esiste so ∈ R non nullo tale che P + so W ∈ π2 . E’ facile verificare che la retta P + so W + tV, t ∈ R, 26 è contenuta in π2 per cui π1 ∩ π2 contiene una retta. Passo 4. π1 ∩ π2 è una retta. Caso contrario, π1 e π2 avrebbero tre punti non allineati in comune (perché?), per cui π1 = π2 . Riassumendo abbiamo descritto la mutua posizione di due piani nello spazio. Siano π1 e π2 piani nello spazio. Diremo che π1 e π2 sono: • coincidenti, ed indicheremo π1 = π2 , se π1 e π2 sono lo stesso sottoinsiemi di R3 . Dalla discussione anteriore si ha che π1 = π2 se e solamente se esiste k ∈ R non nullo tale che n1 = kn2 , in particolare n1 ×n2 = 0R3 , e d1 = kd2 . Quindi le equazioni cartesiane dei due piani differiscono per un multiplo non nullo. • paralleli se π1 e π2 non si intersecano. Se π1 e π2 sono paralleli allora n1 × n2 = 0R3 . n2 n1 π2 π1 • incidenti se si intersecano lungo una retta. Questo succede se e solamente se n1 × n2 è un vettore non nullo. 27 Figura 1.39.1. r π1 π2 1.40 Rette e Piani nello spazio Nella sezione precedente, abbiamo affermato che due piani non paralleli si intersecano lungo una retta. Se consideriamo un’equazione cartesiana per ciascuno piano, la retta cosı̀ ottenuta è definita da due equazioni cartesiane. Vogliamo provare che ogni retta è intersezione di due piani non paralleli per cui ogni retta è definita da due equazioni cartesiane. xo a1 Sia r : P + tA una retta. Se P = yo e A = a2 allora z0 a3 x = xo + ta1 y = yo + ta2 z = zo + ta3 Se a1 è differente da zero, allora possiamo ricavare x − xo t= , a1 e sostituendo l’espressione di t nelle altre due equazione, si ha: x a2 (x − xo ) a3 (x − xo ) r = y ∈ R 3 : y − yo = , z − zo = , . a1 a1 z 28 Analogamente se a2 6= 0, allora x a1 (y − yo ) a3 (y − yo ) r = y ∈ R3 : x − xo = , z − zo = , ; a2 a2 z se a3 6= 0, allora x a3 (z − zo ) a2 (z − zo ) r = y ∈ R3 : y − yo = , y − yo = , . a3 a1 z Le equazioni precedenti si chiamano equazioni cartesiane. Si noti che una stessa retta ha infinite possibili equazioni cartesiane, nonché ci sono infinite coppie di piani che si intersecano lungo una retta. Esempio 1.41. x=1+t y = 2 + 2t r: z = 3t Posso ricavare t = x − 1 e quindi x r = y ∈ R3 : y − 2x = 0, z − 3x = −3 . z Si r una retta nello spazio di equazioni cartesiane ax + by + cz + d = 0 r := a0 x + b0 y + c0 z + d0 = 0 Determinare equazioni parametriche equivale a risolvere un sistema di 2 equazioni in 3 incognite. Al momento non abbiamo ancora sviluppato un procedimento per risolvere un sistema lineare. Lo vedremo che nel prossimo capitolo. Tuttavia, possiamo calcolare un vettore direttore di r. Se una retta r è contenuto in un piano π allora un vettore direttore di r è ortogonale ad un vettore normale al piano (Esercizio 1.31). Applicando la Proposizione 1.23, un vettore direttore di r è ottenuto calcolando il prodotto vettoriale dei vettori normali ai piani: 0 a a A = b × b0 . c0 c 29 Esempio 1.42. Sia r: x−y+z =1 . y − 2z = 2 Allora un vettore direttore di r è il vettore 1 0 1 −1 × 1 = 2 . 1 −2 1 L’insieme dei piani passanti per una retta r si chiama fascio di piani di asse r. Se la retta r ha equazioni cartesiane ax + by + cz + d = 0 , a0 x + b0 y + c0 z + d0 = 0 allora si può dimostrare che un piano π appartiene al fascio di piani di asse r se e solamete se esistano λ, µ ∈ R, non entrambi nulli, tali che π ha equazioni cartesiane λ(ax + by + cz + d) + µ(a0 x + b0 y + c0 z + d0 ) = 0 Il fascio dei piani di asse r può essere utilizzato per risolvere alcuni tipi di esercizi. Esempio 1.43. Determinare un’equazione cartesiana del piano π contenente la retta x−y−z =1 r: x+y+z =2 3 e passante per P = 1 . 0 Un piano contenente r ha equazione cartesiana α(x − y − z − 1) + β(x + y + z − 2) = 0, al variare di α, β ∈ R. Imponendo il passaggio per P ottengo in piano cercato: α + 2β = 0, ovvero α = −2β. Quindi se scelgo β = 1, allora α = −2 ed il piano cercato ha equazione cartesiana −x + 3y + 3z = 0. 30 Esempio 1.44. Determinare un’equazione cartesiana della retta r incidente ed ortogonale alle rette x−z =0 x+y =2 s1 : s2 : 2x − y = 2 y+z =4 Poiché la retta r è ortogonale sia a s1 , sia s2 , un vettore direttore della retta r è dato dal prodotto vettoriale dei vettori direttori di s1 e s2 , rispettivamente, 1 ovvero A = 0 è un vettore direttore di r. L’obbiettivo è determinare −1 due piani non paralleli che contengono la retta cercata. Il piano contenente s1 e con vettore normale ortogonale al vettore direttore A di r contiene tutta la retta r. Per determinare tale piano applichiamo il metodo del fascio: α(x − z) + β(2x − y − 2) = 0. Il vettore normale al piano è il vettore: α + 2β nα,β = −β . −α Imponendo la condizione hnα,β , Ai = 0 ⇐⇒ α + 2β + α = 2(α + β) = 0, otteniamo il piano π1 : x − y + z = 2. Analogamente il fascio di piani di asse s2 è dato da α(x + y − 2) + β(y + z − 4) = 0. al variare di α, β ∈ R non tutti nulli. Imponendo la condizione hnα,β , Ai = 0 ⇐⇒ α − β = 0, otteniamo il piano π2 : x + 2y + z = 6, ovvero la retta cercata ha equazione cartesiane x−y+z =2 r: . x + 2y + z = 6 31 Terminiamo la sezione analizzando la mutua posizione di una retta ed un piano nello spazio. a Sia r : P +tA, t ∈ R e π : ax+by +cz +d = 0. Indichiamo con n = b c il vettore normale al piano. Allora: • r ⊂ π se e solamente se P ∈ π e hA, ni = 0; Figura 1.44.1. n r π • diremo che la retta r è parallela a π se r ∩ π = ∅. In particolare hA, ni = 0; Figura 1.44.2. n r π • diremo che r e π sono incidenti se r ∩ π = {Q}. Si può dimostrare che r ed π sono incidenti se e solamente se hA, ni = 6 0; 32 Figura 1.44.3. n r Q π Esempio 1.45. Determinare equazioni cartesiane della retta r passante per 1 P = 2 , parallela al piano x + y − z = 6 ed incidente l’asse delle x. 1 La retta cercata, passa per P ed è parallela al piano x + y − z = 6, per cui è contenuta nel piano π : x + y − z = 2. L’intersezione del piano π e l’asse delle x è il vettore 2 π ∩ {asse x} = 0 = Q. 0 Quindi r : P + t(P − Q), ovvero x=1−t y = 2 + 2t r: z =1+t Possiamo ricavare t, per esempio, dalla 1 equazione ed ottenere equazioni cartesiane 2x + y = 4 r: . x+z =2 Vediamo un altro metodo. Determiniamo due piani π1 e π2 non paralleli che contengono la retta r. Un piano parallelo a x + y − z = 6 ha equazioni 33 cartesiane x + y − z = d. Imponendo il passaggio per P troviamo il piano che contiene la retta cercata, ovvero x + y − z = 2. Applicando il metodo del fascio troviamo che un piano che contiene l’asse delle x ha equazioni cartesiane αy + βz = 0. Imponendo il passaggio per P , troviamo il piano contenente sia l’asse delle x e la retta r, ovvero −y + 2z = 0. Quindi x+y−z =2 r: . −y + 2z = 0 Definizione 1.46. Due rette r1 ed r2 si dicono complanari se esiste un piano π che le contiene entrambe. Due rette sghembe non sono complanari. Infatti, se due rette sono contenute in un piano π allora sono parallele oppure incidenti. Siano s1 e s2 due rette incidenti. Se indichiamo con P = s1 ∩s2 , possiamo scrivere s1 : P + tA1 , t ∈ R e s1 : P + sA2 , s ∈ R. Ricordiamo che A1 × A2 6= 0R3 . Il piano π : P + tA1 + sA2 , s, t ∈ R, è un piano contenente s1 e s2 (verificare). Tale piano è unico poiché passa per tre punti non allineati: P, P + A1 , P + A2 . Esercizio 1.47. Siano s1 : P + tA1 , t ∈ R e s1 = Q + sA2 , s ∈ R due rette incidenti. Dimostrare che π : P + tA1 + sA2 , s, t ∈ R, è il piano contenente s1 e s2 . Siano s1 e s2 due rette parallele. Allora s1 : P + tA, t ∈ R e s1 : Q + sA, s ∈ R e A 6= 0R3 . Poiché le due rette sono parallele, si ha (P − Q) × A 6= 0R3 . Il piano π : P + tA + s(P − Q), s, t ∈ R, è un piano contenente s1 e s2 . Tale piano è unico poiché passa per tre punti non allineati: Q, P, Q + A. Riassumendo abbiamo dimostrato il seguente risultato. Proposizione 1.48. Due rette sono complanari se e solamente se sono parallele oppure incidenti. Inoltre tale piano è unico. 34 Capitolo 2 Spazi Vettoriali 2.1 Spazi vettoriali, sottospazi vettoriali ed esempi Definizione 2.2. Uno spazio vettoriale V su un campo K, per noi K = R oppure K = C, è un insieme su cui sono definite due operazioni: una di somma e un prodotto per scalare V × V −→ V K × V −→ V (v, w) 7→ v + w (λ, v) 7→ λv, che soddifano alle seguenti proprietà: se u, v, w ∈ V e λ, µ ∈ K, allora a) u + (v + w) = (u + v) + w; b) v + w = w + v; c) ∃0V ∈ V tale che 0V + v = v + 0V = v; d) ∀v ∈ V , ∃v 0 ∈ V tale che v + v 0 = v 0 + v = 0V ; e) λ(v + w) = λv + λw; f ) (λ + µ)v = λv + µv; g) λ(µv) = µ(λv) = (λµ)v; h) 1v = v, per ogni v ∈ V ; Gli elementi di V si chiamano vettori. 35 Proposizione 2.3. Sia V uno spazio vettoriale su K. Allora: • siano v, w, z ∈ V . Se v + w = v + z allora w = z; • ∃!0V ∈ V tale che per ogni v ∈ V si ha v + 0V = 0V + v = v; • sia 0 ∈ K. Allora 0v = 0V per ogni v ∈ V ; • ∀v ∈ V esiste un unico v 0 ∈ V : v + v 0 = v 0 + v = 0V . Inoltre v 0 = (−1)v; • per ogni λ ∈ K si ha λ0V = 0V ; • sia v 6= 0V . Allora λv = 0V se e solamente se λ = 0. Dimostrazione. Se v + w = v + z, sommanda, in entrambi i menbri, l’opposto di v rispetto alla somma si ha w = z. Supponiamo che esistano 0V , 00V tale che x + 0V = 0V + x = x + 00V = 00V + x = x per ogni x ∈ V . Allora 0V = 0V + 00V = 00V . Sia 0 ∈ K e sia v ∈ V . Allora 0v = (0 + 0)v = 0v + 0v. Sommanda l’opposto de 0v in entrambi i membri si ha 0v = 0V . Poiché v + (−1)v = (1 − 1)v = 0v = 0V , (−1)v è un inverso rispetto alla somma. Vediamo l’unicità. Siano v 0 , v 00 ∈ V tale che v 0 + v = v 00 + v = 0V . Allora v 0 = v 0 + 0V = v 0 + (v + v 00 ) = (v 0 + v) + v 00 = 0V + v 00 = v 00 . Sia λ ∈ K. Allora λ0V = λ(0V + 0V ) = λ0V + λ0V , ovvero λ0 = 0V . Infine sia v 6= 0V e sia λ 6= 0. Supponiamo che λv = 0. Moltiplicando per λ−1 a destra e sinistra si ha v = 0V . Assurdo. Quindi λv = 0V se e solamente se λ = 0. 36 Da qui in avanti, denoteremo v −w := v +(−1)w. Vediamo alcuni esempi di spazi vettoriali. Sia x1 .. n R = . x1 , . . . , x n ∈ R , xn x1 l’insieme delle n-eplu ordinate di numeri reali. Se X = ... , Y = xn y1 .. . , allora X = Y se x1 = y1 , . . . , xn = yn . Somma e moltiplicazione yn per scalare sono definite come segue: x1 + y1 .. a) X + Y = ; . b) λX = xn + yn λx1 .. , . λxn Proposizione 2.4. (Rn , +, ·) è uno spazio vettoriale su R. 0 .. Osserviamo che Il vettore nullo è . . Sia 0 x 1 .. n C = . x1 , . . . , x n ∈ K , xn x1 i.e., l’insieme delle n-ple ordinate di numeri complessi. Se X = ... , Y = xn y1 .. . ∈ Cn , allora X = Y se x1 = y1 , . . . , xn = yn . Possiamo definire una yn somma ed una moltiplicazione per scalare come segue: 37 x1 y1 x1 + y1 .. a) ... + ... = ; . xn yn xn + yn λx1 x1 b) λ ... = ... . xn λxn Proposizione 2.5. (Cn , +, ·) è uno spazio vettoriale su C. Sia K = R oppure K = C. Poniamo K[x] := {a0 + a1 x + · · · + an xn : a0 , . . . , an ∈ K, n ∈ N}. Siano v, w ∈ K[x]. Se v = a0 + a1 x + · · · + an xn e w = b0 + b1 x + · · · + bm xm , allora diremo che v = w se e solamente se n = m e a0 = b0 , . . . , an = bn . Somma e moltiplicazione per scalare sono cosı̀ definite: se m > n, allora possiamo scrivere v = a0 + a1 x + · · · + an xn + 0xn+1 + · · · + 0xm ; se m < n, allora possiamo scrivere w = b0 + b1 x + · · · + bm xm + 0xm+1 + · · · 0xn per cui possiamo assumere che n = m e definiamo v + w := (a0 + b0 ) + · · · + (an + bn )xn λv := λa0 + · · · + λan xn . Per esempio: (x+2x3 +x4 +5x5 )+(1−3x+2x2 −x3 +x4 +x6 ) = 1−2x+2x2 +x3 +2x4 +5x5 +x6 ; 3(1 − x + 2x2 − 3x3 ) = 3 − 3x + 6x2 − 9x3 . L’insieme K[x] con le operazioni appena definite è uno spazio vettoriale su K. Il vettore nullo è il polinomio che ha tutti i coefficienti uguali a zero chiamato il polinomio nullo. Sia Kn [x] = {a0 + a1 x + · · · + an xn : a0 , . . . , an ∈ K} l’insieme dei polinomi di grado minore oppure uguale a n. Le operazione v + w := (a0 + b0 ) + · · · + (an + bn )xn λv := λa0 + · · · + λan xn . definiscono una struttura di spazio vettoriale su K. Se X un insieme e sia V = {f : X −→ K} l’insieme di tutte le applicazioni di X a valori nel campo K. V ammette una struttura di spazio vettoriale come segue: (f + g)(p) := f (p) + g(p) (λf )(p) := λf (p). Il vettore nullo è l’applicazione che associa ad ogni elemento di X l’elemento 0 ∈ K, ovvero l’applicazione che vale costantemente 0 ∈ K. 38 Definizione 2.6. Un sottoinsieme W ⊆ V non vuoto si dice un sottospazio vettoriale di V se • per ogni coppia di vettori w, z ∈ W si ha w + z ∈ W (chiuso rispetto alla somma); • per ogni w ∈ W e per ogni λ ∈ K, si ha λw ∈ W (chiuso rispetto alla moltiplicazione per scalare). Osservazione 2.7. Se W è un sottospazio vettoriale di V , allora 0V ∈ W . Esistono sottoinsiemi di uno spazio vettoriale che verificano la prima condizione ma non la seconda e viceversa. Per esempio, sia x : x ≥ 0, y ≥ 0 . W1 = y W1 verifica la prima proprietà ma non è chiuso rispetto alla moltiplicazione per scalara. Sia x : x = 0 oppure y = 0 . W2 = y W2 è chiuso rispetto la moltiplicazione per scalare ma non è chiuso rispetto alla somma. Quindi affinché un sottoinsieme sia un sottospazio vettoriale deve essere chiuso rispetto alla somma e rispetto alla moltiplicazione per scalare. La prossima proposizione unifica le due condizioni ed è lasciata per esercizio. Proposizione 2.8. Sia W ⊆ V . W è un sottospazio vettoriale se e solamente se per ogni w1 , w2 ∈ W e per ogni α1 , α2 ∈ K, allora α1 w1 + α2 w2 ∈ W. Esempio 2.9. a) sia S ⊆ R3 . Allora S ⊥ è un sottospazio vettoriale di R3 ; x 3 b) W = ∈ R : x + y = 0 è un sottospazio vettoriale di R3 ; y x c) W = y ∈ R3 : x + y + z = 1 non è un sottospazio vettoriale z di R3 ; 39 d) sia K[x] l’insieme dei polinomi a coefficienti in K e sia p = a0 + a1 x + · · · + an xn ∈ K[x]. Possiamo pensare a p come una funzione come segue: p : K −→ K α 7→ p(α) = a0 + a1 α + · · · + an αn . È facile verificare che (p + q)(α) = p(α) + q(α) ed (λp)(α) = λp(α). Se β ∈ K, allora W = {p ∈ K[x] : p(β) = 0} è un sottospazio vettoriale di K[x]; e) sia V = {f : R −→ R. Allora W = {f ∈ V : f (1) = 0} è un sottospazio vettoriale di V ; Esercizio 2.10. In R3 si consideri r una retta passante per l’origine. Dimostrare che r è un sottospazio vettoriale di R3 . Cosa posso dire se r non passa per l’origine? Esercizio 2.11. In R3 si consideri π un piano passante per l’origine. Dimostrare che π è un sottospazio vettoriale di R3 . Cosa posso dire se π non passa per l’origine? 2.12 Combinazioni lineari, dipendenza e indipendenza lineare Definizione 2.13. Siano v1 , . . . , vs ∈ V . Si dice combinazione lineare di v1 , . . . , vs ∈ V ogni elemento w ∈ V esprimibile nella forma w = λ 1 v1 + · · · + λ s vs . I numeri λ1 , . . . , λs si dicono i coefficienti della combinazione lineare. 1 1 1 1 Esempio 2.14. Stabilire se 0 è combinazione lineare dei vettori 1 , 1 1 2 0 1 1 4 , 0 −1 ∈ R . Questo significa studiare l’esistenza α1 , α2 , α3 ∈ R 5 3 tali che 0 1 1 2 1 1 1 1 α1 1 + α2 0 + α3 −1 = 0 , 1 5 3 1 40 ovvero α1 + 2α2 1 α1 + α2 + α3 1 = , 0 α1 − α3 α1 + 5α2 + 3α3 1 da cui segue che α1 + 2α2 = 1 α1 + α2 + α3 = 1 α − α3 = 0 1 α1 + 5α2 + 3α3 = 1. 1 1 2 1 1 1 Quindi stabilire se 0 è combinazione lineare dei vettori 1 , 0 , 1 1 5 0 1 −1 è equivalente a stabilire se il sistema lineare anteriore ammet3 te soluzioni (combinazione lineare) oppure non ammette soluzioni (non è combinazione lineare). Definizione 2.15. L’insieme di tutte le combinazioni lineari di v1 , . . . , vs verrà indicato con L(v1 , . . . , vs ) := {λ1 v1 + · · · + λs vs : λ1 , . . . , λs ∈ K}. L(v1 , . . . , vs ) si chiama lo spazio generato da v1 , . . . , vs . Esempio 2.16. In R3 si consideri una retta passante per l’origine: r : X = tA, t ∈ R, A 6= 0. Allora r = L(A). Un piano passante per l’origine ha equazioni parametriche: π : X = tv + sw, s, t ∈ R, v × w 6= 0, ovvero π = L(v, w). Proposizione 2.17. Siano v1 , . . . , vs ∈ V . Allora L(v1 , . . . , vs ) è un sottospazio vettoriale di V . 41 Dimostrazione. Dobbiamo dimostrare che se v, w ∈ L(v1 , . . . , vs ) e λ ∈ K, allora v + w ∈ L(v1 , . . . , vs ) e λv ∈ L(v1 , . . . , vs ). Se v, w ∈ L(v1 , . . . , vs ), allora esistono α1 , . . . αs , rispettivamente β1 , . . . , βs , tali che v = α1 v1 + . . . + αs vs , rispettivamente w = β1 v1 + · · · + βs vs . Allora v + w = α1 v1 + · · · + αs vs + β1 v1 + · · · + βs vs = (α1 + β1 )v1 + · · · + (αs + βs )vs ∈ L(v1 , . . . , vs ) e λv = λα1 v1 + · · · + λαs vs ∈ L(v1 , . . . , vs ). Le rette ed i piani passanti per l’origine sono sottospazi vettoriale di R3 , vedi esempio 2.16.È facile convincersi che sono tutti i sottospazi vettoriali di R3 oltre a {0R3 } e R3 stesso. Osservazione 2.18. Sia w, w1 , . . . , ws ∈ V . Il vettore w è combinazione lineare dei vettori w1 , . . . , ws se e solamente se w ∈ L(w1 , . . . , ws ). Proposizione 2.19. Sia W un sottospazio vettoriale di V e siano w1 , . . . ws ∈ W . Allora L(w1 , . . . , ws ) ⊆ W. Dimostrazione. Siano α1 , . . . , αs ∈ K. I vettori α1 w1 , · · · , αs ws ∈ W , poiché W è chiuso rispetto alla moltiplicazione per scalare. W è anche chiuso rispetto alla somma per cui α1 w1 + · · · + αs ws ∈ W. Questo significa che ogni combinazione lineare di w1 , . . . , ws appartiene ancora a W per cui L(w1 , . . . , ws ) = {α1 w1 + · · · + αs ws : α1 , . . . , αs ∈ K} ⊆ W. Definizione 2.20. Siano v1 , . . . , vs ∈ V . Diremo che: a) v1 , . . . , vs sono linearmente dipendenti se esistono α1 , . . . , αs non tutti nulli tali che α1 v1 + · · · + αs vs = 0V ; b) v1 , . . . , vs linearmente indipendenti se non sono linearmente dipendenti, ovvero se α1 v1 + · · · + αs vs = 0V , allora necessariamente α1 = · · · = αs = 0; 42 c) v1 , . . . , vs formano un sistema di generatori se L(v1 , . . . , vs ) = V . Se V ammette un sistema di generatori, diremo che V è finitamente generato. 1 1 0 2 0 1 1 1 Esempio 2.21. In R4 si considerino i vettori 0 , −1 , −3 , −1 . 1 0 1 1 I vettori sono linearmente dipendenti se esistono α1 , . . . , α4 ∈ R non tutti nulli tali che 1 1 0 2 0 0 1 1 1 0 α1 0 + α2 −1 + α3 −3 + α4 −1 = 0 , 1 0 1 1 0 per cui se e solamente se esistono α1 , α2 , α3 , α4 non tutti nulli tali che α1 + α2 + 2α4 0 α2 + α3 + α4 0 −α2 − 3α3 − α4 = 0 . 0 α1 + α3 + α4 Quindi, se il sistema lineare α1 + α2 + 2α4 = 0 α2 + α3 + α4 = 0 . −α 2 − 3α3 − α4 = 0 α1 + α3 + α4 = 0 ammette solzioni ”non banali”, ovvero α1 , α2 , α3 , α4 non tutti nulli che verificano le equazioni anteriori, allora i vettori sono linearmente dipendenti. Altrimenti i vettori sono linearmente indipendenti. 1 0 .. .. Esempio 2.22. Siano e1 = . , . . . , en = . ∈ Kn . Ogni vettore 0 1 X ∈ Kn è combinazione lineare di e1 , . . . , en . Infatti x1 .. . = x1 e1 + · · · + xn en . xn Quindi L(e1 , . . . , en ) = Kn . Si osservi inoltre che i vettori e1 , . . . , en sono linearmente indipendenti. 43 Esempio 2.23. Siano 1, 1 + x, 1 − x + x2 ∈ R2 [x]. Il vettore 1 + x + 3x2 ∈ L(1, 1 + x, 1 − x + x2 ) se esistono α1 , α2 , α3 ∈ R tali che α1 1 + α2 (1 + x) + α3 (1 − x + x2 ) = 1 + x + 3x2 , quindi se e solamente se (α1 + α2 + α3 ) + (α2 − α3 )x + α3 x2 = 1 + x + 3x2 . Quindi, se il sistema lineare α1 + α2 + α3 = 1 α2 − α3 = 1 , α3 = 3 di tre equazioni in tre incognite, ammette soluzioni allora il vettore 1 + x + 3x2 ∈ L(1, 1+x, 1−x+x2 ), altrimenti il vettore non appartiene al sottospazio L(1, 1 + x, 1 − x + x2 ). Esempio 2.24. Sia 1, x, . . . , xn ∈ Kn [x]. È facile verificare che L(1, x, . . . , xn ) = Kn [x]. Inoltre se α0 1 + α1 x + · · · + αn xn = 0Kn [x] , allora α0 = · · · = αn = 0. Esercizio 2.25. Sia V uno spazio vettoriale su K. Allora • v ∈ V è linearmente indipendente se e solamente se v 6= 0V ; • siano v1 , . . . , vn ∈ V . I vettori 0V , v1 , . . . , vn sono linearmente dipendenti. • v, w ∈ V sono linearmenti dipendenti se e solamente se v = λw oppure w = λv per un certo λ ∈ K; • siano u, v, w ∈ V . Supponiamo che u e w sono linearmente indipendenti. Se u, v, w sono linearmente dipendenti, allora u è combinazione lineare dei vettori v e w. • sia B = {v1 , . . . , vn }. Allora: – se v1 , . . . vn sono linearmente indipendenti, allora ogni sottoinsieme di B è costituito da vettori linearmente indipendenti; – se B è un insieme formato da vettori linearmente dipendenti, allora ogni sovrainsieme di B è costituito da vettori linearmente dipendenti; 44 Capitolo 3 Matrici 3.1 Matrici: struttura lineare Definizione 3.2. Una matrice, reale o complessa, di formato m×n è una tabella rettangolare di numeri reali oppure complessi con m righe e n colonne. Quindi mn elementi del tipo: a11 · · · a1n .. .. = (a ) . ij 1 ≤ i ≤ m , . am1 · · · 1≤j ≤n amn dove aij ∈ R oppure aij ∈ C. Esempio 3.3. A= 1 0 3 0 1 3 ∈ M2×3 (R) a11 = 1, a12 = 0, a13 = 3, a21 = 0, a22 = 1, a23 = 3 Sia K = R oppure K = C. L’insieme delle matrici di formato m × n a coefficienti in K verrà indicato con M m×n (K). a11 · · · a1n b11 · · · .. . .. e B = ... Siano A, B ∈ Mm×n (K). Se A = . am1 · · · amn diremo che A = B se aij = bij per ogni 1 ≤ i ≤ m, e 1 ≤ j ≤ n. Sia A ∈ Mm×n (K). Allora a11 a1n A1 = ... , . . . , An = ... am1 amn 45 bm1 · · · b1n .. , . bmn sono le colonne di A; analogamente A1 = [a11 , · · · , a1n ], . . . , Am = [am1 , . . . , amn ], sono le righe di A. Si osservi che le colonne sono vettori di Km mentre le righe le possiamo pensare come vettori di Kn . Iinfine, possiamo pensare ad 1 n una matrice A ∈ Mm×n (K) formata da n colonne A = (A , . . . , A ) oppure A1 .. formata da m righe A = . . Am Esempio 3.4. 1 0 3 A= . 0 1 3 3 0 1 3 2 1 . ,A = ,A = A = 3 1 0 A1 = 1 0 3 , A 2 = 0 1 3 Se n = m, il numero delle righe coincide con il numero delle colonne, allora la matrice A si dirà matrice quatrata di ordine n. Esempio 3.5. 1 −56 3 3 ∈ M3×3 (R). A = 5 11 2 1 −99 Siano A, B ∈ Mm×n (K) e sia λ ∈ K. Possiamo definire la somma e la moltiplicazione per scalare come segue: se A = (aij ) 1 ≤ i ≤ m e B = 1≤j ≤n (bij ) 1 ≤ i ≤ m , definiamo: 1≤j ≤n A + B := (aij + bij ) 1 ≤ i ≤ m 1≤j ≤n λA := (λaij ) 1 ≤ i ≤ m 1≤j ≤n Esempio 3.6. Siano A = 1 0 3 0 1 3 3 1 6 9 1 0 ,B = 2 1 3 9 0 −3 ∈ M2×3 (R), allora A+B = 1+2 0+1 3+3 0+9 1+0 3−3 = 46 , −3A = −3 0 −9 0 −3 −9 . Proposizione 3.7. Mn×m (K) è uno spazio vettoriale su K. 0 ··· 0 Il vettore nullo è la matrice 0Mm×n (K) = ... . . . ... chiamata anche 0 ··· 0 matrice nulla. 3.8 Operazioni sulle matrici a11 · · · .. Sia A ∈ Mm×n (K). La trasposta di A = . am1 · · · matrice AT ∈ Mn×m (K) cosı̀ definita: a1n .. è una . amn AT = (aji ) 1 ≤ j ≤ n . 1≤i≤m La matrice AT si ottiene a partire da A scambiando le righe con le colonne, rispettivamente scambiando le colonne con le righe. 0 1 1 0 3 2 1 , A3 = ,A = . Poiché A = Esempio 3.9. Sia A = 1 0 0 1 3 3 , si ha 3 1 0 AT = 0 1 . 3 3 Proposizione 3.10. Siano A, B ∈ Mm×n (K) e sia λ ∈ K. Allora a) (A + B)T = AT + B T ; b) (λA)T = λAT ; c) (AT )T = A. Se A = (aij ) 1 ≤ i ≤ m ∈ Mm×n (C), definiamo: 1≤j ≤n A = (aij ) 1 ≤ i ≤ m , 1≤j ≤n A∗ = (aji ) 1 ≤ i ≤ m = (A)T = (AT ) 1≤j ≤n La matrice A∗ si chiama l’aggiunta di A. 47 Esempio 3.11. Sia A = 1+i i 3−i i 1 i A= . Allora 1 − i −i 3 + i −i 1 −i . L’aggiunto di A è data da 1 − i −i 1 . A∗ = −i 3 + i −i Proposizione 3.12. Siano A, B ∈ Mm×n (C) e λ ∈ C . Allora a) (A + B) = A + B; b) (λA) = λA; c) A = A; d) (A + B)∗ = A∗ + B ∗ ; e) (λA)∗ = λA∗ ; f ) (A∗ )∗ = A; Da qui in avanti considereremo solamente matrici quadrate. Sia A = (aij ) 1 ≤ i ≤ n ∈ Mn×n (K). Gli elementi a11 , · · · , ann si dicono 1≤j ≤n elementi sulla diagonale principale. a11 ∗ · · · .. . a22 .. .. . . ∗ ··· ··· ∗ .. . .. . ann Una matrice A si dice diagonale se tutti i coefficienti al di fuori dalla diagonale principale sono nulli: se A = (aij ) 1 ≤ i ≤ n è diagonale allora aij = 0 1≤j ≤n se i 6= j. ∗ 0 .. . 0 ∗ 0 ··· ··· .. . ··· 48 0 0 .. . ∗ La matrice nulla è una matrice diagonale. La matrice identità di ordine n, che indicheremo con Idn oppure Id ove fosse chiaro il formato, è la matrice diagonale che ha tutti gli elementi uguali ad 1 sulla diagonale principale: 1 0 ··· 0 0 1 0 .. . .. . . .. 0 ··· ··· 1 La somma di due matrici diagonali è ancora una matrice diagonale per cui l’insieme delle matrici diagonali è chiuso rispetto alla somma. Infatti, ∗ 0 ··· 0 ∗ 0 ··· 0 ∗ 0 ··· 0 0 ∗ 0 0 0 0 ∗ 0 ∗ + = .. . . . . .. . . . . . . . . . . . . . . . . . . . . 0 ··· ··· ∗ 0 ··· ··· ∗ 0 ··· ··· ∗ Analogomente se moltiplichiamo una matrice diagonale per uno scalare il risultato è ancora una matrice diagonale. Quindi l’insieme delle matrici diagonali è un sottospazio vettoriale delle matrici quadrate. Una matrice A si dice triangolare superiore, rispettivamente triangolare inferiore, se tutti gli elementi sotto la diagonale principale sono nulli, rispettivamente sopra la diagonale principale sono nulli. Quindi, se A = (aij ) 1 ≤ i ≤ n , è una matrice triangolare superiore, allora 1≤j ≤n ∗ ∗ ∗ 0 ∗ ∗ .. .. . A= . 0 ··· ··· ··· .. . .. . 0 ∗ ∗ .. . : ∗ ∗ aij = 0 quando i > j. Se A = (aij ) 1 ≤ i ≤ n è triangolare inferiore, allora 1≤j ≤n ∗ ∗ A= ∗ .. . ∗ 0 ··· ∗ . ∗ .. .. . . . . ∗ ··· 49 0 .. . .. . 0 ∗ ∗ aij = 0 quando i < j. L’insieme della matrici triangolari superiori, rispettivamente triangolari inferiori, è chiuso rispetto alla somma ed è chiuso rispetto alla moltiplicazione per scalare Mn×n (K) per cui sono sottospazi vettoriali. Diamo una prova quasi rigorosa che la somma di matrici triangolari superiori è ancora una matrice triangolare superiore e motiplicando per uno scalare una matrice triangolare inferiore si ottiene una matrice triangolare inferiore, lasciando le altre verifiche per esercizio. ∗ ∗ ··· ∗ ∗ ∗ ··· ∗ ∗ ∗ ··· ∗ 0 ∗ ··· ∗ 0 ∗ ··· ∗ 0 ∗ ··· ∗ .. .. . .. = .. .. + .. . . . . . . . . . . . . . . . 0 ··· 0 ∗ 0 ··· 0 ∗ 0 ··· 0 ∗ Sia λ ∈ K. Allora ∗ ∗ λ . .. 0 ∗ ··· ··· .. . 0 λ∗ λ∗ 0 .. = .. . . ∗ ··· ∗ ∗ 0 λ∗ ··· ··· .. . 0 0 .. . λ∗ · · · λ∗ λ∗ . Sia A ∈ Mn×n (K). Allora AT ∈ Mn×n (K). In dettaglio, se ∗ ∗ ··· ∗ ∗ ∗ ··· ∗ .. , A = ... . · ∗ ∗ ··· ∗ ∗ allora ∗ ∗ ∗ ∗ AT = ... · ∗ ··· ··· ··· ∗ ∗ ∗ .. . . ∗ ∗ Quindi la diagonale principale di A coincide con la diagonale principale di AT . Sia A ∈ Mn×n (R). Diremo che A è simmetrica se A = AT . Diremo che A è antisimmetrica se A = −AT . Se A = (aij ) 1 ≤ i ≤ n , allora A è simmetrica, 1≤j ≤n 50 rispettivamente antisimmetrica, se e solamente se aij = aji , rispettivamente aij = −aji , per ogni 1 ≤ i, j ≤ n. Se A è simmetrica, allora ∗ ∗ ··· ∗ ∗ ∗ ··· ∗ .. , A = ... . · ∗ ∗ ··· ∗ ∗ mentre se A è antisimmetrica, allora 0 ∗ −∗ 0 A = ... · −∗ · · · ∗ ∗ .. , . ∗ −∗ 0. ··· ··· Gli elementi sulla diagonale principale di una matrice anti-simmetrica sono tutti nulli poiché in generale, la diagonale principale di AT e A coincidono. Quindi, se A = −AT , necessariamente gli elementi sulla diagonale principale sono tutti nulli. 0 1 1 1 è è simmetrica mentre Esempio 3.13. La matrice −1 0 1 2 antisimmetrica. L’insieme delle matrici simmetriche, rispettivamente antisimmetriche, è un sottospazio vettoriale di Mn×n (R). Proveremo, solamente, che la somma di due matrici simmetriche è ancora una matrice simmetrica e che moltiplicando una matrice antisimmetrica per uno scalare ottengo ancora una matrice antisimmetriche, lasciando per esercizio le altre verifiche. Siano A, B ∈ Mn×n (R) tali che A = AT e B = B T . La tesi è che (A + B)T = A + B. Applicando le proprietà della trasposta si ha (A + B)T = AT + B T = A + B. Sia A ∈ Mn×n (R) antisimmetrica e sia λ ∈ R. L’ipotesi è A = −AT ; la tesi è (λA)T = −λA. (λA)T = λAT = −λA. Diremo che una matrice a coefficienti complessi A ∈ Mn×n (C) è Hermitiana (auto-aggiunta), rispettivamente anti-Hermitiana (anti-autoggiunta), 51 se A = A∗ , rispettivamente A = −A∗ . Se A = (aij ) 1 ≤ i ≤ n è Hermitia1≤j ≤n na allora aij = aji per ogni 1 ≤ i, j ≤ n, mentre se A = (aij ) 1 ≤ i ≤ n è 1≤j ≤n anti-Hermitiana, allora aij = −aji per ogni 1 ≤ i, j ≤ n. ∗ ∗ ··· ∗ ∗ ∗ ··· ∗ .. , A = ... . · ∗ ∗ ··· ∗ ∗ allora ∗ ∗ ∗ ∗ A∗ = ... · ∗ ··· ··· ··· ∗ ∗ ∗ .. . . ∗ ∗ Se A è Hermitiana, allora ∗ ∗ ∗ ∗ A = ... · ∗ ··· ··· ··· ∗ ∗ ∗ .. , . ∗ ∗ e gli elementi sulla diagonale principale sono numeri reali. Se A è antiHermitiana, allora ∗ ∗ ··· ∗ −∗ ∗ · · · ∗ .. , A = ... . · ∗ −∗ · · · −∗ ∗ e gli elementi sulla diagonale principale sono immaginari puri. 1 1+i Esempio 3.14. La matrice è Hermitiana mentre la ma1 − i −4 −i 1 − 3i trice è anti-Hermitiana. −1 − 3i 7i 52 La somma di matrici Hermitiane, rispettivamente anti-Hermitiane, è ancora una matrice Hermitiana, rispettivamente anti-Hermitiana (verificare per esercizio). Tuttavia, l’insieme delle metrici Hermitiane (anti-Hermitiane) non è chiuso rispetto alla moltiplicazione per scalare. Infatti è possibile dimostrare che una matrice A è Hermitiana se e solamente se iA è antiHermitiana. Definizione 3.15. Sia A ∈ Mn×n (K). La traccia di A è la somma degli elementi sulla diagonale principale. Se A = (aij ) 1 ≤ i ≤ n , allora Tr(A)= 1≤j ≤n Pn i=1 aii ∈ K. Proposizione 3.16. Siano A, B matrici quadrate di ordine n e sia λ ∈ K. Allora a) Tr(A + B) = Tr(A) + Tr(B); b) Tr(λA) = λTr(A); c) Tr(A) = Tr(AT ); d) se A ∈ Mn×n (C), allora Tr(A∗ ) = Tr(A). 3.16.1 Prodotto di matrici Sia K = R oppure C. Date le matrici A ∈ Mm×p (K) e B ∈ Mp×n (K), dove il numero delle colonne di A è uguale al numero delle righe di B, il prodotto AB ∈ Mm×n (K), chiamato prodotto righe per colonna è cosı̀ definito: se A = (aij ) 1 ≤ j ≤ m , B = (bij ) 1 ≤ i ≤ p 1≤j ≤p 1≤j ≤m allora AB = C = (cij ) 1 ≤ i ≤ m ∈ Mm×n (K), dove 1≤j ≤n cij = p X aih bhj . h=1 Esempio 3.17. 1 0 2 0 2 −3 −1 2 −3 −6 2 0 = . 7 12 −1 −4 53 Il prodotto definisce un’applicazione Mm×p (K) × Mp×n (K) −→ Mm×n (K) (A, B) 7→ AB Può succedere che la matrice AB sia definita mentre BA non sia definita. Per esempio se A ∈ M3×4 (R) e B ∈ M4×2 (R), allora AB è definita mentre BA no. Se A ∈ Mn×m (K) e B ∈ Mm×n (K), con n 6= m, allora le matrici AB e BA non sono confrontabili. La domanda se il produtto di due matrici è commutativo ha senso solo se consideriamo matrici quadrate dello stesso ordine. Il prossimo esempio dimostra che il prodotto di matrici non è commutativo per cui, generalmente, AB 6= BA. È anche possibile che AB = 0Mn×n (K) benché le matrici A e B non siano la matrice nulla. 1 0 0 1 . Allora: ,C= Esempio 3.18. Siano A = 0 0 0 0 0 0 • AC = ; 0 0 • CA = A; 0 0 ; • AA = 0 0 • CC = C; Sia A = (aij ) 1 ≤ i ≤ n e sia p ∈ N. Definiamo Ap = A · · A} se p > 0. Il | ·{z 1≤j ≤n p prodotto di matrici gode delle seguenti proprietà. Proposizione 3.19. Sia A ∈ Mm×n (K), B, C ∈ Mn×p (K), D ∈ Mp×q (K) e λ ∈ K. Allora a) A Idn = A e Idn B = B; b) A(BD) = (AB)D; c) A(B + C) = AB + AC; d) (B + C)D = BD + CD; e) A(λB) = (λA)B = λ(AB); f ) (AB)T = B T AT ; g) se K = C, allora (AB)∗ = B ∗ A∗ . 54 Dimostrazione. Dimostriamo solamente che (AB)T = B T AT . Poiché B T ∈ Mp×n (K) e AT ∈ Mn×m (K) il prodotto B T AT è ben definito ed il risultato è una matrice di formato p × m come (AB)T . Poniamo B T = (bT ij ) 1 ≤ i ≤ p 1≤j ≤n e AT = (aT ij ) 1≤i≤n 1≤j ≤m . Sia C = (AB)T . Poiché (AB)ij = n X ail blj , l=1 dove (AB)ij è l’elemento che si trova sulla i-esima riga e sulla j-esima colonna della matrice AB, si ha cij = (AB)ji = n X ajl bli = l=1 n X bTil aTlj = (B T AT )ij , l=1 dove (B T AT )ij è l’elemento che si trova sulla j riga e sulla i colonna della matrice B T AT , per cui (AB)T = B T AT . Osservazione 3.20. Molti studenti confondono la proprietà (f ) con l’uguaglianza (AB)T = AT B T . Vorrei porre all’attenzione che oltre ad essere sbagliata, la matrice AT B T non è sempre definita. Infatti, se A ∈ M4×2 (K) e B ∈ M2×3 (K), allora AT B T non è definita poiché il numero di colonne della matrice AT è 2 che non coincide con il numero delle righe della matrice B T è 3. Osservazione 3.21. Sia A ∈ Mm×p (K) e sia B ∈ Mp×n (K). Allora AB ∈ Mm×n (K). Sia 1 ≤ k ≤ n. Allora (AB)k = AB k . Infatti Pp l=1 a1l blk a11 · · · .. .. .. . . Pp . k (AB) = l=1 ail blk = .. . .. . Pp am1 · · · l=1 aml blk Analogamente, se 1 ≤ k ≤ m, si ha (AB)k = Ak B. 55 ··· .. . ··· a1p b1k .. .. . . = AB k .. .. . . bpk amp Infatti Pp l=1 akl bl1 (AB)k = ··· Pp l=1 akl bli = ak1 · · · ··· Pp ··· b11 · · · .. . . . . akp .. . bp1 · · · l=1 akl bln ··· .. . ··· b1n .. . .. = Ak B . bpn 1 0 .. .. Siano e1 = . , . . . , en = . ∈ Kn e sia A ∈ Mm×n (K). Allora 0 1 a11 · · · a21 · · · .. .. . Aei = . .. .. . . am1 · · · a1i a1n 0 . .. a2n . .. .. 1 = .. . = Ai . .. . . .. ... amn 0 ami a1i · · · a2i · · · .. .. . . .. .. . . ami · · · Analogamente, se B ∈ Mn×m (K), allora eTi B = Bi , per i = 1, . . . , m. Proposizione 3.22. Sia A ∈ Mm×p (K) e B ∈ Mp×m (K). Allora Tr(AB) = Tr(BA). Dimostrazione. Tr(AB) = p m X X akj bjk = k=1 j=1 p X m X bkj ajk j=1 k=1 = Tr(BA). 3.23 Matrici invertibili In questa sezione tratteremo solamente matrici quadrate. 56 Definizione 3.24. Una matrice A quadrata di ordine n si dice invertibile se esiste un matrice quadrata B di ordine n tale che AB = BA = Idn . Proposizione 3.25. a) esistono matrici diverse da zero che non sono invertibili; b) se A è invertibile, allora esiste una unica B tale che AB = BA = Idn . B si dice l’inversa di A e si pone B = A−1 ; c) (A−1 )−1 = A d) se A, B sono matrici invertibili, tali sono AB e BA e (AB)−1 = B −1 A−1 , (BA)−1 = A−1 B −1 . e) se A è invertibile, allora AT è invertibile e la sua iversa è (AT )−1 = (A−1 )T ; f ) se A ∈ Mn×n (C) è invertibile, allora A∗ è invertibile e (A∗ )−1 = (A−1 )∗ . 0 1 . Allora A2 = 0. Se esistesse B tale che Dimostrazione. Sia A = 0 0 AB = Id2 , allora 0 = A2 B = A(AB) = A, assurdo. Sia A ∈ Mn×n (K) e siano B, B 0 ∈ Mn×n (K) tali che AB = BA = AB 0 = B 0 A = Idn . Allora B = BIdn = B(AB 0 ) = (BA)B 0 = B 0 . Le rimanenti proprietà sono lasciate per esercizio. Osservazione 3.26. Nonostante che il prodotto fra matrici non sia commutativo, si può dimostrare che se A, B sono matrici quadrate di ordine n tali che AB = Idn , allora A è invertibile e B è l’inversa di A. Dalla proposizione anteriore segue che il prodotto di matrici invertibili è ancora una matrice invertibile per cui l’insieme GL(n, K) = {A ∈ Mn×n (K) : A è invertibile } è chiuso rispetto al prodotto e l’inverso, i.e., è un gruppo non commutativo, ed è chiamto gruppo lineare generale. 57 Sia A una matrice invertibile e sia n ∈ Z non positivo. Definiamo: A0 = Idn ; se n < 0, definiamo An := (A−1 )−n . È facile verificare che per ogni n, m ∈ Z si ha An+m = An Am = Am An . Definizione 3.27. Una matrice A ∈ Mn×n (R) si dice ortogonale se AT = A−1 per cui AAT = AT A = Idn Definizione 3.28. Una matrice A ∈ Mn×n (C) si dice unitaria se AA∗ = A∗ A = Idn . Si può dimostrare che il prodotto di matrici ortogonali, rispettivamente unitarie, è ancora una matrice ortogonale, rispettivamente una matrice unitaria. Dalla definzione segue direttamente che l’inversa di una matrice ortogonale, rispettivamente unitaria, è ancora una matrice ortogonale, rispettivamente unitaria. Invece la somma di matrici ortogonali, rispettivamente unitarie, non è un generale una matrice ortogonale, rispettivamente unitaria. 3.29 Determinante Ad ogni matrice quadrata A ∈ Mn×n (K), dove K = R oppure C, possiamo associare un scalare, chiamato il determinante di A, definito come segue: se A = (a) ∈ M1×1 (K), allora det(A) = a. Supponiamo di averlo definito per matrici di ordine n − 1. Definiamo det(A) = n X (−1)j+1 aj1 det(Aj1 ) ∈ K, j=1 dove Aj1 è una matrice di ordine n − 1 × n − 1 che si ottiene da A eliminando la j−esima riga e la 1 colonna. Questa formula è detta lo sviluppo di Laplace secondo la prima colonna. Esempio 3.30. 1 −1 4 A = −2 3 1 , 0 3 0 Allora A11 = 3 1 3 0 , A21 = −1 4 3 0 , A31 = e det(A) = 1 det(A11 ) + 2 det(A21 ) = −3 − 24 = −27. 58 −1 4 3 1 , Vediamoalcuni casiparticolari. a11 a12 Se A = , allora det A = a11 a22 − a12 a21 . a21 a22 a11 a12 a13 Se a21 a22 a23 , allora a31 a32 a33 det A = a11 a22 a33 − a11 a23 a32 − a21 a12 a33 + a21 a13 a32 + a31 a12 a23 − a31 a13 a22 . Se a11 ∗ · · · 0 a22 · · · A= . .. .. . 0 ··· 0 ∗ ∗ .. . , ann è triangolare superiore, allora det A = a11 · · · · · · ann . Proprietà del Determinante 1 det(A) = det(AT ); 2 A = (A1 , . . . , An ). Allora det(A1 , . . . , λAi , . . . , An ) = λ det(A1 , . . . , An ), per ogni 1 ≤ i ≤ n e per ogni λ ∈ K; 3 det(A1 , . . . , Ai + B i , . . . , An ) = det(A1 , . . . , Ai , . . . An ) + det(A1 , . . . , B i , . . . , An ), per ogni 1 ≤ i ≤ n, i.e., è additivo su ogni colonna; 4 det(A) = 0 se la matrice A ha due colonne uguali; 5 dalla [2] segue che det(A) = 0 se la matrice A ha una colonna fatta tutta da zeri; 6 [3] e [4] implicano che il determinante di una matrice cambia di segno se si scambiano due colonne; 7 [3] e [2] implicano che il valore del determinante non cambia sommando ad una colonna un multiplo di un altra colonna. Ovvero, se A = (A1 , . . . , An ) allora per ogni 1 ≤ i, j ≤ n, i 6= j e λ ∈ K si ha det(A) = det(A1 , . . . , Ai + λAj , . . . , An ); 59 8 det(AB) = det(A) det(B) (Formula di Binet). Osservazione 3.31. • da [1] segue che il determinante di una matrice triangolare inferiore è il prodotto degli elementi sulla diagonale principale, • det(Idn ) = 1; • si può dimostrare che le proprietà [1], . . . , [7] valgano anche per le righe; • da [1] segue che il determinante si può calcolare attraverso lo sviluppo di Laplace secondo la 1 riga: n X det(A) = (−1)j+1 a1j det(A1j ), j=1 dove A1j è la matrice quadrata di formato n − 1 che si ottiene da A eliminando la 1 riga e la j-esima colonna. Si può dimostrare che il determinante si può calcolare attraverso lo sviluppo di Laplace secondo la k−esima colonna, det(A) = n X (−1)j+k ajk det(Ajk ), j=1 oppure rispetto alla k−esima riga det(A) = n X (−1)j+k akj det(Akj ), j=1 dove Aαβ è una matrice di ordine n − 1 × n − 1 che si ottiene da A eliminando la α−esima riga e la β-esima colonna. Definizione 3.32. Una matrice A ∈ Mn×n (K) si dice singolare, rispettivamente non singolare, se det(A) = 0, rispettivamente det(A) 6= 0. Proposizione 3.33. Una matrice A è invertibile se e solamente se det(A) 6= 1 0 ovvero se e solamente se A è non singolare. Inoltre det(A−1 ) = det(A) . Dimostrazione. Se A è invertibile, allora esiste A−1 tale che AA−1 = Idn . Applicando la formula di Binet si ottiene che det(A) det(A−1 ) = 1, 60 1 da cui segue det(A) 6= 0 e det(A−1 ) = det(A) . Viceversa, supponiamo che det(A) 6= 0. Definiamo la matrice B di ordine n come segue: bij = (−1)i+j det(Aji )/ det(A), dove, nuovamente, Aji è la matrice che ottengo da A eliminando la j-esima riga e le i-esima colonna. Si può dimostrare che AB = BA = Idn , ovvero B = A−1 . Corollario 3.34. Se A è una matrice ortogonale, allora | det(A)| = 1 Dimostrazione. Sia A ∈ Mn×n (R) una matrice ortogonale. Allora AAT = 1. Applicando il teorema di Binet, otteniamo 1 = det(A) det(AT ) = [det(A)]2 , dove l’ultima uguaglianza segue dalla proprietà det(A) = det(AT ), concludendo la dimostrazione. Corollario 3.35. Se A è una matrice unitaria, allora | det(A)| = 1. Dimostrazione. 1 = det(A) det(A∗ ) = det(A)det(A) = | det(A)|2 3.36 Rango di una matrice Sia A ∈ Mm×n (K) dove K = R oppure K = C. Un minore di ordine p di A è una matrice di formato p × p che si ottiene cancellando m − p righe e n − p colonne dalla matrice A. Analogamente, possiamo definire un minore di A selezionando p righe e p colonne. Se 1 −1 4 −1 A = 4 −2 3 1 ∈ M3×4 (R). 0 3 0 5 eliminando la 1 riga e la 3 e 4 colonna, oppure selezionando la 2 e 3 riga e la 1 e 2 colonna, otteniamo il minore 4 −2 ∈ M2×2 (R). 0 3 61 Eliminando la 2 colonna, oppure selzionando la 1, 3 e 4 colonna e la 1, 2 e 3 colonna, otteneniamo il minore 1 4 −1 4 3 1 ∈ M3×3 (R). 0 0 5 Diremo che il rango per minori, che indicheremo con rg(A), è r se: a) ∃ un minore di A di ordine r con determinante 6= 0; b) r = m o r = n oppure tutti i minori di ordine r + 1 sono singolari; Dalla definizione di rango per minori segue che rg(A) ≤ min(m, n). Se A è una matrice quadrata, allora vale il seguente risultato. Proposizione 3.37. A ∈ Mn×n (K) è non singolare se e solamente se rg(A) = n. Sia A0 una minore di A ottenuta cancellando m − p righe e n − p colonne dalla matrice A. Se ad A0 aggiungiamo un altra riga ed un altra colonna di A diremo che stiamo orlando A0 . È possibile dimostrare il seguente fatto. Teorema 3.38 (orlati). Il rango per minori della matrice A è uguale ad r se e solamente se esiste una minore M di ordine r non singolare ed r = min(m, n) oppure tutti minori di A di ordine r+1 che contengono M , ovvero tutti i minori di A che ottengo orlando M , sono singolari. Come per il determinate, effettuando operazioni sulle righe e/o sulle colonne di una matrice A, il rango non cambia. Definizione 3.39. Sia A ∈ Mm×n (K). Si chiamano operazione elementari di riga (colonna): a) scambiare di posto due righe (colonna); b) sommare ad una riga (colonna) un multiplo di un altra; c) moltiplicare una riga (colonna) per uno scalare non nullo. Proposizione 3.40. Il rango di una matrice non cambia se si effetuano operazioni elementari di righe, rispettivamente colonne. 62 Idea. Sia A ∈ Mn×m (K) e sia à la matrice ottenuta attraverso una operazione elementare sulle righe, rispettivamente colonne, di A. Sia M un minore di Ã. Allora M è anche un minore di A oppure è un minore di A sul quale è stato effettuata una operazione elementare di riga, rispettiavemente colonna. Quindi il valore del determinante o rimane inalterato oppure cambia di segno, per cui il rango per minore non cambia. Il prossimo risultato caratterizza il rango per minori di una matrice A in termini delle righe, rispettivamente colonne, della matrice A. Teorema 3.41. Sia A ∈ Mm×n (K) dove K = R oppure K = C. Il rango per minori di A coincide con il massimo numero di colonne linearmente indipendenti, rispettivamente massimo numero di righe linearmente indipendenti. In particolare rg(A) = rg(AT ). Possiamo, quindi, unificare le nozioni precedenti nella seguente definizione. Definizione 3.42. Sia A ∈ Mm×n (K). Il rango di A, che indicheremo con rg(A), è il rango per minori di A, ovvero il massimo numero di colonne linearmente indipendenti, rispettivamente massimo numero di righe linearmente indipendenti 3.43 Matrice ridotta a scala e algoritmo di Gauss Nella sezione anteriore abbiamo introdotto il concetto di rango di una matrice ma non abbiamo ancora visto nessuna tecnica per il calcolo esplicito del rango di una matrice. In questo sezione proveremo come l’algoritmo di Gauss possa essere utilizzato per il calcolo del rango di una matrice. Una matrice di ordine m × n siffatta 0 · · · 0 s1j1 ∗ ∗ ∗ ··· ··· ∗ ··· ··· ··· ∗ 0 ··· ··· 0 · · · 0 s2j2 ∗ ∗ ··· ··· ··· ∗ ∗ 0 ··· ··· ··· ··· ··· 0 · · · s ∗ · · · · · · · · · ∗ 3j 3 .. .. . ··· ··· ··· ··· ··· ··· . 0 0 ··· ··· ··· ∗ .. . . . ··· ··· ··· ··· ··· ··· ··· ··· . ··· 0 ∗ ∗ 0 · · · · · · · · · · · · · · · · · · · · · · · · · · · 0 srjr · · · ∗ 0 ··· ··· ··· ··· ··· ··· ··· ··· ··· 0 0 ··· 0 . .. .. .. .. .. .. .. .. .. .. .. .. .. .. . . . . . . . . . . . . . .. .. .. .. .. .. .. .. .. .. .. .. .. .. . . . . . . . . . . . . . . 0 ··· ··· ··· ··· ··· ··· ··· 63 ··· ··· 0 ··· ··· 0 si dice una matrice ridotta a scala. I numeri s1j1 , . . . , sr,jr sono non nulli e si chiamano perni, pivot, oppure elementi di testa. Il numero dei perni coincide con il numero di righe differenti di zero. Esempio 3.44. 0 0 S= 0 0 0 1 0 0 0 0 2 0 0 0 0 3 4 5 1 −1 1 0 1 1 ∈ M5×6 (R) 0 0 0 0 0 0 I perni sono: s12 = 1, s24 = 1 ed s3,5 = 4. Proposizione 3.45. Sia S ∈ Mm×n (K) una matrice ridotta a scala. Allora rg(S) è uguale al numero di righe differenti da zero o equivalentemente al numero di perni. Inoltre le colonne corrispondenti ai perni sono vettori linearmente indipendenti. Dimostrazione. Una matrice ridotta a scala ha r righe differenti da zero. Quindi rg(S) ≤ r. Sia M il minore di S di ordine r formato dalle colonne S j1 , . . . , S jr e dalle righe S1 , . . . , Sr , ovvero s1j1 ∗ ··· ··· ∗ 0 s2j ∗ ··· ∗ 2 .. .. .. . 0 . M = . .. .. .. .. . . . . 0 · · · · · · · · · srjr Poiché det M = s1j1 · · · srjr 6= 0 si ha r ≤ rg(S). Quindi rg(S) = r. Siano S j1 , . . . , S jr le colonne corrispondenti ai perni. Sia A = (S j1 , . . . , S jr ) ∈ Mm×r (K) s1j1 ∗ ··· ··· ∗ 0 s2j ∗ ··· ∗ 2 .. .. . . . . 0 . .. .. .. .. . . . . . . . . 0 · · · · · · · · · srjr 0 · · · · · · · · · 0 .. .. .. .. .. . . . . . 0 ··· ··· 64 ··· 0 Sia, nuovamente, M il minore formato di formato r × r ottenunto da A eliminando le ultime m − r righe, ovvero ∗ ··· ··· ∗ s1j1 0 s2j ∗ ··· ∗ 2 .. .. .. . 0 . M = . . .. .. .. . . .. .. . . . 0 · · · · · · · · · srjr Poiché srjr , . . . , s1j1 sono tutti non nulli si ha che det M 6= 0, ovvero rg(A) ≥ r. Poiché A ∈ Mm×r (K), si ha che rg(A) = r e quindi S j1 , . . . , S jr sono linearmente indipendenti. Teorema 3.46. Ogni matrice A può essere ridotta in forma a scala mediante operazioni elementari di righe. Dimostrazione. Sia A = (A1 , . . . , An ). Passo 1 sia 1 ≤ j1 ≤ n il più piccolo intero affinché Aj1 6= 0. Passo 2 Se a1j1 è nullo, allora scambiamo due righe in modo che l’elemento a1j1 6= 0. Quindi la matrice A, dopo aver effettuato eventualmente una operazione elementare di riga, ha la seguente forma: 0 · · · 0 a1j1 · · · .. .. .. .. .. . . . . . .. .. .. .. .. . . . . . 0 · · · 0 amjk · · · Il nostro obbiettivo è quello di passare, attraverso operazioni elementari di righe, ad una matrice i cui elementi sulla colonna Aj1 sotto il primo elemento a1j1 siano tutti nulli. Alla k-riga Ak , k ≥ 2, sottraggo −akj1 /a1,j1 A1 , ottenedo la matrice: 0 · · · 0 a1j1 ∗ ··· ··· ∗ A1 0 ··· 0 0 a2,j1 +1 · · · · · · a2n A2 − a2j /a1j A1 .. .. .. .. .. .. .. 1 k . . . . . . . .. . .. .. .. .. .. .. .. = . . . . . . . .. . .. .. .. .. 0 ··· 0 0 . . . . Am − amj1 /a1j1 A1 0 · · · 0 0 amj1 +1 · · · · · · amn 65 Quindi 0 ··· . .. A= . .. .. . ··· 0 a1j1 .. . 0 .. .. . . 0 ∗ ··· B ∗ 0 dove B ∈ Mm−1×(n−(j1 +1)) (R). Se B è la matrice nulla oppure A ∈ M1×n (R), allora ho finito. Altrimenti ripeto lo stesso procedimento per la matrice B. Dopo un numero finito di passi, arriviamo ad una matrice le cui ultime righe sono nulle; oppure in cui l’ultimo elemento di testa appartiene all’ultima riga. In entrambi i casi abbiamo ridotto a scala la matrice di partenza A. Il metodo anteriore è chiamato metodo di Gauss oppure metodo di eliminazione di Gauss e permette di ridurre una matrice a scala attraverso operazioni elementari di riga. Corollario 3.47. Sia A una matrice ed S una sua riduzione a scala. Allora rg(A) = rg(S) per cui il rango di una matrice è uguale al numero di elementi di testa di una sua riduzione a scala; uguale al numero di righe non nulle di una sua riduzione a scala. Dimostrazione. Poiché S è ottenuta da A attraverso operazioni elementari di righe si ha rg(A) = rg(S). 66 Capitolo 4 Sistemi Lineari 4.1 Sistemi lineari e matrici Studiando i sistemi lineari, i problemi principali che vogliamo risolvere sono: quando un sistema ammette soluzioni; se le ammette, quante sono; come si trovano. In questa sezione con K intendiamo R oppure C. La forma generale di un sistema di m equazioni in n-incognite: a11 x1 + · · · + a1n xn = b1 .. .. (4.1) . . am1 x1 + · · · + amn xn = bm I termini b1 , . . . bm sono i termini noti, (aij ) 1 ≤ i ≤ m i coefficienti del sistema, 1≤j ≤n x1 , . . . xn le incognite, o variabili, del sistema lineare. Se tutti i termini noti sono uguali a zero, il sistema si dice omogeneo. Definizione 4.2. Una soluzione del sistema (4.1 ) è una n−pla di numeri v1 , . . . vn che sostituiti ordinatamente alle incognite x1 , . . . , xn soddisfano le equazioni del sistema. Scriviamo un sistema lineare in forma matriciale. Sia b1 x1 A = (aij ) 1 ≤ i ≤ m , b = ... , X = ... . 1≤j ≤n bm Allora un sistema lineare ha la forma (4.2) AX = b, 67 xn dove A ∈ Mm×n (K) è chiamata matrice incompleta oppure matrice dei coefficienti, b vettore dei termini noti ed infine X vettore delle incognite. La matrice (A|b) ∈ Mm×(n+1) (K) che si ottiene aggiungendo ad A il vettore dei termini noti, si chiama la matrice completa. In questo linguaggio Sol(A|b) = {Y ∈ Kn : AY = b} è l’insieme delle soluzione del sistema lineare AX = b. Un sistema lineare AX = b si dice compatibile oppure risolubile se Sol(A|b) 6= ∅;incompatibile altrimenti. x1 1 0 .. .. .. Sia X = . e siano e1 = . , . . . , en = . ∈ Kn . Poiché xn 0 1 X = x1 e 1 + · · · + xn e n , si ha AX = A(x1 e1 + · · · + xn en ) = x1 Ae1 + · · · + xn Aen = x 1 A1 + · · · + x n An , per cui il sistema AX = b è compatibile se e solamente se b è combinazione lineare dei vettori A1 , . . . , An Un sistema lineare omogeneo è sempre compatibile o risolubile poiché ammette come soluzione il vettore nullo 0Kn ∈ Kn . Inoltre vale il seguente risultato. Proposizione 4.3. Sia A ∈ Mm×n (K) e sia AX = 0Km un sistema lineare omogeneo. Allora Sol(A|0Km ) = {Y ∈ Kn : AY = 0Km } è un sottospazio vettoriale di Kn . Proposizione 4.4. Sia A ∈ Mm×n (K) e sia AX = 0Km un sistema lineare omogeneo. Allora Sol(A|0Km ) = {Y ∈ Kn : AY = 0Km } è un sottospazio vettoriale di Kn . Dimostrazione. Siano Y1 , Y2 ∈ Sol(A|0Km ) e sia λ ∈ K. Allora A(Y1 + Y2 ) = AY1 + AY2 = 0Km , rispettivamente A(λY1 ) = λAY1 = 0Km . Quindi Y1 + Y2 , λY1 ∈ Sol(A|0Km ) per ogni Y1 , Y2 ∈ Sol(A|0Km ) e per ogni λ ∈ K. 68 Esercizio 4.5. Sia AX = b un sistema lineare di m equazioni in n incognite. Se b 6= 0Km , allora Sol(A|b) non è un sottospazio vettoriale di Kn . Sia AX = b un sistema lineare di m equazioni in n incognite. Diremo che il sistema omogeneo AX = 0Km è il sistema lineare omogeneo associato a AX = b. Teorema 4.6 (teorema di struttura). Sia AX = b un sistema lineare compatibile. Sia Xo una soluzione particolare del sistema AX = b. Allora ogni altra soluzione del sistema lineare AX = b è della forma Xo + W , dove W è una soluzione del sistema lineare omogeneo associato AX = 0Km ; Quindi Sol(A|b) = {Xo + W, W ∈ Sol(A|0Km )}. Facoltativa. Indichiamo con E = {Xo + W, X ∈ Sol(A|0Km )}. Vogliamo dimostrare che E = Sol(A|b). Sia Y ∈ Sol(A|b). Allora A(Y − Xo ) = AX − AXo = b − b = 0Km , ovvero Y − Xo è soluzione del sistema lineare omogeneo associato, da cui segue che Y − Xo ∈ Sol(A|0Km ), cioé Y = Xo + W per un certo W ∈ Sol(A|0Km ). Quindi Sol(A|b) ⊆ E. Viceversa, ogni elemento di E è della forma Xo + W , dove W è una soluzione del sistema lineare omogeneo associato. Allora A(Xo + W ) = AXo + AW = b + 0Km = b, da cui segue che E ⊆ Sol(A|b). Quindi Sol(A|b) = {Xo +X, X ∈ Sol(A|0Km )}. Definizione 4.7. Siano A ∈ Mm×n (K), B ∈ Mm0 ×n (K). Diremo che i due sistemi lineari AX = b e A0 X = c si dicono equivalenti se Sol(A|b) = Sol(A0 |c), i.e., se hanno le stesse soluzioni. Osservazione 4.8. Sia AX = b un sistema lineare. Se scambio due righe alla matrice (A|b), il sistema lineare associato è equivalente al sistema di partenza AX = b. Definizione 4.9. Date due equazioni a1 x1 + · · · + an xn = a e b1 x1 + · · · + bn xn = b, si dice combinazione lineare delle due equazioni a coefficienti h, k ∈ K, l’equazione h(a1 x1 + · · · + an xn ) + k(b1 x1 + · · · + bn xn ) = ha + kb. Lemma 4.10. Si consideri il sistema lineare a1 x1 + · · · + an xn = a (4.3) b1 x1 + · · · + bn xn = b 69 Siano h, k ∈ K con k 6= 0. Il sistema lineare (4.3) é equivalente al sistema lineare a1 x1 + · · · + an xn = a h(a1 x1 + · · · + an xn ) + k(b1 x1 + · · · + bn xn ) = ha + kb v1 Facoltativa. Sia v = ... una soluzione del sistema (4.3). Allora vn a1 v1 + · · · + an vn = a , b1 v1 + · · · + bn vn = b per cui h(a1 v1 + · · · + an vn ) + k(b1 v1 + · · · + bn vn ) = ha + kb. Quindi v è soluzione del sistema a1 x1 + · · · + an xn = a h(a1 x1 + · · · + an xn ) + k(b1 x1 + · · · + bn xn ) = ha + kb v1 Viceversa, sia v = ... una soluzione del sistema vn a1 x1 + · · · + an xn = a , h(a1 x1 + · · · + an xn ) + k(b1 x1 + · · · + bn xn ) = ha + kb per cui a1 v1 + · · · + an vn = a h(a1 v1 + · · · + an vn ) + k(b1 v1 + · · · + bn vn ) = ha + kb. Quindi k(b1 v1 + · · · + bn vn ) = kb. Poiché k 6= 0, si ha b1 v1 + · · · + bn vn = b, da cui segue che v è una soluzione del sistema (4.3). Corollario 4.11. Sia AX = d un sistema lineare contenente le equazioni a1 x1 + · · · + an xn = a . b1 x1 + · · · + bn xn = b Sia BX = d˜ il sistema lineare ottenuto sostituendo in AX = d l’equazione h(a1 x1 + · · · + an xn ) + k(b1 x1 + · · · + bn xn ) = ha + kb 70 al posto dell’equazione b1 x1 + · · · + bn xn = b , dove h, k ∈ K con k 6= 0. Allora i sistemi AX = d e BX = d˜ sono equivalenti. Facoltativa. Sia (A|d) ∈ Mm×(n+1) (K) la matrice completa. A meno di scambiare le righe possiamo supporre che le equazioni a1 x1 + · · · + an xn = a . b1 x1 + · · · + bn xn = b siano la 1 e la 2 equazione rispettivamente del sistema lineare AX = d, per cui la matrice completa è cosı̀ siffatta: a1 · · · an a b1 · · · bn b (A|d) = . . . .. . . . . . . . . ··· ··· ··· ··· Quindi a1 ··· ka1 + kb1 · · · ˜ = (B|d) .. .. . . ··· ··· a an kan + hbn ha + kb . .. .. . . ··· ··· La tesi è una conseguenza del Lemma anteriore. Sia AX = b un sistema lineare. Osserviamo che scambiare due equazioni del sistema AX = b è equivalente a scambiare due righe della matrice (A|b). Analogamente moltiplicare una equazione per uno scalare non nullo, sommare ad una equazione un multiplo di un’altra, è equivalente a moltiplicare una riga della matric (A|b) per uno scalare non nullo, rispettivamente sommare ad una riga di (A|b) un multiplo di un’altra. Quindi, il corollario anteriore prova il seguente risultato. Proposizione 4.12. Sia AX = b un sistema lineare ed indichiamo con (A|b) la matrice completa. Sia (C|d) la matrice ottenuta attraverso operazioni elementari di riga sulla matrice completa (A|b). I sistemi lineari AX = b e CX = d sono equivalenti ovvero l’insieme delle soluzioni di un sistema lineare non cambia quando si effettuano operazioni elementari di riga sulla matrice completa. 71 4.13 Teorema di Rouché Capelli 4.13.1 Sistemi ridotti a scala Definizione 4.14. Un sistema SX = c si dice ridotto a scala se la matrice S è ridotta a scala. Esempio 4.15. x1 + x2 − x3 = 2 x2 − x4 = 0 x3 + x4 = 8 è un sistema ridotto a scala poiché la matrice incompleta ha la forma 1 1 −1 0 S = 0 1 0 −1 0 0 1 1 Proposizione 4.16. Sia SX = c un sistema ridotto a scala, dove S ∈ Mm×n (K), con rg(S) = r. Il sistema SX = c è compatibile se e solamente se m = r, oppure le ultime m−r coordinante del vettore c sono nulle. Inoltre le soluzioni, se esistono, dipendono da n − rg(S) parametri. Dimostrazione. Sia SX = c un sistema ridotto a scala. La matrice completa ha la forma 0 · · · 0 s1j1 ∗ ∗ ··· ··· ∗ · · · · · · · · · ∗ ∗ c1 0 ··· ··· ··· 0 s2j2 ∗ ∗ ∗ · · · · · · · · · ∗ ∗ c2 0 ··· ··· ··· ··· ··· 0 s3j3 ∗ ∗ · · · · · · · · · ∗ c3 .. . . . . . ··· ··· ··· ··· ··· ··· . ··· ··· ··· ··· ∗ 0 . .. .. . . . ··· ··· ··· ··· ··· ··· ··· . ··· ··· ∗ ∗ . 0 0 · · · · · · · · · · · · · · · · · · · · · · · · 0 srjr · · · · · · ∗ cr 0 ··· ··· ··· ··· ··· ··· ··· ··· ··· 0 0 · · · 0 cr+1 . .. .. .. .. .. . . . . .. . .. . · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · .. . 0 ··· ··· ··· ··· ··· ··· ··· ··· 0 0 ··· ··· 0 cm La condizione, m = r oppure le ultime m − r coordinante del vettore c sono nulle è sicuramente necessaria. Dobbiamo dimostrare che questa condizione è anche sufficiente. Supponiamo che le ultime m − r coordinate siano nulle. 72 L’altro caso è analogo. Allora la matrice completa è cosı̀ siffatta. ∗ ··· ··· ∗ ··· ··· ··· ∗ 0 · · · 0 s1j1 ∗ 0 ··· ··· ··· ∗ ∗ ∗ ··· ··· ··· ∗ 0 s 2j 2 0 ··· ··· ··· ··· ··· ∗ ∗ ··· ··· ··· 0 s 3j3 .. . .. · · · · · · · · · · · · . ··· ··· ··· ··· ··· ··· 0 .. .. . ··· ··· ··· ··· ··· ··· ··· . ··· ··· ∗ 0 0 · · · · · · · · · · · · · · · · · · · · · · · · 0 srjr · · · · · · 0 ··· ··· ··· ··· ··· ··· ··· ··· ··· 0 0 ··· . . .. .. .. . .. . ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· 0 ··· ··· ··· ··· ··· ··· ··· ··· 0 0 ··· ··· ∗ c1 ∗ c2 ∗ c3 .. ∗ . .. ∗ . ∗ cr 0 0 .. .. . . .. .. . . 0 0 L’elemento srjr è differente di zero. Quindi possiamo scrivere la variabile xjr = s−1 rjr (cr − srjr +1 xjr +1 − · · · − srn xn ) in funzione delle variabili xjr +1 , . . . , xn . Analogamente, xjr−1 = s−1 r−1jr−1 (cr−1 − sr−1jr−1 +1 xjr−1 +1 − · · · − sr−1n xn ) e sostituendo ad xjr il valore precedente, possiamo scrivere xjr−1 in funzione delle variabili xjr−1 +1 , . . . xjr −1 , xjr +1 , . . . , xn ; e cosı̀ via. Quindi le soluzioni esistono. Inoltre abbiamo rappresentato le variabili corrispondenti ai perni, che sono rg(S), in funzioni delle rimanenti, ovvero le soluzioni dipendono da n − rg(S) parametri. Questo metodo si chiama metodo della risoluzione all’indietro. Le variabili corrispondenti agli elementi di testa, xj1 , . . . , xjr , che chiameremo variabili basiche si scrivono in funzione delle altre, che chiameremo variabili libere. Questo significa che le soluzioni dipendono da esattamente n − r, ovvero una volta che abbiamo assegnato un valore alle variabili libere, le variabili basiche sono univocamente determinate. Proposizione 4.17. Sia SX = c un sistema ridotto a scala, dove S ∈ Mm×n (K), con rg(S) = r. Il sistema SX = c è compatibile se e solamente se rg(S) = rg(S|c). Inoltre le soluzioni, se esistono, dipendono da n − rg(S) parametri. Dimostrazione. Utilizzando la notazione anteriore, abbiamo visto che il sistema SX = c è compatibile se e solamente se m = rg(S) oppure le ultime m − rg(S) coordinate di c sono nulle. Questo è equivalente alla condizione che la matrice completa (S|c) è ridotta a scala e rg(S) = rg(S|c). 73 Teorema 4.18 (Rouché-Capelli). Sia AX = b, un sistema lineare con A ∈ Mm×n (K). Il sistema è compatibile se e solamente se rg(A) = rg(A|b). In tal caso, le soluzioni dipendono da n − rg(A) parametri. Dimostrazione. Sia (A|b) la matrice completa. Indichiamo con (S|c) una sua riduzione a scala ottenuta attraverso il metodo di Gauss. La matrice S è una riduzione a scala di A ed il sistema lineare SX = c è equivalente al sistema AX = b. Quindi il sistema lineare AX = b è compatibile se e solamente se SX = c è compatibile per cui se solamente se se m = r, oppure le ultime m−r coordinante del vettore c sono nulle, dove r = rg(S). Questa condizione è equivalente a rg(S) = rg(S|c), ovvero il sistema AX = b è compatibile se e solamente se rg(A) = r(S) = rg(S|b) = rg(A|b). La secondo parte del Teorema segue dal procedimento della risoluzione all’indietro. Corollario 4.19. Sia A ∈ Mm×n (K) e sia AX = b un sistema lineare. Se il sistema AX = b è compatibile, allora Il sistema AX = b ammette una ed una sola soluzione se e solamente se rg(A) = n. Dimostrazione. Poiché il sistema è compatibile, applicando il Teorema di Rouché-Capelli, le soluzioni dipendono da n − rg(A) parametri. Quindi AX = b ammette una ed una sola soluzione se e solamente se il numero dei parametri è zero e quindi se e solamente se rg(A) = n. Osservazione 4.20. rg(A) ≤ rg(A|b). Inoltre rg(A) oppure rg(A|b) = rg(A) + 1 Corollario 4.21. Un sistema lineare omogeneo AX = 0Km di m equazioni in n incognite ammette soluzioni non banali, se e solamente se rg(A) < n. In particolare se m < n, allora il sistema lineare AX = 00Km ammette sempre soluzioni non banali. Dimostrazione. Applicando il Teorema di Rouché-Capelli, le soluzione del sistema lineare omogeneo dipendono da n − rg(A) parametri. Quindi il sistema omogeneo AX = 0 ammette soluzioni non banali se e solamente se rg(A) < n. Se A ∈ Mm×n (R) con m < n, tenendo in mente che rg(A) ≤ m, si ha n − rg(A) ≥ n − m > 0, ovvero ammette sempre soluzioni non banali. 74 Corollario 4.22 (Teorema di Cramer). Sia A = (A1 , . . . , An ) ∈ Mn×n (K). Il sistema AX = b ammette una ed una soluzione se e solamente se A è y1 invertibile. Se Y = ... è l’unica soluzione, allora yn yi = det(A1 , . . . , Ai−1 , b, Ai+1 , . . . , An ) det(A) per i = 1, . . . , n. Dimostrazione. Se il sistema ammette una ed una soluzione, per il Teorema di Rouché-Capelli, rg(A) = n, ovvero A è invertibile. Se A è invertibile allora rg(A) = n. Poiché (A|b) ∈ Mn×(n+1) (K), si ha n = rg(A) ≤ rg(A|b) ≤ n, ovvero rg(A) = rg(A|b) = n. Applicando il Teorema di Rouché-Capelli, il sistema è compatibile ed ammette una ed una sola soluzione. y1 Sia Y = ... l’unica soluzione del sistema AX = b. Poiché yn y1 A1 + . . . + yn An = b, si ha 1 det(A , . . . , A i−1 , b, A i+1 n 1 , . . . , A ) = det(A , . . . , A i−1 , n X ym Am , Ai+1 , . . . , An ) m=1 = n X m=1 ym det (A1 , . . . , Ai−1 , Am , Ai+1 , . . . , An ) | {z } i = yi det A. Poiché det A 6= 0 si ha la tesi. 4.22.1 Tecniche di Calcolo Siano X1 , . . . , Xs ∈ Kn . Sia A = (X1 , . . . , Xs ) ∈ Mn×s (K). Poiché rg(A) è il massimo numero dei vettori X1 , . . . , Xs linearmente indipendenti, si ha che X1 , . . . , Xs sono linearmente dipendenti ⇐⇒ rg(A) < s, rispettivamente X1 , . . . , Xs sono linearmente indipendenti ⇐⇒ rg(A) = s. Se s = n, 75 allora X1 , . . . Xn sono linearmente indipendenti se e solamente se rg(A) = n ovvero se e solamente se det(A) 6= 0. Se s > n, tenendo in mente che A ∈ Mn×s (K) e quindi rg(A) ≤ n < s, si ha che i vettori X1 , . . . , Xs sono linearmente dipendenti. Una combinazione lineare di X1 , . . . , Xs è un vettore Z per il quale esistono α1 , . . . , αs ∈ K tali che α1 X1 + · · · + αs Xs = Z. Se indichiamo con A = (X1 , . . . , Xs ) ∈ Mn×s (K), si ha α1 A ... = Z. αs Quindi il vettore Z è combinazione lineare di X1 , . . . Xs se e solamente se il sistema lineare AX = Z è compatibile, ovvero se e solamente se rg(A) = rg(A|Z). 4.22.2 Mutua posizione di rette e piani Siano date r1 : X = P1 + tA1 e r2 : X = P2 + tA2 rette nello spazio. Vogliamo studiare la mutua posizione di r1 e r2 nello spazio. Le due rette hanno punti in comune se e solo se esistono s1 , t1 ∈ R tali che P1 + t1 A1 = P2 + s1 A2 , ovvero se e solamente se P1 − P2 = (−t1 )A1 + s1 A2 = (A1 , A2 ) −t1 s1 . Quindi r1 e r2 hanno punti in comune se e solamente se il sistema lineare AX = P1 − P2 , dove A = (A1 , A2 ), è compatibile. Poiché i vettori direttori di una retta sono non nulli, la matrice A può avere rango 1 oppure 2. Applicando il Teorema di Rouché-Capelli, si ha: a) rg(A) = 1, allora se rg(A|P1 − P2 ) = 1 le due rette sono coincidenti; se rg(A|P1 − P2 ) = 2 le due rette sono parallele; b) rg(A) = 2, allora se rg(A|P1 − P2 ) = 2, allora le due rette sono incidenti; se rg(A|P1 − P2 ) = 3, allora le due rette sono sghembe. 76 Corollario 4.23. Le due rette r ed s sono sghembe se e solamente se det(A1 , A2 , P1 − P2 ) 6= 0. Consideriamo le due rette in forma cartesiana: ax + by + cz = d r= , a0 x + b0 y + c0 z+ = d0 s= a00 x + b00 y + c00 z = d00 a000 x + b000 y + c000 z+ = d000 Se indichiamo con a b c a0 b0 c0 A= a00 b00 c00 ∈ M4×3 (R) a000 b000 c000 d d0 e con h = d00 , allora i punti di r ∩ s soddisfano il seguente sistema d000 lineare AX = h, x dove X = y . Poiché una retta è intersezioni di due piano non paralleli, z il rango della matrice A può essere 2 oppure 3. Applicando il Teorema di Rouché-Capelli, otteniamo a) rg(A) = 2. Se rg(A|h) = 2 il sistema è compatibile e le due rette sono coincidenti; se rg(A|h) = 3, allora il sistema è incompatibile e le due rette sono parallele; b) rg(A) = 3. Se rg(A|h) = 3 il sistema è compatibile e le due rette sono incidenti; se rg(A|h) = 4, allora il sistema è incompatibile e le due rette sono sghembe; Corollario 4.24. Le due rette r ed s sono sghembe se e solamente se det(A|h) 6= 0. 77 Siano π : ax + bx + cz = d e π 0 : a0 x + b0 y + c0 z = d0 piani nello spazio. Sia a b c A= ∈ M2×3 (R) a0 b0 c0 e sia (A|d) = a b c d a0 b0 c0 d0 ∈ M2×4 (R) Quindi π ∩ π 0 = Sol(A|d). Poiché A ∈ M2×3 (R), la matrice A può avere rango 1 oppure 2. Applicando il teorema di Roucyhé-Capelli si ha i seguenti casi: a) rg(A) = 1. Se anche rg(A|d) = 1 allora i due piani sono coincidenti. Invece se rg(A|d) = 2 i due piani sono paralleli; b) rg(A) = 2, allora anche rg(A|d) = 2. Applicando il Teorema di Rouché-Capelli le soluzioni dipendendono da un parametro. Quindi due piani non paralleli e non coincidenti si intersecano lungo una retta. Siano π : ax + by + cz = d un piano e 0 a x + b0 y + c0 z = d0 , r= a00 x + b00 y + c00 z = d00 una retta nello spazio. Un vettore P ∈ r ∩ π se e solamente se il sistema AX = h dove e a b c A = a0 b0 c0 ∈ M3×3 (R) a00 b00 c00 d h = d0 , d00 è compatibile. Il rango della matrice A può essere 2 oppure 3. Applicando Rouché-Capelli, si ha: a) rg(A) = 2. Se rg(A|h) = 2, allora il sistema è compatibile e la retta è contenuta nel piano; se rg(A|h) = 3, allora le retta è parallela al piano; 78 b) rg(A) = 3, allora anche rg(A|h) = 3 e quindi il piano π e la retta r sono incidenti. Utilizzando la notazione anteriore, proviamo i seguenti risultati. Corollario 4.25. r ⊂ π se e solamente se esistono α, β ∈ R non entrambi nulli tale che π : α(a0 x + b0 y + c0 z) + β(a00 x + b00 y + c00 z) = αd0 + βd00 . Dimostrazione. La retta r è contenuta nel piano π se e solamente se il sistema ammette soluzione e le soluzioni dipendono da un parametro, quindi se e solamente se rg(A) = rg(A|h) = 2. Poiché le ultime due righe della matrice (A|h) sono linearmente indipendenti, applicando l’esercizio ??si ha che la prima riga è combinazione lineare della seconda e della terza, da cui segue la tesi. Corollario 4.26. La retta r ed il piano π sono incidenti se e solamente se det(A) 6= 0 Dimostrazione. La retta r ed il piano π sono incidenti se e solamente se rg(A|h) = 3. Poiché (A|h) ∈ M3×3 (R) si ha che r ed π sono incidenti se e solamente se det(A) 6= 0. 79 Capitolo 5 Basi e dimensione di uno spazio vettoriale 5.1 Basi di uno spazio vettoriale Sia V uno spazio vettoriale su K. Definizione 5.2. Un insieme B = {v1 , . . . , vn } si dice una base di V se: • v1 , . . . , vn sono linearmente indipendenti: • v1 , . . . , vn formano un sistema di generatori, i.e., L(v1 , . . . , vn ) = V . 1 0 .. .. a) i vettori e1 = . , . . . , en = . formano una base di Kn . La 1 0 base C = {e1 , . . . , en } è chiamata la base canonica; 1 0 0 1 0 0 0 0 b) siano , , , ∈ M2×2 (R). Poiché 0 0 0 0 1 0 0 1 a b c d =a 1 0 0 0 si ha che i vettori +b 1 0 0 0 0 1 0 0 +c 0 0 1 0 +d 0 0 0 1 0 1 0 0 0 0 , , , formano 0 0 1 0 0 1 una base di M2×2 (R); 80 c) sia Eij = (eαβ ) 1 ≤ α ≤ m ∈ Mm×n (K) la matrice i cui elementi sono 1≤β ≤n tutti nulli tranne l’elemento eij = 1. È facile provare che B = {Eij , 1 ≤ i ≤ m, 1 ≤ j ≤ n} è una base di Mm×n (K); d) i polinomi {1, x, . . . , xn } formano una base di Kn [x]; 1 1 1 0 , 1 , 1 , formano una base di R3 . Infatti, sia e) i vettori 0 0 1 x y ∈ R3 . Allora z x 1 1 1 y = α 0 + β 1 + γ 1 , z 0 0 1 se il sistema lineare 1 1 1 x 0 1 1 y , 0 0 1 z 1 1 1 è compatibile. Poiché la matrice 0 1 1 è inveritible, applicando 0 0 1 il Teorema di Cramer si ha che il sistema è compatibile ammette ed 1 1 1 una ed una sola soluzione. Quindi i vettori 0 , 1 , 1 sono 1 0 0 linearmente indipendenti e formano un sistema di generatori. 1 0 0 1 0 1 0 0 f) i vettori , , , formano una base 0 0 1 0 −1 0 0 1 di M2×2 (R). Infatti, a b 1 0 0 1 0 1 0 0 =α +β +γ +δ c d 0 0 1 0 −1 0 0 1 se e solamente se il sistema α β+γ β−γ δ 81 = = = = a b , c d è compatibile. La matrice dei coefficienti è 1 0 0 0 0 1 1 0 0 1 −1 0 , 0 0 0 1 quindi invertible. Applicando Il Teorema di Cramer si ha che il sistema 1 0 0 1 ammette una ed una soluzione. Quindi i vettori , , 0 0 1 0 0 1 0 0 , formano una base di M2×2 (R). −1 0 0 1 Proposizione 5.3. Sia V uno spazio vettoriale su K e sia B = {v1 , . . . , vn } una base di V . Allora ogni vettore v ∈ V si può scrivere in maniera unica come combinazione lineare dei vettori v1 , . . . vn . Viceversa, se ogni elemento si può scrive in maniera unica come combinazione lineare di v1 , . . . vn , allora B = {v1 , . . . , vn } è una base di V . Dimostrazione. Sia v ∈ V . Poiché B = {v1 , . . . , vn } è un sistema di generatori si ha V = L(v1 , . . . , vn ). Quindi esistono λ1 , . . . , λn ∈ K tale che v = λ1 v1 + · · · + λn vn . Supponiamo che v = λ1 v1 + · · · + λn vn = α1 v1 + · · · + αn vn . Allora 0 = (λ1 − α1 )v1 + · · · + (λn − αn )vn . Essendo B = {v1 , . . . , vn } un insieme di vettori linearmente indipendenti, ne segue che α1 = λ1 , . . . , αk = λk . Viceversa, supponiamo che ogni elemento si scrive in maniera unica come combinazione lineare dei vettori v1 , . . . , vn . Vogliamo provare che B = {v1 , . . . , vn } è una base di V , ovvero i vettori v1 , . . . , vn formano un sistema di generatori e sono vettori linearmente indipendenti. Sia v ∈ V . Poiché ogni elemento si scrive come combinazione lineare dei vettori v1 , . . . , vn , esistono α1 , . . . , αn ∈ K tali che v = α1 v1 + · · · + αn vn . Quindi v ∈ L(v1 , . . . , vn ) da cui segue che L(v1 , . . . , vn ) = V. 82 ovvero v1 , . . . , vn formano un sistema di generatori. Adesso proviamo che sono linearmente indipendenti. Siano α1 , . . . , αn ∈ K tali che α1 v1 + · · · + αn vn = 0. Dall’unicità, segue che α1 = · · · = αn = 0, poiché il vettore nullo si può scrivere come combinazione lineare dei vettori v1 , . . . , vn con tutti i coefficienti nulli. Quindi i vettori v1 , . . . vn sono linearmente indipendenti. Definizione 5.4. Sia v ∈ V e sia B = {v1 , . . . , vn } una base di V . Le coordinate di v rispetto a B sono gli unici scalari x1 , . . . , xn ∈ K tali che v = x1 v1 + · · · + xn vn . x1 Indicheremo con [v]B = ... ∈ Kn le coordinate di v rispetto a B. xn 1 1 1 Esempio 5.5. I vettori B = 0 , 1 , 1 , formano una base 0 0 1 di R3 . Vogliamo calcolare le coordinate di un vettore rispetto alla base B. Quindi dobbiamo calcolare α, β, γ ∈ R tali che 1 1 1 x y = α 0 + β 1 + γ 1 , 1 0 0 z ovvero risolvere il sistema 1 1 1 x 0 1 1 y . 0 0 1 z Il sistema è già ridotto a scala. Applicando il metodo della risoluzione all’indietro si ha γ=z β =y−z , α=x−y ovvero x 1 1 1 y = (x − y) 0 + (y − z) 1 + z 1 . z 0 0 1 x x−y y Quindi = y − z . z B z 83 Sia B = {v1 , . . . , vn } una base di V . Indicheremo con FB : V −→ Kn v 7→ [v]B l’applicazione che associa ad ogni vettore le sue coordinate rispetto alla base B. Tale applicazione è iniettiva e suriettiva, ovvero una trasformazione biunivoca che soddisfa alle seguenti proprietà: • se v, w ∈ V , allora v = w se e solamente se [v]B = [w]B ; 0 .. • [0V ]B = . ; 0 • [v + w]B = [v]B + [w]B ; • [λv]B = λ[v]B ; • Sia {e1 , . . . , en } la base canonica di Kn . Allora [vj ]B = ej , per j = 1, . . . , n. La prima proprietà è una diretta conseguenza dell’iniettività dell’applicazione FB . Infatti, v = w se e solamente se FB (v) = FB (w) quindi se e solamente se [v]B = [w]B . 0 .. Poiché 0V = 0v1 + · · · + 0vn , si ha [0V ]B = . . 0 Siano v, w ∈ V . Allora v = x1 v1 + · · · + xn vn , rispettivamente w = y1 v 1 + · · · + yn v n . Quindi v + w = (x1 + y1 )v1 + · · · + (xn + yn )vn , ovvero (x1 + y1 ) x1 y1 .. .. .. [v + w]B = = . + . = [v]B + [w]B . . (xn + yn ) xn yn 84 Se v = x1 v1 + · · · + xn vn , allora λv = λx1 v1 + · · · + λxn vn . Quindi x1 λx1 [λv]B = ... = λ ... = λ[v]B . xn λxn Sia v1 ∈ V . Allora v1 = 1v1 + 0v2 + · · · + 0vn . 1 .. Quindi [v1 ]B = . = e1 . In maniera analoga, 0 vj = 0v1 + · · · + 0vj−1 + 1vj + 0vj+1 + · · · + 0vn , 0 .. . ovvero [vj ]B = 1 = ej . .. . 0 Osserviamo inoltre che l’applicazione FB trasforma combinazioni lineari in combinazioni lineari. Siano w1 , . . . , wk ∈ V e sia α1 w1 + · · · + αk wk una combinazione lineare dei vettori w1 , . . . , wk a coefficienti α1 , . . . , αk ∈ K. Quindi FB (α1 w1 + · · · + αk wk ) = FB (α1 w1 ) + FB (α2 w2 + · · · + αk wk ) = FB (α1 w1 ) + · · · + FB (αk wk ) = α1 FB (w1 ) + · · · + αk FB (wk ), ovvero [α1 w1 + · · · + αk wk ]B = α1 [w1 ]B + · · · + αk [wk ]B . Quindi, FB trasforma una combinazione lineare dei vettori w1 , . . . , wk a coefficienti α1 , . . . , αk ∈ K in una combinazione lineare dei vettori [w1 ]B , . . . , [wk ]B sempre a coefficienti α1 , . . . , αk ∈ K. Proposizione 5.6. Siano w1 , . . . , wk ∈ V e sia B = {v1 , . . . , vn } una base di V . Allora: 85 a) w1 , . . . , wk sono linearmente dipendenti, rispettivamente linearmente indipendenti, se e solamente se [w1 ]B , . . . , [wk ]B ∈ Kn sono linearmente dipendenti, rispettivamente linearmente indipendenti; b) v ∈ V è combinazione lineare dei vettori w1 , . . . , wk se e solamente se [v]B ∈ Kn è combinazione lineare dei vettori [w1 ]B , . . . , [wk ]B ∈ Kn ; c) FB (L(w1 , . . . , wk )) = L([w1 ]B , . . . , [wk ]B ). Facoltativa. Siano w1 , . . . , wk linearmente dipendenti. Allora esistono α1 , . . . , αk ∈ K non tutti nulli tali che α1 w1 + · · · + αk wk = 0V . Quindi 0Kn = FB (0V ) = FB (α1 w1 + · · · + αk wk ) = α1 FB (w1 ) + · · · + αk FB (wk ) = α1 [w1 ]B + · · · + αk [wk ]B , ovvero i vettori [w1 ]B , . . . , [wk ]B sono linearmente dipendenti. Viceversa, se i vettori [w1 ]B , . . . , [wk ]B sono linearmente dipendenti, allora esistono α1 , . . . , αk ∈ K non tutti nulli tali che α1 [w1 ]B + · · · + αk [wk ]B = 0Kn . Quindi FB (α1 w1 + · · · + αk wk ) = α1 [w1 ]B + · · · + αk [wk ]B = 0Kn . Poiché FB è biunivoca, si ha α1 w1 + · · · + αk wk = 0V . Quindi i vettori w1 , . . . , wk ∈ V sono linearmente dipendenti. In maniera analoga è possibile dimostrare lo stesso risultato per la lineare indipendenza. Sia v ∈ V . Il vettore v è combinazione lineare dei vettori w1 , . . . , wk ∈ V se esistono β1 , . . . , βk ∈ K tale che v = β1 w1 + · · · + βk wk . Poiché FB è biunivoca, v = β1 w1 + · · · + βk wk se e solamente se FB (v) = FB (β1 w1 + · · · + βk wk ), quindi se e solamente se [v]B = FB (v) = FB (β1 w1 + · · · + βk wk ) = β1 [w1 ]B + · · · + βk [wk ]B . 86 Quindi v ∈ V è combinazione lineare dei vettori w1 , . . . , wk se e solamente se [v]B è combinazione lineare dei vettori [w1 ]B , . . . , [wk ]B . Sia w ∈ L(w1 , . . . , wk ). Esistono α1 , . . . , αk ∈ K tali che w = α1 w1 + · · · + αk wk . Applicando FB si ha FB (w) = FB (α1 w1 + · · · + αk wk ) = α1 FB (w1 ) + · · · + αk FB (wk ) = α1 [w1 ]B + · · · + αk [wk ]B . Viceversa, se z ∈ L([w1 ]B , . . . , [wk ]B ), allora esistono α1 , . . . , αk ∈ K tali che z = α1 [w1 ]B + · · · + αk [wk ]B . Se w = α1 w1 + · · · + αk wk , allora FB (w) = z, per cui FB (L(w1 , . . . , wk )) = L([w1 ]B , . . . , [wk ]B ). 1 1 1 2 0 −3 Esempio 5.7. Vogliamo stabilire se i vettori , , ∈ 0 1 0 −1 1 2 M2×2 (R) sono linearmente indipendenti. Abbiamo dimostrato che 0 0 0 0 0 1 1 0 , , , B= 0 1 1 0 0 0 0 0 è una base di M2×2 (R) e x y x y . = z t B z t 1 1 1 2 0 −3 Quindi stibilire se , , sono linearmente indi0 1 0 −1 1 2 1 1 1 1 1 2 pendent è equivalente a stabilire se i vettori = , = 0 1 B 0 0 −1 B 1 1 0 2 −3 0 −3 4 = 0 , 1 2 1 ∈ R sono linearmente indipendenti. Poiché B 2 −1 la matrice 1 1 0 1 2 −3 , 0 0 1 1 −1 2 87 ha rango 3, verificare!, si ha che i vettori 1 1 0 1 1 2 0 −3 , , 0 −1 1 2 sono linearmente indipendenti Osservazione 5.8. Sia C = {e1 , . . . , en } la base canonica di Kn . Sia X = x1 .. . . Poiché xn X = x1 e 1 + · · · + xn e n , si ha x1 x1 .. . . = .. . xn C xn Quindi le coordinate di un vettore X rispetto alla base canonica è il vettore X stesso. 5.8.1 Dimensione di uno spazio vettoriale Sia V uno spazio finitamente generato. L’obiettivo di questa sezione è dimostrare che due basi hanno lo stesso numero di elementi. Cominciamo con il seguente Lemma. Lemma 5.9. Siano v1 , . . . , vn vettori di V . I vettori v1 , . . . , vn sono linearmente dipendenti se e solamente se uno di essi si scrive come combinazione lineare degli altri, ovvero, esiste 1 ≤ j ≤ n tale che vj ∈ L(v1 , . . . , vj−1 , vj+1 , . . . , vn ). Inoltre L(v1 , . . . , vn ) = L(v1 , . . . , vj−1 , vj+1 , . . . , vn ). Facoltativa. Supponiamo che v1 , . . . , vn siano linearmente dipendenti. Esistono λ1 , . . . , λn ∈ K non tutti nulli, tali che λ1 v1 + · · · + λn vn = 0. Supponiamo che λj 6= 0. Allora dall’equazione λ 1 v1 + · · · λ j vj + · · · + λ n vn = 0 |{z} posso portare al secondo membro tutti i termini, tranne λj vj , e poi dividire per λj , ottenedo −1 −1 −1 vj = (−λ−1 j λ1 )v1 +· · ·+(−λj λj−1 )vj−1 +(−λj λj+1 )vj+1 +· · ·+(−λj λn )vn . 88 Quindi vj è combinazione lineare dei rimanenti, ovvero vj ∈ L(v1 , . . . , vj−1 , vj+1 , . . . , vn ). Viceversa supponiamo che esista j ∈ {1, . . . , n}, tale che vj è combinazione lineare dei rimanenti, ovvero vj = λ1 v1 + · · · + λj−1 vj−1 + λj+1 vj+1 + · · · + λn vn . Allora λ1 v1 + · · · + λj−1 vj−1 − vj + λj+1 vj+1 + · · · + λn vn = 0, e quindi i vettori sono linearmente dipendenti poiché il coefficiente che moltiplica vj è −1. Adesso, proviamo che L(v1 , . . . , vj−1 , vj+1 , . . . , vn ) = L(v1 , . . . , vn ) se vj è combinazione lineare dei vettori v1 , . . . , vj−1 , vj+1 , . . . , vn . Poiché L(v1 , . . . , vn ) è un sottospazio vettoriale di V e i vettori v1 , . . . , vj−1 , vj+1 , . . . , vn ∈ L(v1 , . . . , vn ), si ha L(v1 , . . . , vj−1 , vj+1 , . . . , vn ) ⊆ L(v1 , . . . , vn ). Viceversa, poiché vj è combinazione lineare di v1 , . . . , vj−1 , vj+1 , . . . vn , si ha vj = λ1 v1 + · · · + λj−1 vj−1 + λj+1 vj+1 + · · · + λn vn ovvero vj ∈ L(v1 , . . . , vj−1 , vj+1 , . . . , vn ). Quindi v1 , . . . , vn ∈ L(v1 , . . . , vj−1 , vj+1 , . . . , vn ) da cui segue L(v1 , . . . , vn ) ⊆ L(v1 , . . . , vj−1 , vj+1 , . . . , vn ) concludendo la dimostrazione. Proposizione 5.10. Sia V uno spazio vettoriale finitamente generato. Allora V ammette una base. Facoltativa. Siano v1 , . . . , vn un sistema di generatori dello spazio vettoriale V , i.e., V = L(v1 , . . . , vn ). Se v1 , . . . , vn sono linearmente indipendenti allora formano una base. Altrimenti i vettori v1 , . . . , vn sono linearmente dipendenti. Applicando il Lemma 5.9, esiste 1 ≤ j1 ≤ n tale che vj1 è combinazione lineare dei rimanenti. Inoltre V = L(v1 , . . . , vn ) = L(v1 , . . . , vj1 −1 , vj1 +1 , . . . , vn ), ovvero v1 , . . . , vj1 −1 , vj1 +1 , . . . , vn formano un sistema di generatori. Se i vettori v1 , . . . , vj1 −1 , vj1 +1 , . . . , vn non fossero linearmente indipendenti allora potrei iterare questo procedimento, al massimo un numero finito di volte, fino ad ottenere una base di V . 89 Vogliamo dimostrare che due basi hanno lo stesso numero di vettori. Cominciamo con il seguente risultato. Lemma 5.11 (Steinitz). Sia V uno spazio vettoriale su K generato da n vettori v1 , . . . , vn . Siano w1 , . . . , wm ∈ V con m > n. Allora w1 , . . . , wm sono vettori linearmente dipendenti. Dimostrazione. Vogliamo dimostrare che esistono α1 , . . . , αm non tutti nulli tali che α1 w1 +· · ·+αm wm = 0V . Poiché V = L(v1 , . . . , vn ), ogni vettore wj , per j = 1, . . . , m, si scrive come combinazione lineare dei vettori v1 , . . . , vn : wj = a1j v1 + · · · + anj vn = n X akj vk . k=1 Quindi 0 = α1 w1 + · · · + αm wm m X = αj wj = j=1 m X n X αj akj vk j=1 k=1 = n X k=1 m X akj αj vk . j=1 Consideriamo il seguente sistema lineare: Pm j=1 a1j αj = 0 .. . P m a j=1 nj αj = 0 È un sistema lineare omogeneo di n equazioni in m incognite, con n < m. Per il corollario 4.21 (del Teorema di Rouché-Capelli) il sistema ammette soluzioni non banali. Quindi esistono α1 , . . . αm ∈ K non tutti nulli tali che Pm j=1 a1j αj = 0 .. . P m a αj = 0 nj j=1 90 Adesso, m X α j wj = j=1 m X αj j=1 = n X n X ! akj vk k=1 m X akj αj vk k=1 j=1 = 0V , ovvero i vettori C = {w1 , . . . , wm } sono linearmente dipendenti. Corollario 5.12. Sia V uno spazio vettoriale su K generato da n vettori. Siano w1 , . . . , wm ∈ V linearmente indipendenti. Allora m ≤ n. Dimostrazione. Se m > n, allora per il Lemma di Steinitz sarebbero linearmente dipendenti. Assurdo. Quindi m ≤ n. Corollario 5.13. Siano B = {v1 , . . . , vn }, C = {w1 , . . . , wm } due basi di V . Allora m = n. Dimostrazione. Poiché V = L(v1 , . . . , vn ) e w1 , . . . , wm sono linearmente indipendenti, applicando il corollario anteriore ottengo che m ≤ n. Scambiando il ruolo delle due basi, i.e., V = L(w1 , . . . , wm ) e v1 , . . . , vn linearmente indipendenti, sempre per il corollario anteriore si ha n ≤ m. Quindi n = m. Definizione 5.14. Sia V uno spazio vettoriale generato da un numero finito di elementi. Il numero dei vettori di una qualsiasi base di V si dice dimensione di V . Osservazione 5.15. Sia V uno spazio vettoriale su K di dimensione n. Allora: • n è il massimo numero di vettori di V linearmente indipendenti; • se v1 , . . . , vm formano un sistema di generatori di V , allora n ≤ m. Infine, se V = {0V }, ovvero uno spazio vettoriale formato solamente dal vettore nullo, la sua dimensione è per definizione 0. Esempio 5.16. 91 1 0 .. .. a) i vettori e1 = . , . . . , en = . formano una base di Rn . Quindi 0 1 dim Rn = n; 1 0 .. .. b) i vettori e1 = . , . . . , en = . formano una base di Cn . Quindi 0 1 dim Cn = n; c) Sia Eij ∈ Mm×n (K) la matrice i cui elementi sono tutti nulli tranne l’elemento aij = 1. È facile provare che B = {Eij , 1 ≤ i ≤ m, 1 ≤ j ≤ n} è una base di Mm×n (K). Quindi dim Mm×n (K) = mn. d) i polinomi {1, x, . . . , xn } formano una base di Kn [x]. Quindi dim Kn [x] = n + 1; e) Sia V = A ∈ M2×2 (R) : A = AT , i.e., l’insieme delle matrici simmetriche. Si può dimostrare che i vettori 1 0 0 1 0 0 , , , 0 1 0 0 1 0 formano una base di V . Quindi dim V = 3. f ) Sia V = A ∈ M3×3 (R) : A = −AT , i.e., l’insieme delle matrici antisimmetriche. Si può dimostrare che le matrici 0 1 0 0 0 1 0 0 0 −1 0 0 , 0 0 0 , 0 0 1 , 0 0 0 −1 0 0 0 −1 0 formano una base di V . Quindi dim V = 3. Proposizione 5.17. Sia V uno spazoio vettoriale su K. Siano w1 , . . . , wm ∈ V e sia W = L(w1 , . . . , wm ). Indichiamo con k il massimo numero dei vettori {w1 , . . . , wm } linearmente indipendenti. Allora dim W = k Facoltativa. Poiché k è il massimo numero dei vettori {w1 , . . . , wm } linearmente indipendenti, esistono 1 ≤ j1 < · · · < jk ≤ m tali che i vettori i vettori wj1 , . . . , wjk sono linearmente indipendenti. Vogliamo dimostrare che W = L(wj1 , . . . , wjk ). Una inclusione è immediate, ovvero L(wj1 , . . . , wjk ) ⊆ W 92 (perché?). Per dimostrare che W ⊆ L(wj1 , . . . , wjk ) è sufficiente dimostrare che wj ∈ L(wj1 , . . . , wjk ) per j = 1, . . . , n. Infatti, se w1 , . . . , wn ∈ L(wj1 , . . . , wjk ), allora W = L(w1 , . . . , wn ) ⊆ L(wj1 , . . . , wjk ). Se j = ji per un certo 1 ≤ i ≤ k, allora wj ∈ L(wj1 , . . . , wjk ). Supponiamo che j 6= ji . I vettori wj , wj1 , . . . , wjk sono linearmente dipendenti, poiché sono k + 1 e k è il massimo numero dei vettori {w1 , . . . , wm } linearmente indipendenti. Quindi esistono αj , αj1 , . . . , αjk ∈ K non tutti nulli tali che αj wj + αj1 wj1 + · · · + αjk wjk = 0V . Se αj = 0, allora αj1 wj1 + · · · + αjk wjk = 0V , ovvero esisterebbe una combinazione lineare non banale dei vettori wj1 , . . . , wjk uguale al vettore nullo. Assurdo perché i vettori wj1 , . . . , wjk sono linearmente indipendenti. Quindi αj 6= 0 da cui segue che wj = (−αj1 /αj )wj1 + · · · + (−αjk /αj )wjk ∈ L(wj1 , . . . , wjk ), concludendo la dimostrazione. Corollario 5.18. Siano v1 , . . . , vn ∈ Km e sia A = (v1 , . . . , vn ) ∈ Mm×n (K). Allora dim L(v1 , . . . , vn ) = rg(A). In particolare se A = (A1 , . . . , An ) = A1 .. . ∈ Mm×n (K), allora rg(A) = dim (A1 , . . . , An ) = dim(AT1 , . . . , ATm ). Am Infine il rango di una matrice non cambia se effettuo operazioni elementari di colonna, rispettivamente di righe, sulla matrice A. Facoltativa. Nella proposizione anteriore abbiamo dimostrato che la dimensione del sottospazio L(v1 , . . . , vn ) è il massimo numero dei vettori {v1 , . . . , vn } linearmente indipendenti. Sia A = (v1 , . . . , vn ) ∈ Mm×n (K). Per definizione di rango di una matrice si ha dim L(v1 , . . . , vn ) = rg(A). Adesso dimostreremo che il rango di una matrice non cambia se effettuo operazioni elementari di colonna. La dimostrazione che il rango di una matrice non cambia se effettuo operazioni elementari di riga è analogo. 93 Poiché rg(A) = dim (A1 , . . . , An ), il rango di una matrice non cambia se scambio due colonne oppure se moltiplico una colonna per un multiplo non nullo. Proviamo che il rango rimane invariato se sommiamo ad una colonna un multiplo di una altro. Dobbiamo dimostrare che per ogni 1 ≤ i 6= j ≤ n, e per ogni λ ∈ K, si ha L(A1 , . . . , An ) = L(A1 , . . . , Ai + λAj , . . . , An ). Poiché A1 , . . . , Ai + λAj , . . . , An ∈ L(A1 , . . . , An ), ne segue che L(A1 , . . . , Ai + λAj , . . . , An ) ⊆ L(A1 , . . . , An ). ci , . . . , An ∈ L(A1 , . . . , Ai + λAj , . . . , An ). Inoltre Ai = Viceversa, A1 , . . . , A (Ai + λAj ) − λAj ∈ L(A1 , . . . , Ai + λAj , . . . , An ) da cui segue che L(A1 , . . . , An ) ⊆ L(A1 , . . . , Ai + λAj , . . . , An ). Proposizione 5.19. Sia V uno spazio vettoriale di dimensione n. Sia B = {v1 , . . . , vn } un insieme formata da n vettori di V . Le seguenti condizioni sono equivalenti: a) B = {v1 , . . . , vn } è costituito da vettori linearmente indipendenti; b) B = {v1 , . . . , vn } formano un sistema di generatori; c) B = {v1 , . . . , vn } è una base di V . Dimostrazione. (a) ⇒ (b). Sia v ∈ V . Devo dimostrare che v ∈ L(v1 , . . . , vn ), ovvero che v è combinazione lineare di v1 , . . . , vn . Poiché n è il massimo numero di vettori linearmente indipendenti di V , allora v, v1 , . . . , vn sono linearmente dipendenti. Quindi esistono α, λ1 , . . . , λn non tutti nulli tali che αv + λ1 v1 + · · · + λn vn = 0. Se α = 0, allora i vettori v1 , . . . , vn sarebbero linearmente dipendenti. Quindi, α 6= 0 e v = − λα1 v1 − · · · − λαn vn , ovvero v ∈ L(v1 , . . . , vn ). (b) ⇒ (c). Poiché v1 , . . . , vn formano un sistema di generatori, allora V = L(v1 , . . . , vn ). Se v1 , . . . , vn fossero linearmente dipendenti, esisterebbe 1 ≤ j ≤ n tale che vj è combinazione linare dei rimanenti. Inoltre V = L(v1 , . . . , vn ) = L(v1 , . . . vj−1 , vj+1 , . . . , vn ). Applicando il Lemma di Steinitz si ha che una base di V sarebbe formata da al massimo n − 1 elementi. Assurdo. (c) ⇒ (a) è immediata dalla definizione di base. 94 Una base è un insieme formato da vettori linearmente indipendenti e generatori. Se dim V = n e C = {w1 , . . . , wm } è un insieme di vettori linearmente indipendenti, quindi m ≤ n, è possibile completare C a base di V ?La risposta è si. Cominciamo con il seguente Lemma. Lemma 5.20. Siano v1 , . . . vn vettori linearmente indipedenti di V e sia v ∈ V . I vettori v, v1 , . . . vn sono linearmente indipendenti se e solamente se v ∈ / L(v1 , . . . , vn ). Facoltativa. Supponiamo che v, v1 , . . . vn sono linearmente indipendenti. Per il Lemma 5.9 v non appartiene a L(v1 , . . . , vn ) poiché altrimenti i vettori v, v1 , . . . , vn sarebbero linearmente dipendenti. Viceversa, supponiamo che v non appartenga a L(v1 , . . . , vn ) e sia αv + β1 v1 + · · · + βn vn = 0 una combinazione lineare uguale al vettore nullo. Se α fosse differente da zero, allora v = −(β1 /α)v1 − · · · − (βn /α)vn , ovvero v ∈ L(v1 , . . . , vn ) che non è possibile per ipotesi. Quindi necessariamente α = 0 . Se α = 0, allora necessariamente β1 = · · · = βn = 0 poiché i vettori v1 , . . . , vn sono linearmente indipendenti. Teorema 5.21 (Teorema di completamento a base). Sia V uno spazio vettoriale su K di dimensione n. Sia C = {w1 , . . . , wm } un insieme formato da vettori linearmente indipendenti e sia B = {v1 , . . . , vn } una base di V . Allora esistono n − m vettori di B che insieme a C = {w1 , . . . , wm } formano una base di V . Facoltativa. Poiché n = dim V è il massimo numero di vettori linearmente indipendenti allora m ≤ n. Poiché B = {v1 , . . . , vn } è una base di V , si ha L(v1 , . . . , vn ) = V da cui segue che L(w1 , . . . , wm ) ⊆ L(v1 , . . . , vn ). Se L(w1 , . . . , wm ) = L(v1 , . . . vn ), allora {w1 , . . . , wm } è una base di V . Quindi m = n e la dimostrazione è finita. Altrimenti L(w1 , . . . , wm ) ( L(v1 , . . . vn ). Affermiamo che esiste 1 ≤ j1 ≤ n tale che vj1 ∈ / L(w1 , . . . , wm ). Infatti, se v1 , . . . , vn ∈ L(w1 , . . . , wm ), allora L(v1 , . . . , vn ) ⊆ L(w1 , . . . , wm ) e quindi L(w1 , . . . , wm ) = L(v1 , . . . , vn ). Assurdo perché per ipotesi L(w1 , . . . , wm ) ( L(v1 , . . . vn ). Applicando il Lemma 5.20, i vettori vj1 , w1 , . . . , wm sono linearmente indipendenti. Se L(vj1 , w1 , . . . , wm ) = L(v1 , . . . , vn ), 95 allora m + 1 = n ed il Teorema sarebbe dimostrato. Altrimenti esisterebbe 1 ≤ j2 ≤ n, j2 6= j1 , tale che vj2 non apparterrebbe al sottospazio L(vj1 , w1 . . . , wm ) e quindi i vettori vj2 , vj1 , w1 , . . . wm sarebbero linearmente indipendenti. Se L(vj1 , vj2 , w1 , . . . , wm ) = L(v1 , . . . , vn ), allora m + 2 = n ed il Teorema sarebbe dimostrato. Altrimenti posso iterare questo procedimento per un numero finito di volte: esattamente n−m volte, concludendo la dimostrazione del Teorema. Corollario 5.22. Sia V uno spazio vettoriale su K e sia W un sottospazio di V . Allora dim W ≤ dim V . Inoltre dim W = dim V se e solamente se V = W. Dimostrazione. Sia C = {w1 , . . . , wm } una base di W e sia B = {v1 , . . . , vn } una base di V . Poiché i vettori w1 , . . . , wm sono linearmente indipendenti, applicando il Lemma di Steinitz si ha m ≤ n, ovvero dim W ≤ dim V . Se dim W = dim V , m = n e C = {w1 , . . . , wm } è anche una base di V , da cui segue che V = L(w1 , . . . , wm ) = W . Diamo una prova alternativa della I parte del Teorema di Rouché-Capelli utilizzando i risultati anteriori. Corollario 5.23. Sia A ∈ Mm×n (K). Il sistema AX = b è compatibile se e solamente se rg(A) = rg(A|b). Facoltativa. Abbiamo visto che Il sistema lineare AX = b è compatibile se e solamente se b ∈ L(A1 , . . . , An ). Poiché L(A1 , . . . , An ) ⊆ L(A1 , . . . , An , b), si ha b ∈ L(A1 , . . . , An ) se e solamente se L(A1 , . . . , An ) = L(A1 , . . . , An , b). Riassumendo, abbiamo dimostrato che il sistema AX = b è compatibile se e solamente se L(A1 , . . . , An ) = L(A1 , . . . , An , b) Applicando il corollario anteriore, si ha che il sistema lineare AX = b è combatibile se e solamente se dim L(A1 , . . . , An ) = dim L(A1 , . . . , An , b). Applicando il corollario 5.18 si ha che il sistema AX = b è compatibile se e solamente se rg(A) = rg(A|b). 5.23.1 Equazioni cartesiane di un sottospazio di Kn Sia W ⊂ Kn un sottospazio vettoriale generato dai vettori w1 , . . . , wk , ovvero W = L(w1 , . . . , wk ). Il vetore w ∈ W se e solamente se esistono degli scalari α1 , . . . , αk ∈ K tali che α1 w1 + · · · + αk wk = w, 96 ovvero se e solamente se il sistema lineare AX = w, è compatibile, dove A = (w1 , . . . , wk ) ∈ Mn×k (K). Applicando il metodo di Gauss alla matrice (A|w) ottengo un sistema lineare SX = c ridotto a scala e equivalente al sistema lineare AX = w. Il sistema lineare SX = c ha la forma: ∗ ··· ··· ∗ ··· ··· · ∗ c1 · · · s1j1 ∗ ··· ··· ∗ ∗ ··· ··· · ∗ c2 0 s2j2 ∗ ··· ··· ··· ··· ∗ · · · · · · ∗ c3 0 s3j3 ∗ .. .. .. . . ··· ··· ··· ∗ ··· ··· ··· ··· 0 . 0 ··· ··· ··· ··· ··· 0 s(r−1)jr−1 ∗ ∗ ∗ cr−1 0 ··· ··· ··· ··· ··· ··· ··· srjr ∗ ∗ cr 0 ··· ··· ··· ··· ··· ··· · · · 0 · · · 0 c r+1 . .. .. .. .. . . . ··· 0 ··· ··· ··· ··· ··· 0 ··· 0 cn Quindi il sistema SX = c è compatibile se e solamente se le ultime n − rg(S) coordinate di c sono nulle, ovvero se e solamente se cr+1 = 0, . . . , cn = 0, le quali definiscono equazioni cartesiane. Quindi, W = L(w1 , . . . , wk ) = Sol(A|w) = Sol(S|c) = {cr+1 = 0, . . . , cn = 0} . Queste equazioni sono chiamate equazioni cartesiane di W . 1 0 1 0 1 1 Esempio 5.24. Sia W = L 1 , 1 , 2 . 1 −1 0 1 0 0 0 1 0 1 1 0 1 1 −1 0 1 1 −1 1 1 1 −1 x1 A3 − A1 1 0 1 x1 0 1 x2 −→ 1 x2 x3 A4 − A1 0 1 1 x3 − x1 x4 −→ 0 −1 −1 x4 − x1 x1 1 0 1 x1 A3 − A2 0 1 1 x2 −→ x2 x3 − x1 A4 + A2 0 0 0 x3 − x1 − x2 −→ x4 − x1 0 0 0 x4 − x1 + x2 1 1 2 0 97 Il sistema lineare è compatibile se e solamente se x3 − x1 − x2 = 0 e x4 − x1 + x2 = 0, ovvero x1 x 2 4 ∈ R : x − x − x = 0, x − x + x = 0 . W = 3 1 2 4 1 2 x3 x4 5.24.1 Tecniche di Calcolo Siano X1 , . . . , Xk vettori di Kn , dove K = R oppure K = C. a) Affinché i vettori X1 , . . . , Xk formino una base è necessario che n = k essendo n = dim Kn . Sia (X1 , . . . , Xn ) ∈ Mn×n (K), ovvero la matrice le cui colonne sono i vettori X1 , . . . , Xn . Applicando la Proposizione 5.19 si ha che i vettori X1 , . . . , Xn ∈ Kn formano una base se e solamente se X1 , . . . , Xn sono linearmente indipendenti, quindi se e solamente se det(X1 , . . . , Xn ) 6= 0 (rg(X1 , . . . , Xn ) = n); b) Sia W = L(X1 , . . . , Xk ) dove X1 , . . . Xk ∈ Kn . Abbiamo visto che dim W = rg((X1 , . . . , Xk )). Per determinare una base possiamo seguire il seguente procedimento. Applicando l’algoritmo di Gauss alla matrice A = (X1 , . . . , Xk ) ∈ Mm×k (K) otteniamo una matrice S ∈ Mm×k (K) ridotta a scala. Siano 1 ≤ j1 < . . . < jk ≤ n tali che le colonne S j1 , . . . , S jk corrispondono ai perni di S. Si può dimostrare che Xj1 , . . . , Xjk sono linearmente indipendenti. Poiché k = rg(A), allora (Xj1 , . . . , Xjk ) formano una base di W . c) Siano X1 , . . . , Xk ∈ Kn linearmente indipendenti. Abbiamo dimostrato che possiamo completarli a base di Kn . Una possibilità è di trovare n − k vettori Yk+1 , . . . , Yn ∈ Kn tali che det(X1 , . . . , Xk , Yk+1 , . . . , Yn ) 6= 0. Non abbiamo un algoritmo che ci guida nella scelta dei vettori da aggiungere. Tuttavia, il Teorema di completamento a base afferma che possiamo completare a base i vettori indipendenti X1 , . . . , Xk aggiungendo, per esempio, n − k vettori della base canonica. Il metodo di Gauss, ci fornisce un algoritmo per completare a base i vettori X1 , . . . , Xk linermente indipendenti. 98 Sia C = {e1 , . . . en } la base canonica di Kn e sia A = (X1 , . . . Xk , e1 , . . . , en ) ∈ Mn×(n+k) (K). Si osservi che rg(A) = n. Infatti rg(A) ≤ n poiché la matrice A ha n righe. Dall’altro lato, i vettori e1 , . . . , en sono linearmente indipendenti e quindi esistono almento n colonne linearmente indipendenti, ovvero rg(A) ≥ n. Quindi rg(A) = n. Applicando l’algoritmo di Gauss alla matrice A otteniamo una matrice ridotta a scala che indichiamo con S = (S 1 , . . . , S k , B 1 , . . . , B n ). Poiché i vettori X1 , . . . , Xk sono linearmente indipendenti, si può dimostrare che le prime k colonne della matrice S contengono perni (perché?). Inoltre, se i perni della matrice S sono contenuti nelle colonne S 1 , . . . , S k , B j1 , . . . , B jn−k , allora i vettori X1 , . . . Xk , ej1 , . . . ejn−k sono linearmente indipenti e quindi formano un base di Kn . Questo procedimento può essere lungo poiché se dovessi completare a base X1 , X2 ∈ R4 , dovrei ridurre a scala una matrice di formato 4 × 6. d) sia B = {v1 , . . . , vn } una base di Kn . Vogliamo calcolare le coordinate di un vettore v rispetto alla base B. Le coordinate di un vettore v rispetto alla base B sono gli unici scalari x1 , . . . , xn ∈ K tale che v = x1 v1 + · · · + xn vn . x1 Sia A = (v1 , . . . , vn ) ∈ Mn×n (K) e sia X = ... . Poiché xn v = x1 v1 + · · · + xn vn ⇐⇒ AX = v, le coordinare di v rispetto alla base B è l’unica soluzione del sistema lineare AX = v. Quindi calcolare le coordinate di un vettore rispetto ad una base è equivalente a risolvere un sistema lineare di n equazioni in n incognite. Sia V uno spazio vettoriale su K di dimensione n e sia B = {v1 , . . . , vn } una base di V . Sia FB : V −→ Kn l’applicazione biunivoca che associa a v le sue coordinate rispetto a B. Ricordiamo che dalla definizione di coordinate si ha che FB (vi ) = ei , per i = 1, . . . , n, dove {e1 , . . . , en } è la base canonica di Kn . Inoltre x1 FB−1 ... = x1 v1 + · · · + xn vn . xn 99 Siano w1 , . . . , wk ∈ V . Allora: a) w1 , . . . , wk ∈ V sono linearmente indipendenti se e solamente se i vettori [w1 ]B , . . . , [wk ]B ∈ Kn sono linearmente indipendenti se e solamente se rg([w1 ]B , . . . , [wk ]B ) = k. b) w1 , . . . , wk ∈ V sono linearmente dipendenti se e solamente se i vettori [w1 ]B , . . . , [wk ]B ∈ Kn sono linearmente dipendenti se e solamente se rg([w1 ]B , . . . , [wk ]B ) < k. c) w1 , . . . , wk ∈ V formano una base di V se e solamente se k = n ed i vettori [w1 ]B , . . . , [wn ]B formano una base di Kn se e solamente se det([w1 ]B , . . . , [wn ]B ) 6= 0; d) siano v, w1 , . . . , wk ∈ V . v è combinazione lineare di w1 , . . . , wk se e solamente se [v]B è combinazione lineare dei vettori [w1 ]B , . . . , [wk ]B ∈ Kn se e solamente se rg([w1 ]B , . . . , [wk ]B ) = rg([w1 ]B , . . . , [wk ]B , [v]B ); Siano w1 , . . . , wk vettori linearmente indipendenti di V . Possiamo completarli a base di V . Una maniera può essere la seguente. Siano [w1 ]B , . . . , [wk ]B ∈ Kn . Poiché i vettori [w1 ]B , . . . , [wk ]B sono linearmente indipendenti applicando il Teorema del completamento a base, li posso completare a base aggiungendo n − k vettori della base canonica {e1 , . . . , en }. Quindi esistono ≤ j1 < . . . < jn−k ≤ n tale che [w1 ], . . . , [wk ]B , ej1 , . . . , ejn−k , formano una base di Kn . Tenendo in mente che FB (vj ) = ej per j = 1, . . . , n, e che FB è biunivoca, non è difficile dimostrare che i vettori w1 , . . . , wk , vj1 , . . . , vjn−k , formano una base di V . Sia W = L(w1 , . . . , wk ) ⊆ V . Per calcolare una base possiamo seguire il seguente procedimento. Sia W 0 = L([w1 ]B , . . . , [wk ]B ). Noi sappiamo che dim W = dim W 0 = rg([w1 ]B , . . . , [wk ]B ). Siano 1 ≤ j1 < · · · < jk ≤ n tale che i vettori [wj1 ]B , . . . , [wjk ]B ) formano una base di W 0 . Non è difficile dimostrare che i vettori wj1 , . . . , wjk formano una base di W . Sia C = {w1 , . . . , wn } una base di V . Le coordinate di un vettore v rispetto alla base C sono gli unici scalari y1 , . . . , yn ∈ K tali che v = y1 w1 + · · · + yn wn . 100 Poiché FB è biunivoca e trasforma combinazioni lineari in combinazioni lineari si ha [v]B = y1 [w1 ]B + · · · + yn [wn ]B . Tenendo in mente che C 0 = {[w1 ]B , . . . , [wn ]B } è una base di Kn , si ha che le coordinate di v rispetto alla base C sono le coordinate del vettore [v]B rispetto alla base C 0 . 5.25 Formula di Grassman Sia V uno spazio vettoriale su K e siano U, W ⊆ V sottospazi vettoriali di V . Non è difficile verificare che U ∩ W è un sottospazio vettoriale di V (esercizio). Invece, in generale, U ∪ W non è un sottospazio vettoriale. Per esempio, sia V = R2 e sia U = L(e1 ) and W = L(e2 ). Allora U ∪ W , W U Figura 5.25.1. è l’unione degli assi, il quale non è un sottospazio vettoriale poiché non è chiuso rispetto alla somma (ma è chiuso rispetto alla moltiplicazione per scalare). Definiamo U + W := {u + w : u ∈ U w ∈ W }. Proposizione 5.26. U + W è un sottospazio vettoriale di V . Dimostrazione. Dobbiamo dimostrare che U + W è chiuso rispetto alla somma e la moltiplicazione per scalare. Ovvero, se z, h ∈ U + W e λ ∈ K, allora z + h ∈ U + W e λz ∈ U + W . Siano z, h ∈ U + W . Per definizione di U + W , esitono u1 , u2 ∈ U e w1 , w2 ∈ W tale che z = u1 + w1 e h = u2 + w2 rispettivamente. La tesi è che anche z + h e λz li posso scrivere come una somma di un elemento di U e di un elemento di W . Infatti, z + h = u1 + w1 + u2 + w2 = u1 + u2 + w1 + w2 ∈ U + W. | {z } | {z } U 101 W Analogamente λz = λu1 + λw1 ∈ U + W, poiché λu1 ∈ U e λw1 ∈ W È facile verificare che U + W contiene sia U e sia W . Se volessimo essere rigorosi dovremmo affermare che U + W è il più piccolo sottospazio vettoriale di V che contiene U ∪ W . Il prossimo risultato fornisce un criterio per determinare un sistema di generatori di U + W . Lemma 5.27. Sia D = {u1 , . . . , un } un sistema di generatori di U e C = {w1 , . . . , wm } un sistema di generatori di W . Allora D ∪ C è un sistema di generatori di U + W . Dimostrazione. I vettori u1 , . . . , un , w1 , . . . wm ∈ U + W . Quindi, tenendo in mente che U + W è un sottospazio di V , si ha L(u1 , . . . , un , w1 , . . . , wm ) ⊆ U + W. Dimostriamo l’inclusione opposta. Sia z ∈ U + W . Il vettore z = u + w per un certo u ∈ U e w ∈ W . Poiché D = {u1 , . . . , un }, rispettivamente C = {w1 , . . . , wm }, è un sistema di generatori di U , rispettivamente W , esistono α1 , . . . , αn , rispettivamente β1 , . . . , βm , tale che u = α1 u1 + · · · + αn un , rispettivamente w = β1 w1 + · · · + βm wm . Quindi u + w = α1 u1 + · · · + αn un + β1 w1 + · · · + βm wm ∈ L(u1 , . . . , un , w1 , . . . , wm ), ovvero U + W ⊆ L(u1 , . . . , un , w1 , . . . , wm ). Esempio 5.28. Si considerino i sottospazi 1 0 1 U = L 1 , W = L 1 , 1 2 1 1 di R3 . Allora 1 0 1 1 , 1 , 1 , U +W =L 2 1 1 102 e 1 0 1 dim(U + W ) = rg 1 1 1 = 3 verificare!. 2 1 1 Quindi U + W = R3 . Teorema 5.29 (Formula di Grassman). Sia V uno spazio vettoriale su K. Siano U e W sottospazi vettoriali di V . Allora dim(U + W ) + dim(U ∩ W ) = dim U + dim W Facoltativa. Sia {s1 , . . . , sk } una base di U ∩ W . Per il Teorema di completamento a base, possiamo completarla a base di U , {s1 , . . . , sk , u1 , . . . , up }, rispettivamente a una base di W , {s1 , . . . , sk , w1 , . . . , wq }. Quindi dim(U ∩ W ) = k, dim U = k + p ed infine dim W = k + q. Per il Lemma anteriore, i vettori {s1 , . . . , sk , u1 , . . . , up , w1 , . . . , wq }, formano un sistema di generatori di U + W . Vogliamo dimostrare che sono linearmente indipendenti e quindi formano una base di U +W . Consideriamo una loro combinazione lineare uguale al vettore nullo: α s + · · · + αk sk + β1 u1 + · · · + βp up + γ1 w1 + · · · + γq wq = 0, | 1 1 {z } | {z } | {z } s u w ovvero s + u + w = 0, dove s ∈ U ∩ W , u ∈ U e w ∈ W . Quindi u = −s − w ∈ W , rispettivamente w = −s − u ∈ U , da cui segue che u, w ∈ U ∩ W . In particolare esistono λ1 , . . . , λk , rispettivamente µ1 , . . . , µk , tali che u = λ1 s1 + · · · + λk sk = β1 u1 + · · · + βp up , rispettivamente w = µ1 s1 + · · · + µk sk = γ1 w1 + · · · + γq wq , ovvero λ1 s1 + · · · + λk sk − β1 u1 − · · · − βp up = 0, rispettivamente µ1 s1 + · · · + µk sk − γ1 w1 − · · · − γq wq = 0. 103 Poiché i vettori {s1 , . . . , sk , u1 , . . . , up } formano una base di U , rispettivamente {s1 , . . . , sk , w1 , . . . , wq } formano una base di W , ne segue che β1 = · · · = βp = 0, rispettivamente γ1 = · · · = γq = 0. Quindi u = w = 0 ed α1 s1 + · · · + αk sk = 0, Poiché i vettori s1 , . . . , sk sono linearmente indipendenti si ha α1 = · · · = αk = 0, ovvero i vettori s1 , . . . , sk , u1 , . . . , up , w1 , . . . , wq sono linearmente indipendenti. Quindi, dim(U + W ) = k + p + q = (k + p) + (k + q) − k = dim U + dim W − dim(U ∩ W ). Definizione 5.30. Sia V uno spazio vettoriale su K. Siano U e W sottospazi vettoriali di V . Diremo U e W sono in somma diretta se U ∩W = {0}. Diremo inoltre che V è in somma diretta di U e W se: • U ∩ W = {0}; • U +W =V. Se V è in soma diretta di U e W scriveremo V = U ⊕ W . Esempio 5.31. Si considerino i sottospazi U = L(e1 ) e W = L(e2 ) di R2 . È facile verificare che U ∩ W = {0}. W U Figura 5.31.1. Quindi U e W sono in somma diretta. Inoltre, U + W = R2 , poiché U + W = L(e1 , e2 ) = R2 , ovvero R2 = U ⊕ W . Applicando la formula di Grassman si ha il seguente risultato. Corollario 5.32. Siano U e W due sottospazi vettoriali di V . Allora: 104 a) U e W sono in somma diretta se e solamente se dim(U +W ) = dim U + dim W ; b) V è somma diretta di U e W se e solamente se dim V = dim(U + W ) e dim(U + W ) = dim U + dim W . Dimostrazione. Tenendo in mente che U ∩ W = {0} è equivalente a dim(U ∩ W ) = 0, applicando la formula di Grassmann dim(U + W ) + dim(U ∩ W ) = dim U + dim W, si ha che U ∩ W = {0} se e solamente se dim(U + W ) = dim U + dim W . Se V è somma diretta di U e W , allora U ∩ W = {0} ed V = U + W . Quindi dim V = dim(U + W ). Applicando la formula di Grassmann si ha dim(U + W ) = dim U + dim W . Viceversa, supponiamo che dim V = dim(U + W ) = dim U + dim W . Poiché U + W ⊆ V , applicando il Corollario 5.22 si ha V = U + W . Applicando nuovamente la formula di Grassman, se dim(U + W ) = dim U + dim W , allora U ∩ W = {0} concludendo la dimostrazione. Il seguente risultato descrive geometricamente cosa significa che V è somma diretta di U e W . Corollario 5.33. Sia V uno spazio vettoriale su K e siano U e W sottospazi di V . Allora V è somma diretta di U e W se e solamente se ogni elemento di V si scrive in maniera unica come somma di un vettore di U ed un vettore di W . Facoltattiva. Se V è somma diretta di U e W , allora U ∩ W = {0} e V = U + W . La seconda proprietà implica che ogni vettore v ∈ V si scrive come somma v = u + w, dove u ∈ U e w ∈ W . Se v = u + w = u0 + w0 , allora u − u0 = w − w0 ∈ U ∩ W. Quindi u = u0 e w = w0 . Viceversa, supponiamo che ogni elemento di V si scriva, in maniera unica, come somma di un elemento di U e di un elemento di W . Allora V = U + W (Perché?). Se z ∈ U ∩ W , allora z = 43 z + 14 z = 21 z + 12 z. Quindi se z 6= 0, allora potrei scrivere z come somma di un elemento di U e di un elemento di W in almeno due modi differenti. Assurdo. Quindi U ∩ W = {0}. 105 Esempio 5.34. Sia V = Mn×n (R) e siano U = {A ∈ V : A = AT } e W = {A ∈ V : A = −AT }. Ogni matrice A ∈ V si scrive in maniera unica come combinazione lineare di una matrice simmetrica ed una antisimmetrica: 1 1 A = (A + AT ) + (A − AT ). 2 2 Quindi V è somma diretta di U e W . Sia V uno spazio vettoriale su K e sia W un sottospazio vettoriale di V . Una domanda naturale è se esiste W 0 sottospazio di V tale che V = U ⊕ W . La risposta è affermativa ed una diretta conseguenza del Teorema di completamento a base. Corollario 5.35. Sia V uno spazio vettoriale su K e sia W un sottospazio vettoriale di V . Esistono (infiniti) W 0 tali che V = W ⊕ W 0 . Facoltativa. Sia C = {w1 , . . . , wk } una base di W . Possiamo completarla a basa di V . Siano v1 , . . . , vs tale che i vettori w1 , . . . , wk , v1 , . . . , vs formano una base di V . Affermiamo che V è in somma diretta di W e W 0 = L(v1 , . . . , vs ). Poiché W + W 0 = L(w1 , . . . , wk , v1 , . . . , vs ) ed w1 , . . . , ws , v1 , . . . , vs formano una base di V si ha W + W 0 = V . Sia z ∈ W ∩ W 0 . Allora z = α 1 w1 + · · · + α k wk = β 1 v 1 + · · · + β s v s , da cui segue α1 w1 + · · · + αk wk + (−β1 )v1 + · · · + (−βs )vs = 0. Poiché i vettori w1 , . . . , wk , v1 , . . . , vs sono linearmente indipendenti i coefficienti α1 = · · · = αk = β1 = · · · = βs = 0, ovvero z = 0. 5.35.1 Tecniche di Calcolo Siano U = L(X1 , . . . , Xk ) e W = L(Y1 , . . . , Ys ) sottospazi vettoriale di Siano A = (X1 , . . . , Xk ) ∈ Mn×k (K), B = (Y1 , . . . , Ys ) ∈ Mn×s (K) e C = (X1 , . . . , Xk , Y1 , . . . , Ys ) ∈ Mn×(k+s) (K). Allora Kn . • dim U = rg(A); 106 • dim W = rg(B); • dim(U + W ) = rg(C); • dim(U ∩ W ) possiamo calcolarla applicando la formula di Grassman; • U e W sono in somma diretta se e solamente se rg(C) = rg(A)+rg(B); • Kn è in somma ditretta di U e W se e solamente se n = rg(C) = rg(A) + rg(B). Per quanto riguarda l’intersezione possiamo cosı̀ procedere. Siano U e W . Calcoliamo equazioni cartesiane di U e W rispettivamente. Allora l’unione di queste equazioni sono equazioni cartesiane per l’intersezione U ∩ W . Sia V uno spazio vettoriale su K. Siano U = L(u1 , . . . , up ), W = L(w1 , . . . , wq ) sottospazi vettoriali di V . Sia infine B una base di V . Allora: • dim U = rg(([u1 ]B , . . . , [up ]B ); • dim W = rg(([w1 ]B , . . . , [wq ]B ); • dim U + W = rg(([u1 ]B , . . . , [up ]B , [w1 ]B , . . . , [wq ]B )). • la dim(U ∩W ) possiamo ricavarla utilizzando la formula di Grassmann. 107 Capitolo 6 Applicazioni lineari e matrici 6.1 Applicazioni lineari Definizione 6.2. Siano V, W spazi vettoriali su K. Una applicazione T : V −→ W si dice lineare se: a) ∀v1 , v2 ∈ V , T (v1 + v2 ) = T (v1 ) + T (v2 ) (additiva); b) ∀v ∈ V e λ ∈ K, T (λv) = λT (v) (omogenea). Proposizione 6.3. Sia T : V −→ W una applicazione lineare. Allora • T (0V ) = 0W ; • T (−v) = −T (v); • siano v1 , . . . , vn ∈ V e siano α1 , . . . , αn ∈ K. Allora T (α1 v1 + · · · + αn vn ) = α1 T (v1 ) + · · · + αn T (vn ). Dimostrazione. Dimostreremo solamente l’ultima proprietà lasciando le altre due per esercizo. T (α1 v1 + · · · + αn vn ) = T (α1 v1 ) + T (α2 v2 + · · · + αn vn ) = T (α1 v1 ) + T (α2 v1 ) + · · · + T (αn vn ) = α1 T (v1 ) + α2 T (v2 ) + · · · + αn T (vn ) = α1 T (v1 ) + · · · + αn T (vn ). 108 Vediamo alcuni esempi di applicazioni lineari. Esempio 6.4. a) T : V −→ W , v 7→ 0W è lineare; b) IdV : V −→ V , v 7→ v è una applicazione lineare; c) L’applicazione Mm×n (R) −→ Mn×m (R), A 7→ AT è una applicazione lineare; d) sia V uno spazio vettoriale su K e sia B una base di V . Allora FB : V −→ Kn , v 7→ [v]B , è una applicazione lineare; e) sia A ∈ Mm×n (K). Le applicazioni Mp×m (K) −→ Mp×n (K), X 7→ XA, Mn×q (K) −→ Mm×q (K), X 7→ AX, e sono applicazioni lineari. f ) Sia A ∈ Mm×n (K). Allora LA : Kn −→ Km , X 7→ AX, è una applicazione lineare. g) L’applicazione Mn×n (K) −→ K A 7→ Tr(A) è una applicazione lineare. Osservazione 6.5. L’applicazione T : R −→ R, T (x) = x + 1 non è una applicazione lineare poiché T (0) = 1 6= 0. Lo stesso vale per l’applicazione T : R −→ R, T (x) = x2 poiché T (−x) = T (x) per ogni x ∈ R. Un altro esempio di applicazione che non è lineare è l’applicazione Mm×n (C) −→ Mn×m (C), A ∈ Mm×n (C) 7→ A∗ ∈ Mn×m (C). Infatti (λA)∗ = λA, ovvero non è omogenea (ma è additiva). 109 Siano V, W spazi vettoriali su K. Indichiamo con Lin(V, W ) oppure Hom(V, W ) l’insieme di tutte le applicazioni lineari fra V e W . Se T, L ∈ Lin(V, W ), diremo che T = L se per ogni v ∈ V si ha T (v) = L(v). Lin(V, W ) ammette una struttura di spazio vettoriale su K. Siano T, L ∈ Lin(V, W ) e λ ∈ K. Definiamo (T + L)(v) := T (v) + L(v), (λT )(v) = λT (v). Proposizione 6.6. Se V, W sono spazi vettoriali su K, allora Lin(V, W ) con le operazioni di somma e moltiplicazione per scalare definite come sopra è uno spazio vettoriale su K. Proposizione 6.7. Siano f ∈ Lin(V, W ) e g ∈ Lin(W, Z). Allora g ◦ f ∈ Lin(V, Z) è ancora una applicazione lineare, ovvero la composizione di applicazioni lineari è ancora una applicazione lineare. L’inversa, quando esiste, di una applicazione lineare è ancora lineare. Inoltre: siano L : V −→ W , T, H : W −→ Z e S, Q : D −→ W . Allora a) (T + H) ◦ L = T ◦ L + H ◦ L; b) T ◦ (S + Q) = T ◦ S + T ◦ Q; c) λ(H ◦ L) = (λH) ◦ L = H ◦ (λL). Facoltativa. Siano v1 , v2 ∈ V . Allora (g ◦ f )(v1 + v2 ) = g(f (v1 + v2 )) = g(f (v1 ) + f (v2 )) = g(f (v1 )) + g(f (v2 )) = (g ◦ f )(v1 ) + (g ◦ f )(v2 ). Analogamente se λ ∈ K e v ∈ V si ha (g ◦ f )(λv) = g(f (λv)) = g(λf (v)) = λg(f (v)) = λ(g ◦ f )(v). Sia T : V −→ W lineare e biunivoca. Dalla teoria degli insieme sappiamo che esiste T −1 : W −→ V tale che T ◦ T −1 = IdW e T −1 ◦ T = IdV . L’applicazione T −1 : W −→ V è cosı̀ definta: T −1 (w) = v, dove v è l’unico elemento di V tale che T (v) = w. Vogliamo dimostrare che T −1 è lineare. Siano w1 , w2 ∈ W e siano v1 , rispettivamente v2 ∈ V , tali che T (v1 ) = w1 , rispettivamente T (v2 ) = w2 . Poiché T è lineare si ha T (v1 + v2 ) = T (v1 ) + T (v2 ) = w1 + w2 . 110 Per definizione di T −1 si ha T −1 (w1 + w2 ) = v1 + v2 = T −1 (w1 ) + T −1 (w2 ). Siano λ ∈ K e w ∈ W . Sia v ∈ V tale che T (v) = w. Poiché T è lineare si ha T (λv) = λT (v) = λw, ovvero T −1 (λw) = λT −1 (w). Le rimanenti proprietà sono lasciate per esercizio. Il prossimo risultato garantisce che una applicazione lineare è completamente determinate dai valori che assume su una base di V . Proposizione 6.8. Siano V e W spazi vettoriali su K. Sia B = {v1 , . . . , vn } una base di V e siano w1 , . . . , wn ∈ W . Esiste una unica applicazione lineare T : V −→ W , tale che T (v1 ) = w1 , . . . , T (vn ) = wn . Dimostrazione. Supponiamo che esistono T, L : V −→ W lineari tali che T (v1 ) = L(v1 ), . . . , T (vn ) = L(vn ) e dimostriamo che T = L. Sia v ∈ V . Poiché B = {v1 , . . . , vn } è una base di V esistono, e sono unici, x1 , . . . , xn ∈ K, tale che v = x1 v1 + · · · + xn vn . Quindi T (v) = T (x1 v1 + · · · + xn vn ) = x1 T (v1 ) + · · · + xn T (vn ) = x1 L(v1 ) + · · · + xn L(vn ) = L(x1 v1 + · · · + xn vn ) = L(v). Quindi se esite una tale applicazione è unica. Adesso dimostriamo che esiste una applicazione lineare T : V −→ W tale che T (v1 ) = w1 , . . . , T (vn ) = wn . Sia v ∈ V . Allora esistono, e sono unici, x1 , . . . , xn ∈ K tale che v = x1 v1 + · · · + xn vn . Definiamo T (v) = x1 w1 + · · · + xn wn . La definizione è ben posta poiché le coordinate sono univocamente determinate. Inoltre, tenendo in mente che [v1 ]B = e1 , . . . , [vn ]B = en , si ha T (v1 ) = w1 , . . . , T (vn ) = wn . Rimane quindi da dimostrare che T è lineare. 111 Siano v, w ∈ V . Allora v = x1 v1 + · · · + xn vn w = y1 v 1 + · · · + yn v n . v + w = (x1 + y1 )v1 + · · · + (xn + yn )vn Quindi T (v + w) = (x1 + y1 )w1 + · · · + (xn + yn )wn = x1 w1 + · · · + xn wn + y1 w1 + · · · + yn wn | {z } | {z } = T (v) + T (w). Sia v ∈ V e sia λ ∈ K. Allora v = x1 v1 + · · · + xn vn λv = λx1 v1 + · · · + λxn vn . Quindi T (λv) = (λx1 )w1 + · · · + (λxn )wn = λ(x1 w1 + · · · + xn wn ) = λT (v). Esempio 6.9. Sia T : R3 −→ R4 l’applicazione lineare definita da: 1 0 2 1 0 1 1 , T 2 = −3 , T 1 = −1 . T 0 = 2 1 5 1 1 1 −1 1 −1 x Vogliamo calcolare T y . z 0 1 1 Sia B = 0 , 2 , 1 , la base di R3 sulla quale conosciamo 1 1 1 l’applicazione lineare T . Se x α y = β z B γ 112 x sono le coordinate del vettore y rispetto alla base B, allora z 2 0 1 x 1 + β −3 + γ −1 . y = α T 5 1 2 z −1 1 −1 x Le coordinate del vettore y rispetto alla base B è l’unica soluzione del z sistema lineare 1 0 1 α x 0 2 1 β = y , 1 1 1 γ z ovvero α = −x − y + 2z β = −x + z γ = 2x + y − 2z Infatti x 1 0 1 y = (−x − y + 2z) 0 + (−x + z) 2 + (2x + y − 2z) 1 . z 1 1 1 Quindi 1 0 x 1 −3 T y = (−x − y + 2z) 2 + (−x + z) 1 z −1 1 2 −1 + (2x + y − 2z) 5 −1 3x + y − 2z −2y + z = 7x + 3y − 5z . −2x + z 113 Corollario 6.10. Siano T, L : V −→ W due applicazioni lineari e sia B = {v1 , . . . , vn } una base di V . Allora T = L, se e solamente se T (v1 ) = L(v1 ), . . . , T (vn ) = L(vn ). Dimostrazione. Se T = L, allora T (v) = L(v) per ogni v ∈ V . In particolare vale per ogni elemento della base B = {v1 , . . . , vn }. Viceversa, supponiamo che T (vi ) = L(vi ) per i = 1, . . . , n. Applicando la proposizione anteriore si ha T = L. Definizione 6.11. Sia T : V −→ W una applicazione lineare. Si pone • Ker T = {v ∈ V : T (v) = 0W } (nucleo di T ). • Im T = {T (v) : v ∈ V } = {w ∈ W : ∃v ∈ V per cui T (v) = w} (Immagine di T ). Proposizione 6.12. Sia T : V −→ W una applicazione lineare. Allora • Ker T è un sottospazio vettoriale di V . • Im T è un sottospazio vettoriale di W . • Se B = {v1 , . . . , vn } è una base di V , allora Im T = L(T (v1 ), . . . , T (vn )). Quindi dim Im T ≤ dim V . Dimostrazione. • Dobbiamo dimostrare che Ker T è chiuso rispetto alla somma e la moltiplicazione per scalare. Siano v, z ∈ Ker T . Allora T (v) = T (z) = 0W . Dobbiamo dimostrare che v + z ∈ Ker T , ovvero T (v + z) = 0W . Poiché T è lineare, si ha T (v + z) = T (v) + T (z) = 0W , quindi v + z ∈ Ker T . Siano v ∈ Ker T e sia λ ∈ K. Dobbiamo dimostrare che λv ∈ Ker T , cioè T (λv) = 0W . Poiché T è lineare e v ∈ Ker T si ha T (λv) = λT (v) = 0W . 114 • Siano w1 , w2 ∈ Im T e λ ∈ K. Dobbiamo dimostrare che w1 + w2 ∈ Im T e λw1 ∈ Im T , ovvero che esistono v, z ∈ V tali che T (v) = w1 +w2 e T (z) = λw1 , rispettivamente. Per ipotesi esistono v1 , v2 ∈ V tali che T (v1 ) = w1 e T (v2 ) = w2 . Quindi T (v1 + v2 ) = T (v1 ) + T (v2 ) = w1 + w2 ∈ Im T, rispettivamente T (λv1 ) = λT (v1 ) = λw1 ∈ Im T. • Sia B = {v1 , . . . , vn } una base di V e sia w ∈ Im T . Allora w = T (v) per un certo v ∈ V . Poiché B = {v1 , . . . , vn } è una base di V si ha v = x1 v1 + · · · + xn vn . Per la linearità di T , si ha w = T (v) = T (x1 v1 + · · · + xn vn ) = x1 T (v1 ) + · · · + xn T (vn ) ∈ L(T (v1 ), . . . , T (vn )). Quindi Im T ⊆ L(T (v1 ), . . . , T (vn )). Poiché T (v1 ), . . . , T (vn ) ∈ Im T , tenendo in mente che Im T è un sottospazio vettoriale di W , si ha L(T (v1 ), . . . , T (vn )) ⊆ Im T. Quindi Im T = L(T (v1 ), . . . , T (vn )). Infine, applicando il Lemma di Steintz si ha dim Im T ≤ dim V . Esempio 6.13. Si consideri l’applicazione lineare T : R4 −→ R3 definita da x x − 2z + 2w y T z = x + 2y + 4w , y+z+w w x y 4 Vogliamo calcolare Ker T , ovvero i vettori z ∈ R tali che w x x − 2z + 2w 0 y = x + 2y + 4w = 0 . T z y+z+w 0 w 115 x y Quindi z ∈ Ker T se e solamente se w x − 2z + 2w = 0 x + 2y + 4w = 0 y + z + w = 0. Applicando l’algoirtmo di Gauss e il metodo della risoluzione all’indietro, si ha 2z − 2w 2 −2 −1 −z − w −1 Ker T = : z, w ∈ R = z + w : z, w ∈ R . 0 z 1 w 0 1 −2 2 −1 −1 Quindi Ker T ha dimensione 2 ed una base è formata dai vettori , . 1 0 1 0 Adesso vogliamo calcolare l’immagine di T . 0 0 0 1 0 1 0 0 Sia C = , , , = {e1 , e2 , e3 , e4 }, la base ca0 1 0 0 0 0 1 0 nonica di R4 . Per la Proposizione 6.12, si ha 1 0 −2 2 Im T = L (T (e1 ), T (e2 ), T (e3 ), T (e4 )) = L 1 , 2 , 0 , 4 . 1 1 1 1 Poiché la matrice (verificare) 1 0 −2 2 1 2 0 4 0 1 1 1 ha rango 2, si ha che dim Im T = 2 ed una base è formata dai vettori 0 1 1 , 2 . 0 1 116 Esempio 6.14. Si consideri l’applicazione lineare T : R3 −→ R3 definita da: 1 1 0 3 1 2 T 0 = 1 , T 2 = −2 , T 1 = 3 . 1 2 1 1 1 5 Per la Proposizione 6.12, si ha 1 3 2 Im T = L 1 , −2 , 3 . 2 1 5 Poiché la matrice (verificare) 1 3 2 1 −2 3 2 1 5 ha rango 2 si ha che dim Im T = 2 ed una base è formata dai vettori 3 x 1 1 , −2 . Per calcolare il nucleo, dobbiamo calcolare T y . 2 1 z 1 0 1 Sia B = 0 , 2 , 1 , la base di R3 sulla quale conosciamo 1 1 1 x l’applicazione lineare T . Le coordinate del vettore y rispetto alla base z B è l’unica soluzione del sistema lineare 1 0 1 α x 0 2 1 β = y , 1 1 1 γ z ovvero α = −x − y + 2z β = −x + z γ = 2x + y − 2z Infatti x 1 0 1 y = (−x − y + 2z) 0 + (−x + z) 2 + (2x + y − 2z) 1 . z 1 1 1 117 Quindi x 1 3 T y = (−x − y + 2z) 1 + (−x + z) −2 z 2 1 2 + (2x + y − 2z) 3 5 y+z = 7x + 2y − 6z . 7x + 3y − 5z x Quindi y ∈ Ker T se e solamente se z x y+z 0 T y = 7x + 2y − 6z = 0 , z 7x + 3y − 5z 0 x y ∈ Ker T se e solamente se ovvero z y+z =0 7x + 2y − 6z = 0 7x + 3y − 5z = 0. Applicando l’algoirtmo di Gauss e il metodo della risoluzione all’indietro, si ha 8/7 8/7z Ker T = −z : z ∈ R = z −1 : z ∈ R . z 1 8/7 Quindi Ker T ha dimensione 1 ed una base è formata dal vettore −1 . 1 Osservazione 6.15. Sia T : V −→ W una applicazione lineare. Ricordiamo che se Z ⊆ W , allora la controimmagine di Z rispetto a T , che indicheremo con T −l (Z), è sottoinsieme di V cosı̀ definito: T −1 (Z) = {v ∈ V : T (v) ∈ Z}. 118 Se Z è un sottospazio vettoriale, allora si può dimostrare che T −1 (Z) è un sottospazio vettoriale di V . Osserviamo che Ker T = T −1 (0W ). Se L ⊆ V , allora l’immagine di L rispetto a T è il sottoinsieme di W cosı̀ definito: T (L) = {T (s) : s ∈ L} Se L è un sottospazio vettoriale di V , allora si può dimostrare che T (L) è un sottospazio vettoriale di W . Inoltre, se L = L(v1 , . . . , vk ), allora T (L) = L(T (v1 ), . . . , T (vk )). Proposizione 6.16. Sia T : V −→ W una applicazione lineare. Allora: • T è iniettiva se e solamente se Ker T = {0V }; • T è suriettiva se e solamente se dim Im T = dim W . Dimostrazione. Una applicazione T è iniettiva se T (v) 6= T (w) ogni volta che v 6= w. Poiché T è lineare, si ha T (0V ) = 0W . Quindi se v 6= 0V , allora T (v) 6= T (0V ) = 0W , ovvero Ker T = {0V }. Viceversa, supponiamo che Ker T = {0V }. Vogliamo dimostrare che se T (v) = T (w), allora v = w. Se T (v) = T (w), allora per la linearità di T si ha T (v − w) = 0. Quindi v − w ∈ Ker T = {0V } da cui segue v = w. Un’applicazione T è suriettiva se Im T = W . Poiché Im T ⊆ W , per il Corollario 5.22, la condizione Im T = W è equivalente a dim W = dim Im T . Teorema 6.17 (Teorema della dimensione). Sia T : V −→ W una applicazione lineare. Allora dim V = dim Ker T + dim Im T. Facoltativa. Sia {v1 , . . . , vk } una base di Ker T . Per il Teorema del complemento a base, esistono vk+1 , . . . , vn tale che {v1 , . . . , vn } è una base di V . Poiché T (v1 ) = · · · = T (vk ) = 0, applicando la Proposizione 6.12, si ha Im T = L(T (v1 ), . . . , T (vn )) = L(T (vk+1 ), . . . , T (vn )). Quindi dim V = n, dim Ker T = k e Im T è generata da n − k vettori. Il Teorema sarà dimostrato se proveremo che i vettori T (vk+1 ), . . . , T (vn ) sono linearmente indipendenti e quindi una base di Im T . In tal caso avrei dim V = n = k + (n − k) = dim dim Ker T + dim Im T. 119 Siano αk+1 , . . . , αn ∈ K tali che αk+1 T (vk+1 ) + · · · + αn T (vn ) = 0W . Per la linearità di T si ha T (αk+1 vk+1 + · · · + αn vn ) = 0W , ovvero αk+1 vk+1 + · · · + αn vn ∈ Ker T . Poiché {v1 , . . . , vk } formano una base di Ker T esistono α1 , . . . , αk ∈ K tali che α1 v1 + · · · + αk vk = αk+1 vk+1 + · · · + αn vn , ovvero α1 v1 + · · · + αk vk − αk+1 vk+1 − · · · − αn vn = 0V . Poiché i vettori v1 , . . . , vn formano una base di V , si ha α1 = · · · = αn = 0, ed in particolare αk+1 = · · · = αn = 0, per cui i vettori T (vr+1 ), . . . , T (vn ) sono linearmenti indipendenti. Vediamo alcune conseguenze del Teorema della dimensione. Corollario 6.18. Sia T : V −→ W una applicazione lineare. Allora T è iniettiva se e solamente se dim Im T = dim V . Dimostrazione. Per la Proposizione 6.16, T è iniettiva se e solamente se Ker T = {0}. Applicando il Teorema della dimensione, dim V = dim Ker T + Im T, si ha che T è iniettiva se e solamente se dim Im T = dim V . Esempio 6.19. Sia T : R3 −→ R4 l’applicazione lineare definita da: 1 2 0 1 0 1 1 0 = 2 . 2 1 0 T = , T = , T −1 3 1 1 1 1 −1 3 −5 Quindi 1 2 0 1 0 2 Im T = L 1 , −1 , 3 −1 3 −5 120 e 1 2 0 1 0 2 dim Im T = rg 1 −1 3 = 2 verificare!. −1 3 −5 Quindi T non è iniettiva. Corollario 6.20. Sia T : V −→ W una applicazione lineare. Allora: • se T è iniettiva, allora dim V ≤ dim W ; • se T è suriettiva, allora dim V ≥ dim W ; • se T è biunivoca, allora dim V = dim W . Dimostrazione. Dimostriamo solamente la seconda affermazione poiché le altre sono analoghe. Se T è suriettiva, allora per la Proposizione 6.16, si ha dim W = dim Im T . Per il Teorema della dimensione si ha dim V = dim Ker T + dim Im T = dim Ker T + dim W ≥ dim W. Corollario 6.21. Sia T : V −→ W lineare. Supponiamo che dim V = dim W . Le seguenti condizioni sono equivalenti: a) T è iniettiva; b) T è suriettiva; c) T è biunivoca. Dimostrazione. Proveremo solamente (b) ⇒ (c). Se T è suriettiva, allora dim Im T = dim W , applicando il Teorema della dimensione si ha dim V = dim Ker T + dim Im T = dim Ker T + dim W. Poiché dim V = dim W si ha dim Ker T = 0, ovvero T è iniettiva. Definizione 6.22. Due spazi vettoriali V, W sono isomorfi se esiste una applicazione lineare T : V −→ W iniettiva e suriettiva, ovvero biunivoca. Un’applicazione lineare e biunivoca si chiama isomorfismo. 121 Proposizione 6.23. Due spazi vettoriali sono isomorfi se e solamente se dim V = dim W . Facoltativa. Applicando il Corollario 6.20 si ha che due spazi vettoriali isomorfi hanno la stessa dimensione . Viceversa, supponiamo che dim V = dim W = n. Sia B = {v1 , . . . , vn }, rispettivamente C = {w1 , . . . , wn }, una base di V , rispettivamente W . Sia T : V −→ W l’unica applicazione lineare tale che T (v1 ) = w1 , . . . , T (vn ) = wn (Proposizione 6.8). Poiché l’immagine contiene una base di W è suriettiva. Per il corollario anteriore T è biunivoca e quindi V e W sono isomorfi. 122 Capitolo 7 Matrici e applicazioni lineari Applicazioni lineari da Kn a Km 7.1 Sia A ∈ Mm×n (K) e sia LA : Kn −→ Km l’applicazione lineare cosı̀ 1 2 3 ∈ M2×3 (R), definita: LA (X) = AX. Per esempio, se A = 0 1 3 allora x x x + 2y + 3z 1 2 3 3 2 y = y . LA : R −→ R , LA = y + 3z 0 1 3 z z Allora: a) Ker LA = {X ∈ Kn : LA (X) = 0Km } = {X ∈ Kn : AX = 0Km } = Sol(A|0Km ); b) Im LA = {b ∈ Km : ∃X ∈ Kn per cui AX = b} = {b ∈ Km : Sol(A|b) 6= ∅} ovvero l’immagine di LA è l’insieme dei vettori di Km per i quali il sistema AX = b è compatibile; c) sia e1 , . . . , en la base canonica di Kn . Poiché LA (ei ) = Aei = Ai , per i = 1, . . . , n, si ha Im LA = L (LA (e1 ), . . . , LA (en )) = L(A1 , . . . , An ), da cui segue che dim Im LA = rg(A); 123 −1 d) sia b ∈ Km . Allora LA (b) = {X ∈ Kn : AX = b} = Sol(A|b). Quindi b ∈ Im LA se e solamente se il sistema lineare AX = b è compatibile e quindi se e solamente se rg(A) = rg(A|b). Applicando il Teorema della dimensione, otteniamo il seguente risultato. Teorema 7.2 (Teorema di nullità più rango). Sia A ∈ Mm×n (K) e sia LA : Kn −→ Km l’applicazione lineare associata ad A. Allora n = dim Ker LA + rg(A) . Il risultato anteriore ci permette di calcolare la dimensione dell’insieme delle soluzioni di un sistema lineare omogeneo. Corollario 7.3. Sia A ∈ Mm×n (K). Allora dim Sol(A|0K m ) = n − rg(A). Dimostrazione. Sia LA : Kn −→ Km , l’applicazione lineare LA (X) = AX. Per Il Teorema anteriore si ha dim Sol(A|0Km ) = dim Ker LA = n − rg(A). Applicando il Teorema della dimensione, ed i suoi corollari, si ha il seguente risultato. Corollario 7.4. Sia A ∈ Mm×n (K) e sia LA : Kn −→ Km . Allora • LA è suriettiva se e solamente se rg(A) = m; • LA è iniettiva se e solamente se rg(A) = n; • LA è biunivoca se e solamente se A ∈ Mn×n (K) e rg(A) = n se e solamente se A ∈ Mn×n (K) e det(A) 6= 0. Infine, LIdn = IdKn . Dimostrazione. LA è suriettiva se e solamente se dim Im LA = dim Km se e solamente se rg(A) = m. LA è iniettiva se e solamente dim Im LA = dim Kn se e solamente se rg(A) = n. LA è biunivoca se e solamente se A è una matrice quadrata e dim Im LA = dim Kn = n quindi se e solamente se A è una matrice quadrata di formato n × n e rg(A) = n, ovvero se e solamente se A è una matrice invertbile. 124 Infine, LIdn : Kn −→ Kn è l’applicazione lineare, LIdn (X) = Idn X = X = IdKn (X). 1 1 2 1 Esempio 7.5. Sia A = −1 2 3 2 . Allora LA : R4 −→ R3 , 4 1 3 1 x1 x1 + x2 + 2x3 + x4 x2 LA x3 = −x1 + 2x2 + 3x3 + 2x2 4x1 + x2 + 3x3 + x4 x4 La matrice matrice A ha rango 2 (verificare!). Quindi dim Im LA = 2 e dim Ker LA = 2. Una base per l’immagine di LA è formata dai vettori 1 1 −1 , 2 . 4 1 Il nucleo di LA è l’insieme delle soluzione del sistema lineare omogeneo AX = 0R3 . Una base per il nucleo di LA è formata dai vettori 0 1 5 −1 0 , −3 1 0 Sia A ∈ Mm×n (K) e sia B ∈ Mn×p (K). Allora LA : Kn −→ Km , rispettivamente LB : Kp −→ Kn . L’applicazione LA ◦ LB : Kp −→ Km , è lineare. 125 Proposizione 7.6. LA ◦ LB = LAB . In particolare, se A ∈ Mn×n (K) è una matrice invertibile, allora LA è biunivoca e L−1 A = LA−1 Dimostrazione. (LA ◦ LB )(X) = LA (LB (X)) = LA (BX) = ABX = (AB)(X) = LAB (X). Sia A ∈ Mn×n (K) una matrice invertibile. Abbiamo già visto che LA è biunivoca e viceversa. Inoltre, tenendo in mente che LIdn = IdKn , si ha LA ◦ LA−1 = LAA−1 = LIdn = IdKn e LA−1 ◦ LA = LA−1 A = LId = IdKn , ovvero (LA )−1 = LA−1 Esempio 7.7. Sia A = 1 1 2 1 −1 1 1 1 ∈ M2×3 (R) e sia B = 0 1 ∈ 1 −1 M3×2 (R). Allora: x x + y + 2z 3 2 y LA : R −→ R , LA , = x−y+z z x+y x = y , LB : R2 −→ R3 , LB y x−y LA ◦ LB : R2 −→ R2 , x x 3 0 x 3x LA ◦ LB = LAB = = , y y 2 −1 y 2x − y LB ◦ LA : R3 −→ R3 , x 2 0 3 x 2x + 3z x LB ◦LA y = LBA y = 1 −1 1 y = x − y + z , z z 0 2 1 z 2y + z Sia K : Mm×n (K) −→ Lin(Kn , Km ) A 7→ LA . L’applicazione K è lineare. Infatti LA+B (v) = (A + B)(v) = Av + Bv = LA (v) + LB (v), 126 per ogni v ∈ Kn . Quindi K(A + B) = LA+B = LA + LB = K(A) + K(B). Se λ ∈ K e A ∈ Mm×n (K), allora per ogni v ∈ Kn si ha LλA (v) = (λA)v = λ(Av) = λ(LA )(v), ovvero K(λA) = λK(A). Tale applicazione è anche iniettiva, poiché K(A) = LA è l’applicazione lineare nulla se e solamente se Im LA = {0K m } se e solamente se L(A1 , . . . , An ) = {0}, quindi se e solamente se A = 0. Vogliamo dimostrare che ogni applicazione lineare è della forma LA , ovvero che K è suriettiva. Quindi K è un isomorfismo fra l’insieme delle matrici Mm×n (K) e Lin(Kn , Km ) . Sia T : Kn −→ Km una applicazione lineare. Sia (e1 , . . . , en ) la base x1 canonica di Kn . Se X = ... ∈ Kn , allora X = x1 e1 + · · · + xn en , e xn T (X) = T (x1 e1 + · · · + xn en ) = x1 T (e1 ) + · · · + xn T (en ) x1 = MT ... . xn dove MT = (T (e1 ), . . . , T (en )) ∈ Mm×n (K). Quindi T (X) = MT X = LMT (X). In particolare Ker T = Sol(MT |0) e dim Im T = rg(MT ) Riassumento abbiamo dimostrato il seguente risultato. Proposizione 7.8. Sia T : Kn −→ Km una applicazione lineare e sia {e1 , . . . , en } la base canonica di Kn . Allora T = LMT dove MT = (T (e1 ), . . . , T (en )) ∈ Mm×n (K). Inoltre, valgono le seguenti proprietà: • KerT = Sol(MT |0); • ImT = L(MT1 , . . . , MTn ) e dim Im T = rg(MT ). 127 Corollario 7.9. Sia T : Kn −→ Km una applicazione lineare e sia MT = (T (e1 ), . . . , T (en )) ∈ Mm×n (K), dove {e1 , . . . , en } è la base canonica di Kn . Allora a) T è iniettiva se e solamente se rg(MT ) = n; b) T è suriettiva se e solamente se rg(MT ) = m; c) T è biunivoca se e solamente se MT è invertibile; d) b ∈ Im T se e solamente se il sistema lineare MT X = b è compatibile. Dimostrazione. Poiché T = LMT , applicando il Corolario 7.4, le prima tre proprietà sono di verifica immediata. Sia b ∈ Km . b ∈ Im T se esiste Y ∈ Kn tale che T (Y ) = b. Poiché T (Y ) = LMT (Y ) = MT Y = b, si ha b ∈ Im T se e solamente se il sistema lineare MT X = b è compatibile. Esempio 7.10. Si consideri l’applicazione lineare T : R3 −→ R3 definita da x x + y + 2z T y = 2x + y + 3z , z x + 2y + 3z 0 0 1 Sia 0 , 1 , 0 la base canonica di R3 . Allora 0 0 1 2 0 1 0 1 1 T 0 = 2 , T 1 = 1 , T 0 = 3 , 3 1 2 0 1 0 e quindi 1 1 2 MT = 2 1 3 . 1 2 3 Poiché rg(MT ) = 2, (verificare!) T non è iniettiva, rispettivamente suriettiva, rispettivamente biunivoca. Inoltre, 1 Ker T = Sol(MT |0R3 ) = L 1 . −1 128 2 Sia b = −1 ∈ R3 . Stabilire se b ∈ Im T è equivalente a stabilire se il 7 sistema MT X = b, è compatibile. Poiché rg(MT ) = rg(MT |b) (verificare!), b ∈ Im T . Il prossimo risultato riguarda la corrispondenza T 7→ MT . Proposizione 7.11. L’applicazione H : Lin(Kn , Km ) 7→ Mm×n (K) T 7→ MT , è una applicazione lineare, i.e., a) MT +L = MT + ML ; b) MλT = λMT ; biunivoca la cui inversa è K. Inoltre: • se T : Kn −→ Kp e G : Kp −→ Km , allora MG◦T = MG MT ; • se MIdKn = Idn ; • se T : Kn −→ Kn è invertibile, allora MT −1 = MT−1 . In particolare dim Lin(Kn , Km ) = mn. Facoltativa. Abbiamo dimostrato che K : Mm×n (K) −→ Lin(Kn , Km ) A 7→ LA . è un isomorfismo. È facile verifivare che l’applicazione H : Lin(Kn , Km ) −→ Mm×n (K) T 7→ MT , è l’inversa di K e quindi è lineare. Siano T : Kn −→ Kp e G : Kp −→ Km lineari. Allora G ◦ T : Kn −→ Km è lineare. Vogliamo dimostrare che MG◦T = MG MT . Poiché T = LMT e G = LMG , allora G ◦ T = LMG ◦ LMT = LMG MT . Quindi, tenendo in mente che l’applicazione T 7→ MT è biunivoca, si ha MG◦T = MG MT . 129 Infine, sia T : Kn −→ Kn invertibile. Quindi MT è invertibile. Inoltre LMT ◦ LM −1 = LMT (MT )−1 = IdKn , T ovvero T −1 = LM −1 . Infine, poiché H è un isomorfismo, T dim Lin(Kn , Km ) = Mm×n (K) = mn. 7.12 Matrice associata ad una applicazione lineare In questa sezione vogliamo associare ad una applicazione lineare una matrice generalizzando la costruzione che abbiamo introdotto nelle sezioni anteriori. Sia T : V −→ W una applicazione lineare. Siano B = {v1 , . . . , vn } e C = {w1 , . . . , wm } basi di V e W rispettivamente. Se v ∈ V , allora x1 .. v = x1 v1 + · · · + xn vn e [v]B = . sono le coordinate di v rispetto a B. xn y1 Analogamente se w ∈ W , allora w = y1 w1 + . . . + ym wm e [w]C = ... ym sono le coordinate di w rispetto alla base C. Vogliamo calcolare le coordinate di T (v) rispetto alla base C. Poiché FC : W −→ Km è lineare, si ha [T (v)]C = [T (x1 v1 + · · · + xn vn )]C = [x1 T (v1 ) + · · · + xn T (vn )]C = x1 [T (v1 )]C + · · · + xn [T (vn )]C = MC,B (T )[v]B , dove MC,B (T ) = ([T (v1 )]C , . . . , [T (vn )]C ) ∈ Mm×n (K). MC,B (T ) è chiamata la matrice associata a T rispetto alla basi B in partenza e C in arrivo. La matrice MC,B (T ) è l’unica matrice di ordine m × n, dove m = dim W e n = dim V , a coefficienti in K che verifica [T (v)]C = MC,B (T )[v]B , 130 per ogni v ∈ V . In maniera equivalente, il seguente diagramma FB n K /W T V FC / Km LMC,B (T ) è commutativo, i.e., FC ◦ T = LMC,B (T ) ◦ FB . Osservazione 7.13. Sia T : Kn −→ Km . Sia C la base canonica di Kn e C 0 la base canonica di Km . Allora MT = (T (e1 ), . . . , T (en )) = MC 0 ,C (T ) Proposizione 7.14. Sia T : V −→ W e siano B e C basi di V e W rispettivamente. Allora dim ImT = rg(MC,B (T )) e quindi dim KerT = dim V − rg(MC,B (T )). Inoltre • FC (Im T ) = Im LMC,B (T ) ; • FB (Ker T ) = Ker LMC,B (T ) ; Facoltativa. Sia v ∈ V . T (v) = 0 se e solamente se [T (v)]C = 0. Poiché [T (v)]C = MC,B (T )[v]B , si ha T (v) = 0 se e solamente se MC,B (T )[v]B = 0. dimostrato che Quindi abbiamo Ker T = {v ∈ V : T (v) = 0} = {v ∈ V : [v]B ∈ Sol(MC,B (T )|0)} . In particolare FB (Ker T ) = Sol(MC,B (T )|0). Poiché FB è un isomorfismo si ha dim Ker T = dim Sol(MC,B (T )|0) = dim V − rg(MC,B (T )). Applicando il Teorema della dimensione si ha dim ImT = rg(MC,B (T )). Per la seconda parte osserviamo che Ker LMC,B (T ) = Sol(MC,B (T )|0), quindi FB (Ker T ) = Ker LMC,B (T ) . Sia w ∈ W . w ∈ Im T se e solamente se esiste v ∈ V tale che T (v) = w. Quindi se e solamente se [T (v)]C = [w]C . Poiché [T (v)]C = MC,B (T )[v]B , si ha w ∈ Im T se e solamente se [w]C ∈ Im LMC,B (T ) , ovvero FC (Im T ) = Im LMC,B (T ) . 131 Applicando il risultato anteriore ed il Corollario 6.16 si ha il seguente risultato. Corollario 7.15. Sia T : V −→ W e siano B e C basi di V e W rispettivamente. Allora: • T è iniettiva se e solamente se rg(MC,B (T )) = dim V ; • T è suriettiva se e solamente se rg(MC,B (T )) = dim W ; • T è biunivoca se e solamente se MC,B (T ) è invertibile. 0 1 Esempio 7.16. Sia A = e sia Sia T : M2×2 (R) −→ M2×2 (R) cosı̀ 1 1 definita: T (X) = X − Tr(X)A. L’applicazione T è lineare (verificare). Sia 0 0 0 0 0 1 1 0 , , , , B= 0 1 1 0 0 0 0 0 una base di M2×2 (R). Allora 0 1 0 1 1 −1 1 0 = ,T = T 0 0 0 0 −1 −1 0 0 0 −1 0 0 0 0 0 0 . = ,T = T −1 0 0 1 1 0 1 0 Poiché a b c d =a 1 0 0 0 +b 0 1 0 0 si ha +c 0 0 1 0 +d 0 0 0 1 a b a b 7→ c , c d d FB : M2×2 (R) −→ R4 e quindi 1 −1 MB,B (T ) = −1 −1 0 1 0 0 0 0 0 −1 . 1 −1 0 0 Poiché rg(MB,B (T )) = 3, allora dim Im T = 3 e dim Ker T = 1 132 , Esempio 7.17. Sia T : R3 −→ R3 l’applicazione lineare definita da: 1 1 0 1 1 1 T 0 = 0 , T 2 = 2 , T 1 = 1 . 1 2 1 4 1 3 Allora 1 1 1 MC,B (T ) = 0 2 1 , 2 4 3 0 1 1 0 , 2 , 1 è la matrice associata a T rispetto alle basi B = 1 1 1 in partenza e la base canonica C in arrivo. Poiché MC,B (T ) ha rango 2, allora T non è iniettiva. Per calcolare il nucleo possiamo procedere come segue. Poiché T (X) = MC,B (T )[X]B , si ha X ∈ Ker T se e solamente se T (X) = MC,B (T )[X]B = 0. Quindi Sol(MC,B (T )|0) descrive le coordinate dei vettori X ∈ R3 rispetto alla base B tali che T (X) = 0. Applicando il metodo di Gauss e il metodo della risoluzione all’indietro, si ha 1 Sol((MC,B (T )|0)) = L 1 . −2 Quindi una base per il Ker T è dato dal vettore 1 0 1 −1 1 0 + 1 2 − 2 1 = 0 . 1 1 1 0 Un’altro metodo per calcolare il nucelo è ricavare x x T y = MC,B (T ) y z z B 1 1 1 −x − y + 2z −x + z = 0 2 1 2 4 3 2x + y − 2z z , y = y + 2z 133 1 da cui segue facilmente che Ker T = L 0 . 0 È possibile raffinare i risultati anteriori provando il seguente risultato. Proposizione 7.18. Siano V e W spazi vettoriali su K e siano B = {v1 , . . . , vn } e C = {w1 , . . . , wm } basi di V e W rispettivamente. L’applicazione M : Lin(V, W ) −→ Mm×n (K), T 7→ MC,B (T ), è un isomorfismo di spazi vettoriali. In particolare dim Lin(V, W ) = dim V dim W = mn. Facoltativa. Dimostriamo che M è lineare. Siano T, L ∈ Lin(V, W ). La matrice MC,B (T ), rispettivamente MC,B (L), è l’unica matrice di formato m × n tale che [T (v)]C = MC,B (T )[v]B , rispettivamente [L(v)]C = MC,B (L)[v]B , per ogni v ∈ V . Quindi [(T + L)(v)]C = [T (v)]C + [L(v)]C = MC,B (T )[v]B + MC,B (L)[v]B = (MC,B (T ) + MC,B (L))[v]B , ovvero M(T + L) = M(T ) + M(L). Analogamente vale M(λT ) = λM(T ). La suriettività può essere dimostrata come segue. Sia A ∈ Mm×n (K) e sia T : V −→ W l’unica applicazione lineare definita da T (v1 ) = m X ai1 wi , . . . , T (vn ) = i=1 m X ain wi . i=1 Quindi la i-esima colonna della matrice MC,B (T ) è, per definizione, [T (vi )]C = a1i .. . , per i = 1, . . . , n, ovvero la i-esima colonna della matrice A, da cui ami segue che MC,B (T ) = A, dimostrando che M è suriettiva. Poiché T = 0 se e solamente se T (v) = 0 per ogni v ∈ V , quindi se e solamente se [T (v)]C = MC,B (T )[v]B = 0 per ogni v ∈ V . Quindi se e solamente se MC,B (T ) = 0. 134 Come nel caso di Lin(Kn , Km ), la corrispondenza biunivoca sopra definita verifica altre proprietà. Proposizione 7.19. Siano L, T : V −→ W , H : W −→ Z e G : N −→ V . Siano B una base di V , C una base di W , H una base di Z ed infine X una base di N . Allora: a) MC,X (T ◦ G) = MC,B (T )MB,X (G); b) MH,B (H ◦ (L + T )) = MH,C (H)(MC,B (L) + MC,B (T )); c) MC,X ((L + T ) ◦ G) = (MC,B (L) + MC,B (T ))MB,X (G); d) sia IdV : V −→ V . Allora MB,B (IdV ) = Iddim V ; e) se T : V −→ W è invertibile, allora MB,C (T −1 ) = MC,B (T )−1 . Facoltativa. Dimostriamo solo il punto a). Sia n ∈ N . Allora [T (G(n))]C = MC,B (T )[G(n)]B = MC,B (T )MB,X (G)[n]X da cui segue MC,X (T ◦ G) = MC,B (T )MB,X (G). 7.20 Matrice del cambiamento di base Sia V uno spazio vettoriale su K. Se B = {v1 , . . . , vn } è una base di V , allora v = x1 v1 +· · ·+xn vn . Se C = {w1 , . . . , wn } è un altra base di V , allora v = x01 w1 + · · · + x0n wn . Mi domando se esiste una relazione fra i vettori [v]B e [v]C . Poiché FB è un isomorfismo lineare si ha [v]B = [x0 1 w1 + · · · + x0 n wn ]B = x01 [w1 ]B + · · · + x0n [wn ]B = M(B, C)[v]C , dove M(B, C) = ([w1 ]B , . . . , [wn ]B ) ∈ Mn×n (K), si chiama matrice del cambiamento di base da B a C. La matrice del cambiamento di base è l’unica matrice M(B, C) tale che per ogni v ∈ V , si ha [v]B = M(B, C)[v]C . 135 È facile verificare che M(B, C) = MB,C (IdV ) da cui segue che la matrice del cambiamento di base è invertibile. Un altra maniera per provare cje M(B, C) è invertibile è la seguente. Poiché w1 , . . . , wn formano una base di V , anche i vettori [w1 ]B , . . . , [wn ]B formano una base di Kn . Quindi M(B, C) è invertibile. Vediamo altre proprietà della matrice di cambiamento di base. Proposizione 7.21. Siano B, C e D basi di V . Allora • M(B, B) = Idn ; • M(B, C)M(C, D) = M(B, D); • M(B, C) è invertibile e la sua inversa (M(B, C))−1 = M(C, B). Facoltativa. Sia B una base poiché [v1 ]B = e1 , . . . , [vn ]B = en , la matrice M(B, B) = Idn . Sia v ∈ V . Allora [v]B = M(B, C)[v]C = M(B, C)M(C, D)[v]D = M(B, D)[v]D . Poiché vale per ogni v ∈ V , si ha M(B, D) = M(B, C)M(C, D). In particolare M(B, C)M(C, B) = M(B, B) = Idn . Esempio 7.22. Siano 1 1 1 0 1 1 B = 0 , 2 , 1 , B0 = 0 , 1 , 1 1 0 0 1 1 1 basi di R3 . Allora 1 1 1 M(B, B 0 ) = 0 1 1 . 0 B 0 B 1 B Poiché x 1 0 1 x y = Sol 0 2 1 y z B 1 1 1 z −x − y + 2z , −x + z = 2x + y − 2z 136 si ha −1 −2 0 M(B, B 0 ) = −1 −1 0 . 2 3 1 Analogamente 1 0 1 M(B 0 , B) = 0 2 1 . 1 B0 1 B0 1 B0 Poiché x 1 1 1 x y = Sol 0 1 1 y z B0 0 0 1 z x−y = y − z , z si ha 1 −2 0 M(B 0 , B) = −1 1 0 . 1 1 1 1 0 1 0 , 2 , 1 una base di R3 e sia C Esempio 7.23. Sia B = 1 1 1 la base canonica di R3 . Allora 1 0 1 1 0 1 M(C, B) = 0 2 1 = 0 2 1 1 C 1 C 1 C 1 1 1 Invece, poiché x 1 0 1 x y = Sol 0 2 1 y z B 1 1 1 z −x − y + 2z , −x + z = 2x + y − 2z 137 si ha −1 −1 2 1 = M(C, B)−1 . M(B, C) = −1 0 2 1 −2 Teorema 7.24. Sia T : V −→ W una applicazione lineare. Siano B, B 0 e C e C 0 basi di V e W rispettivamente. Allora MC 0 ,B0 (T ) = M(C 0 , C)MC,B (T )M(B, B 0 ). Facoltativa. Sia v ∈ V . Allora [T (v)]C 0 = M(C 0 , C)[T (v)]C Adesso, [T (v)]C = MC,B (T )[v]B , e [v]B = M(B, B 0 )[v]B0 , da cui segue che per ogni v ∈ V si ha [T (v)]C 0 = M(C 0 , C)[T (v)]C = M(C 0 , C)MC,B (T )M(B, B 0 ) [v]B0 . Per definizione di matrice associata a T rispetto alle basi B 0 in partenza e C 0 in arrivo, si ha [T (v)]C 0 = MC 0 ,B0 (T )[v]B0 = M(C 0 , C)MC,B (T )M(B, B 0 ) [v]B0 . per ogni v ∈ V . Quindi MC 0 ,B0 (T ) = M(C 0 , C)MC,B (T )M(B, B 0 ), concludendo la dimostrazione. Corollario 7.25. Sia T : V −→ W una applicazione lineare. Siano B e B 0 basi di V , rispettivamente C e C 0 basi di W . Allora MC 0 ,B (T ) = M(C 0 , C)MC,B (T ), rispettivamente, MC,B0 (T ) = MC,B (T )M(B, B 0 ). Dimostrazione. Per il Teorema anteriore si ha MC 0 ,B (T ) = M(C 0 , C)MC,B (T )M(B, B), rispettivamente, MC,B0 (T ) = M(C, C)MC,B (T )M(B, B 0 ). Tenendo in mente che M(B, B) = Iddim V , rispettivamente M(C, C) = Iddim W , si ha la tesi. 138 Esempio 7.26. Sia T : R3 −→ R3 l’applicazione lineare definita da: 1 1 0 0 1 −2 T 0 = 1 , T 2 = 2 , T 1 = 0 . 1 0 1 1 1 1 Allora 1 0 −2 MC,B (T ) = 1 2 0 , 0 1 1 0 1 1 è la matrice associata a T rispetto alle basi B = 0 , 2 , 1 1 1 1 in partenza e la base canonica C in arrivo. Poiché T (X) = MC,C (T )X, calcolare T (X) è la stessa cosa che calcolare MC,C (T ). Applicando il corollario anteriore, si ha MC,C (T ) = MC,B (T )M(B, C). Nell’esempio 7.23 abbiamo calcolato −1 −1 2 1 , M(B, C) = −1 0 2 1 −2 da cui segue che 1 0 −2 −1 −1 2 1 MC,C (T ) = 1 2 0 −1 0 0 1 1 2 1 −2 −5 −3 6 = −3 −1 4 , 1 1 −1 quindi x −5 −3 6 x −5x − 3y + 6z T y = −3 −1 4 y = −3x − y + 4z . z 1 1 −1 z x+y−z 139 Esempio 7.27. Sia T : R3 −→ R3 l’applicazione lineare definita da: 1 1 1 1 1 −2 T 0 = 0 , T 1 = 1 , T 1 = 5 . 0 −1 0 −1 1 2 Allora 1 1 −2 MB,B (T ) = 0 1 5 . −1 B −1 B 2 B Poiché x x−y y = y − z , z B z si ha 1 0 −7 2 3 . MB,B (T ) = 1 −1 −1 2 Applicando il Teorema 7.24, si ha MC,C (T ) = M(C, B)MB,B (T )M(B, C). Poiché 1 1 1 M(C, B) = 0 1 1 , 0 0 1 1 −1 0 M(B, C) = 0 1 −1 , 0 0 1 si ha 1 1 1 1 0 −7 1 −1 0 3 0 1 −1 MC,C (T ) = 0 1 1 −1 2 0 0 1 1 −1 2 0 0 1 1 0 −3 = 0 1 4 . −1 0 3 Quindi x 1 0 −3 x x − 3z T y = 0 1 4 y = y + 4z . z −1 0 3 z −x + 3z 140 Corollario 7.28. Sia T : V −→ V una applicazione lineare. Siano B e C basi di V . Allora MC,C (T ) = (M(B, C))−1 MB,B (T )M(B, C), Dimostrazione. Applicando il Teorema anteriore si ha MC,C (T ) = M(C, B)MB,B (T )M(B, C). Poiché M(C, B) = M(B, C)−1 , si ha la tesi. Il risultato anteriore suggerisce la seguente definizione. Definizione 7.29. Siano A, B ∈ Mn×n (K). Diremo che A e B sono simili se esiste una matrice invertibile P ∈ Mn×n (K) tale che A = P −1 BP . La relazione A ∼ B, se A e B sono matrici simili, è una relazione di equivalenza, poiché A ∼ A; A ∼ B allora B ∼ A; infine se A ∼ B e B ∼ C, allora A ∼ C. Se A ∼ B, allora Tr(A) = Tr(B), det A = det B e rg(A) = rg(B). Tali condizioni sono necessarie ma non suffcienti (verificare). Il corollario anteriore dimostra che se T : V −→ V è una applicazione lineare, B e C basi di V , allora le matrici MC,C (T ) e MB,B (T ) sono matrici simili. Viceversa, due matrici simili A e B simili sono matrici associate ad una applicazione lineare T : V −→ V rispetto a due basi di V . Infatti, siano A = (aij ) 1 ≤ i ≤ n e B = (bij ) 1 ≤ i ≤ n matrici simili. 1≤j ≤n 1≤j ≤n Esiste P ∈ Mn×n (K) invertibile tale che A = P −1 BP. Sia B = {v1 , . . . , vn } una Pn base di V . Sia T : V −→ V l’unico endomorfimo che verifica T (vi ) = m=1 ami vm , per i = 1, . . . , n. Vogliamo dimostrare che MB,B (T ) = A. a1i Infatti la k−esima colonna di MB,B (T ) è per definizione [T (vi )]B = ... , ani (T )k = Ak . Quindi M ovvero MB,B (T ) = A. B,BP Sia C = {w1 , . . . , wn } dove wi = nm=1 pmi vm , i = 1, . . . , n, per i = 1, . . . , n. L’insieme C = {w1 , . . . , wn } è una base di V poiché la matrice ([w1 ]B , . . . , [wn ]B ) = P, è inveritibile. Inoltre M(B, C) = P . Applicando il teorema anteriore otteniamo che MC,C (T ) = M(C, B)MB,B (T )M(B, C) = P −1 AP = B. 141 Capitolo 8 Struttura Metrica 8.1 Prodotto scalare canonica di Rn x1 y1 Dati X, Y ∈ Rn con X = ... e Y = ... , definiamo lo scalare: xn yn hX, Y i = x1 y1 + · · · + xn yn = X T Y. hX, Y i è detto prodotto scalare standard oppure prodotto scalare canonico. Il prodotto scalare canonico è una applicazione Rn × Rn −→ R (X, Y ) 7→ hX, Y i. che gode delle seguenti proprietà. Proposizione 8.2. Se X, Y, Z ∈ Rn e λ ∈ R, allora a) hX, Xi ≥ 0 con uguaglianza se e solamente se X = 0Rn (definito positivo); b) hX, Y i = hY, Xi (simmetrico); c) hX + Y, Zi = hX, Zi + hY, Zi; d) hλX, Zi = λhX, Zi; e) hZ, X + Y i = hZ, Xi + hZ, Y i; f ) hZ, λXi = λhZ, Xi. 142 Dimostrazione. Verifichiamo solamente la prima proprietà. Le altre sono conseguenza delle proprietà del prodotto di matrici. hX, Xi = x21 + · · · + x2n ≥ 0. Inoltre hX, Xi = 0 se e solamente se X = 0Rn . Sia Xpun vettore. Chiameremo norma o lunghezza di X il numero reale k X k= hX, Xi. Dunque se X 6= 0Rn , allora k X k> 0. La distanza fra due vettori X, Y è definita come il numero non negativo k X − Y k. Quindi la lunghezza di un vettore è la distanza dall’origine 0. Siano v, w ∈ Rn , w 6= 0. Diremo proiezione ortogonale di v su w è il vettore hv, wi prw (v) = w. k w k2 Proposizione 8.3. (Disuguaglianza di Cauchy-Schwartz) Siano X, Y ∈ Rn . Allora |hX, Y i| ≤k X kk Y k, e l’uguaglianza vale se e solamente se X e Y sono linearmente dipendenti. Facoltativa. Se Y = 0Rn , la disuguaglianza è vera. Supponiamo che Y 6= 0Rn . Allora per ogni t ∈ R si ha 0 ≤ hX + tY, X + tY i = hX, X + tY i + htY, X + tY i | {z } | {z } = hX, Xi + hX, tY i + htY, Xi + htY, tY i | {z } | {z } = hX, Xi + thX, Y i + thY, Xi + t2 hY, Y i = hX, Xi + 2hX, Y it + hY, Y it2 . L’equazione anteriore definisce una parabola il cui disciminante 0 ≥ ∆ = b2 − 4ac = 4hX, Y i2 − 4hX, XihY, Y i, è non positivo. Quindi |hX, Y i| ≤k X kk Y k . Se |hX, Y i| =k X kk Y k, allora ∆ = 0. Quindi esiste to ∈ R tale che 0 = hX +to Y, X +to Y i. Per le proprietà del prodotto scalare si ha X +to Y = 0Rn , ovvero X e Y sono linearmente dipendenti. Definizione 8.4. Siano X, Y due vettori non nulli. Definiamo l’angolo fra X e Y come l’unico valore θ ∈ [0, π] tale che cos θ = hX, Y i . k X kk Y k 143 Proposizione 8.5. Siano X, Y ∈ Rn vettori non nulli. L’angolo fra X e Y è acuto, rispettivamente ottuso, se e solamente se hX, Y i > 0. rispettivamente hX, Y i < 0. Definizione 8.6. Diremo che due vettori X, Y sono ortogonali se il loro prodotto scalare è nullo. Teorema 8.7. Siano X, Y ∈ Rn . Allora k X k2 + k Y k2 =k X + Y k2 se e solamente se X, Y sono ortogonali. Dimostrazione. Siano X, Y ∈ Rn . Utilizzando le proprietà del prodotto scalare si ha k X + Y k2 = hX + Y, X + Y i = hX, Xi + 2hX, Y i + hY, Y i, dalla quale segue la tesi. Proposizione 8.8. Siano v1 , . . . , vk ∈ Rn non nulli e ortogonali a due a due. Allora v1 , . . . , vk sono linearmente indipendenti. Dimostrazione. Sia α1 v1 + · · · + αk vk = 0Rn una combinazione lineare dei vettori v1 , . . . , vk a coefficienti α1 , . . . , αk uguale al vettore nullo. Fissiamo 1 ≤ j ≤ k. Allora 0 = h0Rn , vj i = hα1 v1 + · · · + αk vk , vj i = α1 hv1 , vj i + · · · + αk hvk , vj i = αj hvj , vj i (essendo v1 , . . . , vk ortogonali a due a due) Poiché vj 6= 0Rn , hvj , vj i > 0 da cui segue αj = 0. Questo vale per j = 1, . . . , k, per cui i vettori v1 , . . . , vk sono linearmente indipendenti. Definizione 8.9. Una base B = {v1 , . . . , vn } si dice ortogonale se i vettori v1 , . . . , vn sono a due a due ortogonali. Diremo che B = {v1 , . . . , vn } è una base ortonormale se B = {v1 , . . . , vn } è una base ortogonale e i vettori hanno norma unitaria. È facile vericare che la base canonica è una base ortonormale di Rn . Le coordinate di un vettore rispetto alla base canonica sono molto semplici da determinare. Infatti x1 X = ... = x1 e1 + · · · + xn en . xn 144 Poiché xi = hX, ei i per i = 1, . . . , n, si ha x1 X = ... = hX, e1 ie1 + · · · + hX, en ien . xn Il prossimo risultato mostra che la formula precedente vale per ogni base ortonormale. Proposizione 8.10. Sia B = {v1 , . . . , vn } una base ortogonale di Rn . Sia v ∈ Rn . Allora hv, v1 i hv, vn i v= v1 + · · · + vn . hv1 , v1 i hvn , vn i In particolare se B = {v1 , . . . , vn } è un base ortonormale, allora: hv, v1 i .. • v = hv, v1 iv1 + · · · + hv, vn ivn , ovvero [v]B = ; . hv, vn i p • k v k= hv, v1 i2 + · · · + hv, vn i2 . • hv, wi = [v]TB [w]B . Facoltativa. Sia v = x1 v1 + · · · + xn vn e sia 1 ≤ j ≤ n. Allora hv, vj i = h n X xm vm , vj i = m=1 n X xm hvm , vj i = xj hvj , vj i. m=1 Poiché vj 6= 0Rn si ha xj = hv, vj i , hvj , vj i da cui segue la tesi. Sia B = {v1 , . . . , vn } una base ortonormale. Applicando il risultato anteriore si ha v = hv, v1 iv1 + · · · + hv, vn ivn . Siano v, w ∈ V e sia B = {v1 , . . . , vn } una base ortonormale. Allora hv, wi = h = n X hv, vm ivm , m=1 n X n X hw, vl ivl i l=1 hv, vm ihw, vl ihvm , vl i. m,l=1 145 Adesso, tenendo in mente che hvm , vl i = 0 se m 6= l e 1 se l = m si ha hv, wi = n X hv, vm ihw, vm i = [v]TB [w]B . m=1 Pn 2 In m=1 hv, vm i e quindi k v k= p particolare, se v = w, allora hv, vi = hv, v1 i2 + · · · + hv, vn i2 . 0 0 1 1 √1 √ Esempio 8.11. Sia B = 0 , 2 2 una base ortonormale −1 0 √1 √ 2 2 di R3 . Allora 0 0 x 1 + z √1 y − z √1 y = x 0 + y√ 2 + √ 2 , 2 2 −1 √1 √ z 0 2 2 ovvero x x y+z y = √2 . y−z √ z B 2 Il prossimo risultato fornisce un algoritmo per costruire basi ortogonali, e ortonormali, di sottospazi vettoriali di Rn . Proposizione 8.12 (Procedimento di ortogonalizzazione di Gram-Schmidt). Siano v1 , . . . , vk ∈ Rn vettori linearmente indipendenti. I vettori w1 = v 1 hv2 ,w1 i w2 = v2 − hw w1 1 ,w1 i hv3 ,w1 i hv3 ,w2 i w3 = v3 − hw1 ,w1 i w1 − hw w2 2 ,w2 i .. . wk = vk − Pk−1 hvk ,wj i wj j=1 hwj ,wj i sono non nulli, a due a due ortogonali, quindi linearmente indipendenti, e verificano L(w1 , . . . , wj ) = L(v1 , . . . , vj ) per j = 1, . . . , k. Facoltativa. Dimostreremo il risultato per induzione su k. Se k = 1 non c’è niente da dimostrare. Supponiamo vero per k−1 e dimostriamolo per k. I vettori v1 , . . . , vk−1 sono linearemente indipendenti. Per ipotesi induttiva i vettori w1 , . . . , wk−1 sono non nulli, a due a due ortogonali 146 e per ogni 1 ≤ j ≤ k − 1, si ha L(v1 , . . . , vj ) = L(w1 , . . . , wj ). Dobbiamo dimostrare che wk è non nullo, ortogonale a w1 , . . . , wk−1 e L(v1 , . . . , vk ) = L(w1 , . . . , wk ). Se wk = 0Rn allora vk = k−1 X hwj , vk i i=1 hwj , wj i wj . Poiché L(w1 , . . . , wk−1 ) = L(v1 , . . . , vk−1 ), i vettori v1 , . . . , vk sarebbero linearmente dipendenti. Quindi wk 6= 0Rn . Adesso, dimostriamo che i vettori w1 , . . . , wk sono ortogonali. Poiché i vettori w1 , . . . , wk−1 sono a due a due ortogonali, è sufficiente dimostrare che hwk , ws i = 0, per s = 1, . . . , k − 1. Infatti hwk , ws i = hvk − k−1 X hvk , wj i j=1 hwj , wj i wj , ws i k−1 X hvk , wj i = hvk , ws i − wj , ws hwj , wj i j=1 = hvk , ws i − k−1 X j=1 hvk , wj i hwj , ws i hwj , wj i hvk , ws i hws , ws i hws , ws i = hvk , ws i − hvk , ws i = hvk , ws i − = 0. Poiché i vettori w1 , . . . , wk sono a due a due ortogonali, sono linearmente indipendenti. Dimostriamo che L(v1 , . . . , vk ) = L(w1 , . . . , wk ). Per ipotesi induttiva w1 , . . . , wk−1 ∈ L(v1 , . . . , vk−1 ) ⊆ L(v1 , . . . , vk ). Inoltre wk = v k − k−1 X hvk , wj i j=1 hwj , wj i wj ∈ L(w1 , . . . , wk−1 , vk ) = L(v1 , . . . , vk ). da cui segue che i vettori w1 , . . . , wk ∈ L(v1 , . . . , vk ). Quindi L(w1 , . . . , wk ) ⊆ L(v1 , . . . , vk ). Poiché dim L(w1 , . . . , wk ) = dim L(v1 , . . . , vk ) = k si ha L(w1 , . . . , wk ) = L(v1 , . . . , vk ) 147 1 1 1 Esempio 8.13. Siano v1 = 0 , v2 = 1 , v3 = −1 ∈ R3 . Allora 1 2 −3 1 w1 = 0 , 1 1 1 − 1 3 2 0 = 1 w2 = 1 − , 2 1 1 2 2 1 1 1 −2 1 w3 = −1 + 0 + 2 1 = 1 1 −3 1 −1 2 Corollario 8.14. Esistono basi ortonormali differenti dalla base canonica. Dimostrazione. Sia {v1 , . . . , vn } una base di Rn . Applicando il procedimento di ortogonalizzazione di Gram-Schimdt ottengo una base C = {w1 , . . . , wn } ortogonale. Dividendo ciascun vettore per la sua norma, i.e., w1 wn ,..., k w1 k k wn k ottengo una base ortonormale. Corollario 8.15. Siano v1 , . . . , vk ∈ Rn vettori non nulli e a due a due ortogonali. Allora è possibile completare v1 , . . . , vk a base ortogonale di Rn . Dimostrazione. Applicando il teorema di completamento a base è possibile completare i vettori v1 , . . . , vk a una base di Rn , che indicheremo con v1 , . . . , vk , vk+1 , . . . , vn . Applicando il procedimento di Gram-Schimdt alla base {v1 , . . . , vn } troviamo una base ortogonale di Rn i cui primi k vettori sono v1 , . . . , vk (perché?). 1 2 Esempio 8.16. Siano 1 , 0 ∈ R3 . Possiamo completarli a base 2 −1 0 aggiungendo 0 . Quindi 1 2 0 1 1 , 0 , 0 2 −1 1 148 è una base di R3 . Applicando il procedimento di Gram-Scmidt, si ottiene la base ortogonale 2 1/15 1 1 , 0 , −1/3 , 2 −1 2/15 di R3 . Vediamo infine un legame fra matrici ortogonali e basi ortonormali. Proposizione 8.17. Sia A = (A1 , . . . , An ) ∈ Mn×n (R). A è una matrice ortogonale se e solamente se A1 , . . . , An formano una base ortonormale. Dimostrazione. La matrice A è ortogonale se e solamente se AAT = AT A = Idn . Ricordiamo che se AT A = Idn , rispettivamente AAT = Idn , allora AAT = Idn , rispettivamente AT A = Idn . Sia A = (aij ) 1 ≤ i ≤ n e sia AT = (aT ij ) 1 ≤ i ≤ n . Infine, sia C = AT A = 1≤j ≤n 1≤j ≤n (cij ) 1 ≤ i ≤ n . Tenendo in mente che aTij = aji , si ha 1≤j ≤n cij = n X m=1 aTim amj = n X ami amj = hAi , Aj i. m=1 Quindi, la matrice A è ortogonale se e solamente se C = Idn , ovvero se e i j i = 0 se i 6= j e hAi , Ai i = 1, quindi se e solamente se i solamente 1se hA , A vettori A , . . . , An formano una base ortonormale. 8.18 Sottospazio Ortogonale Sia W ⊆ Rn . Porremo W ⊥ := {X ∈ Rn : hX, si = 0 ∀s ∈ W }, ovvero l’insieme dei vettori di Rn che sono ortogonali a ogni elemento di S. Proposizione 8.19. Se W ⊆ Rn , allora W ⊥ è un sottospazio vettoriale di Rn . Dimostrazione. Dobbiamo dimostrare che W ⊥ è chiuso rispetto alla somma e la moltiplicazione per scalare. Siano u, v ∈ W ⊥ . Vogliamo dimostrare che u + v ∈ W ⊥ , ovvero che per ogni s ∈ W , si ha hu + v, si = 0. 149 Poiché hu, si = hv, si = 0, si ha hu + v, si = hu, si + hv, si = 0. Analogamente, si dimostra che W ⊥ è chiuso rispetto alla moltiplicazione per scalare. Infatti, sia v ∈ W ⊥ e sia λ ∈ R. Se s ∈ W , si ha hλv, si = λhv, si = 0, ovvero λv ∈ W ⊥ . Proposizione 8.20. Sia W = L(v1 , . . . , vk ) un sottospazio vettoriale di Rn . Allora W ⊥ = {v ∈ Rn : hv, v1 i = · · · = hv, vk i = 0}. Dimostrazione. Sia W = L(v1 , . . . , vk ) e sia U = {v ∈ Rn : hv, v1 i = · · · = hv, vk i = 0}. Ricordiamo che W ⊥ = {X ∈ Rn : hX, si = 0, ∀s ∈ W }. Vogliamo dimostrare che W ⊥ = U . L’inclusione W ⊥ ⊆ U è immediata poiché se v ∈ W ⊥ , allora v è ortogonale ai vettori v1 , . . . , vk ∈ W e quindi v ∈ U . Sia u ∈ U . Vogliamo dimostrare che u ∈ W ⊥ , ovvero che hu, si = 0, ∀s ∈ W. Poiché s ∈ W = L(v1 , . . . , vk ), esistono α1 , . . . , αk ∈ R tali che s = α1 v1 + · · · + αk vk . Quindi hu, si = hw, α1 v1 + · · · + αk vk i = α1 hu, v1 i + · · · + αk hu, vk i = 0 (essendo u ∈ U ) da cui segue che u ∈ W ⊥ , ovvero U ⊆ W ⊥ concludendo la dimostrazione 150 1 −1 0 2 4 Esempio 8.21. Sia dato W = L 1 , 1 sottospazio di R . 1 3 Allora x1 x 2 ⊥ 4 W = ∈ R : x + x + x = 0, −x + 2x + x + 3x = 0 1 3 4 1 2 3 4 x3 x4 1 1 1 2 = L −1 , 0 −1 0 Sia W ⊆ Rn un sottospazio vettoriale. Proposizione 8.22. Rn è in somma diretta di W e W ⊥ . Dimostrazione. Daremo due dimostrazioni differenti. Sia u ∈ W ∩ W ⊥ . Allora hu, ui = 0 da cui segue u = 0Rn . Quindi W ∩ W ⊥ = {0Rn }. Sia B = {v1 , . . . , vk } una base di W e sia A = (v1 , . . . , vk ) ∈ Mn×k (R). Osserviamo che dim W = rg(A) = k. Applicando la Proposizione anteriore, si ha W ⊥ = {X ∈ Rn : hX, v1 i = · · · = hX, vk i = 0}, ovvero W ⊥ = Sol(AT |0Rk ). Applicando il Corollario 7.3 si ha dim W ⊥ = n − rg(AT ) = n − rg(A) = n − dim W . Quindi dim(W + W ⊥ ) = dim W + dim W ⊥ = n. Applicando il Corollario 5.32 si ha che Rn è in somma diretta di W e W ⊥ . Un’altra dimostrazione è la seguente. Sia {v1 , . . . , vk } una base di W . Per il Teorema di completamente a base, possiamo completarla a base B = {v1 , . . . , vn } di Rn . Applicando il procedimento di Gram-Schimdt alla base B = {v1 , . . . , vn }, ottengo una base ortogonale di Rn che indicheremo con C = {w1 , . . . , wn }. Poiché L(v1 , . . . , vk ) = L(w1 , . . . , wk ), i vettori w1 , . . . , wk formano una base ortogonale di W (Perché?). Inoltre, i vettori wk+1 , . . . , wn sono non nulli, a due a due ortogonali, e sono ortogonali 151 ad una base di W . Applicando la Proposizione 8.20 si ha wk+1 , . . . , wn ∈ W ⊥ . Affermiamo che i vettori wk+1 , . . . , wn formano una base ortogonale di W ⊥ . Poiché sono linearmente indipendenti, è sufficiente dimostrare che formano un sistema di generatori di W ⊥ . Sia z ∈ W ⊥ . Poiché C = {w1 , . . . , wn } è una base ortogonale di Rn , si ha hz, w1 i hz, wn i z= w1 + · · · + wn . hw1 , w1 i hwn , wn i Poiché z ∈ W ⊥ e W = L(w1 , . . . , wk ), si ha hz, vj i = 0, per j = 1, . . . , k, hvj , vj i ovvero z= hz, wk+1 i hz, wn i wk+1 + · · · + wn ∈ L(vk+1 , . . . , vn ). hwk+1 , wk+1 i hwn , wn i Quindi W ⊥ = L(vw+1 , . . . , wn ), In particolare, dim W ⊥ = n − k = n − dim W , ovvero dim W + dim W ⊥ = n. Inoltre W + W ⊥ = L(w1 , . . . , wn ) = Rn . Riassumendo, abbiamo provato che n = dim(W + W ⊥ ) = dim W + dim W ⊥ . Applicando il Corollario 5.32 si ha Rn è in somma diretta di W e W ⊥ . −1 1 Esempio 8.23. Sia dato W = L 0 , 2 sottospazio di R3 . 1 1 Poiché dim W = 2, dim W ⊥ = 1. Inoltre, 1 x W ⊥ = y ∈ R3 : x + z = 0, −x + 2y + z = 0 = L 1 z −1 1 1 2 1 0 1 Esempio 8.24. Sia dato W = L 0 , 1 , 1 sottospazio di −1 0 1 4 R . La dimensione di W è due (verificare!) e equazioni cartesiane per il 152 sottospazio W ⊥ sono: x1 + x2 + x4 = 0 ⊥ x1 + x3 − x4 = 0 W = 2x1 + x2 + x3 = 0 Applicando il metodo di Gauss ed il metodo della risoluzione all’indietro si ha 0 1 −1 1 W⊥ = L −1 , −1 −1 0 8.25 Proiezione Ortogonale Definizione 8.26. Sia W un sottospazio vettoriale dello spazio vettoriale Rn . Sia C = {w1 , . . . , wk } una base ortonormale di W . Si dice proiezione ortogonale di Rn su W l’applicazione lineare PW : Rn −→ Rn cosı̀ definita: PW (v) = hv, w1 iw1 + · · · + hv, wk iwk . Esempio 8.27. Sia W = L(w), w 6= 0Rn . Una base ortonormale di W è il w vettore . La proiezione ortogonale di Rn su W è l’applicazione kwk PW : Rn −→ Rn , v 7→ hv, w w hv, wi i = w = prw (v). kwk kwk hw, wi Proposizione 8.28. Sia PW : Rn −→ Rn la proiezione ortogonale di Rn su W . Allora Ker PW = W ⊥ e Im PW = W . Dimostrazione. Un vettore v ∈ Ker PW se e solamente se PW (v) = 0Rn , ovvero se e solamente se PW (v) = hv, w1 iw1 + · · · + hv, wk iwk = 0Rn . Poiché i vettori w1 , . . . , wk ∈ Rn sono linearmente indipendenti, si ha che v ∈ Ker PW se e solamente se hv, w1 i = · · · = hv, wk i = 0. Applicando la Proposizione 8.20, si ha che v ∈ Ker PW se e solamente se v ∈ W ⊥ . L’immagine di PW è contenuta in W (perché?). Poiché dim Im PW = n − dim W ⊥ = dim W si ha Im PW = W . Il prossimo risultato garantisce che PW (v) non dipende dalla base ortonormale scelta di W . 153 Proposizione 8.29. Sia v ∈ Rn . Allora esiste un unico w ∈ W tale che v − w ∈ W ⊥ . Inoltre, se C = {w1 , . . . , wk } è una base ortonormale di W , allora u = PW (v) = hv, w1 iw1 + · · · + hv, wk iwk . Facoltativa. Sia C = {w1 , . . . , wk } una base ortonormale di W e sia w ∈ W . Possiamo scrivere w = α1 w1 + · · · + αk wk . Il vettore v − w ∈ W ⊥ se e solamente se hv − w, wj i = 0 per ogni j = 1, . . . , k, se e solamente se αj = hv, wj i. Quindi w = hv, w1 iw1 + · · · + hv, wk i da cui segue l’esistenza e l’unicità. 1 2 2 1 0 1 Esempio 8.30. Sia dato W = L 1 , 1 , 2 un sottospazio 0 1 1 di R4 . Vogliamo calcolare la proiezione ortogonale su W . Per definizione di proiezione ortogonale, bisogna calcolare una base ortonornale di W . Poiché la matrice 1 2 2 1 0 1 1 1 2 , 0 1 1 ha rango 2 (verificare!) la dimensione di W è 2 ed una base di W è formata da 2 1 1 0 , . 1 1 1 0 Applicando il procedimento di Gram-schimdt e poi dividendo ciascun vettore per la sua norma ottengo una base ortonormale cosı̀ fatta: √ √ 1/√3 1/ √3 1/ 3 −1/ 3 √ , . 1/ 3 0√ 0 1/ 3 154 Quindi √ √ 1/√3 1/√3 x1 x1 x2 x2 1/ 3 1/ 3 √ √ PW x3 = h x3 , 1/ 3 i 1/ 3 x4 x4 0 0 √ √ 1/ √3 1/ √3 x1 x2 −1/ 3 −1/ 3 i + h x3 , 0√ 0√ x4 1/ 3 1/ 3 √ √ 1/√3 1/ √3 (x1 + x2 + x3 ) x2 + x4 ) 1/ 3 + (x1 − √ −1/ 3 √ = 0√ 0√ 3 3 1/ 3 1/ 3 2x1 + x3 + x4 /3 2x2 + x3 − x4 /3 = x1 + x2 + x3 /3 x1 − x2 + x4 /3 8.31 Prodotto Hermitiano canonico di Cn z1 w1 Dati Z = ... e W = ... in Cn definiamo il prodotto Hermitiano zn wn canonico: hZ, W i = z1 w1 + · · · + zn wn = Z T W . Il prodotto Hermitiano canonica è una applicazione Cn × Cn −→ C (Z, W ) 7→ hZ, W i che soddisfa alle seguenti proprietà: Proposizione 8.32. Siano Z, W, U ∈ Cn e λ ∈ C. Allora a) hZ, W i = hW, Zi. b) hZ, Zi ≥ 0 e l’uguaglianza vale se e solamente se Z = 0Cn ; c) hZ + W, U i = hZ, U i + hW, U i; d) hU, Z + W i = hU, Zi + hU, W i; 155 e) hλZ, W i = λhZ, W i; f ) hZ, λW i = λhZ, W i. Dimostrazione. Esercizio. Sia Xp un vettore. Chiameremo norma o lunghezza di X il numero reale k X k= hX, Xi. Dunque se X 6= 0Cn , allora k X k> 0. Chiamaremo distanza fra due vettori X, Y il numero non negativo k X − Y k. Quindi la lunghezza di un vettore è la distanza dall’origine 0. Inoltre vale la seguente disuguaglianza. Teorema 8.33 (Disuguaglianza di Cauchy-Schwartz). |hZ, W i| ≤k Z kk W k, p dove k Z k:= hZ, Zi, e l’uguaglianza vale se e solamente se Z e W sono linearemente dipendenti. Facoltativa. Siano α, β ∈ C. Se Z = 0Cn , allora la disuguaglianza è banalmente verificata. Supponiamo che Z 6= 0Cn . Allora 0 ≤ hαZ + βW, αZ + βW i ≤ |α|2 hZ, Zi + |β|2 hW, W i + αβhZ, W i + αβhW, Zi . Se poniamo α = −hW, Zi e β = hZ, Zi, otteniamo |hZ, W i|2 hZ, Zi + |hZ, Zi|2 hW, W i − 2hZ, Zi|hZ, W i|2 ≥ 0, ovvero, dividendo per hZ, Zi, si ha |hZ, W i|2 ≤ hZ, ZihW, W i. Se |hZ, W i|2 = hZ, ZihW, W i, allora se poniamo α = −hW, Zi e β = hZ, Zi, si ha hαZ + βW, αZ + βW i = 0 da cui segue αZ + βW = 0Cn . Definizione 8.34. Siano X, Y ∈ Cn . Diremo che X e Y sono vettori ortogonali se hX, Y i = 0. Come per il prodotto scalare standard, possiamo dimostrare il seguente risultato. Proposizione 8.35. Siano v1 , . . . , vk ∈ Cn non nulli e ortogonali a due a due. Allora v1 , . . . , vk sono linearmente indipendenti. 156 Una base B = {v1 , . . . , vn } si dice ortogonale, rispettivamente ortonormale, se i vettori v1 , . . . , vn sono a due a due ortogonali, rispettivamente se i vettori sono a due a due ortogonali ed hanno norma unitaria. L’esistenza di basi ortogonali è conseguenza del seguente risultato. Proposizione 8.36 (Procedimento di ortogonalizzazione di Gram-Schmidt). Siano v1 , . . . , vk ∈ V vettori linearmente indipendenti. I vettori w1 = v 1 hv2 ,w1 i w2 = v2 − hw w1 1 ,w1 i hv3 ,w1 i hv3 ,w2 i w3 = v3 − hw1 ,w1 i w1 − hw w2 2 ,w2 i . .. wk = vk − Pk−1 hvk ,wj i wj j=1 hwj ,wj i sono non nulli, a due a due ortogonali, quindi linearmente indipendenti, e verificano L(w1 , . . . , wj ) = L(v1 , . . . , vj ) per j = 1, . . . , k. Proposizione 8.37. Sia A = (A1 , . . . , An ) ∈ Mn×n (C). La matrice A è unitaria se e solamente se {A1 , . . . , An } è una base ortonormale. Sia S ⊂ Cn . Definiamo S ⊥ := {X ∈ Cn : hX, si = 0 ∀s ∈ S}. Proposizione 8.38. S ⊥ è un sottospazio vettoriale di Cn . Se S = L(v1 , . . . , vk ), allora S ⊥ = {v ∈ Cn : hv, v1 i = · · · = hv, vk i = 0} 157 Capitolo 9 Endomorfismi Diagonalizzabili e Teorema spettrale 9.1 Autovalori e autovettori Sia V uno spazio vettoriale su K. Definizione 9.2. Un endomorfismo, o operatore, di V è una applicazione lineare T : V −→ V , ovvero una applicazione lineare di V in se stesso. Definizione 9.3. Sia T : V −→ V un endomorfismo. Diremo che un vettore v ∈ V non nullo è un autovettore di T se T (v) = λv per un certo λ ∈ K. Un autovalore di T è uno scalare λ ∈ K tale che esiste un vettore non nullo v ∈ V tale che T (v) = λv. Se v ∈ V è un vettore non nullo tale che T (v) = λv, allora diremo che v è un autovettore di T relativo, o corrispondente, all’autovalore λ. L’insieme degli autovalori di T si chiama lo spettro di T . Dato λ ∈ K definiamo Vλ = {v ∈ V : T (v) = λv} = {v ∈ V : (T − λIdV )(v) = 0V }. Poiché Vλ = Ker (T −λIdV ), Vλ è un sottospazio vettoriale di V . Osserviamo che V0 = Ker T . Dalla definizione di autovalore segue che Vλ 6= {0V } se e solamente se λ è un autovalore. In tal caso Vλ = v ∈ V : v è un autovettore di T relativo a λ ∪ {0V }. che chiameremo autospazio relativo a λ. 158 Proposizione 9.4. Sia T : V −→ V un endomorfismo. Uno scalare λ ∈ K è un autovalore di T se e solamente se T −λIdV non è iniettivo. In particolare T è iniettiva, e quindi biunivoca, se e solamente se 0 non è un autovalore di T Dimostrazione. λ ∈ K è una autovalore se e solamente se Vλ 6= {0V }. Poiché Vλ = Ker (T − λIdV ), e T − λIdV è un operatore, applicando il Corollario 6.16 si ha che λ ∈ K è un autovalore se e solamente se T − λIdV non è iniettivo e quindi non è biunivoca. Definizione 9.5. Sia T : V −→ V un endomorfismo. Diremo che T è diagonalizzabile se esiste una base di V formata da autovettori di T . Sia T : V −→ V un endomorfismo di V diagonalizzabile. Esiste una base B = {v1 , . . . , vn } di V formata da autovettori di T , ovvero T (v1 ) = λ1 v1 , . . . , T (vn ) = λn vn . Ricordiamo che se {e1 , . . . , en } è la base canonica di Kn , allora [vi ]B = ei , per i = 1, . . . , n. Calcoliamo le coordinate di T (v1 ) rispetto alla base B = {v1 , . . . , vn }. λ1 0 [T (v1 )]B = [λ1 v1 ]B = λ1 [v1 ]B = . = λ1 e1 . . . 0 Analogamente, [T (vi )]B = λi [vi ]B = λi ei , per i = 1, . . . , n. Quindi la matrice associata a T rispetto alla base B, in partenza e in arrivo, è una matrice diagonale λ1 .. . , MB,B (T ) = . . . λn dove gli elementi sulla diagonale principale sono gli autovalori di T . Viceversa, supponiamo che la matrice associata a T rispetto a una base B = {v1 , . . . , vn } in partenza ed in arrivo sia una matrice λ1 .. . , MB,B (T ) = .. . λn 159 diagonale. Allora [T (vi )]B = MB,B (T )[vi ]B = MB,B (T )ei = λi ei = λi [vi ]B = [λi vi ]B . Tendendo in mente che v = w se e solamente se [v]B = [w]B , si ha che T (vi ) = λi vi per i = 1, . . . , n da cui segue che vi è autovettore relativo all’autovalore λi . Quindi {v1 , . . . , vn } è una base di V formata da autovettori di T . Proposizione 9.6. Sia T : V −→ V un endomorfismo. Allora T è diagonalizzabile se e solamente se esiste una base B di V tale che MB,B (T ) è una matrice diagonale. Sia C una base di V . Poiché MC,C (T ) è simile alla matrice MB,B (T ) si ha il seguente risultato. Proposizione 9.7. Sia T : V −→ V un endomorfismo e sia C una base di V . T è diagonalizzabile se e solamente se MC,C (T ) è simile a una matrice diagonale. Il prossimo risultato prova che autovettori corrispondenti ad autovalori distinti sono linearmente indipendenti. Proposizione 9.8. Sia T : V −→ V una applicazione lineare e siano v1 , . . . , vm autovettori di T corrispondenti agli autovalori λ1 , . . . , λm . Se λ1 , . . . , λm sono distinti, i.e., λi 6= λj se i 6= j, allora gli autovettori v1 , . . . , vm di T sono linearmente indipendenti. Facoltativa. la dimostrazione sarà fatta per induzione sul numero di autovettori. Se m = 1 la proposizione è banalmente verificata poiché un autovettore è un vettore non nullo e quindi linearmente indipendente. Supponiamo che la proposizione sia vera per m autovettori di T corrispondenti a m autovalori distinti e dimostriamolo per m + 1 autovalori distinti. Siano v1 , . . . , vm+1 autovettori corrispondenti ad autovalori λ1 , . . . , λm+1 distinti. Per ipotesi induttiva i vettori v1 , . . . , vm sono linearmente indipendenti. Supponiamo per assurdo che v1 , . . . , vm+1 fossero linearmente dipendenti. Poiché v1 , . . . , vm sono linearmente indipendenti, il vettore vm+1 160 sarebbe combinazione lineare di v1 , . . . , vm (perché?). Quindi esistono degli scalari α1 , . . . , αm ∈ K tale che vm+1 = α1 v1 + · · · + αm vm . Applicando T si ha T (vm+1 ) = λm+1 vm+1 = T (α1 v1 + · · · + αm vm ) = α1 T (v1 ) + · · · + αm T (vm ) = λ1 α1 v1 + · · · + λm αm vm . Dall’altro lato λm+1 vm+1 = λm+1 α1 v1 + · · · + λm+1 αm vm . Quindi λm+1 α1 v1 + · · · + λm+1 αm vm = λ1 α1 v1 + · · · + λm αm vm , ovvero (λm+1 − λ1 )α1 v1 + · · · + (λm+1 − λm )αm vm = 0. Poiché i vettori v1 , . . . , vm sono linearmente indipendenti, ne segue che i coefficienti sono tutti nulli: α1 (λm+1 − λ1 ) = · · · = αm (λm+1 − λm ) = 0 Per ipotesi gli autovalori sono distinti. Quindi α1 = · · · = αm = 0, ovvero vm+1 = 0. Assurdo poiché vm+1 è un vettore non nullo essendo un autovettore. Quindi i vettori v1 , . . . , vm+1 sono linearmente indipendenti. Corollario 9.9. Sia V uno spazio vettoriale su K di dimensione n e sia T : V −→ V un endomorfismo. Se T ammette n autovalori distinti, allora T è diagonalizzabile. Dimostrazione. Poiché T ha n = dim V autovalori distinti esitono n autovettori v1 , . . . , vn corrispondenti ad autovalori distinti. Per il risultato anteriore v1 , . . . , vn sono linearmente indipendenti e quindi formano una base di V concludendo la dimostrazione. 161 9.10 Polinomio caratteristico Sia V uno spazio vettoriale su K di dimensione n. Vogliamo calcolare gli autovalori di un endomorfismo T : V −→ V . Sia B una base di V . Uno scalare λ ∈ K è un autovalore di T se e solamente se T − λIdV non è iniettiva ovvero se e solamente se la matrice MB,B (T − λIdV ) non è invertibile . Poiché MB,B (T − λIdV ) = MB,B (T ) − λIdn , si ha che λ ∈ K è un autovalore di T se e solamente se det(MB,B (T ) − λIdn ) = 0. Definiamo pB : K −→ K, pB (t) := det(MB,B (T ) − tIdn ) Proposizione 9.11. pB (t) è un polinomio di grado n = dim V ed è ha la seguente espressione (−1)n tn + (−1)n−1 (Tr(MB,B (T ))tn−1 + · · · + det(MB,B (T )). Inoltre, pB (t) non dipende dalla base scelta. Dimostrazione. Noi proveremo solamente che se C è una base di V , allora pC = pB . Sia C = {w1 , . . . , wn } una base di V . Allora MC,C (T ) = M(B, C)−1 MB,B (T )M(B, C), da cui segue pC (t) = det(MC,C (T ) − tIdn ) = det M(B, C)−1 MB,B (T )M(B, C) − tIdn = det M(B, C)−1 MB,B (T )M(B, C) − tM(B, C)−1 M(B, C) = det (M(B, C)−1 (MB,B (T ) − tIdn )M(B, C) = det((M(B, C)−1 )det(MB,B (T ) − tIdn )det(M(B, C)) = det(MB,B (T ) − tIdn ) = pB (t). Definizione 9.12. Sia T : V −→ V un endomorfismo. Sia B un base di V . Il polinomio pT (t) = pB (t) è un polinomio di grado n = dim V ed è chiamato il polinomio caratteristico di T . 162 Corollario 9.13. Sia V uno spazio vettoriale su K di dimensione n e sia T : V −→ V un endomorfismo. Sia λ ∈ K. Allora λ è un autovalore di T se e solamente se λ è una radice del polinomio caratteristico di T . In particolare T ha al massimo n autovalori. Dimostrazione. Abbiamo dimostrato che λ ∈ K è un autovalore di T se e solamente se det(MB,B (T ) − λIdn ) = 0, ovvero se e solamente se pT (λ) = 0. Poiché un polinomio di grado n ha al massimo n radice, si ha che T ha al massimo n autovalori. Esempio 9.14. Si consideri l’applicazione lineare T : R3 −→ R3 definita da x x + y + 2z T y = 2x + y + 3z , z x + 2y + 3z 0 0 1 0 , 1 , 0 la base canonica di R3 . Allora Sia C = 1 0 0 1 1 0 1 0 2 0 1 0 T = 2 ,T = 1 ,T = 3 , 0 1 0 2 1 3 e quindi 1 1 2 MT = MC,C (T ) = 2 1 3 . 1 2 3 Il polinomio caratteristico di T è dato da 1−t 1 2 1−t 3 . pT (t) = det(MC,C (T ) − tId3 ) = det 2 1 2 3−t Sviluppa in determinante rispetto alla 1 colonna si ha pT (t) = (1 − t)(t2 − 4t − 3) − 2((3 − t) − 4) + (3 − (2(1 − t)) = −t3 + 5t2 + 3t = −t(t2 − 5t − 3). √ √ Quindi gli autovalori di T sono: 0, 5+2 37 , 5−2 37 . 163 0 1 Esempio 9.15. Sia A = 1 1 l’applicazione lineare cosı̀ definita: e sia Sia T : M2×2 (R) −→ M2×2 (R) T (X) = X − Tr(X)A. Sia B= 1 0 0 0 0 1 0 0 0 0 , , , , 0 0 1 0 0 1 Nell’esempio 7.16 abbiamo visto che 1 −1 MB,B (T ) = −1 −1 0 1 0 0 0 0 0 −1 . 1 −1 0 0 Quindi 1−t 0 0 0 −1 1 − t 0 −1 = −t(1−t)3 , pT (t) = det(MB,B (T )−tId4 ) = det −1 0 1 − t −1 −1 0 0 −t ovvero gli autovalori si T sono 0 e 1. 9.16 Molteplicità geometrica e algebrica Sia V uno spazio vettoriale su K di dimensione n e sia T : V −→ V un endomorfismo. Definizione 9.17. Sia λ ∈ K un autovalore di T . Definiamo: • la molteplicità algebrica di λ è la molteplicità di λ come radice di pT (t), ovvero quante volte λ è radice di pT (t), che indicheremo con ma (λ). • la molteplicità geometrica di λ è la dimensione dell’autospazio Vλ e si indicherà con mg (λ) = dim Vλ . Se λ ∈ K è un autovalore, allora ma (λ) è il più grande numero naturale m tale che (x − λ)m divide pT (t). 164 Proposizione 9.18. Sia V uno spazio vettoriale su K di dimensione n e sia T : V −→ V un endomorfismo. Sia λ ∈ K un autovalore. Se B è una base di V , allora mg (λ) = n − rg(MB,B (T ) − λIdn ). Dimostrazione. Poiché Vλ = Ker (T − λIdV ), applicando il Teorema della dimensione, tenendo in mente che dim V = n, si ha mg (λ) = dim Ker (T − λIdV ) = n − dim Im (T − λIdV ). Poiché dim Im (T − λIdV ) = rg(MB,B (T − λIdV )), e tenendo in mente che MB,B (T − λIdV ) = MB,B (T ) − λIdn , si ha mg (λ) = n − dim Im (T − λIdV ) = n − rg(MB,B (T − λIdV )) = n − rg(MB,B (T ) − λIdn ). Il prossimo risultato garantisce che la molteplicità algebrica è maggiore oppure uguale della molteplicità geometrica. La dimostrazione è facoltativa. Proposizione 9.19. Sia λ ∈ K un autovalore di T : V −→ V . Allora mg (λ) ≤ ma (λ). Facoltativa. Sia B = {v1 , . . . , vmg (λ) } una base di Vλ . Possiamo completarla a base di V che indicheremo con B = {v1 , . . . , vn }. Allora λIdmg (λ)×mg (λ) ∗ MB,B (T ) = . 0 D Quindi pT (t) = det(MB,B (T ) − tIdn ) = (λ − t)mg (λ) det(D − tId(n−mg (λ))×(n−mg (λ)) ), da cui segue che mg (λ) ≤ ma (λ). Corollario 9.20. Sia T : V −→ V un endomorfismo e sia λ ∈ K autovalore di T : V −→ V . Se ma (λ) = 1, allora mg (λ) = 1. 165 Dimostrazione. Poiché mg (λ) ≥ 1 (perché ?), si ha 1 ≤ mg (λ) ≤ ma (λ) = 1, da cui segue la tesi. Esempio 9.21. Si consideri l’applicazione lineare T : R3 −→ R3 definita da x 2x − y + 3z , x + 3z T y = z 2x − 2y + 7z 0 0 1 0 , 1 , 0 la base canonica di R3 . Allora Sia C = 0 0 1 1 2 0 −1 0 3 0 1 0 0 T = 1 ,T = ,T = 3 , 0 2 0 −2 1 7 e quindi 2 −1 3 MT = MC,C (T ) = 1 0 3 . 2 −2 7 Il polinomio caratteristico di T è dato da 2 − t −1 3 −t 3 = −(t − 1)2 (t − 7). pT (t) = det(MC,C (T ) − tId3 ) = det 1 2 −2 7 − t Quindi gli autovalori di T sono 1 con molteplicità algebrica 2 e 7 con molteplicità algebrica 1. Poiché 1 −1 3 MC,C (T ) − Id3 = 1 −1 3 , 2 −2 6 la molteplicità geometrica dell’autovalore 1 è mg (1) = 3 − rg(MC,C (T ) − Id3 ) = 2. La molteplicità geometrica dell’autovalore 7 è uno. Il prossimo Teorema fornisce un criterio necessario e sufficiente affinché un endomorfismo sia diagonalizzabile. La dimostrazione è facoltativa come la dimostrazione del seguente lemma. 166 Lemma 9.22. Sia V uno spazio vettoriale su K e sia T : V −→ V un endomorfismo. Siano λ1 , . . . , λk ∈ K autovalori distinti. Indichiamo con Bλi una base per l’autospazio Vλi per i = 1, . . . , k. Allora [ [ B = Bλ1 · · · Bλk , è formato da vettori linearmente indipendenti. Facoltativa. A meno di riordinare i vettori di B, esistono 1 ≤ j1 < j2 < · · · < jk ≤ n = tale che v1 , . . . , vj1 vj1 +1 , . . . , vj2 .. . formano una base di Vλ1 formano una base di Vλ2 vjk +1 , . . . , vn formano una base di Vλk Siano α1 , . . . , αj1 , . . . , αjk , . . . , αn ∈ K e sia α1 v1 + · · · + αn vn = 0V una combinazione lineare uguale al vettore nullo. Poniamo w1 = α1 v1 + · · · + αj1 vj1 ∈ Vλ1 w2 = αj1 +1 vj1 +1 + · · · + αj2 vj2 ∈ Vλ2 .. . wk = αjk +1 vjk +1 + · · · + αn vn ∈ Vλk Quindi w1 + · · · + wk = 0V Per la Proposizione 9.8, si ha w1 = · · · = wk = 0V e quindi 0V = α1 v1 + · · · + αj1 vj1 0V = αj1 +1 vj1 +1 + · · · + αj2 vj2 .. . 0V = αjk +1 vjk +1 + · · · + αn vn . 167 Tenendo in mente che v 1 , . . . , v j1 vj1 +1 , . . . , vj2 .. . formano una base di Vλ1 formano una base di Vλ2 vjk +1 , . . . , vn formano una base di Vλk si ha α1 = · · · = αn = 0. Teorema 9.23. Sia V uno spazio vettoriale su K e sia T : V −→ V un endomorfismo. Le seguenti condizioni sono equivalenti: a) T è diagonalizzabile. b) Tutti gli autovalori di T sono in K. Inoltre, per ogni λ ∈ sp(T ) si ha ma (λ) = mg (λ). Facoltativa. Supponiamo che T sia diagonalizzabile. Sia B = {v1 , . . . , vn } una base formata da autovettori di T . Siano λ1 , . . . , λr gli autovalori distinti di T . La matrice associata a T rispetto alla base B = {v1 , . . . , vn } in partenza ed in arrivo ha la forma λ1 Idmg (λ1 )×mg (λ1 ) .. MB,B (T ) = . . λk Idmg (λk )×mg (λk ) e quindi pT (t) = det(MB,B (T ) − tIdn ) (λ1 − t)Idmg (λ1 )×mg (λ1 ) = det .. . (λk − t)Idmg (λk )×mg (λk ) = (λ1 − t) mg (λ1 ) · · · (λk − t) mg (λk ) . da cui segue che tutti gli autovalori stanno in K ed ma (λj ) = mg (λj ) per j = 1, . . . , k. Viceversa, supponiamo che tutti gli autovalori di T stanno in K, ovvero T ha n autovalori non necessariamente distinti, e che la molteplicità algebrica e geometrica coincidono per ogni autovalore. Siano λ1 , . . . , λk ∈ K gli 168 autovalori distinti di T . Sia BVλj una base di Vλj per j = 1, . . . , k. L’inS S sieme B = BVλ1 · · · BVλk è formato da n = dim V autovettori. Per il Lemma 9.22 i vettori di B sono linearmente indipendenti e quindi una base, concludendo la dimostrazione. Esempio 9.24. Sia T : M2×2 (R) −→ M2×2 (R) l’applicazione lineare cosı̀ definita: a11 a12 a11 + a12 a12 T = . a21 a22 a11 + a21 + a22 a11 + a21 + a22 Sia B= 1 0 0 0 Poiché 0 0 0 0 0 1 , , , , 0 1 1 0 0 0 1 0 MB,B (T ) = 1 1 1 1 0 1 0 0 1 1 0 0 , 1 1 si ha 1−t 1 0 0 0 1−t 0 0 = t(t−2)(t−1)2 . PT (t) = det(MB,B (T )−tId4 ) = det 1 0 1−t 1 1 1 1 1−t Quindi gli autovalori si T sono 0, 1, 2. La molteplicità algebrica di 0 e 2 è uno mentre la molteplicità algebrica di 1 è due. Poiché 0 1 0 0 0 0 0 0 mg (1) = 4 − rg(MB,B (T ) − Id4 ) = 4 − rg 1 0 0 1 = 1, 1 1 1 0 T non è diagonalizzabile. Esempio 9.25. Sia T : R3 −→ R3 l’applicazione lineare definita da: 1 0 1 −1 0 −1 T 0 = −2 , T 1 = −3 , T −1 = −3 . 1 2 1 3 1 −4 169 Allora 0 −1 −1 MC,B (T ) = −2 −3 −3 , 2 3 −4 1 0 1 è la matrice associata a T rispetto alle basi B = 0 , 1 , −1 1 1 1 in partenza e la base canonica C in arrivo. Per stabilire se T è diagonalizzabile non posso utilizzare la matrice MC,B (T ) (perché?). Svolgeremo due procedimenti. I metodo. Il polinomio caratteristico di T è pT (t) = det(MC,C (T ) − tId3 ). La matrice MC,C (T ) = MC,B (T )M(B, C). Poiché 2x − y − z 1 1 0 x x y = Sol 0 1 −1 y = −x + y + z −x + z z B 1 1 1 z si ha 2 1 −1 M(B, C) = −1 1 1 −1 0 1 e quindi 0 −1 −1 2 −1 −1 2 −1 −2 1 = 2 −1 −4 . MC,C (T ) = −2 −3 −3 −1 1 2 3 −4 −1 0 1 −1 1 3 Il polinomio caratteristico di T è dato da 2−t −1 −2 −1 − t −4 = −(t−1)2 (t−2), pT (t) = det(MC,C (T )−tId3 ) = det 2 −1 1 3−t 170 per cui gli autovalori di T sono 1 con molteplicità algebrica due e 2 con molteplicità algebrica uno, e quindi anche geometrica uno. Poiché mg (1) = 3 − rg(MC,C (T ) − Id3 ) 1 −1 −2 = 3 − rg 2 −2 −4 −1 1 2 = 2, l’endomorfismo T è diagonalizzabile. II metodo. Vogliamo calcolare il polinomio caratteristico pT (t) = det(MB,B (T )− tId3 ). Poiché −1 0 −1 1 0 1 T 0 = −2 , T 1 = −3 , T −1 = −3 , −4 1 3 1 2 1 si ha 0 −1 −1 MB,B (T ) = −2 , −3 , −3 . −2 B 3 2 B B Le coordinate di un vettore rispetto alla base B è l’unica soluzione del seguente sistema lineare x 1 1 0 x 2x − y − z y = Sol 0 1 −1 y = −x + y + z z B 1 1 1 z −x + z da cui segue che 0 −2 −1 0 . MB,B (T ) = 0 1 2 4 3 Il polinomio caratteristico di T è −t −2 −1 0 = (2−t)(1−t)2 , pT (t) = det(MB,B (T )−tid3 ) = det 0 1 − t 2 4 3−t per cui gli autovalori di T sono 2 con molteplicità algebrica uno, e quindi anche la molteplicità geometrica è uno, ed 1 con molteplicità algebrica 2. 171 Inoltre, mg (1) = 3 − rg(MB,B (T ) − Id3 ) −1 −2 −1 0 0 = 3 − rg 0 2 4 2 = 2, quindi T è diagonalizzabile. 9.26 Diagonalizzazione di matrici Sia A ∈ Mn×n (K) dove K = R oppure C. l’endomorfismo associato alla matrice A, ovvero Sia LA : Kn −→ Kn LA (X) = AX. Definiamo autovettori e autovalori di A, gli autovettori e autovalori di LA . Uno scalare λ ∈ K è un autovalore di A se esiste un vettore v ∈ Kn non nullo tale che Av = λv, ovvero LA (v) = λv. Un vettore v ∈ Kn non nullo si dice un autovettore di A se esiste λ ∈ K tale che Av = λv, ovvero (A − λIdn )v = 0. Quindi λ ∈ K è una autovalore di A se e solamente se det(A − λIdn ) = 0. Chiamaremo pA (t) = det(A − tIdn ) il polinomio caratteristico di A. Ricordiamo che MC,C (LA ) = A, dove C è la base canonica di Kn . Infatti, LA (ei ) = Aei = Ai , per i = 1, . . . , n. Quindi il polinomio caratteristico di A è il polinomio caratteristico di LA . Analogamento possiamo definire l’autospazio relativo all’autovalore λ essendo Vλ = {v ∈ Kn : LA (v) = λv} = {v ∈ Kn : Av = λv} = {v ∈ Kn : (A − λIdn )v = 0} = Sol(A − λIdn |0Kn ). 172 La dimensione di Vλ è la molteplicità geometrica di λ. Applicando il Teorema di Rouché-Capelli, si ha mg (λ) = n − rg(A − λIdn ). La molteplicità algebrica di λ, che indicheremo con ma (λ), è il numero di volte che λ è radice del polinomio pA (t), ovvero il più grande numero naturale N tale che (t − λ)N divide pA (t). Poiché un autovalore di A è un autovalore di LA , si ha mg (λ) ≤ ma (λ). Inoltre, se ma (λ) = 1, allora anche mg (λ) = 1 (esercizio!). Definizione 9.27. Sia A ∈ Mn×n (K) dove K = R oppure C. Diremo che A è diagonalizzabile su K se esiste una matrice P ∈ Mn×n (K) invertibile tale che P −1 AP è una matrice diagonale. Quindi, una matrice quadrata A è diagonalizzabile se e solamente se A è simile ad una matrice diagonale. Proposizione 9.28. A è diagonalizzabile se e solamente se l’endomorfismo LA : Kn −→ Kn è diagonalizzabile. Dimostrazione. Poiché MC,C (LA ) = A, dove C è la base canonica, LA è diagonalizzabile se e solamente se A è simile ad una matrice diagonale e quindi se e solamente se A è diagonalizzabile. Vediamo un’altra dimostrazione dove si descrive esplicitamente il legame fra la matrice invertibile P , la matrice diagonale D tale che P −1 AP = D e autovettori e autovalori dell’endomorfismo LA e quindi di A. Supponiamo che A sia diagonalizzabile. Quindi esiste una matrice invertibile P e una matrice diagonale D tale che P −1 AP = D. Lecolonne della matrice P formano una base di Kn . Se indichiamo con B = P 1 , . . . , P n , tenendo in mente che M(C, B) = P , allora MB,B (LA ) = M(B, C)MC,C (LA )M(C, B) = P −1 AP = D. Quindi abbiamo dimostrato che LA è diagonalizzabile. In dettaglio abbiamo dimostrato che P i è una autovettore di LA relativo all’autovalore dii , dove D = (dij ) 1 ≤ i ≤ n , per i = 1, . . . , n. 1≤j ≤n 173 Viceversa supponiamo che LA sia diagonalizzabile. Sia B = {v1 , . . . , vn } una base di Kn formata da autovettori di LA . La matrice P = (v1 , . . . , vn ) è invertibile poiché B = {v1 , . . . , vn } è una base di Kn . Vogliamo dimostrare che P −1 AP è una matrice diagonale. Infatti P −1 AP = M(B, C)MC,C (LA )M(C, B) = MB,B (LA ). Quindi P è una matrice invertibile le cui colonne formano una base di autovettori di LA e D è una matrice diagonale i cui elementi sulla diagonale principale sono gli autovalori di LA e quindi di A. Applicando il Teorema 9.23 e la Proposizione 9.28 si ha il seguente criterio di diagonalizzazione di matrici. Teorema 9.29. Sia A ∈ Mn×n (K). Le seguenti condizioni sono equivalenti: a) A è diagonalizzabile su K; b) tutti gli autovalori di A sono in K e per ogni autovalore λ ∈ sp(T ), si ha ma (λ) = mg (λ); Corollario 9.30. Sia A ∈ Mn×n (K). Se A ha n autovalori in K distinti allora A è diagonalizzabile. Dimostrazione. Siano λ1 , . . . , λn ∈ K autovalori distinti di A. Poiché il polinomio caratteristico di A ha grado n, la moleplicità algebrica di ciascuno autovalore è 1. Quindi anche la molteplicità geometrica di ciascun autovalore è 1 da cui segue che A è diagonalizzabile su K. Osservazione 9.31. a) Una matrice quadrata a coefficienti reali può essere diagonalizzabile su C ma non su R. b) Sia A ∈ Mn×n (C). Per il Teorema fondamentale dell’algebra A ha n autovalori, non necessariamente distinti, complessi. Siano λ1 , . . . , λk ∈ C gli autovalori distinti di A. Allora k X ma (λi ) = n. i=1 174 c) Sia A ∈ Mn×n (R) e sia pA (t) il suo polinomio caratteristico e sia λ ∈ C un autovalore complesso. Allora anche λ è una radice di pA (t). Quindi il numero delle radici complesse di un polinomio a coefficienti reali è pari. Infatti, poiché pA (t) è un polinomio a coefficienti reali, si ha pA (t) = pA (t) da cui segue pA (λ) = pA (λ) = 0. d) Sia A ∈ Mn×n (C). La matrice A ha esattamente n autovalori, non necessariamente distinti, che indicheremo con λ1 , . . . , λn . Si può dimostrare che det(A) = λ1 · · · λn 9.32 Tr(A) = λ1 + · · · + λn . Tecniche di calcolo Sia A ∈ Mn×n (K). Se λ ∈ K è un autovalore, allora Vλ = Sol(A − λIdn |0Kn ) Indichiamo con Bλ una base di Vλ . Se λ1 , · · · , λs ∈ K sono autovalori di A distinti allora si può dimostrare che Bλ1 ∪ · · · ∪ Bλs , sono vettori linearmente indipendenti. Vediamo quali sono i passi per stabilire se una matrice quadrata A ∈ Mn×n (K) è diagonalizzabile su K ed in caso affermatico come determinare una matrice invertibile P e una matrice diagonale D tale che P −1 AP = D. • Gli autovalori della matrice A sono le radici del polinomio caratteristico pA (t) = det(A − tIdn ). Se tutte le radici del polinomio caratteristico appartengono a K, allora continuo. Altrimenti la matrice A non è diagonalizzabile. • Sia λ ∈ K un autovalore. Allora Vλ = Sol(A − λIdn |0Kn ) e mg (λ) = dim Vλ = n − rg(A − λIdn ). Ricordiamo che la molteplicità algebrica di λ è il numero di volte che λ è radice. Inoltre mg (λ) ≤ ma (λ). Se ma (λ) = mg (λ) per ogni autovalore λ allora la matrice è diagonalizzabile. Altrimenti no. 175 Supponiamo che A sia diagonalizzabile. Siano λ1 , . . . , λs ∈ K autovalori distinti di A. Allora B = Bλ1 ∪ · · · ∪ Bλs = (v1 , . . . , vn ) è una base di Kn formata da autovettori di A. Quindi la matrice P = (v1 , . . . , vn ), i.e., la matrice le cui colonne sono i vettori v1 , . . . , vn , è una matrice invertibile. Da adesso in poi indicheremo con µi l’autovalore corrispondente all’autovettore vi . Quindi µi può essere uguale a µj anche se i 6= j. Affermiamo che µ1 .. P −1 AP = D = . µn Per provare che le due matrici sono uguali, dimostreremo che le due matrici hanno le stesse colonne. Siano e1 , . . . , en la base canonica di Kn . Ricordiamo che la i-esima colanna della matrice P −1 AP è (P −1 AP )i = P −1 AP ei , per i = 1, . . . , n. Per definizione di P si ha P ei = vi per i = 1, . . . , n. Moltiplicando a destra e sinistra per P −1 , si ha P −1 vi = ei per i = 1, . . . , n. Quindi (P −1 AP )i = P −1 AP ei = P −1 Avi = µi P −1 vi = µi ei , ovvero P −1 AP = D. Esempio 9.33. Sia 0 −2 1 A = 2 −5 2 . −1 2 −2 −t −2 1 = −(t + 5)(t + 1)2 . 2 pA (t) = det(A − tId3 ) = det 2 −5 − t −1 2 −2 − t 176 Gli autovalori di A sono −5 con molteplicità algebrica uno, e quindi anche la molteplicità geometrica è 1, e −1 con molteplicità algebrica due. Poiché 1 −2 1 A + Id3 = 2 −4 2 −1 2 −1 La molteplicità geometrica dell’autovalore 1 è mg (−1) = 3 − rg(A + Id3 ) = 2 e quindi A è diagonalizzabile. Una base per l’autospazio relativo a −5 è 1 V−5 = Sol(A + 5Id|0R3 ) = L 2 −1 mentre 2 1 V−1 = Sol(A + Id3 |0R3 ) = L 1 , 0 . 0 −1 −1 0 0 2 1 1 2 e D = 0 −1 0 , allora si ha Quindi se P = 1 0 0 0 −5 0 −1 −1 P −1 AP = D. Esempio 9.34. Sia 1 −1 0 A = −1 0 −1 . 0 1 1 Il polinomio caratteristico di A è pA (t) = det(A − tId3 ) 1 − t −1 0 = det −1 −t −1 0 1 1−t = (1 − t)(t2 + t + 1) + (t − 1) = −t(t − 1)2 , e quindi gli autovalori di A sono 0 con molteplicità algebrica uno e 1 con molteplicità algebrica due. Poiché 0 −1 0 A − Id3 = −1 −1 −1 , 0 1 0 177 si ha mg (1) = 3 − rg(A − Id3 ) = 1, ovvero la molteplicità geometrica dell’autovalore 1 è uno e quindi A non è diagonalizzabile. Una base per l’autospazio relativo a 0 è 1 V0 = Sol(A|0R3 ) = L 1 −1 mentre 1 V1 = Sol(A − Id3 |0R3 ) = L 0 . −1 Esempio 9.35. Sia −2 −1 3 A = −5 −2 5 . −4 −2 5 −2 − t −1 3 −2 − t 5 = (1 − t)(t2 + 1) pA (t) = det −5 −4 −2 5−t Gli autovalori di A sono 0 con molteplicità algebrica uno e gli autovalori i, −i con molteplicità algebrica uno rispettivamente. Quindi A non è diagonalizzabile su R ma è diagonalizzabile su C. Gli autospazi della matrice A, pensata come matrice a coefficienti complessi, sono: 1 V1 = Sol(A − Id3 |0R3 ) = L 0 , 1 −i Vi = Sol(A − iId3 |0R3 ) = L 2 − i . 1−i i V−i = Sol(A + iId3 |0R3 ) = L 2 + i . 1+i Se indichiamo con 1 −i i P = 0 2 − i 2 + i , 1 1−i 1+i 178 1 0 0 D = 0 i 0 , 0 0 −i si ha P −1 AP = D. Sia T : V −→ V e sia B una base di V . La matrice MB,B (T ) è l’unica matrice n × n tale che [T (v)]B = MB,B (T )[v]B . • pT (t) = pMB,B (T ) (t). Quindi λ ∈ K è un autovalore di T se e solamente se λ ∈ K è un autovalore di MB,B (T ). Inoltre la molteplicità algebrica di λ come autovalore di T coincide con la molteplicità algebrica di λ come autovalore di MB,B (T ). • v è autovettore relativo all’autovalore λ di T se e solamente se T (v) = λv se e solamente se [T (v)]B = λ[v]B . Poiché [T (v)]B = MB,B (T )[v]B si ha v è autovalore di T relativo a λ se e solamente se [v]B è un autovettore di MB,B (T ) relativo all’autovalore λ. Infine la molteplicità geometrica di λ come autovalore di T coincide con la molteplicità geometrica di λ come autovalore di MB,B (T ). • Per i punti precedenti T è un endomorfismo diagonalizzabile se e solamente se MB,B (T ) è diagonalizzabile. Se MB,B (T ) è diagonalizzabile, allora per i punti precedenti siamo in grado di determinare una base C = {w1 , . . . , wn } formata da autovettori di MB,B (T ). Se a11 a1n w1 = ... , . . . , wn = ... , an1 ann allora una base di V formata da autovettori di T è −1 FB (w1 ) =, . . . , FB−1 (wn ) = {a11 v1 + · · · + an1 vn , . . . , a1n v1 + · · · + ann vn } . Esempio 9.36. Sia T : R3 −→ R3 l’applicazione lineare definita da: 1 0 1 −1 0 −1 T 0 = −2 , T 1 = −3 , T −1 = −3 . 1 2 1 3 1 −4 Nell’esempio 9.25 abbiamo dimostrato che T è diagonalizzabile. Adesso, vogliamo calcolare una base di R3 formata da autovettori di T seguendo i due metodi sviluppati nell’esempio citato. Ricordiamo che T ha due autovalori: 179 1 con molteplicità algebrica e geometrica due e 2 con molteplicità algebrica e geometrica uno. Sia C la base canonica e sia B la base su cui è definita T . I metodo. Poiché (T − 2IdR3 )X = MC,C (T − 2IdR3 )X = (MC,C (T ) − 2Id3 )X, rispettivamente (T − IdR3 )X = MC,C (T − IdR3 )X = (MC,C (T ) − Id3 )X, si ha V2 = Sol(MC,C (T ) − 2Id3 |0R3 ) 0 −1 −2 0 = Sol 2 −3 −4 0 −1 1 1 0 1 = L 2 , −1 rispettivamente V1 = Sol(MC,C (T ) − Id3 |0R3 ) 1 −1 −2 0 = Sol 2 −2 −4 0 −1 1 2 0 1 0 = L 1 , 2 . 0 −1 Quindi 0 1 1 1 , 2 , 2 0 −1 −1 formano una base di R3 formata da autovettori di T . II metodo. Ricordiamo che [(T − IdR3 )(X)]B = MB,B (T − IdR3 )[X]B = MB,B (T ) − Id3 )[X]B . 180 Primo passo, calcoliamo gli autospazi della matrice MB,B (T ). −1 −2 −1 0 0 0 0 Sol(MB,B (T ) − Id3 |0R3 ) = Sol 0 2 4 2 0 1 1 = L 0 , −1 −1 1 e quindi 1 0 1 1 0 V1 = L 0 − −1 , 0 − 1 + −1 1 1 1 1 1 1 0 = L 1 , −2 . 0 1 Analogamente −2 −2 −1 0 Sol(MB,B (T ) − 2Id3 |0R3 ) = Sol 0 −1 0 0 2 4 1 0 1 0 , =L −2 da cui segue 1 0 V2 = L 0 − 2 −1 1 1 1 2 =L −1 Riassumendo, 0 1 1 B 0 = 1 , −2 , 2 0 1 −1 181 è una base di R3 formata da autovettori di T e 1 0 0 MB0 ,B0 (T ) = 0 1 0 . 0 0 2 formano una base di R3 formata da autovettori di T 9.37 Teorema spettrale In questa sezione dimostreremo che una matrice simmetrica, a coefficienti reali, è sempre diagonalizzabile su R. In dettaglio, proveremo che esiste una base ortonormale di Rn formata da autovettori di A. Il primo lemma prova che gli autovalori di una matrice simmetrica sono numeri reali. Lemma 9.38. Gli autovalori di una matrice A ∈ Mn×n (R) simmetrica sono numeri reali. Dimostrazione. Poiché una matrice reale è anche una matrice complessa, A induce un endomorfismo LA : Cn −→ Cn cosı̀ definito: LA (X) = AX. Se C è la base canonica di Cn , allora MC,C (LA ) = A. Quindi gli autovalori dell’endomorfismo LA sono gli autovalori di A. Sia h·, ·i il prodotto Hermitiano canonico di Cn . Ricordiamo che hX, Y i = X T Y . Affermiamo che per ogni X, Y ∈ Cn , si ha hAX, Y i = hX, AY i. Infatti, tenendo in mente che A = A, si ha hAX, Y i = (AX)T Y = X T AT Y = X T AY = X T AY = hX, AY i. Sia X ∈ Cn un autovettore di A relativo all’autovalore λ. Quindi X 6= 0Cn e AX = λX. Applicando la formula anteriore si ha hAX, Xi = hX, AXi. 182 Quindi hAX, Xi = hX, AXi hλX, Xi = hX, λXi λhX, Xi = λhX, Xi Poiché hX, Xi = 6 0 si ha λ = λ, ovvero λ ∈ R. La seguente proposizione garantisce che autospazi corrispondenti a autovettori distinti sono fra loro ortogonali. Proposizione 9.39. Sia A una matrice simmetrica di ordine n e siano v e w autovettori corrispondenti ad autovalori distinti λ, µ ∈ R. Allora hv, wi = 0. Quindi Vλ ⊂ Vµ⊥ se λ 6= µ. Dimostrazione. Sia hX, Y i = X T Y il prodotto scalare canonico di Rn . Se A è una matrice simmetrica allora vale la seguente formula: hAX, Y i = hX, AY i. Infatti hAX, Y i = (AX)T Y = X T AT Y = X T (AY ) essendo A simmetrica) = hX, AY i. Siano v, w autovettori di A relativi agli autovalori λ e µ rispettivamente. Applicando la formula anteriore si ha hAv, wi = hv, Awi. Poiché v, rispettivamente w, è un autovettore di A relativo a λ, rispettivamente a µ, si ha hAv, wi = hv, Awi hλv, wi = hv, µwi λhv, wi = µhv, wi (λ − µ)hv, wi = 0 Poiché λ e µ sono distinti, si ha hv, wi = 0 concludendo la dimostrazione. Teorema 9.40 (Teorema spettrale). Sia A ∈ Mn×n (R) una matrice simmetrica. Allora esiste una matrice ortogonale P tale che P T AP è diagonale. Ovvero esiste una base ortonormale di Rn formata da autovettori di A. 183 Facoltativa. Per induzione su n. Se n = 1 è vero. Supponiamo di aver dimostrato il teorema per n e proviamolo per n + 1. Per il lemma anteriore una matrice simmetrica ha tutti gli autovalori reali. Sia λ ∈ R un autovalore. v Allora esiste v ∈ Rn non nullo tale che Av = λ1 v. Denotiamo con v1 = kvk . n Completiamo v1 ad una base ortonormale di R che denotiamo con B = {v1 , . . . , vn+1 }. Allora • P = M(C, B) = (v1 , . . . , vn+1 ) è una matrice ortogonale; λ1 0 · · · 0 • P T AP = ... B 0 dove B ∈ Mn×n (R) è una matrice simmetrica. Per ipotesi induttiva esiste una matrice ortogonale Q di ordine n tale che λ2 .. QT BQ = . . λn+1 1 0 ··· 0 Sia Q̃ = ... ∈ Mn+1×n+1 (R). Q̃ è una matrice ortogonale Q 0 da cui segue che anche P Q̃ è una matrice ortogonale. Inoltre λ1 .. (P Q̃)T A(P Q̃) = = D. . λn+1 Quindi la base C = {w1 , . . . , wn+1 } dove wi = (P Q̃)i per i = 1, . . . , n + 1 è una base ortonormale formata da autovettori di A. Corollario 9.41. Sia A ∈ Mn×n (R). A è simmetrica se e solamente se esiste una matrice ortogonale P tale che P T AP è una matrice diagonale. Dimostrazione. Una direzione è il teorema spettrale. Viceversa se P T AP = D matrice diagonale, con P ortogonale, allora A = P DP T e quindi AT = (P DP T )T = P DT P T = P DP T = A ovvero A = AT come si voleva dimostrare. 184 Osservazione 9.42. Eistono matrici A ∈ Mn×n (C) tali che A = AT non diagonalizzabile. Infatti 1 i A= . i −1 verifica A = AT . pA (t) = t2 quindi ha un autovalore λ = 0 con molteplicità algebrica 2 e geometrica 1 da cui segue che A non è diagonalizzabile. Quindi il Teorema spettrale non vale per le matrici complesse. 9.43 Tecniche di calcolo Sia A ∈ Mn×n (R) una matrice simmetrica. Il teorema spettrale garantisce che A è diagonalizzabile. Vediamo come calcolare una matrice ortogonale P e una matrice diagonale D tale che P T AP = D. Poiché A è diagonalizzabile possiamo calcolare una base B = {v1 , . . . , vn } di Rn formata da autovettori di A come nella sezione 9.32. Se indichiamo con Q = (v1 , . . . , vn ), allora Q−1 AQ = D è diagonale. La matrice Q non è, in generale, ortogonale. Per ottenere un matrice ortogonale possiamo utlizzare il Procedimento di Gram-Schimdt. Infatti, se applichiamo il procedimento di Gram-Schimdt alla base B = {v1 , . . . , vn }, ottengo una base ortogonale C = {w1 , . . . , wn } di Rn .nInfine, dividendo o ciascun vettore per la sua norma, w1 wn 0 ottengo una base C = kw1 k , . . . , kwn k ortonormale di Rn . Poiché autovettori di A corrispondenti ad autovalori distinti sono fra loro ortogonali, la base C 0 è ancora una base formata da autovettori di A. Se la matrice A fosse diagonalizzabile ma non fosse simmetrica i vettori della base C 0 non sarebbero più autovettori di A. Quindi se applichiamo il procedimento di Gram-Schidt ad una base di autovettori di una matrice diagonalizzabile A, tale base rimane una base formata da autovettori se e solamente se A è simmetrica. w1 wn Sia P = ( kw , . . . , kw ). P è una matrice ortogonale poich`’e le colonne nk 1k formano una base ortonormale di autovettori di A. Infine, tenendo in mente che P −1 = P T , si ha P T AP = D dove D è la stessa matrice diagonale ottenuta in precedenza. (Perché?) Esempio 9.44. Sia 2 1 1 A = 1 2 1 . 1 1 2 185 2−t 1 1 2−t 1 = −(t − 4)(t − 1)2 . pA (t) = det(A − tId3 ) = det 1 1 1 2−t Gli autovalori di A sono 4 con molteplicità algebrica uno e 1 con molteplicità algebrica due. Una base per l’autospazio relativo a 1 è 1 0 V1 = Sol(A − Id|0R3 ) = L −1 , 1 0 −1 mentre 1 V4 = Sol(A − 4Id3 |0R3 ) = L 1 . 1 1 0 1 1 0 0 Quindi se P = −1 1 1 e D = 0 1 0 , allora 0 −1 1 0 0 4 P −1 AP = D. La matrice P NON E’ ORTOGONALE. Per ottenere una matrice ortogonale U tale che U T AU = D, posso applicare il procedimento di Gram-Schimdt alla base 1 1/2 1 1 0 1 −1 , 1/2 , 1 −1 , 1 , 1 1 −1 0 1 −1 0 e poi dividiamo ciascun vettore per la sua norma √ √ √ 1/√6 1/√3 1/ √2 −1/ 2 , 1/ 6 , 1/ 3 . √ √ 0 −2/ 6 1/ 3 La matrice √ √ √ 1/ √2 1/√6 1/√3 U = −1/ 2 1/ √6 1/√3 0 −2/ 6 1/ 3 è ortogonale, le colonne formano una base ortonormale di autovettori di A e verifica U T AU = D. 186 Capitolo 10 Matrici ortogonali 10.1 Proprietà delle matrici ortogonali Sia A ∈ Mn×n (R). Sia h·, ·i il prodotto scalare canonico di Rn . Proposizione 10.2. A è ortogonale se e solamente se per ogni X, Y ∈ Rn si ha hAX, AY i = hX, Y i. Facoltativa. Supponiamo che A sia ortogonale e siano X, Y ∈ Rn . Allora hAX, AY i = (AX)T AY = X T AT AY = X T Y = hX, Y i. Viceversa, sia C = {e1 , . . . , en } la base canonica. Poichéé Aei = Ai , i.e., la i-esmia colonna si ha hAei , Aej i = hAi , Aj i = hei , ej i per ogni 1 ≤ i ≤ j ≤ n. Quindi A1 , . . . , An formano una base ortonormale ovvero A è ortogonale. Corollario 10.3. Sia A ∈ Mn×n (R) una matrice ortogonale. Allora l’endomorfimo LA : Rn −→ Rn preserva la lunghezza di un vettore, l’angolo fra due vettori non nulli e infine la distanza fra due vettori. Facoltativa. Siano X, Y ∈ Rn . Poiché hLA (X), LA (Y )i = hAX, AY i = hX, Y i, si ha k LA (X) k=k X k ed hLA (X)−LA (Y ), LA (X)−LA (Y )i = hLA (X−Y ), LA (X−Y )i = hX−Y, X−Y i. 187 Poiché la distanza fra X e Y è per definizione d(X, Y ) =k X − Y k, si ha che LA preserva la distanza. Siano X e Y vettori non nulli. Allora hLA (X), LA (Y )i hX, Y i = , k LA (X) kk LA (Y ) k k X kk Y k i.e., LA preserva l’angolo fra due vettori. Le matrici ortogonali non sono in generale diagonalizzabili su R. Infatti, sia 0 −1 A= . 1 0 Il polinomio caratteristi di A è t2 + 1 che non ammette radici su R. Gli autovalori reali di una matrice ortogonale, se esistono, sono ±1. Proposizione 10.4. Sia A un matrice ortogonale e sia λ ∈ C un autovalore. Allora |λ| = 1. In particolare se λ ∈ R, allora λ = ±1. Facoltativa. Sia LA : Cn −→ Cn . Gli autovalori di A sono gli autovalori di LA . Affermiamo che per ogni Z, W ∈ Cn si ha hAZ, AW i = hZ, W i, dove h·, ·i è il prodotto Hermitiano canonico. Infatti hAZ, AW i = (AZ)T AW = Z T AT AW = Z T W = hZ, W i. Sia λ ∈ C autovalore e sia Z 6= 0 autovettore relativo a λ. Allora hAZ, AZi = hλZ, λZi = |λ|2 hZ, Zi. Per la formula anteriore si ha hAZ, AZi = hZ, Zi, ovvero |λ|2 hZ, Zi = hZ, Zi. Poiché hZ, Zi = 6 0, si ha |λ|2 = 1. Una conseguenza del risultato anteriore è che il determinante di una matrice ortogonale è ±1, cosa che avevamo già dimostrato utilizzando la formula di Binet. 188 Corollario 10.5. Sia A una matrice ortogonale. Allora det(A) = ±1. Facoltativa. Poiché A è una matrice a coefficienti reali, se λ ∈ C è autovalore, allora anche λ è autovalore di A. Poiché A è ortogonale. allora λλ = 1. Tenendo i mente che det(A) è il prodotto dei suoi autovalori e che gli autovalori reali possono essere ±1, si ha che det(A) = ±1. Definizione 10.6. Sia W ⊂ Rn un sottospazio vettoriale e sia A ∈ Mn×n (R). Diremo che W è A-invariante se per ogni w ∈ W si ha Aw ∈ W . È facile verificare che se A è invertibile, allora W è un sottospazio di Rn A-invariante se e solamente se W è A−1 -invariante. Se A è ortogonale vale la seguente proposizione. Proposizione 10.7. Sia A una matrice ortogonale e sia Sia W ⊂ Rn un sottospazio A-invariante. Allora W ⊥ è A-invariante. Facoltativa. Sia Z ∈ W ⊥ . Vogliamo dimostrare che AZ ∈ W ⊥ , ovvero hAZ, wi = 0 per ogni w ∈ W . Poiché AT è ancora una matrice ortogonale (perché?) si ha hAZ, wi = hAT AZ, AT wi = hZ, AT wi = 0, dove l’ultima uguaglianza segue dal fatto che essendo AT = A−1 , W è AT invariante. Riassumendo, abbiamo provato che W ⊥ è A-invariante. 10.8 Riflessioni e rotazioni del piano Sia LA : R2 −→ R2 con A matrice ortogonale. Se a b , A= c d dall’equazione AT A = Id2 , ne segue che 2 a + c2 = 1 ab + cd = 0 2 b + d2 = 1 Quindi esistono θ, ψ ∈ [0, 2π] tale che a = cos θ b = cos ψ c = sin θ . d = sin ψ 189 Inoltre dalla secondo equazione si deduce che cos θ cos ψ + sin θ sin ψ = cos(ψ − θ) = 0, ovvero π ψ = θ + + kπ. 2 π Se k è pari allora cos ψ = cos(θ + 2 ) = − sin(θ) e sin ψ = sin(θ + π2 ) = cos(θ), ovvero cos θ − sin θ A= , sin θ cos θ e det(A) = 1. Se invece k è dispari, allora cos ψ = cos(θ + 3π 2 ) = sin(θ) e 3π sin ψ = sin(θ + 2 ) = − cos(θ), ovvero A= cos θ sin θ sin θ − cos θ , e quindi A è simmetrica e det(A) = −1. Riassumendo, abbiamo dimostrato che se A è una matrice ortogonale di formato due per due con det(A) = 1, allora esiste θ ∈ R tale che cos θ − sin θ A= sin θ cos θ Se invece, det(A) = −1, allora esiste θ ∈ R tale che cos θ sin θ , A= sin θ − cos θ Adesso vogliamo studiare l’endomorfismo associato a A, ovvero LA : R2 −→ R2 . Se det(A) = −1, allora cos θ sin θ A= , sin θ − cos θ per un certo θ ∈ [0, 2π]. A è simmetrica, quindi diagonalizzabile, e gli autovalori di A sono sono le radici del polinomio pA (t) = t2 − 1, cioé 1, −1. L’autospazio relativo all’autovalore 1 sono le soluzione del sistema lineare omogeneo: cos θ − 1 sin θ . sin θ − cos θ − 1 Poiché dim V1 = 1 basta risolvere una delle due equazione, per esempio: (cos θ − 1)x + (sin θ)y = 0. 190 Tenendo in mente che cos θ − 1 = −2 sin2 ( 2θ ) e sin θ = 2 sin 2θ cos 2θ , l’equazione diventa θ θ θ −2 sin2 x + 2 sin cos y = 0, 2 2 2 e quindi cos 2θ . V1 = L sin 2θ Poiché V−1 = V1⊥ , si ha − sin 2θ . cos 2θ − sin 2θ cos 2θ , è una base ortonormale formata da La base B = sin 2θ cos 2θ autovettori di A. Quindi 1 0 , MB,B (LA ) = 0 −1 V−1 = L per cui l’endomorfismo LA è la riflessione rispetto alla retta passante per cos 2θ l’origine e che ha come vettore direttore . sin 2θ y θ 2 x Se det(A) = 1, allora A= cos θ − sin θ sin θ cos θ per un certo θ ∈ [0, 2π]. Poiché pA (t) = t2 − 2 cos θ + 1, LA non è diagonalizzabile se θ 6= 0, −π, che corrispondono a Id2 e −Id2 . Vogliamo dimostrare che LA è un rotazione di angole θ. È facile verificare che hAe1 , e1 i = hAe2 , e2 i = cos θ, 191 dove h·, ·i è il prodotto scalare standard di R2 . Quindi, se v = x y = xe1 + ye2 ∈ R3 , si ha hAv, vi = x2 hAe1 , e1 i + xyhAe1 , e2 i + xyhAe2 , e1 i + y 2 hAe2 , e2 i = (x2 + y 2 ) cos θ + xy sin θ − xy sin θ =k v k2 cos θ. Quindi hAv, vi = cos θ, k v kk Av k ovvero l’endomorfismo LA è una rotazione attorno all’origine di angolo θ. y θ x Proposizione 10.9. Sia A ∈ M2×2 (R) una matrice ortogonale e sia LA l’applicazione lineare indotta. LA è una rotazione se e solamente se det(A) = 1; LA è una riflessione se e solamente se det(A) = −1. Corollario 10.10. La composizione di due rotazioni è ancora una rotazione; la composizione di due riflessioni è una rotazione; la composizione di una rotazione ed una riflessione è una riflessione. Dimostrazione. Noi sappiamo che LA ◦ LB = LAB e che per il teorema di Binet det(AB) = det(A) det(B). Dalla discussione precedente segue la tesi. 192