Appunti di Geometria e Algebra (per la facoltà di Ingegneria) Francesco D’Andrea Dipartimento di Matematica e Applicazioni “R. Caccioppoli” Università di Napoli Federico II, P.le Tecchio 80 – 80125 Napoli v1: 12 giugno 2011. Note Appunti del corso di “Geometria e Algebra” (6 CFU) per i corsi di laurea in Ingegneria Elettrica e Ingegneria Gestionale della Logistica e della Produzione (canale A-COP) dell’Università di Napoli Federico II, a.a. 2010-2011. (Attenzione: questo materiale è destinato esclusivamente agli studenti del corso, con preghiera di non divulgazione.) Testi consigliati [Lom] L.A. Lomonaco, Un’introduzione all’algebra lineare, Ed. Aracne (Roma). [Pel1] S. Pellegrini, A. Benini e F. Morini, Algebra Lineare 1, Ed. F. Apollonio (Brescia). [Pel2] S. Pellegrini, A. Benini e F. Morini, Algebra Lineare 2, Ed. F. Apollonio (Brescia). [BruLan] M. Brundu e G. Landi, Note di Algebra Lineare e Geometria (2011), on-line. [Par] G. Parigi e A. Palestini, Manuale di Geometria: esercizi e temi d’esame svolti, Ed. Pitagora (Bologna). Indice 1 Elementi di teoria degli insiemi (16/03/2011) 1 1.1 Notazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Insiemi privi di struttura . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Applicazioni tra insiemi . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Strutture algebriche: gruppi, anelli, campi (18/03/2011) 7 2.1 Operazioni di un insieme . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Gruppi, anelli, campi . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Sistemi lineari: definizioni e prime proprietà (23/03/2011) 3.1 3.2 3.3 3.4 3.5 3.6 Premesse . . . . . . . . . . . . . . . . . . . . . . Generalità sui sistemi lineari . . . . . . . . . . . Matrici . . . . . . . . . . . . . . . . . . . . . . . Operazioni elementari su un sistema lineare . . . Esame dei casi più semplici di equazioni e sistemi Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . lineari . . . . . . . . . . . . . . . . . . . . . . Introduzione . . . . . . . Proprietà elementari . . . Sottospazi . . . . . . . . Operazioni su sottospazi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Esercizi su spazi e sottospazi . . . . Esercizi su matrici 2 ⇥ 2 . . . . . . . Determinante di una matrice 3 ⇥ 3 . Determinante di una matrice n ⇥ n . . . . . . . . . . . . . 12 13 14 15 16 19 21 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Esercitazione su vettori e matrici (30/03/2011) 5.1 5.2 5.3 5.4 7 9 12 4 Spazi vettoriali e sottospazi (25/03/2011) 4.1 4.2 4.3 4.4 1 2 3 . . . . . . . . . . . . . . . . 21 24 26 28 30 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 Dipendenza e indipendenza lineare (06/04/2011) 6.1 Dipendenza e indipendenza lineare . . . . . . . . . . . . . . . . . . . . . 6.2 Basi e componenti . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Esercitazione su basi e dimensione (08/04/2011) 7.1 Proprietà delle basi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.2 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 Spazi metrici (13/04/2011) 30 32 33 35 38 38 40 45 45 47 51 8.1 Lunghezze, angoli e proiezioni in R . . . . . . . . . . . . . . . . . . . . 8.2 Aree di triangoli e determinante . . . . . . . . . . . . . . . . . . . . . . 2 i 51 53 8.3 Definizione astratta di prodotto scalare e sue proprietà . . . . . . . . . . 8.4 Proiezioni ortogonali . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.5 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 Basi ortonormali e metodo di Gram-Schmidt (15/04/2011) 9.1 9.2 9.3 9.4 Basi ortonormali . . . . . Metodo di Gram-Schmidt Sottospazi ortogonali . . Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 . . . . . . . . . . . . . . . . . . . . . . . . 10 Matrici (20/04/2011) 11 Il metodo di eliminazione di Gauss (29/04/2011) 12 Riduzione di sistemi lineari (04/05/2011) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 Applicazioni lineari (06/05/2011 e 11/05/2011) 14 Rango e sistemi lineari (11/05/2011) . . . . 15 Esercitazione (13/05/2011) . . . . . . . . 87 88 90 91 94 95 13.1 Definizione e prime proprietà . . . . . . . . . . . . . . . . . . . . . . . 13.2 Proprietà delle applicazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . 77 78 82 87 Riduzione di una matrice . . . . . . . . . . . . Soluzione di sistemi lineari generali . . . . . . . Calcolo dell’inversa di una matrice per riduzione Determinare una base per riduzione . . . . . . . Inversa di una matrice con il metodo di Gauss . Applicazioni e sistemi lineari . Rango di una matrice . . . . Proprietà del rango . . . . . . Esercizi . . . . . . . . . . . . 68 70 74 77 11.1 Matrici triangolari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 Il metodo di eliminazione di Gauss . . . . . . . . . . . . . . . . . . . . 11.3 Sistemi ridotti e a scala . . . . . . . . . . . . . . . . . . . . . . . . . . 14.1 14.2 14.3 14.4 61 62 63 65 68 10.1 Prodotto righe per colonne . . . . . . . . . . . . . . . . . . . . . . . . . 10.2 Proprietà del prodotto . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.3 Inversa ed aggiunta di una matrice . . . . . . . . . . . . . . . . . . . . 12.1 12.2 12.3 12.4 12.5 54 57 59 95 99 102 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 102 104 106 108 15.1 Applicazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108 15.2 Basi e dimensione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 15.3 Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 ii 16 Endomorfismi semplici (18/05/2011) 113 16.1 Matrice del cambiamento di base . . . . . . . . . . . . . . . . . . . . . 113 16.2 Matrici simili e coniugate . . . . . . . . . . . . . . . . . . . . . . . . . 116 16.3 Esercizio: rotazioni nel piano . . . . . . . . . . . . . . . . . . . . . . . 118 17 Autovalori e autovettori (20/05/2011) 120 17.1 Autovalori e autovettori . . . . . . . . . . . . . . . . . . . . . . . . . . 120 17.2 Polinomio caratteristico . . . . . . . . . . . . . . . . . . . . . . . . . . 124 18 Diagonalizzazione di matrici (25/05/2011 e 27/05/2011) 129 18.1 Diagonalizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 18.2 Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135 19 Geometria di R2 (01/06/2011 e 03/06/2011) 19.1 19.2 19.3 19.4 19.5 Equazioni di una retta . Intersezione fra due rette Circonferenze . . . . . . Distanze . . . . . . . . . Esercizi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 Esercitazione (06/06/2011) 20.1 20.2 20.3 20.4 Tema d’esame #1 . . . . . . Tema d’esame #2 . . . . . . Soluzioni tema d’esame #1 Soluzioni tema d’esame #2 152 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 Geometria di R3 : rette, piani e intersezioni (08/06/2011) 21.1 21.2 21.3 21.4 Rette e piani in R : equazioni parametriche Equazioni cartesiane di una retta . . . . . . Equazioni cartesiane di un piano . . . . . . Intersezioni . . . . . . . . . . . . . . . . . . 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Distanze, equazione di una sfera . . . . . . . . . . . Angolo fra due vettori di R3 . . . . . . . . . . . . . Prodotto vettoriale e prodotto misto . . . . . . . . Retta per due punti, piano individuato da tre punti A Equazioni polinomiali . . . . . . . . . . . . . . . . . . . . 152 153 154 158 163 . . . . . . . . . . . . . . . . . . . . . . . . 22 Geometria di R3 : lunghezze, aree e volumi (10/06/2011) 22.1 22.2 22.3 22.4 141 144 145 148 149 163 165 167 168 171 . . . . . . . . . . . . . . . . . . . . . . . . 171 173 175 179 182 iii Lezione I Elementi di teoria degli insiemi Sommario: notazioni; richiami di teoria degli insiemi; prodotto cartesiano; applicazioni (funzioni) e loro proprietà; applicazioni iniettive, suriettive, biettive; applicazione identica e applicazione inversa; esempi. 1.1 Notazioni In matematica, per semplificare la scrittura di equazioni e teoremi, su fa uso di simboli specifici. Nella tabella seguente sono riportati i simboli più comuni. Altri verranno introdotti durante il corso. Simbolo 8 9 9! =) () := : ^ _ Tavola dei simboli più usati Significato “per ogni” (detto quantificatore universale) “esiste” (detto quantificatore esistenziale) “esiste ed è unico” implicazione logica “se e solo se” definizione (a := b si legge “a per definizione è uguale a b”) “tale che” “e” (detta congiunzione logica) “o” (detta disgiunzione logica) Assumeremo come primitivo il concetto di insieme (adotteremo quindi il punto di vista della teoria ingenua degli insiemi, senza addentrarci nei problemi della teoria assiomatica). In maniera intuitiva, un insieme è una collezione di oggetti di natura arbitraria. Un insieme può essere definito elencando i suoi elementi, oppure specificando le proprietà soddisfatte dai suoi elementi. Ad esempio l’insieme dei numeri interi compresi fra 2 e 3 si può scrivere come A = 0, 1, 2, 3, 1, 2 , oppure A= n2Z : 2n3 . (1.1) L’espressione (1.1) si legge ⌧ A è l’insieme degli n contenuti in Z (quindi, interi) tale che n è maggiore o uguale a 2 e minore o uguale a 3 . Una proposizione viene usualmente racchiusa fra parentesi gra↵e. 1 Insiemi In un insieme, l’ordine degli elementi è irrilevante. Ad esempio {3, 14} = {14, 3}. Gli insiemi verranno indicati con lettere maiuscole (A, B, C, . . .), i loro elementi con lettere minuscole (a, b, c, . . .). L’espressione “a 2 A” si legge “a appartiene ad A” (o “è elemento di”, o “è contenuto in”). Si può scrivere al rovescio: “A 3 a” vuol dire “A contiene a”. L’espressione “a 2 / A” vuol dire “a non è elemento di A”. Gli elementi di un insieme non devono necessariamente essere numeri: possono essere oggetti di natura arbitraria. Si pensi all’insieme dei punti di una retta, l’insieme dei giocatori di una squadra di calcio, l’insieme dei caratteri di un alfabeto, etc. Gli elementi di un insieme possono essere a loro volta insiemi. Ad esempio, siano A := {1, 2} e B := {1, 4}. Possiamo formare l’insieme C i cui elementi sono l’insieme A e l’insieme B: C := {A, B} = {1, 2}, {1, 4} Esiste una notazione specifica per gli insiemi numerici più importanti. Fra questi ricordiamo: N := {0, 1, 2, 3, 4, . . .} numeri naturali (incluso lo 0) Z := numeri interi (relativi, ossia positivi e negativi, incluso lo zero) Q := numeri razionali (quozienti di due interi) R := numeri reali C := numeri complessi Z+ := {1, 2, 3, . . .} interi positivi Z := { 1, 2, 3, . . .} interi negativi R+ := reali positivi etc. 1.2 Insiemi privi di struttura Definizione 1.2.1. Un insieme A si dice sottoinsieme di un insieme B, e scriveremo A ✓ B, se ogni elemento di A è anche elemento di B. Quindi: A✓B () 8 x 2 A, x 2 B . Se esiste almeno un elemento di B che non appartiene ad A, diremo che A è un sottoinsieme proprio di B, e scriveremo A ⇢ B. Quindi: A⇢B () 8 x 2 A, x 2 B ^ 9 b 2 B : b 2 /A . E’ facile mostrare che A ✓ B ^ B ✓ A =) A = B . 2 Sottoinsieme Definizione 1.2.2. Dati due insiemi A e B, la loro intersezione A \ B è l’insieme degli elementi che appartengono sia ad A che a B, la loro unione A [ B è l’insieme degli elementi che che appartengono ad almeno uno dei due insiemi A e B, la loro di↵erenza ArB è l’insieme di elementi che appartengono ad A ma non a B. Quindi: Intersezione, unione, di↵erenza A \ B := x : x 2 A ^ x 2 B , A [ B := x : x 2 A _ x 2 B , A r B := x : x 2 A ^ x 2 /B . Si indica con ; l’insieme vuoto, ovvero privo di elementi. Unione, intersezione e di↵erenza godono di una serie di proprietà elementari, la cui verifica è lasciata come esercizio. Ad esempio Insieme vuoto A\A=A[A=A A\;=; A[;=A A\B =B\A (proprietà commutativa di \) A[B =B[A (proprietà commutativa di [) (A \ B) \ C = A \ (B \ C) (proprietà associativa di \) (A [ B) [ C = A [ (B [ C) (proprietà associativa di [) Un elenco più completo si può trovare nella Sezione 1.2 di [Pel1]. Definizione 1.2.3. Dati due insiemi A e B, si dice prodotto cartesiano di A e B, e si indica con A ⇥ B, l’insieme delle coppie ordinate aventi il primo elemento in A ed il secondo in B. Quindi: Prodotto cartesiano A ⇥ B := (a, b) : a 2 A ^ b 2 B . Più ingenerale dati n insiemi A1 , . . . , An : A1 ⇥ A2 ⇥ . . . ⇥ An := (a1 , a2 , . . . , an ) : ai 2 Ai 8 i = 1, . . . , n . Esercizio 1.2.4. Determinare il prodotto cartesiano di A = {|, } e B = {7, 12}. Esercizio 1.2.5. Determinare il prodotto cartesiano di A = {0, 1, 5} e B = {0, 1, 2} (notare che (0, 1) 6= (1, 0) in A ⇥ B). 1.3 Applicazioni tra insiemi Definizione 1.3.1. Dati due insiemi A e B si dice corrispondenza da A in B un 3 Corrispondenza qualunque sottoinsieme C del prodotto cartesiano A⇥B. L’insieme A è detto dominio, l’insieme B è detto codominio. Una corrispondenza C da A in B è indicata con la scrittura C:A!B. La corrispondenza opposta C op : B ! A è definita come C op = {(y, x) : (x, y) 2 A⇥B}. Esempio 1.3.2. se A = {1, 2, 7} e B = {0, 2, 3, 4, 14}, allora C = {(1, 2), (2, 4), (7, 14)} è la corrispondenza che associa ad ogni elemento di A il suo doppio. Sia C : A ! B una corrispondenza. L’immagine di A0 ✓ A è l’insieme C(A0 ) := {b 2 B : 9 a 2 A0 , (a, b) 2 C}. La controimmagine di B 0 ✓ B è l’insieme C op (B 0 ) := {a 2 A : 9 b 2 B 0 , (a, b) 2 C}. Una corrispondenza si dice: 1. ovunque definita se per ogni a 2 A esiste almeno un b 2 B tale che (a, b) 2 C; 2. funzionale o univoca o a un solo valore se per ogni a 2 A esiste al più un b 2 B tale che (a, b) 2 C; 3. suriettiva se per ogni b 2 B esiste almeno un a 2 A tale che (a, b) 2 C; 4. iniettiva se per ogni b 2 B esiste al più un a 2 A tale che (a, b) 2 C. Si verifica facilmente che: C è ovunque definita se e solo se C op è suriettiva; C è funzionale se e solo se C op è iniettiva. Definizione 1.3.3. Una corrispondenza C : A ! B si dice applicazione (o funzione) se è ovunque definita e funzionale. Una definizione equivalente, che non fa ricorso alla nozione di corrispondenza, è la seguente. Definizione 1.3.4. Una applicazione (o funzione) f da A in B è una legge che associa ad ogni elemento x di A un elemento y = f (x) in B, detto immagine di x tramite f . Per le applicazioni useremo la scrittura: f :A!B x 7! y = f (x) Se f è una applicazione nel senso della definizione 1.3.4, allora l’insieme C = (x, y) 2 A ⇥ B : y = f (x) è una corrispondenza (ovunque definita e funzionale). 4 Applicazione o funzione Come per le corrispondenze, una applicazione f : A ! B si dice 1. suriettiva se per ogni y 2 B esiste almeno un x 2 A tale che y = f (x); Suriettività 2. iniettiva se Iniettività f (x) = f (y) =) x = y , ovvero due elementi hanno la stessa immagine se e solo se sono uguali. Definizione 1.3.5. Una applicazione si dice biunivoca (o biettiva) se è iniettiva e suriettiva. Esempio 1.3.6. Si considerino le seguenti applicazioni a) f : N ! N , f (x) := x + 1 , b) g : R ! R , g(x) := x + 1 . La prima è iniettiva ma non suriettiva; la seconda è sia iniettiva che suriettiva, quindi biunivoca. Per verificare l’iniettività bisogna dimostrare che due elementi distinti hanno sempre immagini distinte. Nel caso a), per definizione se f (x) = f (y) allora x + 1 = y + 1, e questo implica x = y. Questo dimostra che f è iniettiva. La stessa dimostrazione si applica a g. Per verificare la suriettività bisogna dimostrare che ogni elemento del codominio è immagine di almeno un elemento del dominio. Nel caso b), dato y 2 R, possiamo trovare un numero reale x := y 1 che soddisfa g(x) = g(y 1) = (y 1) + 1 = y; quindi g è suriettiva. Nel caso a) questo non è vero, poichè se y = 0 2 N, x = y 1 = 1 non è un numero naturale, quindi 0 non è l’immagine tramite f di alcun elemento del dominio. Esercizio 1.3.7. Si considerino le tre applicazioni seguenti: f :N!N, f (x) := x2 , g : R r {0} ! R+ , g(x) := x2 , h : R+ ! R + , h(x) := x2 . Verificare che: la prima è iniettiva e non suriettiva, la seconda è suriettiva e non iniettiva, la terza è biunivoca (per la soluzione, vedere l’esempio 1.3.12 di [Pel1]). Esercizio 1.3.8. Sia A = {|, , F} e B = {4, }}. Dire se l’applicazione f : A ! B, definita da f (|) = } , f () = 4 , è iniettiva, suriettiva o biunivoca. 5 f (F) = } , Biunivocità Sia A un insieme qualsiasi. Chiamiamo applicazione identica su A, indicata con idA , l’applicazione che associa ad ogni x 2 A l’elemento x stesso. Quindi: Applicazione identica idA : A ! A x 7! idA (x) = x L’applicazione identica è biunivoca1 . Definizione 1.3.9. Date due applicazioni f : A ! B e g : B ! C la loro composizione, indicata con g f : A ! C, è l’applicazione definita da (g f )(a) := g f (a) Composizione 8 a 2 A. Due applicazioni f e g si dicono uguali se hanno lo stesso dominio, lo stesso codominio, e f (x) = g(x) per ogni x nel dominio. Notiamo che le applicazioni f e g dell’esempio 1.3.6 non sono uguali, poichè hanno diverso dominio e diverso codominio. Anche le funzioni g e h dell’esercizio 1.3.7 non sono uguali, poichè hanno lo stesso codominio ma diverso dominio. Si può verificare facilmente che, per ogni f : A ! B, vale l’uguaglianza fra applicazioni idB f = f = f idA . (1.2) Proposizione 1.3.10 (Proprietà associativa della composizione di applicazioni). Date tre applicazioni f : A ! B, g : B ! C e h : C ! D, si ha sempre h (g f ) = (h g) f . Dimostrazione. Le due applicazioni anno lo stesso dominio A e lo stesso codominio C, inoltre [h (g f )](a) = h g f (a) = [(h g) f ](a) per ogni a 2 A. ⌅ Una applicazione f : A ! B si dice invertibile se esiste g : B ! A (detta inversa di f ) tale che g f = idA , f g = idB . Si dimostra che f è invertibile se e solo se è biunivoca, e che l’applicazione inversa se esiste è anche unica. L’inversa di f si indica con f 1 . Esempio 1.3.11. L’inversa dell’applicazione h : R+ ! R+ , h(x) = x2 , è l’applicazione p h 1 : R+ ! R+ , h 1 (y) = y. Esempio 1.3.12. L’applicazione idA è inversa di se stessa. Dall’equazione (1.2) segue infatti idA idA = idA , come caso particolare quando A = B ed f = idA . 1 Ogni x 2 A è immagine di se stesso, questo prova la suriettività, e idA (x) = idA (y) se e solo se x = y, questo prova l’iniettività. 6 Applicazione inversa Lezione II Strutture algebriche: gruppi, anelli, campi Sommario: operazione di un insieme (interna e esterna); proprietà associativa e commutativa; elemento neutro e inverso; gruppo; anello; campo. Esempi. 2.1 Operazioni di un insieme Definizione 2.1.1. Sia S un insieme. Si dice operazione interna (binaria) ⇤ di S una applicazione f :S⇥S !S . Operazione interna Il risultato f ((a, b)) dell’operazioni tra due elementi a, b 2 S si indica con a ⇤ b. Le operazioni elementari di somma e prodotto fra numeri sono “operazioni” degli insiemi N, Z, Q, R nel senso della definizione 2.1.1. La sottrazione è una operazione di Z, Q, R, ma non è una operazione di N, poiché la sottrazione fra due numeri naturali non è necessariamente un numero naturale (ad esempio, 2 7 = 5 è un intero negativo). La divisione non è una operazione di N o di Z (il rapporto fra due numeri naturali/interi non è sempre un numero naturale/intero) e non è una operazione neppure di Q o R poiché non si può dividere per 0. La divisione è una operazione, ad esempio, di Q r {0} ed R r {0}. Esempio 2.1.2. Sia A un insieme e indichiamo con P(A) la collezione dei sottoinsiemi di A; P(A) è detto insieme delle parti di A. Allora unione, intersezione e di↵erenza fra insiemi sono operazioni interne di P(A), dette operazioni insiemistiche (vedere def. 1.2.2). Definizione 2.1.3. Una operazione ⇤ di un insieme S si dice commutativa se per ogni a, b 2 S si ha a⇤b=b⇤a, e si dice associativa se per ogni a, b, c 2 S si ha 2 a ⇤ (b ⇤ c) = (a ⇤ b) ⇤ c . In tal caso scriveremo semplicemente a ⇤ b ⇤ c per indicare il risultato dell’operazione. 2 Un’espressione del tipo a ⇤ (b ⇤ c) indica che bisogna svolgere prima l’operazione fra le parentesi tonde. 7 Insieme delle parti Proprietà commutativa Proprietà associativa Somma e prodotto di due numeri godono della proprietà commutativa e associativa. La divisione non è commutativa né associativa. Infatti, ad esempio, 2 : 4 6= 4 : 2 e (16 : 4) : 2 6= 16 : (4 : 2) Come esercizio, si dica se la sottrazione è commutativa e/o associativa. Esercizio 2.1.4. Si studi l’operazione ⇤ di N definita da a ⇤ b = a + 7b . Si dica se è commutativa e/o associativa. Definizione 2.1.5. Siano K e S due insiemi. Una operazione esterna • di S ad operatori in K è una applicazione Operazione esterna K ⇥S !S . L’immagine della coppia ( , a) 2 K ⇥ S si indica con • a. Vedremo esempi di operazioni esterne nelle lezioni successive. Un insieme S dotato di operazioni (interne o esterne) ⇤1 , . . . , ⇤n è detto struttura algebrica (ad n operazioni). Tale struttura algebrica si indicherà con (S; ⇤1 , . . . , ⇤n ). Definizione 2.1.6. Sia (G, ⇤) un insieme con una operazione interna. Un elemento e 2 G è detto elemento neutro rispetto a ⇤ se per ogni a 2 G si ha Struttura algebrica Elemento neutro a⇤e=e⇤a=a. Scriveremo (G, ⇤, e) per indicare un insieme con una operazione interna ed un elemento neutro rispetto a tale operazione. Esempio 2.1.7. Il numero 0 è elemento neutro rispetto alla somma di due numeri, il numero 1 è elemento neutro rispetto al prodotto di due numeri. Proposizione 2.1.8. Sia (G, ⇤) come sopra. Se esiste un elemento neutro rispetto a ⇤, questo è unico. Dimostrazione. Supponiamo che e ed e0 siano due elementi neutri di (G, ⇤). Allora e ⇤ e0 = e0 poiché e è neutro; inoltre e ⇤ e0 = e poiché anche e0 è neutro. Ne segue che e = e0 . ⌅ Definizione 2.1.9. Sia (G, ⇤, e) come sopra. Un elemento a 2 G si dice simmetrizzabile (o invertibile) in G rispetto a ⇤ se esiste un elemento b 2 G tale che a⇤b=b⇤a=e. In tal caso b si dice simmetrico (o inverso) di a. 8 Elementi invertibili Esempio 2.1.10. Ogni elemento x di (Z, +, 0) è simmetrizzabile, ed il simmetrico è il suo opposto x. Ogni elemento non nullo y di (Q, · , 1) è simmetrizzabile, ed il suo simmetrico è l’inverso y 1 . Esercizio 2.1.11. Sia S := {0, 1}. Si definisca una operazione interna + di S attraverso la seguente tavola di Cayley: + 0 1 0 0 1 1 1 1 dove la somma fra due elementi x e y si ottiene selezionando x sulla prima colonna, y sulla prima riga, ed andando a leggere nella tabella l’elemento nell’intersezione fra la riga di x e la colonna di y. In maniera simile si definisca una seconda operazione interna · di S attraverso la tavola: · 0 1 0 0 0 1 0 1 Si dica se le operazioni sono associative, commutative e se possiedono un elemento neutro. Si dica quali elementi sono simmetrizzabili (rispetto a + e ·) e chi è il loro simmetrico. Si noti che in questo esempio + non è l’usuale somma fra numeri interi. 3 Dato un insieme con una operazione interna, qualunque sia la natura di questo insieme, quando l’operazione è denotata con il simbolo + viene detta “somma” o “addizione” (e diremo che stiamo usando una notazione additiva); se esiste l’elemento neutro, esso viene indicato con 0; il simmetrico di un elemento a viene indicato con a e si dice “opposto”. Analogamente quando una operazione è denotata con il simbolo · viene detta “moltiplicazione” o “prodotto” (e diremo che stiamo usando una notazione moltiplicativa); se esiste l’elemento neutro, esso viene indicato con 1; il simmetrico di un elemento a viene indicato con a 1 o anche a1 e si dice “inverso”. 2.2 Gruppi, anelli, campi Definizione 2.2.1. Sia G un insieme dotato di una operazione ⇤ e di un elemento neutro e 2 G rispetto a ⇤. La struttura (G, ⇤, e) si dice gruppo se i) l’operazione ⇤ è associativa; 3 In questo esempio gli elementi di S si possono interpretare come stati di un interruttore (1 = acceso / 0 = spento) o i due valori di una proposizione (1 = vera / 0 = falsa). Le due operazioni + e · vengono dette, rispettivamente, OR e AND e la loro implementazione tramite circuiti integrati è alla base del funzionamento dei computer. 9 Gruppo ii) ogni elemento di G è invertibile. Se l’operazione ⇤ è commutativa, diremo che (G, ⇤, e) è un gruppo commutativo (o abeliano 4 ). Esempi di gruppi commutativi sono (Z, +, 0) e (Q r {0}, · , 1). Se A è un insieme, si può considerare la collezione SA delle applicazioni biunivoche f : A ! A con l’operazione di composizione . L’equazione (1.2) (con B = A) ci dice che idA è elemento neutro di (SA , ). Per la proposizione 1.3.10 la composizione è associativa, ed ogni applicazione biunivoca è invertibile. Quindi (SA , , idA ) è un gruppo. Tale gruppo è detto gruppo delle permutazioni di A 5 . Proposizione 2.2.2. Sia (G, ⇤, e) un gruppo. Allora l’inverso di ogni elemento è unico. Dimostrazione. Sia a un elemento di G. Supponiamo che b, b0 2 G siano due inversi di a. Allora per definizione a ⇤ b = e e b0 ⇤ a = e. Per definizione di elemento neutro si ha b0 ⇤ (a ⇤ b) = b0 ⇤ e = b0 , (b0 ⇤ a) ⇤ b = e ⇤ b = b , e dall’associatività del prodotto si evince che b0 = b0 ⇤ (a ⇤ b) = (b0 ⇤ a) ⇤ b = b , ⌅ ovvero i due inversi b e b0 sono uguali. Definizione 2.2.3. Sia (A, +, 0A , · , 1A ) un insieme dotato di due operazioni interne, che chiameremo “somma” (indicata con +) e “prodotto” (indicato con ·), e di due elementi 0A e 1A . Tale insieme si dice anello (con unità) se le seguenti proprietà sono soddisfatte: 1. (A, +, 0A ) è un gruppo commutativo; 2. il prodotto è associativo; 3. 1A è elemento neutro rispetto al prodotto; 4. per ogni a, b, c 2 A si ha: a · (b + c) = a · b + a · c , (a + b) · c = a · c + b · c . La proprietà 4 è detta proprietà distributiva del prodotto rispetto alla somma. Un anello si dice commutativo se il prodotto è commutativo. 4 5 In onore del matematico Niels Abel (1802–1829). Si può dimostrare che se A ha almeno 3 elementi, il gruppo (SA , , idA ) è non commutativo. 10 Anello con unità Un esempio di anello commutativo è (Z, +, 0, · , 1). I due elementi 0A e 1A dell’anello A sono spesso indicati semplicemente con 0 e 1, quando questo non generi confusione; 0A è detto “zero” dell’anello, e 1A è detto “unità” dell’anello. Si può facilmente dimostrare, usando la proprietà distributiva, che a · 0A = 0A · a = 0A per ogni a 2 A. Con abuso di notazioni un anello (A, +, 0A , · , 1A ) si può anche indicare semplicemente con A, omettendo di scrivere le operazioni, lo zero e l’unità. Anche (Q, +, 0, · , 1) è un anello commutativo. Però Q rispetto a Z ha una struttura più ricca: ogni elemento non nullo è invertibile rispetto al prodotto. Definizione 2.2.4. Un anello commutativo K si dice campo se ogni elemento a 6= 0 è invertibile rispetto al prodotto. Quindi Q è un campo. Altri esempi di campi sono l’insieme R dei numeri reali e l’insieme C dei numeri complessi. Vedremo un esempio di anello non commutativo più avanti nel corso (esercizio 5.2.3). 11 Campo Lezione III Sistemi lineari: definizioni e prime proprietà Sommario: generalità su equazioni lineari e sistemi (di equazioni) lineari; matrice dei coefficienti, dei termini noti e completa; esame dei casi più semplici; determinante di una matrice 2 ⇥ 2. Esempi ed esercizi. 3.1 Premesse Gia nel corso degli studi preuniversitari si sono incontrate equazioni di primo grado (equazioni lineari) in una o più incognite, quali ad esempio 3x = 6 , oppure 2x + y = 13 , e ci si è trovati a risolvere sistemi di equazioni lineari quali ⇢ x+y =0 x y=5 Le equazioni lineari sono tra le più semplici equazioni (si confrontino, ad esempio, con le equazioni di secondo grado, studiate al liceo) e costituiscono uno degli oggetti di studio dell’algebra lineare. Osserviamo subito che il numero delle equazioni e delle incognite sarà da considerarsi a priori arbitrario. I coefficienti delle incognite potranno assumere qualsiasi valore reale; in particolare non escluderemo equazioni con coefficienti nulli, quali ad esempio 0x = 2 o 3x + 0y = 7. Sebbene si possano considerare equazioni lineari a coefficienti (e soluzioni) in un qualsiasi campo K (vedere ad es. [Pel1]), per semplificare la trattazione ci limiteremo al caso K = R. Notazione: chiameremo n-upla di elementi di S un elemento dell’insieme Sn = S | ⇥S⇥ {z. . . ⇥ S} . n Una n-upla (↵1 , . . . , ↵n ) 2 S n è quindi un insieme ordinato di n elementi di S. 12 n-uple 3.2 Generalità sui sistemi lineari Una equazione in n incognite x1 , . . . , xn a coefficienti in R si dice lineare se è della forma: a1 x 1 + a2 x 2 + . . . + an x n = b , (3.1) Equazioni lineari con ai 2 R e b 2 R. Una sua soluzione è una n-upla (↵1 , . . . , ↵n ) 2 Rn tale che, sostituendo ciascun ↵i ad xi in (3.1), l’equazione si riduce ad una identità fra numeri reali. Esempio 3.2.1. Si verifica facilmente che (4, 1, 6) 2 R3 è una soluzione dell’equazione 3x1 + x2 2x3 = 1. Un sistema di m equazioni lineari in 8 > > a11 x1 + a12 x2 > > < a21 x1 + a22 x2 ⌃: .. .. > . . > > > : a x + a x m1 1 n incognite è un insieme di equazioni + . . . + a1n xn = b1 + . . . + a2n xn = b2 .. .. .. . . . + . . . + amn xn = bm m2 2 Sistemi lineari (3.2) con aij 2 R e bi 2 R. Una soluzione del sistema è una n-upla (↵1 , . . . , ↵n ) 2 Rn che risolve simultaneamente tutte le m equazioni. Esercizio 3.2.2. Si verifichi che le triple (1, 0, 0) sono soluzioni del sistema (3, 1, 0) ⇢ x1 2x1 (1, 1, 0) (5, 2, 0) 2x2 + x3 = 1 4x2 =2 Si determini almeno un’altra soluzione diversa dalle quattro elencate. Chiamiamo soluzione generale del sistema l’insieme di tutte le sue soluzioni. La soluzione generale di un sistema ⌃ è quindi un sottoinsieme S⌃ ✓ Rn . Un sistema si dice compatibile (o risolubile) se ammette soluzioni; se invece non ha soluzioni, il sistema si dirà incompatibile (in questo caso S⌃ = ;). Esempio 3.2.3. Si considerino i tre sistemi ⇢ ⇢ x1 + 3x2 = 0 x1 x2 = 0 x1 + 3x2 = 1 x1 + x2 = 2 ⇢ x1 + x2 = 0 2x1 + 2x2 = 0 Il primo è incompatibile (se ammettesse soluzione, si avrebbe l’assurdo 0 = 1); il secondo ammette (1, 1) come unica soluzione; qualunque coppia (t, t) è soluzione del terzo sistema, per ogni valore del parametro reale t 2 R. 13 Soluzione generale Sistemi risolubili Vedremo che per un sistema compatibile si possono verificare solamente due casi: i) la soluzione è unica; ii) esistono infinite soluzioni. In un tipico esercizio sui sistemi lineari si può chiedere, dato un sistema, se è compatibile e, in tal caso, determinare tutte le sue soluzioni. Vedremo in questa lezione come si risolvono i casi più semplici, e più avanti nel corso come si risolve un sistema generale. Il sistema ⌃ in (3.2) si dice omogeneo se b1 = b2 = . . . omogeneo di m equazioni (lineari) in n incognite ha quindi la 8 > a11 x1 + a12 x2 + . . . + a1n xn > > > < a21 x1 + a22 x2 + . . . + a2n xn ⌃: .. .. .. .. > . . . . > > > : a x + a x + ... + a x m1 1 m2 2 mn n = bm = 0. Un sistema forma Sistemi omogenei = 0 = 0 .. . = 0 con aij 2 R. Un sistema omogeneo è sempre compatibile: infatti ammette almeno la soluzione nulla (0, 0, . . . , 0) 2 Rn (detta anche soluzione banale). Soluzione banale 3.3 Matrici I coefficienti del sistema (3.2) si possono scrivere in una tabella 0 1 a11 a12 . . . a1n B C B a21 a22 . . . a2n C B A := B . .. .. C C . . . A @ . am1 am2 . . . amn detta matrice dei coefficienti del sistema ⌃ (indichiamo con ai,j l’elemento nell’intersezione della riga i con la colonna j). Più in generale, si chiama matrice (reale) di tipo m ⇥ n una tabella di m righe e n colonne i cui elementi sono numeri reali. La matrice m ⇥ 1 0 1 b1 B C B b2 C C B := B B .. C @ . A bm 14 Matrice dei coefficienti Matrice dei termini noti si chiama matrice colonna dei termini noti, e la 0 a11 a12 . . . B B a21 a22 . . . (A|B) = B .. B .. . @ . am1 am2 . . . matrice m ⇥ (n + 1) 1 a1n b1 C a2n b2 C .. .. C C . . A Matrice completa amn bm si dice matrice completa del sistema. Un sistema è determinato univocamente dalla sua matrice completa. Esercizio 3.3.1. Scrivere la matrice completa del sistema dell’esercizio 3.2.2. Soluzione. (A|B) = 1 2 2 1 1 4 0 2 Esercizio 3.3.2. Scrivere il sistema di equazioni la 0 1 1 2 B (A|B) = @ 0 1 2 0 0 1 Soluzione. 8 > < x1 + x2 + 2x3 = x2 2x3 = > : x3 = ! X cui matrice completa è 1 4 C 3 A 2 4 3 2 X 3.4 Operazioni elementari su un sistema lineare Definizione 3.4.1. Due sistemi ⌃ e ⌃0 si dicono equivalenti, e si indica con ⌃ ⇠ ⌃0 , se hanno le stesse soluzioni. Quindi: Sistemi equivalenti ⌃ ⇠ ⌃0 () S⌃ = S⌃0 . Ad esempio i due sistemi seguenti sono chiaramente equivalenti: ⇢ ⇢ x+y =0 x y=1 x y=1 x+y =0 Le seguenti operazioni elementari trasformano qualsiasi sistema in uno equivalente: 1. scambiare fra di loro due equazioni; 15 Operazioni elementari 2. moltiplicare una equazione per un numero reale diverso da zero; 3. sostituire un’equazione con quella ottenuta sommando ad essa un multiplo (non nullo) di un’altra equazione del sistema. E↵ettuare una qualsiasi successione di operazioni elementari su un sistema non cambia le soluzioni del sistema stesso. Moltiplicare ambo i membri di una equazione per 0 non diminuisce il numero delle soluzioni del sistema, in quanto qualunque soluzione di un sistema lineare è anche soluzione dell’equazione 0 = 0. 3.5 Esame dei casi più semplici di equazioni e sistemi lineari Esaminiamo i casi più semplici di equazioni e sistemi. La loro comprensione aiuterà nello studio di sistemi più generali. Nel caso di una equazione in una incognita la situazione è riassunta nel seguente schema: ax = b =) 8 > (1) se a 6= 0 la soluzione esite, è unica ed è data da a 1 b. > > > > > > > > > 8 > > > > > > (20 ) se b 6= 0 il sistema è incompatibile (per nessun < > > > > ↵ 2 R si ha l’identità 0↵ = b se b 6= 0) > > > < > > > >(2) se a = 0 allora > (200 ) se b = 0 l’equazione è 0x = 0 ed ammette co> > > > > > > > > > me soluzione qualsiasi numero reale. La soluzione > > > > > > : :generale (l’insieme di tutte le soluzioni) è quindi R. Il caso di una equazione in n incognite (con n 2) è simile. Sia a1 x 1 + a2 x 2 + . . . + an x n = b . Se tutti i coefficienti sono nulli l’equazione diventa 0 = b: se anche b = 0, qualunque n-upla (↵1 , . . . , ↵n ) 2 Rn è soluzione; se b 6= 0, allora l’equazione è incompatibile. Se almeno un coefficiente è non nullo, sia esso ad esempio a1 , possiamo assegnare valori arbitrari (↵2 , . . . , ↵n ) 2 Rn 1 alle incognite x2 , . . . , xn e ridurre l’equazione ad una ad una sola incognita a1 x1 = b (a2 ↵2 + . . . + an ↵n ) , la quale ammette un’unica soluzione data da ↵1 = b (a2 ↵2 + . . . + an ↵n ) . a1 16 Le soluzioni sono quindi in corrispondenza biunivoca con l’insieme Rn 1 . Riassumendo: Sia a1 x1 + a2 x2 + . . . + an xn = b. Allora: 8 > (1) se (a1 , . . . , an ) 6= (0, . . . , 0) le soluzioni in corrispondenza biunivoca con i punti > > > > > dell’insieme Rn 1 . > > > < 8 0 > > >(2 ) se b 6= 0 il sistema è incompatibile. > < > > > > (2) se (a1 , . . . , an ) = (0, . . . , 0) allora 00 n > > > > >(2 ) se b = 0 ogni n-upla (↵1 , . . . , ↵n ) 2 R è > > : :una soluzione. Concludiamo questo studio preliminare considerando un sistema di 2 equazioni in 2 incognite: ( a11 x1 + a12 x2 = b1 ⌃: a21 x1 + a22 x2 = b2 E↵ettuiamo le seguenti operazioni sul sistema: 1. moltiplichiamo la prima equazione per a22 , la seconda per membro a membro; 2. moltiplichiamo la prima equazione per membro a membro. a12 e sommiamo a21 , la seconda per a11 e sommiamo Il risultato di queste operazioni è il sistema: ( (a11 a22 a12 a21 )x1 = a22 b1 ⌃0 : (a11 a22 a12 a21 )x2 = a11 b2 a12 b2 a21 b1 I sistemi ⌃ e ⌃0 non sono necessariamente equivalenti, poiché non abbiamo fatto ancora ipotesi sui coefficienti, e nelle operazioni ai punti 1 e 2 potremmo aver moltiplicato per zero. Quello che possiamo dire per certo è che tutte le soluzioni di ⌃ sono anche soluzioni di ⌃0 , ovvero S⌃ ✓ S⌃0 . Ciascuna equazione di ⌃0 è una equazione in una incognita: per ciascuna di esse vale quindi la discussione nel primo schema di questa sezione. In aggiunta, le incognite x1 e x2 in queste due equazioni moltiplicano lo stesso coefficiente, a11 a22 a12 a21 . Per le due equazioni si verificheranno quindi simultaneamente i casi (1) o (2) dello schema citato. Studiamo ora il primo caso, mentre daremo il risultato nel secondo caso senza dimostrazione. 17 Se a11 a22 a12 a21 6= 0 la soluzione della prima equazione in ⌃0 è unica e data da ↵1 = a22 b1 a11 a22 a12 b2 , a12 a21 e la soluzione della seconda equazione è unica e data da ↵2 = a11 b2 a11 a22 a21 b1 . a12 a21 Il sistema ⌃0 ammette quindi come unica soluzione la coppia (↵1 , ↵2 ) definita qui sopra. Siccome S⌃ ✓ S⌃0 , il sistema ⌃ o non ammette soluzioni, oppure ammette come unica soluzione la stessa di ⌃0 . Si verifica per sostituzione che vale il secondo caso: il sistema ⌃ da cui siamo partiti ammette come unica soluzione la coppia (↵1 , ↵2 ) definita qui sopra. Un’analisi di tutti i casi possibili è riassunta nel seguente schema. Si consideri il sistema 8 > (1) se a11 a22 > > > > > > > > > > > > > > > > > > > > > > > > > < > > > > > > > > > (2) se a11 a22 > > > > > > > > > > > > > > > > > : ( a11 x1 + a12 x2 = b1 a21 x1 + a22 x2 = b2 . Allora: a12 a21 6= 0: la soluzione esiste, è unica ed è data dalla coppia: ✓ ◆ a11 b2 a21 b1 a22 b1 a12 b2 (↵1 , ↵2 ) = , a11 a22 a12 a21 a11 a22 a12 a21 a12 a21 8 > (20 ) se (a22 b1 a12 b2 , a11 b2 a21 b1 ) 6= (0, 0) > > > > > il sistema è incompatibile. > > > > > > > > (200 ) se a22 b1 a12 b2 = a11 b2 a21 b1 = 0 il > > < sistema è equivalente al sistema di una sola = 0 allora > equazione in due incognite: > > > > > > a11 x1 + a12 x2 = b1 > > > > > > e la sua soluzione è ricondotta a quella di un > > > : sistema di una sola equazione. Data una matrice 2 ⇥ 2: A= ✓ a b c d ◆ l’espressione a b c d = ad bc è detta determinante della matrice A. Il determinante della matrice A si può anche indicare con la notazione |A| oppure con “ det A ”. 18 Determinante Esempio 3.5.1. Si verifica facilmente che 1 2 7 5 =5 0 4 1 3 ( 14) = 19 , = 2 3 1 3 4, =6 3=3. Utilizzando la definizione di determinante, lo schema relativo alla risoluzione di sistemi di due equazioni in due incognite si può scrivere in maniera compatta, notando ad esempio che il termine a11 a22 a12 a21 è il determinante della matrice dei coefficienti. Nel linguaggio delle matrici, abbiamo: Si consideri il sistema lineare la cui matrice completa è (A|B ) = a11 a21 a12 a22 b1 b2 ! Allora: (1) se |A| = 6 0 esiste ed è unica la soluzione (↵1 , ↵2 ) 2 R2 , ed è data da: ↵1 = b1 b2 a12 a22 ↵2 = |A| a11 a21 b1 b2 |A| (2) se |A| = 0 allora: (20 ) se b1 b2 a12 6= 0 o a22 (200 ) se b1 b2 a12 a22 = a11 a21 a11 a21 equazione in due incognite: b1 b2 b1 6= 0 il sistema è incompatibile. b2 = 0 il sistema è equivalente al sistema di una sola a11 x1 + a12 x2 = b1 . 3.6 Esercizi Esercizio 3.6.1. Si consideri l’equazione in una incognita 1 nella “forma normale” ax = b . x = 3x + x . Si scriva Soluzione. Raccogliendo i coefficienti si ottiene 5x = 1 . X Esercizio 3.6.2. Si scriva in forma normale l’equazione x + 2x = 3x. X Soluzione. La forma normale è 0x = 0 . 19 Esercizio 3.6.3. Si consideri la matrice completa: 0 B B (A|B) = B @ 1 6 0 1 3 4 0 0 7 0 0 1 5 5 3 2 0 2 2 11 1 C C C A Dire se il sistema associato è compatibile. Soluzione. Il sistema è incompatibile, poiché la terza equazione è 0 = 2. X Esercizio 3.6.4. Scrivere la soluzione generale del sistema 8 > < 3x1 + x2 + 2x3 = 7 x2 x3 = 1 > : x3 = 5 Soluzione. Sia (↵1 , ↵2 , ↵3 ) 2 R3 una soluzione. Dalla terza equazione si vede che deve essere ↵3 = 5. Sostituendo questo valore (al posto di x3 ) nelle prime due equazioni si ottiene ( 3x1 + x2 + 10 = 7 x2 5 =1 ovvero, in forma normale, ( 3x1 + x2 = 3 x2 = 6 Ora dalla seconda equazione si vede che deve essere ↵2 = 6. Sostituendo questo valore nella prima equazione si ottiene 3x1 + 6 = 3 ovvero in forma normale 3x1 = 9, da cui si ricava la soluzione ↵1 = 93 = 3. Il sistema ammette quindi un’unica soluzione, data dalla terna ( 3, 6, 5). X La tecnica di risoluzione del precedente esercizio è detta “per sostituzione”, e vedremo più avanti nel corso come si applica ad un sistema generale di m equazioni in n incognite. 20 Lezione IV Spazi vettoriali e sottospazi Sommario: spazi vettoriali: definizione e proprietà elementari; spazi delle n-uple e delle matrici (reali); sottospazi: intersezione, somma e somma diretta. Esempi. 4.1 Introduzione Abbiamo visto nella lezione precedente che un sistema di equazioni lineari in n incognite è determinato dalla sua matrice completa, e che una soluzione è una n-upla di numeri reali. Per proseguire con lo studio di sistemi di equazioni lineari, è fondamentale approfondire le proprietà di n-uple e matrici. Ricordiamo che Rn = X = (x1 , x2 , . . . , xn ) : x1 , x2 , . . . , xn 2 R . L’elemento xi è detto componente i-esima di X (x1 è la prima componente, x2 la seconda, etc.). In questo contesto, un numero k 2 R è detto uno scalare. Le n-uple possono essere sommate fra di loro e moltiplicate per uno scalare. Sia Y = (y1 , y2 , . . . , yn ) 2 Rn . Definiamo somma e moltiplicazione per uno scalare come segue: X + Y := (x1 + y1 , x2 + y2 , . . . , xn + yn ) , kX := (kx1 , kx2 , . . . , kxn ) . Componente i-esima Operazioni di Rn Sia 0Rn := (0, 0, . . . , 0) l’n-upla nulla. Si può verificare che Proposizione 4.1.1. Valgono le seguenti proprietà: i) (Rn , +, 0Rn ) è un gruppo commutativo, con elemento neutro 0Rn e opposto X := ( x1 , x2 , . . . , xn ) ii) 8 k, k 0 2 R e 8 X, Y 2 Rn si ha 1. (k + k 0 )X = kX + k 0 X 2. k(X + Y ) = kX + kY 3. k(k 0 X) = (kk 0 )X 4. 1X = X 21 n-upla nulla Dimostrazione. La dimostrazione è una semplice verifica. Siano X, Y, Z tre n-uple. Allora: (X + Y ) + Z = (x1 + y1 , x2 + y2 , . . . , xn + yn ) + (z1 , z2 , . . . , zn ) = (x1 + y1 ) + z1 , (x2 + y2 ) + z2 , . . . , (xn + yn ) + zn = x1 + (y1 + z1 ), x2 + (y2 + z2 ), . . . , xn + (yn + zn ) = (x1 , x2 , . . . , xn ) + (y1 + z1 , y2 + z2 , . . . , yn + zn ) = X + (Y + Z) dove la terza uguaglianza segue dall’associatività della somma di numeri reali. Abbiamo dimostrato che + è una operazione associativa di Rn . Si verifica facilmente che è commutativa: X + Y = (x1 + y1 , x2 + y2 , . . . , xn + yn ) = (y1 + x1 , y2 + x2 , . . . , yn + xn ) = Y + X poiché è commutativa la somma di numeri reali. Chiaramente 0Rn è elemento neutro: X + 0Rn = (x1 + 0, x2 + 0, . . . , xn + 0) = (x1 , x2 , . . . , xn ) = X , e per la proprietà commutativa si ha anche 0Rn + X = X + 0Rn = X. Per finire notiamo che X + ( X) = (x1 x 1 , x2 x2 , . . . , x n xn ) = (0, 0, . . . , 0) = 0Rn e per la proprietà commutativa ( X) + X = X + ( X) = 0Rn . Quindi ogni X è simmetrizzabile e il simmetrico (l’opposto in notazione additiva) è proprio la n-upla X. Questo completa la prova del punto i). Per ogni k, k 0 2 R si ha (k + k 0 )X = (k + k 0 )x1 , (k + k 0 )x2 , . . . , (k + k 0 )xn = (kx1 + k 0 x1 , kx2 + k 0 x2 , . . . , kxn + k 0 xn ) = (kx1 , kx2 , . . . , kxn ) + (k 0 x1 , k 0 x2 , . . . , k 0 xn ) = kX + k 0 X , k(X + Y ) = k(x1 + y1 ), k(x2 + y2 ), . . . , k(xn + yn ) = (kx1 + ky1 , kx2 + ky2 , . . . , kxn + kyn ) = (kx1 , kx2 , . . . , kxn ) + (ky1 , ky2 , . . . , kyn ) = kX + kY , k(k 0 X) = k(k 0 x1 ), k(k 0 x2 ), . . . , k(k 0 xn ) 22 = (kk 0 )x1 , (kk 0 )x2 , . . . , (kk 0 )xn = (kk 0 )X , 1X = (1 · x1 , 1 · x2 , . . . , 1 · xn ) = (x1 , x2 , . . . , xn ) = X . ⌅ Questo completa la prova del punto ii). Un insieme con due operazioni che soddisfano proprietà analoghe a quelle della proposizione 4.1.1 si dice spazio vettoriale (reale). La definizione di spazio vettoriale si può dare sostituendo ad R un qualsiasi campo K. Per semplicità di trattazione ci limitiamo al caso K = R, sebbene non ci sia alcuna sostanziale di↵erenza con il caso generale. Definizione 4.1.2. Un insieme non vuoto V è detto spazio vettoriale (reale) se in V sono definite una operazione interna di “somma” Spazio vettoriale s:V ⇥V !V , denotata con s(v, v0 ) = v + v0 , ed una operazione esterna p di “prodotto per uno scalare”: p:R⇥V !V , denotate con la semplice giustapposizione p(k, v) = kv, soddisfacenti le proprietà seguenti: i) (V, +, 0V ) è un gruppo commutativo, il cui elemento neutro indichiamo con 0V ; ii) 8 k, k 0 2 R e 8 v, v0 2 V si ha 1. (k + k 0 )v = kv + k 0 v 2. k(v + v0 ) = kv + kv0 3. k(k 0 v) = (kk 0 )v 4. 1v = v L’elemento 0V sarà indicato semplicemente con 0, quando questo non generi confusione. Le proprietà 1 e 2 si dicono “proprietà distributive” (del prodotto rispetto alla somma). Gli elementi di V si dicono vettori e saranno indicati in grassetto. L’elemento 0 si dirà vettore nullo, e l’opposto di un vettore v sarà indicato con v. Scriveremo v v0 = v + ( v0 ) per indicare la somma di un vettore v con l’opposto del vettore v0 . 23 Vettori Di↵erenza di vettori Osservazione 4.1.3. Segue dalla proposizione 4.1.1 che Rn è uno spazio vettoriale. Notiamo che un elemento (x1 , x2 ) 2 R2 si può identificare con un punto P del piano cartesiano, di cui x1 e x2 sono le coordinate (in particolare 0R2 = O è l’origine del sistema di riferimento cartesiano); la stessa coppia (x1 , x2 ) si può anche identificare #» con il segmento orientato OP (vettore geometrico applicato nell’origine), e la somma per componenti (x1 , x2 ) + (y1 , y2 ) = (x1 + y1 , x2 + y2 ) corrisponde alla ben nota regola del parallelogramma, studiata alle scuole superiori (e ripetuta nel corso di Fisica Generale 1). Un discorso simile vale per R3 , i cui elementi si possono identificare con punti dello spazio tridimensionale. Esempio 4.1.4. Sia S un insieme. Le funzioni f, g : S ! R con operazioni Vettori geometrici Spazi di funzioni (kf )(x) = k · f (x) , (f + g)(x) = f (x) + g(x) , formano uno spazio vettoriale, indicato con Fun(S, R). esercizio. Si lascia la verifica come Esempio 4.1.5. Indichiamo con Rm,n l’insieme delle matrici m ⇥ n. Siano A = (aij ) e B = (bij ) due matrici di elementi aij e, rispettivamente, bij (con i = 1, . . . , m e j = 1, . . . , n). Rm,n è uno spazio vettoriale con operazioni A + B := (aij + bij ) , Matrici m⇥n kA := (kaij ) . L’elemento neutro rispetto alla somma 0 0 B B0 B. B. @. è la matrice 1 0 ... 0 C 0 . . . 0C .. .. C C . .A 0 0 ... 0 con tutti gli elementi nulli. L’opposto di A è la matrice A := ( aij ) con tutti gli elementi cambiati di segno. La verifica che si tratta di uno spazio vettoriale procede in maniera completamente analoga a quella per Rn (con l’unica di↵erenza che gli elementi invece di essere disposti in una riga sono disposti per righe e per colonne), ed è lasciata agli studenti come esercizio. 4.2 Proprietà elementari Proposizione 4.2.1 (Legge di semplificazione della somma). v + v0 = v + v00 () 24 v0 = v00 . Legge di semplificazione della somma Dimostrazione. L’implicazione “(” è ovvia, proviamo l’implicazione “)”. Per definizione di spazio vettoriale ogni elemento possiede un opposto. Aggiungendo v ambo i membri dell’uguaglianza di sinistra, dall’associatività del prodotto e dalla definizione di opposto segue che 0 + v0 = 0 + v00 , ovvero v0 = v00 (per definizione di elemento neutro). ⌅ Proposizione 4.2.2 (Legge di annullamento del prodotto). kv = 0 () k=0 o v=0. Legge di annullamento del prodotto Dimostrazione. Dobbiamo dimostrare le tre seguenti a↵ermazioni: 1. 0v = 0 8 v 2 V , 2. k0 = 0 8 k 2 R, 3. se k 6= 0 e v 6= 0 allora kv 6= 0. Dalla proprietà distributiva segue che: 0v = (0 + 0)v = 0v + 0v , che si può scrivere nella forma 0v + 0 = 0v + 0v (0 è elemento neutro). Dalla legge di semplificazione della somma segue che 0 = 0v. Questo prova il punto 1. Analogamente da k0 = k(0 + 0) = k0 + k0 segue il punto 2. Per ogni k 6= 0, abbiamo v = 1v = (k 1 k)v = k 1 (kv) . Se kv = 0, dalla precedente uguaglianza si ricava v = k 1 (kv) = k 1 0 = 0. Questo prova il punto 3 (se k e v sono diversi da zero, kv non si può annullare). ⌅ Usando l’unicità dell’opposto, si può facilmente dimostrare che per ogni k, v si ha: ( k)v = k( v) = (kv) . Proposizione 4.2.3. Se V e V 0 sono spazi vettoriali, allora V ⇥ V 0 è uno spazio vettoriale con operazioni (v, v0 ) + (w, w0 ) := (v + w, v0 + w0 ) , L’elemento neutro è (0V , 0V 0 ) e l’opposto di (v, v0 ) è k(v, v0 ) := (kv, kv0 ) . (v, v0 ) = ( v, v0 ). Dimostrazione. La dimostrazione è analoga a quella per Rn . Ad esempio, dalla commutatività della somma di V e V 0 segue la commutatività della somma di V ⇥ V 0 : (v, v0 ) + (w, w0 ) = (v + w, v0 + w0 ) = (w + v, w0 + v0 ) = (w, w0 ) + (v, v0 ) . Dall’associatività della somma di V e V 0 segue l’associatività della somma di V ⇥ V 0 , e cosı̀ per tutte le altre proprietà che definiscono uno spazio vettoriale. ⌅ Osserviamo che come spazio vettoriale Rn è il prodotto cartesiano di n copie di R. 25 Prodotto cartesiano di spazi vettoriali 4.3 Sottospazi Definizione 4.3.1. Sia (G, ⇤) un insieme con una operazione. Un sottoinsieme non vuoto G0 ✓ G si dice chiuso rispetto all’operazione ⇤ se a ⇤ b 2 G0 Chiusura rispetto a un’operazione 8 a, b 2 G0 . Ad esempio Z ⇢ R è chiuso rispetto all’operazione di somma, ma Zr{0} ⇢ Qr{0} non è chiuso rispetto all’operazione di divisione. Definizione 4.3.2. Sia V uno spazio vettoriale, con operazioni s e p, e W ✓ V un sottoinsieme non vuoto. Diremo che W è un sottospazio vettoriale di V se, rispetto alle stesse operazioni p, s di V , è uno spazio vettoriale. In queste note, un sottospazio vettoriale verrà chiamato semplicemente “sottospazio”. Esistono due “criteri” elementari, descritti nei punti b) e c) della proposizione seguente, per stabilire quando un sottoinsieme è un sottospazio. Proposizione 4.3.3. Sia V uno spazio vettoriale e W ✓ V un sottoinsieme non vuoto. Le seguenti condizioni sono equivalenti: a) W è un sottospazio di V ; b) 8 k 2 R e 8 w, w0 2 W si ha b1) kw 2 W , b2) w + w 2 W ; c) 8 k, k 0 2 R e 8 w, w0 2 W si ha kw + k 0 w0 2 W . La condizione ii) ci dice che W è chiuso rispetto alle operazioni di V . Dimostrazione. a) ) b) per definizione di spazio vettoriale. Proviamo che b) ) a). Assumiamo per ipotesi che a) sia soddisfatta. La proprietà associativa e commutativa valgono in V , quindi valgono anche in W . Similmente, le proprietà ii) della definizione 4.1.2 valgono in V , quindi valgono anche in W . Per provare che W è uno spazio vettoriale rimane da dimostrare che contiene il vettore nullo e l’inverso di ogni elemento. Per ipotesi kw 2 W per ogni k 2 R e w 2 W : prendendo k = 0 si prova che 0 = 0w 2 W ; prendendo k = 1 si prova che w = ( 1)w 2 W . Quindi a) () b). D’altronde dalla c) prendendo k 0 = 0 si ottiene b1) e prendendo k = k 0 = 1 si ottiene b2). Quindi c) ) b). L’implicazione opposta è ovvia: dalla b1) kw 2 W e k 0 w0 2 W per ogni k, k 0 , w, w0 ; dalla b2) v+v0 2 W per ogni v, v0 2 W , e in particolare prendendo v = kw e v0 = k 0 w0 si giunge alla tesi kw + k 0 w0 2 W . ⌅ 26 Sottospazi vettoriali Se V è uno spazio vettoriale, due sottospazi banali sono dati da {0} e da V stesso. Che V sia un sottospazio è ovvio. Che lo sia {0} è una semplice verifica: per ogni k 2 R e w, w0 2 {0} (quindi w = w0 = 0) si ha kw = 0 (legge di annullamento del prodotto) e w + w0 = 0 (per la proprietà dell’elemento neutro). Quindi il criterio b) della proposizione 4.3.3 {0} è sottospazio di V . Sottospazi banali Esempio 4.3.4. Molti esempi interessanti si incontrano nei corsi di analisi. Sia Fun(R, R) lo spazio vettoriale delle funzioni R ! R (cf. esempio 4.1.4 nel caso S = R). Numerose classi di funzioni sono chiuse rispetto alla somma e moltiplicazione per uno scalare, e formano quindi sottospazi di Fun(R, R). Fra queste ricordiamo: le funzioni continue, derivabili, le funzioni di classe C n (con n 0), le funzioni di classe C 1 . Sottospazi di funzioni Esempio 4.3.5. Un esempio importante è dato dalle funzioni polinomiali (da non confondere con i polinomi). Una funzione p : R ! R si dice polinomiale (di ordine n) se è della forma Funzioni polinomiali p(x) = a0 + a1 x + a2 x2 + . . . + an xn con a0 , a1 , . . . , an 2 R. Si verifica facilmente (raccogliendo i coefficienti) che rispetto alle operazioni definite nell’esempio 4.1.4 si ha (p + p0 )(x) = (a0 + a00 ) + (a1 + a01 )x + (a2 + a02 )x2 + . . . (kp)(x) = ka0 + (ka1 )x + (ka2 )x2 + . . . per ogni p(x) = a0 + a1 x + a2 x2 + . . . + an xn e p0 (x) = a00 + a01 x + a02 x2 + . . . + a0m xm . Poiché il risultato delle due operazioni è ancora una funzione polinomiale, per il criterio b) della proposizione 4.3.3 tali funzioni formano un sottospazio di Fun(R, R). Un esempio importante di sottospazio si incontra nello studio dei sistemi lineari. Proposizione 4.3.6. Sia S⌃ l’insieme delle soluzioni di un sistema ⌃ di m equazioni lineari in n incognite: ai1 x1 + ai2 x2 + . . . + ain xn = bi 8 i = 1, . . . , m . (4.1) S⌃ ✓ Rn è un sottospazio se e solo se il sistema è omogeneo. Dimostrazione. Un sottospazio contiene sempre il vettore nullo. L’n-upla nulla è soluzione di ⌃ solo se bi = 0 8 i = 1, . . . , m, ovvero ⌃ è omogeneo. Questo prova che la condizione è necessaria. Assumiamo ora che ⌃ sia omogeneo, e mostriamo che per S⌃ vale il criterio b) della proposizione 4.3.3. Sia k 2 R, e siano Y = (y1 , . . . , yn ) e Z = (z1 , . . . , zn ) due soluzioni 27 Soluzioni di un sistema lineare del sistema. Dimostriamo che kY e Y + Z sono ancora soluzioni. Sostituendo kyj ad xj nell’equazione (4.1) (per ogni j = 1, . . . , m) si trova ai1 (ky1 ) + ai2 (ky2 ) + . . . + ain (kyn ) = = kai1 y1 + kai2 y2 + . . . + kain yn = = k(ai1 y1 + ai2 y2 + . . . + ain yn ) = 0 per ogni i = 1, . . . , m. L’ultima uguaglianza segue dal fatto che per ipotesi Y è soluzione di ⌃. Questo prova che kY è ancora soluzione di ⌃. In maniera analoga sostituendo yj + zj ad xj nell’equazione (4.1) si trova ai1 (y1 + z1 ) + ai2 (y2 + z2 ) + . . . + ain (yn + zn ) = = (ai1 y1 + ai2 y2 + . . . + ain yn ) + (ai1 z1 + ai2 z2 + . . . + ain zn ) = 0 + 0 = 0 dove si è usata l’ipotesi che Y e Z risolvono ⌃. Questo prova che anche Y + Z è soluzione di ⌃. ⌅ 4.4 Operazioni su sottospazi Le proprietà che seguono sono elementari e si dimostrano, come al solito, usando uno dei criteri della proposizione 4.3.3. Per la dimostrazione si veda il capitolo III di [BruLan] (prop. 2.3 e 2.5). Siano W1 e W2 sottospazi di V . Allora 1. W1 \ W2 è un sottospazio di V . Intersezione e somma di sottospazi 2. W1 + W2 := v = w1 + w2 : w1 2 W1 , w2 2 W2 è un sottospazio di V . W1 + W2 è detto “somma” di W1 e W2 . L’unione W1 [ W2 in generale non è uno spazio vettoriale. Il più piccolo sottospazio di V che contiene W1 [ W2 è W1 + W2 . Osserviamo che l’insieme S⌃ delle soluzioni di un sistema lineare omogeneo in n incognite è l’intersezione dei sottospazi di Rn dati dalle soluzioni di ciascuna equazione del sistema. Definizione 4.4.1. La somma W1 + W2 si dice diretta, e si indica con W1 W2 , se ogni v 2 W1 + W2 può essere decomposto in un solo modo come somma v = w1 + w2 di w1 2 W1 e w2 2 W2 . Proposizione 4.4.2. W1 + W2 è una somma diretta se e solo se W1 \ W2 = {0}. Dimostrazione. Sia v = w1 + w2 = w10 + w20 , con w1 , w10 2 W1 e w2 , w20 2 W2 . Allora u := w1 w10 = w20 28 w2 . Somma diretta Poiché per definizione di sottospazio w1 w10 2 W1 e w2 w20 2 W2 , il vettore u è elemento sia di W1 che di W2 , ovvero u 2 W1 \ W2 . Se W1 \ W2 = {0}, abbiamo u = w1 w10 = w20 w2 = 0, ovvero w1 = w10 , w2 = w20 e la decomposizione di v è unica. Quindi la somma è diretta. Viceversa sia W1 \ W2 6= {0} e sia u un elemento non nullo di W1 \ W2 . Allora 0 = u u = 0 + 0 sono due decomposizioni di↵erenti dello stesso elemento 0 2 V e la somma non è diretta. ⌅ Esempio 4.4.3. Sia U = {(x, y) 2 R2 : x = 0} l’asse verticale del piano cartesiano e W = {(x, y) 2 R2 : y = 0} l’asse orizzontale. Allora U \ W = {(0, 0)} e la somma U + W è diretta. Ogni vettore di R2 si può scrivere come somma (x, y) = (x, 0) + (0, y), dove (x, 0) 2 W e (0, y) 2 U ; quindi U + W = R2 . Notiamo che U [ W non è uno spazio vettoriale, in quanto (1, 0) 2 W ⇢ U [ W , (0, 1) 2 U ⇢ U [ W , ma (1, 0) + (0, 1) = (1, 1) 2 / U [ W. 29 Lezione V Esercitazione su vettori e matrici Sommario: esercizi su spazi vettoriali e calcolo di determinanti; determinante matrici 3 ⇥ 3 (regola di Sarrus); sviluppo di Laplace del determinante di una matrice n ⇥ n. 5.1 Esercizi su spazi e sottospazi Esercizio 5.1.1 (2.8.1 di [Pel1]). Dire quali dei seguenti insiemi sono sottospazi di R2 : 1. E1 = {(x, y) 2 R2 | x + y = 0} 2. E2 = {(x, y) 2 R2 | y = 4} 3. E3 = {(x, y) 2 R2 | y = x2 } 4. E4 = {(x, y) 2 R2 | x y = 0} Soluzione. E1 ed E4 sono insiemi di soluzioni di sistemi lineari omogenei: per la Prop. 4.3.6 sono quindi un sottospazio di R2 . E2 sono le soluzioni di un sistema lineare non omogeneo: quindi per la Prop. 4.3.6 E2 non è sottospazio di R2 . Infine, presi due vettori (1, 1) e ( 1, 1) di E3 , la loro somma (0, 2) non è in E3 : dal criterio b2) della Prop. 4.3.3 segue che E3 non è sottospazio di R2 . X Si può verificare facilmente che un insieme E = {(x, y) 2 R2 : y = f (x)} è un sottospazio di R2 se e solo se: E = {0, 0}, E = R2 oppure E è una retta passante per l’origine. Il grafico degli insiemi dell’esercizio 5.1.1 è in figura 1. Dal grafico si vede che E2 non è un sottospazio perché non passa per l’origine ((0, 0) 2 / E2 ), E3 non è un sottospazio perché non è una retta (è una parabola). Figura 1: E1 è in verde, E2 in arancione, E3 in rosso, E4 in blu. 30 Esistono numerosi siti internet che permettono di disegnare il grafico di una funzione. Ad esempio: http://fooplot.com e http://graph-plotter.cours-de-math.eu. Esercizio 5.1.2 (2.8.3 di [Pel1]). Sia ( ) f :R!R V := : a, b 2 R . x 7! a cos x + b sin x Si verifichi che V è un sottospazio di Fun(R, R). Soluzione. Dati due qualsiasi elementi f (x) = a cos x+b sin x e f 0 (x) = a0 cos x+b0 sin x di V , e due scalari k, k 0 2 R raccoglientdo i coefficienti troviamo (kf + k 0 f 0 )(x) = kf (x) + k 0 f 0 (x) = k(a cos x + b sin x) + k 0 (a0 cos x + b0 sin x) = (ka + k 0 a0 ) cos x + (kb + k 0 a0 ) sin x . Essendo una combinazione di cos x e sin x, kf + k 0 f 0 2 V e dal criterio c) della Prop. 4.3.3 segue che V è un sottospazio di Fun(R, R). X Esercizio 5.1.3 (2.8.4 di [Pel1]). Dire se le funzioni biunivoche R ! R formano un sottospazio di Fun(R, R). Soluzione. Condizione necessaria affinché un sottoinsieme di uno spazio vettoriale sia un sottospazio è che contenga il vettore nullo. Nel caso di Fun(R, R), il vettore nullo è la funzione identicamente nulla, ovvero la funzione f :R!R, f (x) = 0 8 x . Tale funzione non è iniettiva né suriettiva, quindi non è biunivoca. Pertanto le funzioni biunivoche non formano un sottospazio di Fun(R, R). X Esercizio 5.1.4 (2.8.6 di [Pel1]). In R3 si considerino i sottospazi vettoriali U = {(x, y, z) 2 R3 : x + y = 4z} , W = {(a, 2b, 0) 2 R3 : a, b 2 R} . Si verifichi che U [ W non è un sottospazio di R3 . Soluzione. Usiamo il criterio b2) della Prop. 4.3.3. Dobbiamo trovare due vettori di U [ W la cui somma non è contenuta in U [ W . Si prenda ad esempio (2, 2, 1) 2 U ⇢ U [ W e (1, 0, 0) 2 W ⇢ U [ W . La loro somma (3, 2, 1) non è elemento di W (la terza componente non è zero) né di U , in quanto x + y = 3 + 2 = 5 6= 4z = 4. X 31 Funzione identicamente nulla 5.2 Esercizi su matrici 2 ⇥ 2 Il determinante di una matrice 2⇥2 è stato definito a pagina 18. Una regola mnemonica per ricordare la definizione è illustrata nella figura qui sotto: Il determinante della matrice si ottiene prendendo, con il segno +, il prodotto degli elementi sulla diagonale principale (in rosso) e sottraendo ad esso il prodotto degli elementi sulla diagonale opposta (in blu). Esercizio 5.2.1. Calcolare il determinante delle matrici: ✓ ◆ ✓ ◆ 2 1 5 5 A= , B= . 4 7 2 4 Soluzione. |A| = 2 · 7 1 · 4 = 10, |B| = 5 · 4 possono avere lo stesso determinante. 5 · 2 = 10. Notiamo che matrici di↵erenti X Esercizio 5.2.2 (simile a 3.6.4 di [Pel1]). Dire se per ogni A, B 2 R2,2 vale al proprietà |A + B| = |A| + |B| (linearità del determinante). Soluzione. Evidentemente tale proprietà non è valida. Un controesempio elementare è dato da ✓ ◆ ✓ ◆ 1 0 1 0 A= , B= . 0 1 0 1 In questo caso A + B = 0, quindi |A + B| = 0. Ma |A| = |B| = 1 e |A| + |B| = 2. X Esercizio 5.2.3 (simile a 1.8.49 di [Pel1]). Nell’insieme delle matrici 2 ⇥ 2 è definita una operazione interna di prodotto come segue: ✓ ◆✓ 0 0 ◆ ✓ 0 ◆ a b a b aa + bc0 ab0 + bd0 = . c d c0 d 0 ca0 + dc0 cb0 + dd0 Prodotto di matrici 2⇥2 Provare che tale operazione: possiede un elemento neutro, che indicheremo con I2 ; non è commutativa; è associativa. Dire se la struttura algebrica (R2,2 , · , I2 ) è un gruppo. Dire se (R2,2 , +, 0R2,2 , · , I2 ) è un anello; dire se esiste l’inversa di ogni matrice non nulla. Soluzione. L’elemento neutro esiste ed è dato dalla matrice ✓ ◆ 1 0 I2 = , 0 1 32 Matrice identica detta matrice identica di ordine 2, come si può verificare con una semplice sostituzione. Anche l’associatività del prodotto è una semplice verifica. Il prodotto non è commutativo, infatti prese ad esempio ✓ ◆ ✓ ◆ 0 1 0 0 A= , B= , 0 0 1 0 si ha AB = ✓ 1 0 0 0 ◆ ✓ 6= BA = 0 0 0 1 ◆ . (R2,2 , · , I2 ) non è un gruppo, in quanto la matrice nulla non è invertibile. Infatti C · 0R2,2 = 0R2,2 per ogni C 2 R2,2 : quindi non esiste matrice C tale che C · 0R2,2 = I2 . (R2,2 , +, 0R2,2 , · , I2 ) è un anello: guardando la definizione 2.2.3, vediamo che la proprietà 1 è soddisfatta poiché R2,2 è uno spazio vettoriale; la 2 è soddisfatta; esiste un elemento neutro rispetto al prodotto, che qui abbiamo indicato con I2 ; rimangono le due proprietà distributive al punto 4, che si possono facilmente verificare usando la definizione di prodotto fra matrici. Per finire, esistono matrici diverse da zero che non sono invertibili. Sia ad esempio 0 A la matrice ✓ ◆ 1 0 0 A = (5.1) 0 0 e sia B 0 una matrice generica: 0 B = Evidentemente 0 0 BA = ✓ a 0 c 0 ✓ ◆ a b c d ◆ . 6= I2 = ✓ 1 0 0 1 ◆ qualunque siano i valori di a, b, c, d. Non esiste dunque nessuna matrice B 0 che sia inversa della matrice A0 definita in (5.1). X Le matrici 2 ⇥ 2 sono il primo esempio di anello non commutativo incontrato in questo corso. Notiamo che la matrice A0 in (5.1) ha determinante nullo; vedremo che questa è una proprietà generale delle matrici n ⇥ n: una matrice n ⇥ n è invertibile se e solo se il suo determinante è diverso da zero. 5.3 Determinante di una matrice 3 ⇥ 3 In questa sezione vedremo come si calcola il determinante di una matrice 3 ⇥ 3, e nella successiva di una matrice n ⇥ n per n arbitrario. Non daremo la definizione formale di determinante (chi fosse interessato la può trovare nella sezione 3.1 di [Pel1]), ma dei metodi concreti per il suo calcolo. 33 Sia 0 1 a11 a12 a13 B C A = @a21 a22 a23 A . a31 a32 a33 Un metodo mnemonico per il calcolo di |A| è la regola di Sarrus6 , che consiste nello scrivere la matrice 3 ⇥ 5 ottenuta da A ripetendo le prime due colonne, come illustrato nella seguente figura Quindi si prendono i prodotti degli elementi nelle diagonali rosse con segno +, i prodotti degli elementi nelle diagonali blu con segno , e si fa la somma. Una regola mnemonica alternativa consiste nel disegnare le due diagonali e i quattro triangoli nella figura seguente: Quindi si prendono i prodotti degli elementi nelle figure rosse con segno +, i prodotti degli elementi nelle figure blu con segno , e si fa la somma. Esercizio 5.3.1 (3.6.2 punti 1-4, di [Pel1]). Si calcoli il determinante delle seguenti matrici: 0 1 0 1 0 1 ✓ ◆ 1 2 1 1 2 3 3 0 0 1 3 B C B C B C A1 = , A2 = @ 3 1 4 A , A3 = @3 1 3A , A4 = @0 2 0 A . 2 1 3 5 1 1 2 3 0 0 7 Soluzione. Si ha |A1 | = 1 · 1 3·2= 5 |A2 | = +( 1) + ( 24) + 15 |A3 | = 3 + 6 + 18 3 ed evidentemente |A4 | = 3 · 2 · ( 7) = 6 6 ( 3) 20 ( 6) = 21 18 = 0 42. Pierre Frédéric Sarrus (1798–1861). 34 X Regola di Sarrus Esercizio 5.3.2 (3.6.5 di [Pel1]). Dire per nante della matrice 0 1 B A = @1 1 Soluzione. Si ha |A| = bc2 + ab2 + a2 c quali valori di a, b, c 2 R è nullo il determi1 a a2 C b b2 A . c c2 a2 b b2 c ac2 abc a2 b da cui sommando e sottraendo abc si ottiene = bc2 + ab2 + a2 c + abc = (a b)(b c)(c b2 c ac2 a) . Il determinante è zero se almeno due dei tre parametri sono uguali, ovvero se (e solo se) la matrice ha almeno due righe uguali. X 5.4 Determinante di una matrice n ⇥ n Ricordiamo che indichiamo con Rm,n l’insieme delle matrici m ⇥ n. Una matrice che ha lo stesso numero di righe e di colonne si dice quadrata; useremo il simbolo Mn (R) per indicare l’insieme delle matrice quadrate n ⇥ n. Sia A = (aij ) 2 Mn (R) e indichiamo con Ahk 2 Mn 1 (R) la matrice che si ottiene da A eliminando la riga h e la colonna k. La matrice Ahk si dice minore complementare dell’elemento ahk , e lo scalare hk = ( 1)h+k |Ahk | è detto complemento algebrico di ahk . Il determinante di A si può calcolare scegliendo una riga i a piacere (1 i n) ed usando la formula n X |A| = aij ij j=1 detta sviluppo di Laplace per righe7 . Oppure si sceglie una colonna j a piacere (1 j n) e si usa la formula n X |A| = aij ij i=1 detta sviluppo di Laplace per colonne. Lo sviluppo di Laplace permette di calcolare il determinante di una matrice n⇥n in modo ricorsivo, riducendolo prima al calcolo di determinanti di matrici (n 1)⇥(n 1), poi (n 2) ⇥ (n 2), fino ad arrivare al determinante di matrici 3 ⇥ 3 o 2 ⇥ 2, discusso nelle sezioni precedenti. 7 Pierre-Simon Laplace (1749–1827) 35 Matrici quadrate Minori Complemento algebrico Sviluppo di Laplace per righe Sviluppo di Laplace per colonne Esercizio 5.4.1. Scrivere lo sviluppo di Laplace di una generica matrice 3 ⇥ 3 rispetto all’ultima colonna. Soluzione. a11 a12 a13 a21 a22 a21 a22 a23 = a13 a31 a32 a31 a32 a33 a23 a11 a12 a11 a12 + a33 . a31 a32 a21 a22 X Esercizio 5.4.2 (3.6.6 punto 1, di [Pel1]). Dire per quale valore di k 2 R la seguente matrice ha determinante nullo: 0 1 1 1 0 B C A = @0 1 kA . 1 0 k Soluzione. Usando lo sviluppo di Laplace rispetto alla terza colonna si trova: |A| = 0 ( k) 1 1 1 1 + ( k) 0 0 1 =k 1 k=0. X Il determinante è nullo per ogni valore di k. Esercizio 5.4.3. Calcolare il determinante della matrice 0 1 0 1 2 0 B4 0 1 2 C B C A=B C @3 1 1 0 A 0 2 1 4 Soluzione. Usando lo sviluppo di Laplace rispetto alla prima colonna si trova: 0 1 2 |A| = 0 1 1 0 2 1 4 1 2 0 1 2 0 4 1 1 0 +3 0 1 2 2 1 4 2 1 4 1 2 0 0 0 1 2 1 1 0 quindi sviluppando il determinante della seconda e terza matrice rispetto alla terza colonna 1 2 1 2 1 2 + 3 · ( 2) +3·4 1 1 2 1 0 1 = 4·4 = 4 · 4 · (1 2) + 3 · ( 2) · (1 = 16 + 18 + 12 = 46 . 36 4) + 3 · 4 · 1 Si noti che, quando si usa lo sviluppo di Laplace, conviene sempre scegliere la riga o la colonna contenente più zeri. X Enunciamo alcune proprietà del determinante, senza dimostrazione. Proposizione 5.4.4. Sia A 2 Mn (R). Allora: 1. se una riga (o una colonna) di A è nulla, |A| = 0; 2. se B è ottenuta da A scambiando fra di loro due righe (o due colonne), allora |B| = |A|; 3. se A ha due righe (o due colonne) uguali, allora |A| = 0; 4. se B è ottenuta da A moltiplicando per k 2 R gli elementi di una sua riga (o colonna), allora |B| = k|A|; 5. se A ha due righe (o due colonne) proporzionali, allora |A| = 0; 6. se una riga Ci di A è la somma di due n-uple Xi e Yi , allora |A| = |A0 |+|A00 |, dove A0 si ottiene da A sostituendo a Ci la n-upla Xi e A00 si ottiene da A sostituendo a Ci la n-upla Yi ; la stessa cosa vale per le colonne; 7. se una riga (o una colonna) di A è combinazione lineare delle altre, allora |A| = 0; 8. se B è ottenuta da A sommando a una sua riga (o colonna) una combinazione lineare delle altre righe (o colonne), allora |B| = |A|. Notiamo che dalla 2 e dallo sviluppo di Laplace si possono derivare tutte le altre proprietà. Per provare 1 basta usare lo sviluppo di Laplace rispetto alla riga (o colonna) nulla. Per provare 4 si fa lo sviluppo di Laplace rispetto alla riga (o colonna) che viene moltiplicata per k. La 3 segue dalla 2: se A ha due righe uguali, scambiandole si ottiene una matrice B = A e per 2 si ha |A| = |B| = |A|, da cui |A| = 0. La 5 segue da 4 e 3. Per la 6 basta fare lo sviluppo di Laplace rispetto alla riga (o colonna) i e usare la proprietà distributiva del prodotto. La 7 segue da 3, 4 e 6. La 8 segue da 7 e 6. 37 Lezione VI Dipendenza e indipendenza lineare Sommario: dipendenza e indipendenza lineare, generatori, insiemi liberi, spazi finitamente generati, basi, basi canoniche di Rn e Rm,n , n-upla delle componenti. Esempi ed esercizi. 6.1 Dipendenza e indipendenza lineare Iniziamo con l’osservare che ogni vettore (x1 , x2 ) 2 R2 si può scrivere nella forma (x1 , x2 ) = x1 (1, 0) + x2 (0, 1) ed ogni matrice 2 ⇥ 2 si può scrivere nella forma ✓ a11 a12 a21 a22 ◆ = a11 ✓ 1 0 0 0 ◆ + a12 ✓ 0 1 0 0 ◆ + a21 ✓ 0 0 1 0 (6.1) ◆ + a22 ✓ 0 0 0 1 ◆ . (6.2) In generale dato un qualsiasi spazio vettoriale V , se un vettore v 2 V che si può scrivere come v = a1 v 1 + a2 v 2 + . . . + an v n , ai 2 R, vi 2 V, Combinazioni lineari allora diremo che è combinazione lineare dei vettori v1 , . . . , vn . Proposizione 6.1.1. L’insieme di tutte le combinazioni lineari L(v1 , . . . , vn ) := v = a1 v1 + a2 v2 + . . . + an vn : a1 , . . . , an 2 R è un sottospazio di V detto “spazio generato dai vettori v1 , . . . , vn ” (o anche “inviluppo lineare”, “copertura lineare” o in inglese “span”). I vettori v1 , . . . , vn si diranno suoi generatori. Dimostrazione. Usiamo il criterio c) della Prop. 4.3.3. Siano v = a1 v1 +a2 v2 +. . .+an vn e v0 = a01 v1 + a02 v2 + . . . + a0n vn due generici vettori di L(v1 , . . . , vn ), e siano k, k 0 2 R. Raccogliendo i coefficienti si trova: kv + k 0 v0 = (ka1 + k 0 a01 )v1 + (ka2 + k 0 a02 )v2 + . . . + (kan + k 0 a0n )vn . Quindi kv + k 0 v0 2 L(v1 , . . . , vn ), essendo combinazione lineare dei vettori v1 , . . . , vn , e questo conclude la dimostrazione. ⌅ 38 Generatori Osserviamo che (6.1) e (6.2) implicano che ⇥ ⇤ R2 = L (1, 0), (0, 1) è generato da 2 vettori e M2 (R) = L "✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆# 1 0 0 1 0 0 0 0 , , , 0 0 0 0 1 0 0 1 è generato da 4 matrici. Esercizio 6.1.2. Mostrare che ⇥ ⇤ L (1, 0, 1), (2, 0, 0) ( R3 . Dimostrazione. Basta trovare X 2 R3 che non è combinazione lineare dei due vettori dati. Qualunque combinazione lineare di tali vettori avrà 0 come seconda componente, quindi ad esempio X = (0, 1, 0) non si può scrivere come loro combinazione lineare. ⌅ V si dice finitamente generato se ammette un numero finito di generatori, ossia se esistono v1 , . . . , vn 2 V tali che V = L(v1 , . . . , vn ). Evidentemente R2 e M2 (R) sono finitamente generati. Spazi finitamente generati Esempio 6.1.3. Lo spazio R[x] delle funzioni polinomiali R ! R non è finitamente generato. Siano per assurdo f1 , . . . , fn i suoi generatori, e sia d il grado del polinomio di grado più alto fra i generatori. Allora xd+1 non si può scrivere come combinazione lineare di f1 , . . . , fn , e questo prova che R[x] non è finitamente generato. Tutti gli spazi che incontreremo nel resto del corso sono finitamente generati. Osservazione 6.1.4. Osserviamo che aggiungendo ad un insieme I di vettori una loro combinazione lineare non si cambia lo spazio da essi generato: L({v} [ I) = L(I) () v 2 I . E’ naturale cercare un insieme minimo di generatori. A questo scopo è introdotta la nozione di dipendenza/indipendenza lineare. Definizione 6.1.5. Sia I = {v1 , . . . , vn }. I vettori di I si dicono linearmente indipendenti, e I si dice libero, se a1 v 1 + a2 v 2 + . . . + an v n = 0 =) a1 = a2 = . . . = an = 0 , ovvero se l’unica loro combinazione lineare che dà il vettore nullo è quella con coefficienti tutti nulli. Viceversa se i vettori non sono linearmente indipendenti, diremo che I è legato. 39 Dipendenza e indipendenza lineare Osservazione 6.1.6. Notiamo che 1. l’insieme {0} è legato, infatti a1 0 = 0 non implica a1 = 0; 2. se 0 2 I, allora I è legato (infatti a1 0+0v1 +0v2 +. . .+0vn = 0 anche se a1 6= 0); 3. se I è libero e I 0 ✓ I, allora I 0 è libero; 4. se I è legato e I 0 ◆ I, allora I 0 è legato. Proposizione 6.1.7. I = {v1 , . . . , vn } è libero se e solo se nessun vi 2 I si può scrivere come combinazione lineare dei rimanenti vettori di I. Dimostrazione. Se I non è libero, allora esistono a1 , . . . , an non tutti nulli tali che a1 v1 + a2 v2 + . . . + an vn = 0. Sia ai 6= 0, allora vi = (ai ) 1 X k6=i ak v k è combinazione lineare degli altri vettori di I. Viceversa se un vettore vi = è combinazione lineare degli altri, allora vi X k6=i P k6=i bk vk bk v k = 0 ed almeno il coefficiente di vi è non nullo. Quindi i vettori non sono linearmente indipendenti. ⌅ Teorema 6.1.8. I è libero se e solo se v1 6= 0 e vi 2 / L(v1 , v2 , . . . , vi 1 ). Dimostrazione. L’implicazione “)” è un corollario della Prop. 6.1.7. Dimostriamo l’implicazione opposta. Sia a1 v1 + a2 v2 + . . . + an vn = 0. Per ipotesi vn non è combinazione lineare dei rimanenti, quindi deve essere an = 0 e l’equazione si riduce a a1 v1 + a2 v2 + . . . + an 1 vn 1 = 0. Per ipotesi vn 1 non è combinazione lineare dei rimanenti, quindi deve essere an 1 = 0 e l’equazione si riduce a a1 v1 + a2 v2 + . . . + an 2 vn 2 = 0. Iterando il ragionamento, dopo n 1 passi si giunge ad a1 v1 = 0, e siccome per ipotesi v1 6= 0, deve essere a1 = 0. Quindi l’unica combinazione lineare nulla è quella con a1 = a2 = . . . = an = 0, ed I è libero. ⌅ 6.2 Basi e componenti Definizione 6.2.1. Una base B = (v1 , . . . , vn ) di V è un insieme libero ordinato di generatori. Notiamo che in una base l’ordine dei vettori è rilevante. Cambiando l’ordine dei vettori di una base si ottiene una nuova base, da considerarsi diversa da quella di partenza. 40 Basi Esempio 6.2.2. Per ogni 1 i n, sia i 1 volte n i volte z }| { z }| { ei = ( 0, . . . , 0 , 1, 0, . . . , 0 ) la n-upla con i-esima componente uguale a 1 e tutte le altre uguali a zero. Per ogni (x1 , . . . , xn ) 2 Rn vale l’identità Xn (x1 , . . . , xn ) = xi ei . (6.3) i=1 Questo prova che i vettori ei sono generatori di Rn . Inoltre la combinazione lineare (6.3) è nulla solo se x1 = x2 = . . . = xn = 0, quindi i vettori formano una base B = (e1 , e2 , . . . , en ) detta base canonica di Rn . Base canonica di Rn Esempio 6.2.3. Per ogni 1 i m e 1 j m, sia Eij 2 Rm,n la matrice che ha 1 in posizione (i, j) e tutti gli altri elementi uguali a zero. Per ogni A = (aij ) 2 Rm,n vale l’identità X A= aij Eij . (6.4) i=1,...,m j=1,...,n Questo prova che le matrici Eij sono generatori di Rm,n . Inoltre la combinazione lineare (6.4) è nulla solo se aij = 0 per ogni i, j: quindi le matrici Eij formano una base B = (E11 , E12 , . . . , E1n , E21 , E22 , . . . , E2n , . . . , Em1 , Em2 , . . . , Emn ) detta base canonica di Rm,n . Base canonica di Rm,n Esempio 6.2.4. B = (1, x, x2 , . . . , xn ) è una base per lo spazio delle funzioni polinomiali di grado non superiore ad n. Esempio 6.2.5. Per definizione, un insieme libero I = (v1 , . . . , vn ) è una base di L(I). Esempio 6.2.6. L’insieme di vettori (1, 1), (1, 0) e (0, 1) genera R2 (contiene la base canonica), ma non è una base in quanto (1, 1) = (1, 0) + (0, 1) e i vettori non sono linearmente indipendenti. Teorema 6.2.7. B = (v1 , . . . , vn ) è una base di V se e solo se ogni v 2 V si può scrivere in un unico modo come combinazione lineare v = a1 v 1 + a2 v 2 + . . . + an v n . Il coefficiente ai è detto componente i-esima di v nella base B, e scelta una base ogni vettore è univocamente determinato dalle sue componenti. Scriveremo v = (a1 , a2 , . . . , an )B per indicare le componenti di v nella base B. 41 Componenti Dimostrazione. Sia B una base di V e v = a1 v1 + a2 v2 + . . . + an vn = a01 v1 + a02 v2 + . . . + a0n vn . Allora (a1 a01 )v1 + (a2 a02 )v2 + . . . + (an a0n )vn = 0 . Per definizione di base, v1 , . . . , vn sono linearmente indipendenti, e quindi deve essere a1 = a01 , a2 = a02 , . . . , an = a0n . Se ne deduce che v si può scrivere in un unico modo come combinazione lineare dei vettori v1 , . . . , vn . Viceversa supponiamo ogni v 2 V si possa scrivere in un unico modo come combinazione lineare dei vettori v1 , . . . , vn . Allora B genera V . Inoltre b1 v 1 + b2 v 2 + . . . + bn v n = 0 implica b1 = b2 = . . . = bn = 0, altrimenti si avrebbero due modi di↵erenti di scrivere 0 come combinazione lineare dei vettori v1 , . . . , vn . Se ne deduce che B è libero, ovvero una base. ⌅ Esempio 6.2.8. xi è la i-esima componente di (x1 , . . . , xn ) 2 Rn rispetto alla base canonica; aij è una componente di A = (aij ) 2 Rm,n rispetto alla base canonica. Notiamo che se v = (a1 , a2 , . . . , an )B e v0 = (a01 , a02 , . . . , a0n )B , allora v + v0 = (a1 + a01 , a2 + a02 , . . . , an + a0n )B e kv = (ka1 , ka2 , . . . , kan )B per ogni k 2 R. Scelta una base, le operazioni di V si traducono nelle operazioni fra n-uple. Come conseguenza immediata, dati m vettori wi = (ai1 , ai2 , . . . , ain )B , i = 1, . . . , m , questi sono linearmente indipendenti se e solo se le corrispondenti n-uple di componenti sono linearmente indipendenti in Rn , e sono generatori di V se e solo se le n-uple delle componenti generano Rn . Esercizio 6.2.9. In R3 si individui, se esiste, un vettore dell’insieme n o I = v1 = (1, 3, 2), v2 = ( 2, 0, 3), v3 = (4, 5, 0), v4 = (0, 1, 4), v5 = (1, 0, 0) esprimibile come combinazione lineare degli altri elementi di I. 42 Soluzione. Per la Prop. 6.1.7, come prima cosa occorre stabilire se i vettori sono linearmente indipendenti. La condizione a1 v 1 + a2 v 2 + . . . + a5 v 5 = = a1 (1, 3, 2) + a2 ( 2, 0, 3) + a3 (4, 5, 0) + a4 (0, 1, 4) + a5 (1, 0, 0) = 0 è equivalente al sistema di tre equazioni in cinque incognite: 8 > < a1 2a2 + 4a3 + 0a4 + a5 = 0 3a1 + 0a2 + 5a3 + a4 + 0a5 = 0 > : 2a1 + 3a2 + 0a3 + 4a4 + 0a5 = 0 Dalla prima equazione ricaviamo a5 = di due equazioni in quattro incognite: ⇢ ovvero a3 = a5 si ottiene 3 a 5 1 a5 = 1 a 5 4 4a3 . Le rimanenti danno il sistema 3a1 + 5a3 + a4 = 0 2a1 + 3a2 + 4a4 = 0 2 a 3 1 e a2 = 2 a 3 1 a1 + 2 a1 + 2a2 4 a. 3 4 4 a 3 4 4 Sostituendo queste due nell’equazione per 3 a 5 1 1 a 5 4 = 1 a 15 1 28 a 15 4 . L’insieme delle soluzioni è dato quindi da a1 , 2 a 3 1 4 a 3 4 , 3 a 5 1 1 a 5 4 , a4 , 1 a 15 1 28 a 15 4 (6.5) al variare di a1 , a4 2 R. Poiché esistono soluzioni non nulle, l’insieme I è legato. Scegliendo a1 = 1 e a4 = 0 si trova v1 ovvero v1 = 23 v2 + 35 v3 1 v 15 5 2 v 3 2 3 v 5 3 + 0v4 + 1 v 15 5 =0 è combinazione lineare degli altri vettori di I. X Esercizio 6.2.10 (2.8.7 di [Pel1]). In R4 si individui, se esiste, un vettore dell’insieme n o I = w1 = (1, 3, 2, 1), w2 = ( 2, 0, 3, 1), w3 = (4, 5, 0, 1), w4 = (0, 1, 4, 1), w5 = (1, 0, 0, 1) esprimibile come combinazione lineare degli altri elementi di I. Soluzione. Si procede come nell’esercizio 6.2.9 e si ricava un sistema di quattro equazioni in cinque incognite a1 , . . . , a5 . Le prime tre equazioni sono le stesse dell’esercizio 6.2.9, la quarta è a1 + a2 + a3 + a4 + a5 = 0 . (6.6) 43 Le soluzioni del sistema sono date da quelle soluzioni (6.5) del sistema all’esercizio 6.2.9 che risolvono anche l’equazione Scrivendo a2 , a3 , a5 come funzioni di a1 , a4 come in (6.5) e sostituendo a (6.6) si trova a1 + Quindi a4 = 2 a 3 1 11 a. 12 1 4 a 3 4 + 3 a 5 1 1 a 5 4 +a4 + 1 a 15 1 28 a 15 4 = 11 a 5 1 12 a 5 4 =0. Sostituendo in (6.5) si trova l’insieme delle soluzioni: a1 1 , 5 9 , 5 12 , 11 12 , 16 9 (6.7) per ogni a1 2 R. Per a1 = 1 si ricava w1 = 5 w 9 2 + 5 w 12 3 + 11 w 12 4 16 w5 9 , X ovvero il primo vettore è esprimibile come combinazione lineare degli altri. Esercizio 6.2.11. In R5 si dica per quali valori di k 2 R è possibile esprimere un vettore dell’insieme n I = u1 = (1, 3, 2, 1, 0), u2 = ( 2, 0, 3, 1, k), u3 = (4, 5, 0, 1, 1), u4 = (0, 1, 4, 1, 0), u5 = (1, 0, 0, 1, 0) come combinazione lineare degli altri vettori. o Soluzione. Procedendo come negli esercizi precedenti si ottiene un sistema di cinque equazioni in cinque incognite, le prime quattro sono le stesse equazioni dell’esercizio 6.2.10, la quinta è: ka2 + a3 = 0 . Sostituendo a questa equazione la soluzione generale (6.7) delle prime quattro equazioni si trova: 5 5 ka1 12 a1 = 53 13 k 14 a1 = 0 , 9 ovvero deve essere a1 = 0 (soluzione nulla) oppure k = 34 . I vettori sono linearmente indipendententi se k 6= 34 , mentre per k = 34 tutte le 5-uple in (6.7) sono soluzioni, e in particolare per a1 = 1 si trova che il primo vettore è combinazione lineare dei 5 16 rimanenti: u1 = 59 u2 + 12 u3 + 11 u u. X 12 4 9 5 44 Lezione VII Esercitazione su basi e dimensione Sommario: lemma di Steinitz (senza dimostrazione), equipotenza delle basi, metodo degli scarti successivi, completamento ad una base, dimensione. Esercizi. 7.1 Proprietà delle basi Uno spazio vettoriale non sempre ammette una base. Esiste sempre una base se lo spazio è finitamente generato, come illustrato dal teorema che segue. Lemma 7.1.1 (Lemma di Steinitz). Sia {v1 , . . . , vn } un insieme di generatori di V e siano u1 , . . . , um dei vettori linearmente indipendenti. Allora m n. Dimostrazione. Per la prova si veda il teorema 2.6.3 di [Pel1]. Lemma di Steinitz ⌅ Teorema 7.1.2. Sia V uno spazio vettoriale finitamente generato, B = (v1 , . . . , vn ) una base e I = (u1 , . . . , um ) un insieme di vettori di V . Allora: i) se I è una base, m = n; ii) se I è un insieme di generatori, si può sempre trovare una base B 0 formata da vettori di I; in particolare questo implica che m n; iii) se I è un insieme libero, si può sempre trovare una base B 0 contenente i vettori di I; in particolare questo implica che m n. Dimostrazione. Se B ed I sono basi, siccome I è libero e B genera V dal lemma di Steinitz segue che m n. Ma anche B è libero ed I genera V , quindi per il lemma di Steinitz n m. Da questo si ricava m = n, ovvero il punto i). La dimostrazione dei punti ii) e iii) è costruttiva. Nel primo caso è detta metodo degli scarti successivi e serve ad estrarre una base a partire da un insieme sovrabbondante di generatori. Nel secondo caso è detta metodo del completamento ad una base e serve a determinare una base contenente dei vettori assegnati in partenza. Metodo degli scarti successivi Sia I un insieme di generatori. Sia I1 l’insieme di generatori ottenuto da I rimuovendo eventuali vettori nulli. Se u2 = L(u1 ) chiamiamo I2 = I1 r {u2 }, altrimenti I2 = I1 . Se u3 = L(u1 , u2 ) chiamiamo I3 = I2 r {u3 }, altrimenti I3 = I2 . Iterando il procedimento (controllando tutti i vettori di I fino all’ultimo) si costruisce una sequenza di insiemi I ◆ I1 ◆ I2 ◆ . . . ◆ Ik 45 Metodo degli scarti successivi. . . dove k è il numero di vettori non nulli di I, Ii = Ii 1 r {ui } se ui 2 L(u1 , . . . , ui 1 ) e Ii = Ii 1 in caso contrario. Per l’osservazione 6.1.4, si ha V = L(I) = L(I1 ) ◆ L(I2 ) ◆ . . . ◆ L(Ik ) . Quindi Ik generano V e sono linearmente indipendenti per il teorema 6.1.8. Ordinando a piacere i vettori di Ik si ottiene la base B 0 cercata. Notiamo che B 0 per costruzione ha meno elementi di I, quindi n m (per il punto i). Metodo del completamento ad una base Sia I libero. Applicando il metodo degli scarti successivi all’insieme di generatori . . . e del completamento ad una base I 0 = (u1 , . . . , um , v1 , . . . , vn ) i primi m vettori non vengono eliminati perché per ipotesi sono linearmente indipendenti. Si ricava quindi una base B 0 ◆ (u1 , . . . , um ) = I. Per il punto i) B 0 ha n elementi, quindi deve essere m n. ⌅ Esempio 7.1.3. Sia I = {v1 = (1, 1), v2 = (1, 0), v3 = (0, 1)}. Abbiamo visto nell’esempio 6.2.6 che I genera R2 ma non è libero. Applicando il metodo degli scarti successivi si vede che v1 6= 0 e v2 2 / L(v1 ), quindi I2 = I1 = I. Poiché v3 = v1 v2 , I3 = I r{v3 } ed una base estratta da I è B = (v1 , v2 ). Notiamo che la base estratta dipende da come si ordinano i vettori dell’insieme I di partenza. Ad esempio ordinandoli come (v2 , v3 , v1 ) la base estratta è quella canonica B 0 = (v2 , v3 ). Come conseguenza del teorema precedente, tutte le basi di V hanno lo stesso numero n di elementi; tale numero è detto dimensione di V ed indicato con dim(V ). Per convenzione dim({0}) = 0. Osservazione 7.1.4. dim(Rn ) = n e dim(Rm,n ) = m · n, come si evince contando gli elementi delle basi canoniche. Corollario 7.1.5. Sia V uno spazio finitamente generato e W ✓ V un sottospazio. Allora dim(W ) dim(V ) e si ha l’uguaglianza se e solo se W = V . Dimostrazione. Una base I = (u1 , . . . , um ) di W è un insieme libero di V , quindi dim(W ) = m dim(V ) per il punto iii) del teorema 7.1.2. Si può completare I ad una base B ◆ I di V . Se dim(W ) = m = dim(V ), B ha lo stesso numero di elementi di I, da cui B = I devono essere uguali. Da questo si ricava che W = L(I) = L(B) = V . ⌅ Osservazione 7.1.6. Sia V uno spazio di dimensione n. Una immediata conseguenza del precedente corollario è che: ogni insieme libero di n elementi è una base; ogni insieme di n generatori è una base. 46 Dimensione Enunciamo senza dimostrazione la formula di Grassmann. Dati due sottospazi U, W di V , si ha dim(U + W ) + dim(U \ W ) = dim(U ) + dim(W ) . In particolare, se U + W è una somma diretta, dalla Prop. 4.4.2 segue che dim(U W ) = dim(U ) + dim(W ) . 7.2 Esercizi Esercizio 7.2.1. Estrarre una base B di R3 dall’insieme ⇣ ⌘ I = v1 = ( 14 , 0, 12 ), v2 = (0, 1, 1), v3 = ( 1, 1, 1), v4 = (0, 0, 1), v5 = (1, 0, 0) . Soluzione. Applichiamo il metodo degli scarti successivi. Essendo i vettori tutti diversi da zero, I1 = I. I vettori di L(v1 ) hanno la seconda componente nulla, quindi v2 2 / L(v1 ) e I2 = I1 . Siccome v3 = 4v1 v2 2 L(v1 , v2 ), allora I3 = I2 r {v3 }. La condizione v 4 = a1 v 1 + a2 v 2 + a3 v 3 dà il sistema 8 > < 1 a 4 1 a3 = 0 a2 a3 = 0 > : 1 a + a2 + a3 = 1 2 1 Sostituendo le prime due equazioni, a1 = 4a3 e a2 = a3 , nella terza troviamo 2a3 + a3 + a3 = 1, che non ammette soluzione. Quindi v4 2 / L(v1 , v2 , v3 ) e I4 = I3 . Non serve procedere oltre: B = (v1 , v2 , v4 ) è libero quindi, essendo dim(R3 ) = 3, è anche una base. X Esercizio 7.2.2. Completare ad una base B di R3 l’insieme {(1, 0, 1), (0, 0, 2)}. Soluzione. Usando la base canonica di R3 formiamo l’insieme di generatori: ⇣ ⌘ I = v1 = (1, 0, 1), v2 = (0, 0, 2), e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) . Applichiamo il metodo degli scarti successivi. I2 = I1 = I poiché v2 non è proporzionale a v1 . Siccome e1 = v1 + 12 v2 , si ha I3 = I2 r {e1 }. Qualunque combinazione lineare dei primi tre vettori ha la seconda componente nulla, quindi e2 2 / L(v1 , v2 , e1 ) e I4 = I3 . Un insieme libero di tre elementi è una base, quindi B = (v1 , v2 , e2 ). X 47 Formula di Grassmann Esercizio 7.2.3. Dire se ⇥ ⇤ 1. (3, 2) 2 L (0, 0), (2, 2) ; ⇥ ⇤ 2. (3, 2) 2 L (1, 1), (2, 2) ; ⇥ ⇤ 3. (0, 0) 2 L (1, 1), (2, 2) ; ⇥ ⇤ 4. (3, 2) 2 L (1, 1), (2, 2) ; 5. dire se B = (1, 1), (1, 2) è una base di R2 . Soluzione. No, si, si, no, si. Andando in ordine: ⇥ ⇤ 1. L (0, 0), (2, 2) = {a1 (0, 0) + a2 (2, 2) : a1 , a2 2 R} = {(2a2 , 2a2 ) : a2 2 R} = {(x, y) 2 R2 : x = y} è l’insieme dei vettori che hanno le due componenti uguali. ⇥ ⇤ Quindi (3, 2) 2 / L (0, 0), (2, 2) . 2. a1 (1, 1) + a2 (2, 2) = (3, 2) dà il sistema ⇢ a1 + 2a2 = 3 a1 + 2a2 = 2 Sommando le equazioni si ottiene 4a2 = 5, ossia a2 = 45 . Sostituendo nella prima si ottiene a1 = 3 52 = 12 . Quindi (3, 2) = 12 (1, 1) + 54 (2, 2) è elemento di ⇥ ⇤ L (1, 1), (2, 2) . 3. Questa è banale poiché (0, 0) = 0 · (1, 1) + 0 · (2, 2). ⇥ ⇤ ⇥ ⇤ 4. (3, 2) 2 / L (1, 1), (2, 2) poiché, come al punto 1, L (1, 1), (2, 2) = {(x, y) 2 R2 : x = y} è l’insieme di vettori che hanno le due componenti uguali. 5. Ogni (x1 , x2 ) 2 R2 si può scrivere nella forma (x1 , x2 ) = 2x1 x2 3 (1, 1) + x1 + x2 (1, 2) 3 (le componenti, come funzioni di x1 e x2 , si ricavano come al solito risolvendo un sistema di due equazioni in due incognite), quindi B è una base di R2 . X Esercizio 7.2.4 (2.8.8 punti 3-5, di [Pel1]). Dire quali dei seguenti insiemi di vettori di R3 sono liberi: 1. A3 = (1, 0, 0), (1, 0, 2), (1, 1, 2), (0, 0, 1) ; 2. A4 = (1, 0, 1), ( 2, 0, 2), (1, 0, 2) ; 3. A5 = (0, 1, 0), (0, 0, 0), (1, 3, 2) . 48 Soluzione. Siccome dim(R3 ) = 3, un insieme libero non può contenere più di tre vettori. Quindi A3 non è libero. A4 non è libero, poiché il secondo vettore è proporzionale al primo. A5 non è libero perché contiene il vettore nullo. X Esercizio 7.2.5 (2.8.15 di [Pel1]). Dire per quali valori di x, y 2 R i vettori v1 = (0, x, 1), v2 = (2, 0, 0), v3 = (0, y, 4) sono una base di R3 . Soluzione. Se y = 4x, v3 = 4v1 ed i vettori non formano una base. Da a1 v1 + a2 v2 + a3 v3 = 0 si ricava il sistema 8 > < 0a1 + 2a2 + 0a3 = 0 xa1 + 0a2 + ya3 = 0 > : a1 + 0a2 + 4a3 = 0 Dalla prima equazione si ricava a2 = 0; rimane il sistema ⇢ xa1 + ya3 = 0 a1 + 4a3 = 0 Dallo schema a pagina 19 segue che se il determinante della matrice dei coefficienti è diverso da zero, ovvero se 4x y 6= 0 , il sistema ammette un’unica soluzione, quella nulla. Quindi se y 6= 4x i tre vettori sono linearmente indipendenti e, per l’osservazione 7.1.6, formano una base di R3 . X Esercizio 7.2.6 (2.8.16 punti 1-3, di [Pel1]). Sia W = {(x1 , x2 , x3 , x4 ) 2 R4 : x1 x2 + x3 = x2 + x3 x4 = 0}. Dire se W è un sottospazio di R4 e, in caso a↵ermativo, trovare un insieme di generatori e calcolare la dimensione di W . Soluzione. Per la Prop. 4.3.6, W è sottospazio di R4 . Siccome x1 = x2 x3 e x4 = x2 + x3 , ogni vettore di W ha la forma (x2 x 3 , x 2 , x3 , x 2 + x 3 ) con x2 , x3 2 R. Scegliendo x2 = 1 e x3 = 0 si ottiene il vettore v1 = (1, 1, 0, 1); scegliendo x2 = 0 e x3 = 1 si ottiene il vettore v2 = ( 1, 0, 1, 1). Notiamo che ogni vettore di W si può scrive come combinazione lineare (x2 x 3 , x2 , x 3 , x2 + x 3 ) = x 2 v 1 + x 3 v 2 , quindi (v1 , v2 ) è un insieme di generatori di W . Dalla precedente equazione si vede che x2 v1 + x3 v2 = 0 ) x2 = x3 = 0, quindi (v1 , v2 ) è una base e dim(W ) = 2. X 49 Esercizio 7.2.7 (2.8.17 di [Pel1]). Sia u1 = (1, 0, 0, 0) , u2 = (1, 2, 0, 0) , u3 = (1, 2, 3, 0) , u4 = (1, 2, 3, 4) . Si verifichi che B = (u1 , u2 , u3 , u4 ) è una base di R4 e si determinino le componenti del vettore v = (1, 1, 1, 1) nella base B. Soluzione. La condizione a1 u1 + a2 u2 + a3 u3 + a4 u4 = 0 si traduce nel sistema 8 a1 + a2 + a3 + a4 = 0 > > > < 2a2 + 2a3 + 2a4 = 0 > 3a3 + 3a4 = 0 > > : 4a4 = 0 che ha come unica soluzione quella nulla. Quindi B è una base. La condizione b1 u1 + b2 u2 + b3 u3 + b4 u4 = v dà il sistema 8 b1 + b2 + b3 + b4 = 1 > > > < 2b2 + 2b3 + 2b4 = 1 (7.1) > 3b3 + 3b4 = 1 > > : 4b4 = 1 Prendendo due volte la prima equazione meno la seconda si ricava 2b1 = 3, ossia b1 = 32 . Prendendo tre volte la seconda equazione meno due volte la terza si ottiene 6b2 = 5, ossia b2 = 56 . Prendendo quattro volte la terza equazione meno tre volte volte la 7 quarta si ottiene 12b3 = 7, ossia b3 = 12 . Infine dalla quarta b4 = 14 . Quindi v= 3 , 2 5 7 , , 6 12 1 4 B (7.2) X sono le componenti di v nella base B. Esercizio 7.2.8. Trovare le componenti della matrice ✓ ◆ 1 1 A= 1 1 nella base B0 = B1 = ✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆! 1 0 1 2 1 2 1 2 , B2 = , B3 = , B4 = 0 0 0 0 3 0 3 4 di M2 (R). Soluzione. La condizione b1 B1 + b2 B2 + b3 B3 + b4 B4 = A dà il sistema di quattro equazioni in quattro incognite (7.1), la cui soluzione è stata già trovata ed è data da (7.2). Quindi 7 A = 32 , 56 , 12 , 14 B0 X 50 Lezione VIII Spazi metrici Sommario: prodotto scalare; norma; disuguaglianza di Cauchy-Schwartz e disuguaglianza triangolare. Esempi ed esercizi. 8.1 Lunghezze, angoli e proiezioni in R2 Sia X = (x1 , x2 ) 2 R2 . Abbiamo ricordato nell’osservazione 4.1.3 che X può essere # » identificato con il segmento orientato OX nella figura qui a fianco. Tale segmento è la diagonale di un rettanX = (x1 , x2 ) golo di base x1 ed altezza x2 , e la sua lunghezza, che x2 indichiamo con kXk, è data dal teorema di Pitagora: ↵ q O x1 2 2 kXk = x1 + x2 . Se X 6= (0, 0), l’angolo ↵ in figura è determinato dalle equazioni: x1 x1 x x2 p 2 cos ↵ = p 2 = , sin ↵ = = . kXk kXk x1 + x22 x21 + x22 (8.1) Consideriamo ora i due vettori non nulli X = (x1 , x2 ) e Y = (y1 , y2 ) in figura 2a. L’angolo # in verde nella figura è detto angolo convesso fra X e Y (0 # 180 ). Dalle formule di addizione di seno e coseno, ben note dalla trigonometria, ricaviamo: cos # = cos(↵ Angolo fra X eY ) = cos ↵ cos + sin ↵ sin x1 y1 + x 2 y2 = , kXk kY k dove nell’ultimo passaggio abbiamo usato (8.1) per esprimere cos ↵ e sin ↵, e l’espressione analoga in termini di Y per esprimere cos e sin . Dati due vettori X, Y 2 R2 arbitrari, il loro prodotto scalare, indicato con X · Y , è la grandezza X · Y = x1 y1 + x2 y2 . (8.2) p Notiamo che kXk = X · X. Se i vettori sono entrambi non nulli, allora cos # = X · Y /kXk kY k (8.3) individua l’angolo convesso fra i due. Due vettori X e Y si dicono ortogonali se X · Y = 0, e si dicono paralleli se X · Y = ±||X|| ||Y ||. Notiamo che (0, 0) è sia ortogonale che parallelo a qualsiasi vettore di R2 . Da (8.3) si vede che due vettori non nulli sono ortogonali se e solo se # = 90 e sono paralleli se e solo se # = 0 o 180 . 51 Prodotto scalare Vettori ortogonali e paralleli X = (x1 , x2 ) X = (x1 , x2 ) Y = (y1 , y2 ) Y = (y1 , y2 ) # # ↵ (a) Angolo fra X e Y prY (X) (b) Proiezione di X in direzione di Y Figura 2: Angoli e proiezioni Esercizio 8.1.1. Sia Y = (y1 , y2 ) 2 R2 diverso da zero. Provare che X è parallelo ad Y se e solo se X = kY per qualche k 2 R (dove k > 0 se i vettori hanno lo stesso verso, k = 0 se X = 0, e k < 0 altrimenti), ed è ortogonale ad Y se e solo se X = k(y2 , y1 ) per qualche k 2 R. Dato un vettore Y non nullo, ed un vettore X arbitrario (anche zero) indichiamo con prY (X) la proiezione ortogonale di X sulla retta individuata da Y , ovvero il vettore rosso nella figura 2b. Determiniamo le componenti di prY (X): essendo parallelo ad Y , dall’esercizio 8.1.1 segue che prY (X) = kY . Se 0 # 90 , Y e prY (X) hanno lo stesso orientamento ek 0; se 90 < # 180 , k < 0. Assumiamo che sia 0 # 90 , ovvero k 0. Vediamo dalla figura 2b che la lunghezza del vettore prY (X) è pari a cos # · kXk; ma è anche uguale a kkY k = kkY k. Da (8.3) si ricava k = cos # · Quindi Proiezione ortogonale kXk X · Y kXk X ·Y = = . kY k kXk kY k kY k kY k2 X ·Y Y . (8.4) kY k2 Si dimostra in modo del tutto analogo che l’espressione (8.4) è valida anche quando 90 < # 180 . prY (X) = Chiudiamo questo paragrafo traducendo nel linguaggio dei vettori un ben noto teorema della geometria Euclidea, la disuguaglianza triangolare, la quale a↵erma che in un triangolo la lunghezza di un qualsiasi suo lato non può essere superiore alla somma delle lunghezze degli altri due. Applicata al triangolo in blu nella figura 3, poiché i tre lati hanno lunghezza kXk, kY k e kX + Y k, la disuguaglianza si traduce in kX + Y k kXk + kY k , (8.5) e in questa forma può essere dimostrata in tutta generalità per qualsiasi spazio vettoriale dotato di un prodotto scalare, come illustrato nella prossima sezione. 52 Disuguaglianza triangolare X +Y Y X O Figura 3: Disuguaglianza triangolare 8.2 Aree di triangoli e determinante Notiamo il triangolo di vertici O, X, Y in figura 2b ha base kY k ed altezza pari alla lunghezza del segmento tratteggiato, che per il teorema di Pitagora è data da q p kXk2 kprY (X)k2 = kY k 1 kXk2 kY k2 |X · Y |2 q 1 = kY k (x21 + x22 )(y12 + y22 ) (x1 y1 + x2 y2 )2 q p 1 = kY k x21 y22 + x22 y12 2x1 y1 x2 y2 = kY k 1 (x1 y2 x2 y1 )2 = kY k 1 |x1 y2 x2 y1 | . [ è data da Quindi l’area del triangolo OXY 1 2 base ⇥ altezza = 12 |x1 y2 x2 y1 | . Questo permette una interpretazione geometrica del determinante di una matrice 2⇥2. Il modulo del determinante a11 a12 a21 a22 è due volte l’area del triangolo di vertici O, X = (a11 , a12 ) ed Y = (a21 , a22 ); ovvero due volte l’area del triangolo di vertici O, X 0 = (a11 , a21 ) ed Y 0 = (a12 , a22 ). Il segno del determinante è positivo se ruotando X (risp. X 0 ) in senso antiorario in modo da sovrapporlo ad Y (risp. Y 0 ) si compie un angolo minore di 180 , e negativo in caso contrario. Più in generale ci si può chiedere come si esprime l’area AXY Z di un triangolo di vertici X = (x1 , x2 ), Y = (y1 , y2 ) e Z = (z1 , z2 ). Studiamo il caso in cui, ruotando in senso antiorario a partire dall’asse orizzontale, si incontrano nell’ordine prima Z, poi Y , poi X (come in figura 4), e che tutti e tre i vettori siano nel semipiano superiore. 53 Area di d OXY Significato del determinante [ è data dall’area di OXY [ più l’area di Come si evince dalla figura 4, l’area di XYZ [ meno l’area di OXZ. [ Quindi OYZ 2AXY Z = x1 x2 y1 y2 + y1 y2 z1 z2 x1 x2 z1 z2 ovvero: AXY Z Area di \ XYZ x1 x2 1 1 = y y 1 2 1 2 z1 z2 1 come si evince facendo lo sviluppo di Laplace rispetto all’ultima colonna. Si può verificare facilmente che, a meno di un segno, la formula rimane valida qualunque sia la disposizione di X, Y e Z. Y X Z O Figura 4: Area AXY Z 8.3 Definizione astratta di prodotto scalare e sue proprietà Definizione 8.3.1. Sia V uno spazio vettoriale (reale). Una applicazione V ⇥V !R, (v, w) 7! v · w , che associa ad ogni coppia di vettori v e w un numero reale, che indichiamo con v · w, è detta un prodotto scalare di V se è: i) simmetrica: v · w = w · v 8 v, w 2 V ; ii) lineare: (au + bv) · w = a(u · w) + b(v · w) 8 a, b 2 R , u, v, w 2 V ; iii) definita positiva: v · v > 0 8 v 6= 0 . Proposizione 8.3.2. Un prodotto scalare di V soddisfa: iv) 0 · v = 0 8 v 2 V ; v) w · (au + bv) = a(w · u) + b(w · v) 8 a, b 2 R , u, v, w 2 V . 54 Prodotto scalare di V Dimostrazione. La proprietà iv) segue da ii). Infatti: 0 · v = (0 + 0) · v = 0 · v + 0 · v , ovvero sottraendo 0 · v ambo i membri si ottiene 0 · v = 0 per ogni v 2 V . Usando prima i), poi ii), e quindi ancora i) si dimostra che: w · (au + bv) = (au + bv) · w = a(u · w) + b(v · w) = a(w · u) + b(w · v) ⌅ per ogni a, b 2 R e per ogni u, v, w 2 V . Uno spazio vettoriale dotato di un prodotto scalare è detto metrico (o anche “Euclideo”), in quanto è possibile calcolare angoli e lunghezze. Spazi metrici Definizione 8.3.3. Sia V uno spazio metrico. Chiamiamo lunghezza o norma di v 2 V la grandezza p kvk := v · v . Norma di un vettore Esempio 8.3.4. Siano X = (x1 , x2 , . . . , xn ) e Y = (y1 , y2 , . . . , yn ). Un prodotto scalare di Rn , generalizzazione di (8.2), è dato da X · Y = x1 y1 + x2 y2 + . . . + xn yn , (8.6) Tale prodotto scalare è detto prodotto scalare canonico. La norma associata è q p 2 ||X|| = X · Y = x21 + x22 + . . . + x2n . (8.7) Esempio 8.3.5. Sia V lo spazio delle funzioni R ! R continue e periodiche di periodo 2⇡. Un prodotto scalare di V , indicato con il simbolo (f, g)L2 ( f, g 2 V ), è dato da Z 2⇡ 1 (f, g)L2 = f (t)g(t)dt . 2⇡ 0 R 2⇡ 1 (f, g)L2 è chiaramente lineare e simmetrico. Inoltre (f, f )L2 = 2⇡ |f (t)|2 dt > 0 per 0 ogni funzione f non identicamente nulla. Proposizione 8.3.6. Per ogni a 2 R e u, v 2 V si ha: 1. kavk = |a| kvk ; 2. kvk = 0 () v = 0 ; 3. ku + vk2 = kuk2 + 2 u · v + kvk2 . 55 Prodotto scalare canonico Dimostrazione. Dal punto ii) della definizione 8.3.1 e dal punto v) della proposizione 8.3.2 si ricava p p kavk = (av) · (av) = a2 (v · v) = |a| kvk . Dal punto iii) della definizione 8.3.1 e dal punto iv) della proposizione 8.3.2 segue che kvk = 0 () v = 0. Dai punti i) e ii) della definizione 8.3.1 e dal punto v) della proposizione 8.3.2 si ricava ku + vk2 = (u + v) · (u + v) = u · u + 2 u · v + v · v = kuk2 + 2 u · v + kvk2 . ⌅ Come nel caso di R2 , possiamo definire l’angolo convesso # fra due vettori non nulli v e w di uno spazio metrico V come cos # := v·w . kvk kwk Poiché il coseno è compreso fra 1 e 1, affinché tale definizione abbia senso occorre verificare che il membro di destra dell’equazione è in modulo non superiore a 1. Questo è il contenuto del teorema che segue. Teorema 8.3.7 (Disuguaglianza di Cauchy-Schwartz). Per ogni v, w 2 V , si ha |v · w| kvk kwk . (8.8) Dimostrazione. Se w = 0 la disuguaglianza si riduce ad un banale 0 0. Assumiamo allora che w 6= 0. Per ogni 2 R, dal punto 3 della proposizione 8.3.6, applicato alla coppia u = v e w, si ottiene wk2 = kvk2 0 kv 2 v·w+ 2 kwk2 , dove la prima disuguaglianza segue dal fatto che per definizione la norma di un vettore è non negativa. In particolare scegliendo = v · w/kwk2 si ottiene 0 kvk2 2 (v · w)2 (v · w)2 + = kvk2 kwk2 kwk2 (v · w)2 , kwk2 ovvero (v · w)2 kvk2 kwk2 . Prendendo la radice quadrata di ambo i membri della disuguaglianza, si prova (8.8). ⌅ Due vettori si dicono paralleli se |v · w| = kvk kwk e si dicono ortogonali se v · w = 0. Diciamo che due vettori paralleli hanno lo stesso verso se v · w = kvk kwk, e che hanno verso opposto se v · w = kvk kwk. 56 Corollario 8.3.8 (Disuguaglianza triangolare). Per ogni v, w 2 V , si ha kv + wk kvk + kwk , (8.9) e vale l’uguaglianza se e solo se i vettori sono paralleli ed hanno lo stesso verso. Dimostrazione. Dal punto 3 della proposizione 8.3.6: kv + wk2 = kvk2 + 2v · w + kwk2 kvk2 + 2kvk kwk + kwk2 = kvk + kwk 2 , dove la disuguaglianza segue da (8.8). Estraendo la radice si trova kv+wk kvk+kwk. L’uguaglianza si ha esattamente quando v · w = kvk kwk. ⌅ Proposizione 8.3.9 (Teorema di Pitagora). Due vettori v, w 2 V soddisfano kv + wk2 = kvk2 + kwk2 , se e solo se sono ortogonali. Dimostrazione. Dal punto 3 della proposizione 8.3.6, kv + wk2 kvk2 kwk2 = 2v · w ⌅ si annulla se e solo se v · w = 0. 8.4 Proiezioni ortogonali In analogia al caso di R2 , cf. equazione (8.4), se w 6= 0 il vettore prw (v) := Proiezioni v·w w kwk2 è detto proiezione (ortogonale) di v in direzione di w. Dato un vettore w 6= 0, ogni vettore v 2 V si può decomporre nella forma v = v// + v? con v// := prw (v) , v? := v prw (v) . Notiamo che v? è ortogonale a w, infatti v// · w = prw (v) · w = v·w w·w =v·w kwk2 (8.10) e quindi v? · w = v · w v// · w = 0. Dal punto 1 della proposizione 8.3.6, chiamando a = v · w/kwk2 , si ricava kv// k = kawk = |a| kwk = 57 |v · w| , kwk e quest’ultima equazione insieme a (8.10) ci dice che |v// · w| = kv// k kwk, ovvero v// è parallelo a w. Siccome v? e v// sono ortogonali, dalla proposizione 8.3.9 si ricava ||v||2 = ||v// ||2 + ||v? ||2 . (8.11) Proposizione 8.4.1. Siano w 6= 0 e v = v// + v? come sopra. Allora: a) v è parallelo a w b) v è ortogonale a w () () v? = 0 ; v// = 0 . Dimostrazione. Da v? · w = 0 e v// · w = ±kv// k kwk segue che v · w = v// · w = ±kv// k kwk . (8.12) Poiché w 6= 0, dal punto 2 della proposizione 8.3.6 segue che v · w = 0 , kv// k = 0 , v// = 0. Questo prova il punto b). Da (8.12) segue anche che |v · w| = kv// k kwk è uguale a kvk kwk se e solo se kvk = kv// k. Per l’equazione (8.11), questo è equivalente a kv? k = 0, ovvero a v? = 0. Questo prova il punto a). ⌅ Corollario 8.4.2. Due vettori v, w 2 V sono paralleli se e solo se sono linearmente dipendenti. Dimostrazione. Se w = 0 l’a↵ermazione è banale. Se w 6= 0, segue dalla proposizione precedente che v è parallelo a w se e solo se v = v// = aw con a = v · w/kwk2 . ⌅ Proposizione 8.4.3. Siano v1 , . . . , vk 2 V dei vettori non nulli e a due a due ortogonali, ovvero vi · vj = 0 per ogni i 6= j, 1 i, j k. Allora v1 , . . . , vk sono linearmente indipendenti. Dimostrazione. Sia u := a1 v1 + a2 v2 + . . . + ak vk = 0 . Siccome vi · vj = 0 8 i 6= j, prendendo il prodotto scalare di u con vi si ottiene u · vi = ai vi · vi = ai ||vi ||2 = 0 , ovvero ai = 0 (per ipotesi vi 6= 0) per ogni i = 1, . . . , k. Questo prova l’indipendenza lineare. ⌅ 58 8.5 Esercizi Esercizio 8.5.1. Determinare il valore del parametro 2 R per il quale i vettori v = (1, 3, 7, 1) e w = (3, 5, 1, ) risultano ortogonali (rispetto al prodotto scalare canonico di R4 ). Soluzione. Poiché v·w =1·3+3·5+7·1 i vettori sono ortogonali se e solo se 1· = 25 , X = 25. Esercizio 8.5.2. Siano v = (1, 1, 1, 3) e w = ( 1, 2, 0, 2). Calcolare la proiezione di v su w e l’angolo convesso # tra i due vettori. Soluzione. Si ha v · w = 1 · ( 1) + ( 1) · 2 + 1 · 0 3·2= 9, kvk2 = 12 + ( 1)2 + 12 + ( 3)2 = 12 , kwk2 = ( 1)2 + 22 + 22 = 9 . Quindi prw (v) = e v·w cos # = = kvk kwk v·w w= kwk2 9 p = 12 · 9 w = (1, 2, 0, 2) 9 p = 6 3 p 9 3 p p == 6 3 3 Quindi # = 150 (in radianti, # = 56 ⇡). p 9 3 = 6·3 p 3 . 2 X Esercizio 8.5.3. Siano u = (2, 0, 1) e v = ( 2, 1, 0) vettori di R3 . Trovare tutti i vettori di norma 1 ortogonali a u e v. Soluzione. Un vettore w = (w1 , w2 , w3 ) è ortogonale a u e v se e solo se ( u · w = 2w1 + w3 = 0 v·w = 2w1 + w2 = 0 Ovvero w = (1, 2, 2)w1 . La condizione kwk = 1 dà kwk2 = 1 + 22 + 22 w12 = 9w12 = 1 ovvero w1 = ± 31 . Esistono quindi esattamente due vettori di norma 1 ed ortogonali ad u e v, e sono dati da w = ± 13 , 23 , 23 . X 59 Esercizio 8.5.4. Ripetere l’esercizio 8.5.3 con i vettori u = (8, 1, 6) e v = ( 4, 2, 3). Soluzione. Un vettore w = (w1 , w2 , w3 ) è ortogonale a u e v se e solo se ( u · w = 8w1 + w2 6w3 = 0 v·w = Un sistema equivalente è ( 4w1 + 2w2 + 3w3 = 0 u · w + 2v · w = 4w2 = 0 2u · w v · w = 20w1 15w3 = 0 ed ha soluzione w2 = 0 e w1 = 34 w3 . La condizione kwk = 1 dà kwk2 = w12 + w22 + w32 = 32 2 w 42 3 + 0 + w32 25 w2 = 1 16 3 ovvero w3 = ± 45 . Abbiamo quindi due soluzioni: w = ± 3 , 0, 45 5 . X Esercizio 8.5.5. Ripetere l’esercizio 8.5.3 con i vettori u = (4, 2, 2) e v = (3, 3, 2). Soluzione. Un vettore w = (w1 , w2 , w3 ) è ortogonale a u e v se e solo se ( u · w = 4w1 + 2w2 2w3 = 0 v · w = 3w1 Un sistema equivalente è ( 3w2 + 2w3 = 0 u · w + v · w = 7w1 3u · w + 2v · w = 18w1 w2 = 0 2w3 = 0 ed ha soluzione w2 = 7w1 e w3 = 9w1 . La condizione kwk = 1 dà kwk2 = w12 + w22 + w32 = 1 + 72 + 92 w12 = 131 w12 = 1 1 1 ovvero w1 = ± p131 . Abbiamo quindi due soluzioni: w = ± p131 (1, 7, 9). 60 X Lezione IX Basi ortonormali e metodo di Gram-Schmidt Sommario: basi ortonormali; metodo di Gram-Schmidt; sottospazi ortogonali. Esempi ed esercizi. 9.1 Basi ortonormali Sia V uno spazio metrico di dimensione n. Osservazione 9.1.1. Notiamo (proposizione 8.4.3) che n vettori non nulli e a due a due ortogonali sono linearmente indipendenti, quindi per l’osservazione 7.1.6 formano una base di V . Definizione 9.1.2. Una base B = (u1 , u2 , . . . , un ) di V si dice ortonormale se Base ortonormale i) ui · uj = 0 per ogni i 6= j; ii) kui k = 1 per ogni i = 1, . . . , n. Esempio 9.1.3. La base canonica di Rn è ortonormale rispetto al prodotto scalare canonico. Proposizione 9.1.4. Sia B = (u1 , u2 , . . . , un ) una base ortonormale di V , e v 2 V un vettore qualsiasi. Allora v = (v · u1 )u1 + (v · u2 )u2 + . . . + (v · un )un . In altri termini, la componente i-esima ai di v nella base B è data da ai = v · ui . Dimostrazione. Per definizione di base, esistono a1 , . . . , an 2 R tali che v = a1 u1 + . . . + an un . Da i) e ii) della definizione 9.1.2 e dalla linearità del prodotto scalare segue che X X v · ui = ai (ui · ui ) + aj (uj · ui ) = ai kui k + aj · 0 = ai j6=i j6=i per ogni i = 1, . . . , n. ⌅ Proposizione 9.1.5. Sia B = (u1 , u2 , . . . , un ) una base ortonormale di V , e siano v = (a1 , . . . , an )B e w = (b1 , . . . , bn )B due qualsiasi vettori di V . Allora v · w = a1 b 1 + a2 b 2 + . . . + an b n . In altre parole, in una base ortonormale il prodotto scalare fra due vettori coincide con il prodotto scalare canonico fra le n-uple delle componenti. 61 Dimostrazione. Se v = segue che Pn i=1 ai ui e v = v·w = Pn j=1 bj uj , n X i,j=1 dalla linearità del prodotto scalare ai bj (ui · uj ) . Poichè ui · uj è zero se i 6= j ed è 1 se i = j, si ricava la tesi: v · w = Pn i=1 ai b i . ⌅ 9.2 Metodo di Gram-Schmidt Sia V uno spazio metrico di dimensione n, e (v1 , v2 , . . . , vn ) una base qualsiasi di V . E’ possibile ricavare da essa una base ortonormale come illustrato nel seguito (metodo di Gram-Schmidt). Il primo passo è definire dei vettori (w1 , w2 , . . . , wn ) in maniera ricorsiva: w1 = v 1 , w2 = v 2 prw1 (v2 ) , w3 = v 3 .. . prw1 (v3 ) prw2 (v3 ) , .. . Xi 1 prwj (vi ) , (1 < i n) . wi = v i j=1 Lemma 9.2.1. I vettori (w1 , w2 , . . . , wn ) sono una base di V e soddisfano wi · wj = 0 per ogni i 6= j. Dimostrazione. Per l’osservazione 9.1.1, n vettori ortogonali non nulli formano una base. I vettori sono chiaramente non nulli, infatti w1 = v1 6= 0 e per i 2, se per Pi 1 assurdo wi = 0 se ne dedurrebbe che vi = j=1 prwj (vi ) è combinazione lineare degli altri vettori di B, contraddicendo l’ipotesi che B è una base. L’ortogonalità si dimostra per induzione. Per la proprietà delle proiezioni, w1 è ortogonale a w2 . Sia 3 i n. Per ipotesi induttiva, assumiamo che {w1 , w2 , . . . , wi 1 } siano a due a due ortogonali, e mostriamo che wi è ortogonale ad ogni vettore wk dell’insieme, con k = 1, . . . , i 1. Per costruzione ⇣ ⌘ Xi 1 wk · wi = wk · v i prwj (vi ) . j=1 Il vettore prwj (vi ) è parallelo a wj , e quindi per ipotesi induttiva è ortogonale a wk se j 6= k. Si ricava wk · wi = wk · vi prwk (vi ) . Poiché vi prwk (vi ) è ortogonale a wk (vedere pag. 57), si ha wk · wi = 0. 62 ⌅ Passo 1 Il secondo passo consiste nel normalizzare i vettori ottenuti. Chiamiamo u1 = w1 , kw1 k u2 = w2 , kw2 k ... un = Passo 2 wn . kwn k Abbiamo ui · uj = wi · wj = 0 8 i 6= j , kwi k kwj k ui · ui = wi · wi = 1 8 i = 1, . . . , n . kwi k2 Per l’osservazione 9.1.1, B = (u1 , u2 , . . . , un ) è una base ortonormale di V . Corollario 9.2.2. Ogni spazio metrico finitamente generato ammette una base ortonormale (si trova una base con il metodo degli scarti successivi, e da questa una ortonormale con il metodo di Gram-Schmidt). 9.3 Sottospazi ortogonali Sia V uno spazio metrico di dimensione n. Lemma 9.3.1. Siano v, w1 , w2 , . . . , wk 2 V . Se v è ortogonale a ciascuno dei vettori w1 , w2 , . . . , wk , allora è ortogonale ad ogni loro combinazione lineare. Dimostrazione. Per ipotesi v · wi = 0 per ogni i. Dalla linearità del prodotto scalare segue che v · (a1 w1 + a2 w2 + . . . + ak wk ) = a1 (v · w1 ) + a2 (v · w2 ) + . . . + ak (v · wk ) = 0 ⌅ per ogni a1 , . . . , ak 2 R. Definizione 9.3.2. Sia W ✓ V un sottospazio vettoriale. L’insieme W ? := v 2 V : v · w = 0 8 w 2 W è detto complemento ortogonale di W . Proposizione 9.3.3. W ? è un sottospazio vettoriale di V . Dimostrazione. Per ogni a1 , a2 2 R, v1 , v2 2 W ? , il vettore a1 v1 + a2 v2 soddisfa (a1 v1 + a2 v2 ) · w = a1 (v1 · w) + a2 (v2 · w) = 0 per ogni w 2 W . Quindi a1 v1 + a2 v2 2 W ? e per il criterio c) della proposizione 4.3.3 l’insieme W ? è un sottospazio vettoriale di V . ⌅ Osservazione 9.3.4. Sia W = L(w1 , w2 , . . . , wk ). Dal lemma 9.3.1 segue che W ? = v 2 V : v · wi = 0 8 i = 1, . . . , k . 63 Complemento ortogonale Esempio 9.3.5. Sia W = L (1, 0, 1) ⇢ R3 . Per l’osservazione 9.3.4, (x, y, z) 2 W ? se e solo se (1, 0, 1) · (x, y, z) = x z = 0. Dall’identità (x, y, x) = x(1, 0, 1) + y(0, 1, 0) segue che i vettori (1, 0, 1) e (0, 1, 0) sono una base di W ? , ovvero: W ? = L (1, 0, 1), (0, 1, 0) . Proposizione 9.3.6. Sia W un sottospazio di V di dimensione k. Una base ortonormale (v1 , . . . , vk ) di W può sempre essere completata ad una base ortonormale (v1 , . . . , vk , uk+1 , . . . , un ) di V . Inoltre i vettori uk+1 , . . . , un formano una base ortonormale di W ? . Dimostrazione. Applicando il metodo del completamento ad una base è possibile costruire una base B = (v1 , . . . , vk , vk+1 , . . . , vn ) di V contenente i vettori v1 , . . . , vk (che per ipotesi formano un insieme libero). Applichiamo ora a B il metodo di GramSchmidt ed otteniamo una base ortonormale (u1 , . . . , un ) di V . Per costruzione i primi k vettori di B sono già ortogonali e normalizzati ad 1, quindi ui = vi per ogni i = 1, . . . , k. Questo prova la prima a↵ermazione. Ogni vettore w 2 V si può allora scrivere nella forma w = (a1 v1 + a2 v2 + . . . + ak vk ) + (ak+1 uk+1 + ak+2 uk+2 + . . . + an un ) . (9.1) Per l’osservazione 9.3.4 e la proposizione 9.1.4, si ha w 2 W ? se e solo se vi ·w = ai = 0 per ogni i = 1, . . . , k. Quindi ogni w 2 W ? è una combinazione lineare w = ak+1 uk+1 + ak+2 uk+2 + . . . + an un , ed i vettori (uk+1 , . . . , un ) formano una base ortonormale di W ? . ⌅ Corollario 9.3.7. Per ogni sottospazio W ✓ V valgono le seguenti proprietà: 1. (W ? )? = W ; 2. W \ W ? = {0}; 3. dim(W ) + dim(W ? ) = n; 4. W + W ? = V . Dimostrazione. Sia (u1 , . . . , uk ) una base ortonormale di W (W è finitamente generato, e per il corollario 9.2.2 ammette una base ortonormale). Per la 9.3.6 possiamo trovare una base ortonormale (uk+1 , . . . , un ) tale che (u1 , . . . , un ) è una base ortonormale di V . Da questo segue che dim(W ) + dim(W ? ) = k + (n k) = n = dim(V ), ovvero il punto 3. 64 Da (9.1) segue che ogni vettore v 2 V si può scrivere (in modo unico) come somma di due vettori v0 = a1 u1 +a2 u2 +. . .+ak uk 2 W e v00 = ak+1 uk+1 +ak+2 uk+2 +. . .+an un 2 W ? . Questo prova che V = W +W ? , ovvero il punto 4. L’unicità della decomposizione prova che la somma è diretta, quindi W \ W ? = {0} per la proposizione 4.4.2. Per finire, sia v come sopra. Per l’osservazione 9.3.4, v 2 (W ? )? se e solo se è ortogonale ad ogni vettore di base di W ? . Dalla condizione ai = v · ui = 0 8 i = k + 1, . . . , n si ricava v = v0 2 W . Quindi (W ? )? = W . ⌅ 9.4 Esercizi Esercizio 9.4.1. Usando il metodo di Gram-Schmidt si determini una base ortonormale di R3 a partire dalla base B = v1 = (1, 1, 1), v2 = (0, 1, 1), v3 = (0, 0, 1) . Soluzione. Come primo passo calcoliamo i vettori w1 = v1 = (1, 1, 1) , w2 = v 2 = (0, 1, 1) w3 = v 3 (0,1,1)·(1,1,1) (1, 1, 1) k(1,1,1)k2 prw1 (v2 ) = (0, 1, 1) 2 (1, 1, 1) 3 prw1 (v3 ) 2 1 1 , , 3 3 3 = , prw2 (v3 ) = (0, 0, 1) (0,0,1)·(1,1,1) (1, 1, 1) k(1,1,1)k2 = (0, 0, 1) 1 (1, 1, 1) 3 1 2 (0,0,1)·( 23 , 13 , 13 ) k( 23 , 13 , 13 )k2 2 1 1 , , 3 3 3 = 0, 1 1 , 2 2 2 1 1 , , 3 3 3 . Quindi dividiamo ciascun vettore per la sua norma e otteniamo: w1 = kw1 k w2 u2 = = kw2 k w3 u3 = = kw3 k u1 = p1 (1, 1, 1) 3 p1 ( 6 p1 (0, 2 , 2, 1, 1) , 1, 1) . X La base cercata è (u1 , u2 , u3 ). Esercizio 9.4.2. Usando il metodo di Gram-Schmidt si determini una base ortonormale di R3 a partire dalla base B = v1 = (0, 0, 1), v2 = (0, 1, 1), v3 = (1, 1, 1) . 65 Soluzione. Notiamo che i vettori sono gli stessi dell’esercizio precedente, ma ordinati in maniera di↵erente. Come per l’esercizio precedente: w1 = v1 = (0, 0, 1) , w2 = v 2 prw1 (v2 ) = (0, 1, 1) = (0, 1, 1) w3 = v 3 (0,1,1)·(0,0,1) (0, 0, 1) k(0,0,1)k2 (0, 0, 1) = (0, 1, 0) , prw1 (v3 ) prw2 (v3 ) = (1, 1, 1) (1,1,1)·(0,0,1) (0, 0, 1) k(0,0,1)k2 = (1, 1, 1) (0, 0, 1) (1,1,1)·(0,1,0) (0, 1, 0) k(0,1,0)k2 (0, 1, 0) = (1, 0, 0) . X I vettori hanno già norma 1, quindi (w1 , w2 , w3 ) è la base cercata. Esercizio 9.4.3. Sia W il sottospazio di R4 generato dai vettori v1 = (1, 1, 0, 1) , v2 = (1, 0, 1, 2) , v3 = (1, 2, 0, 0) . Trovare una base ortonormale di W e di W ? . Soluzione. Come per l’esercizio precedente, w1 = v1 = (1, 1, 0, 1) , w2 = v 2 prw1 (v2 ) = (1, 0, 1, 2) = (1, 0, 1, 2) w3 = v 3 prw1 (v3 ) = (1, 2, 0, 0) (1,0, 1,2)·(1,1,0,1) (1, 1, 0, 1) k(1,1,0,1)k2 (1, 1, 0, 1) = (0, 1, 1, 1) , prw2 (v3 ) (1, 2,0,0)·(1,1,0,1) (1, 1, 0, 1) k(1,1,0,1)k2 = (1, 2, 0, 0) + 13 (1, 1, 0, 1) 2 (0, 3 (1, 2,0,0)·(0, 1, 1,1) (0, k(0, 1, 1,1)k2 1, 1, 1) = 4 , 3 1, 23 , 1 3 1, 1, 1) . Dividendo ciascun vettore per la sua norma si trova la soluzione finale: w1 u1 = = p13 (1, 1, 0, 1) , kw1 k w2 u2 = = p13 (0, 1, 1, 1) , kw2 k w3 u3 = = p130 (4, 3, 2, 1) . kw3 k Una base ortonormale di W è data da (u1 , u2 , u3 ). Siccome dim(W ) + dim(W † ) = 4 e dim(W ) = 3, una base di W † è formata da un unico vettore u4 = (x1 , x2 , x3 , x4 ). Tale vettore deve risolvere il sistema 8 p > < p3 u1 · u4 = x1 + x2 + x4 = 0 3 u2 · u4 = x2 x3 + x4 = 0 > : p 30 u3 · u4 = 4x1 3x2 + 2x3 x4 = 0 66 Dalle prime due equazioni si ricava x1 = x2 x4 e x3 = x2 + x4 . Sostituendo nell’ultima si trova x4 = 3x2 . Quindi u4 = (2, 1, 4, 3)x2 . Dalla condizione ku4 k = 1 si ricava 1 = ku4 k2 = (22 + 12 + ( 4)2 + ( 3)2 )x22 = 30x22 . Quindi x2 = p130 e una base ortonormale di W ? è data dal vettore u4 = p130 (2, 1, 4, 3). Notiamo che avremmo potuto scegliere x2 = p130 ottenendo u4 = p130 (2, 1, 4, 3), anch’esso base ortonormale di W ? . X Esercizio 9.4.4. Sia W il sottospazio degli (x1 , x2 , x3 ) 2 R3 soluzione dell’equazione 2x1 + x2 = 0. Trovare una base ortonormale di W e W ? (rispetto al prodotto scalare canonico di R3 ). Soluzione. I vettori di W hanno la forma (x1 , 2x1 , x3 ) = x1 (1, 2, 0) + x3 (0, 0, 1). Una base è quindi v1 = (0, 0, 1), v2 = (1, 2, 0) . I vettori sono già ortogonali, quindi u1 = v1 = (0, 0, 1) , kv1 k u2 = v2 = kv2 k p1 (1, 3 2, 0) . Un vettore u3 = (x1 , x2 , x3 ) 2 W ? soddisfa ⇢ p u1 · u3 = x3 = 0 3 u2 · u3 = x1 2x2 = 0 Quindi u3 = (2, 1, 0)x2 . Da ku3 k2 = (22 + 12 )x22 = 5x22 = 1 si ricava x2 = u3 = p15 (2, 1, 0) è una base ortonormale di W ? . 67 p1 5 ed X Lezione X Matrici Sommario: matrice trasposta; vettori riga/vettori colonna; prodotto righe per colonne; inversa ed aggiunta di una matrice. Esempi ed esercizi. 10.1 Prodotto righe per colonne Se A 2 Rm,n è la matrice 0 a11 B B a21 A := B B .. @ . a12 a22 .. . am1 am2 chiamiamo trasposta di A la matrice tA 2 righe con le colonne, ovvero 0 a11 a21 B B a12 a22 t A=B .. B .. . @ . a1n a2n 1 . . . a1n C . . . a2n C .. C C . A . . . amn Rn,m che si ottiene da A scambiando le Matrice trasposta 1 . . . am1 C . . . am2 C .. C C . . A . . . amn Quindi l’elemento di tA in posizione (i, j) è aji , per ogni i = 1, . . . , n e j = 1, . . . , m. Ad esempio 0 1 ✓ ◆ 1 4 t 1 2 3 B C = @2 5 A . 4 5 6 3 6 Osservazione 10.1.1. Notiamo che t (tA) = A per ogni matrice A. Inoltre, siccome il determinante si può calcolare con lo sviluppo di Laplace per righe e per colonne, e il risultato non cambia, se ne deduce che |tA| = |A| per ogni matrice A. Una matrice 1 ⇥ n è semplicemente una n-upla di numeri reali, e sarà anche detta vettore riga. Una matrice n ⇥ 1 è anch’essa una n-upla di numeri reali, scritti in una colonna, e sarà detta per questo vettore colonna. Se X = (x1 , x2 , . . . , xn ) è una matrice 1 ⇥ n ed Y = t (y1 , y2 , . . . , yn ) è una matrice n ⇥ 1, definiamo il loro prodotto come X · Y = x1 y1 + x2 y2 + . . . + xn yn . Notiamo che X · Y è semplicemente il prodotto scalare canonico fra le n-uple X e t Y . 68 Vettori riga e vettori colonna Più in generale date due matrici A = (aij ) 2 Rm,n e B = (bjk ) 2 Rn,p , possiamo considerare i vettori riga 8 i = 1, . . . , m Xi = (ai1 , ai2 , . . . , ain ) che formano le righe di A, ed i vettori colonna 0 1 b1k B C B b2k C C Yk = B 8 k = 1, . . . , p B .. C @ . A bnk che formano le colonne di B. Per costruzione 0 1 X1 B C ⇣ ⌘ B X2 C B C A=B . C , B = Y1 Y2 . . . Yp . @ .. A Xm Chiamiamo prodotto righe per colonne di A e B, indicato con A · B, la matrice m ⇥ p seguente 0 1 X 1 · Y1 X 1 · Y2 . . . X 1 · Yp B C B X 2 · Y1 X 2 · Y2 . . . X 2 · Yp C A·B =B .. .. C B .. C . . . A @ . X m · Y 1 X m · Y 2 . . . X m · Yp Quindi C = A · B è la matrice che in posizione (i, k) ha l’elemento cik = Xi · Yk = In figura 5 è illustrato il calcolo di cik . Xn j=1 aij bjk . (10.1) Esercizio 10.1.2. Calcolare il prodotto delle matrici A= ✓ 1 2 3 0 1 1 ◆ 0 1 1 2 B C B = @3 1 A . 2 4 , Soluzione. A·B = ✓ 1·1+2·3 1·2 3·1+0·3+1·2 1·2+2·1 1·4 3·2+0·1+1·4 69 ◆ = ✓ 5 0 5 10 ◆ . X Prodotto righe per colonne .. + ai 1 ·b 1k 0 .. + ai j ·b jk .+ .+ 0 B a11 B B B B .. B . B B B B ai1 B B B B .. B . B B B @ am1 ... a1j ... a1n .. .. . .. . .. . ... aij ... ain .. . .. . .. .. . ... amj ... . . amn A : m righe, n colonne a in 1 ·b B B B B B B B B B B B B B B B B B B @ B : n righe, p colonne b11 ... b1k ... b1p .. . .. .. . .. . .. . bj1 ... bjk ... bjp .. . .. . .. . .. .. . bn1 ... bnk ... . . bnp nk C C C C C C C C C C C C C C C C C C A 0 B B B B B B B B B B B B B B B B B B @ c11 ... c1k ... c1p .. . .. .. . .. . .. . ci1 ... cik ... cip .. . .. . .. . .. .. . cn1 ... cnk ... . . cnp C = AB : m righe, p colonne 1 C C C C C C C C C C C C C C C C C C A 1 C C C C C C C C C C C C C C C C C C A Figura 5: Calcolo dell’elemento cik di C = A · B. Osservazione 10.1.3. Notiamo che il prodotto A · B può essere definito solo se il numero di colonne di A è uguale al numero di righe di B. Per ogni valore m, n, p il prodotto righe per colonne dà una applicazione Rm,n ⇥ Rn,p ! Rm,p . In particolare per m = n = p, si ha una operazione interna di Mn (R). In generale in Mn (R) non vale la proprietà AB = BA, come dimostrato nel caso di matrici 2 ⇥ 2 nell’esercizio 5.2.3. 10.2 Proprietà del prodotto Proposizione 10.2.1 (Associatività). Per ogni A = (aij ) 2 Rm,n , B = (bjh ) 2 Rn,p e D = (dhk ) 2 Rp,q si ha A(BD) = (AB)D . 70 Associatività del prodotto Dimostrazione. Si usa (10.1). L’elemento di matrice in posizione (i, k) di A(BC) è dato da ⇣X p ⌘ Xn X aij bjh dhk = aij bjh dhk , j=1 h=1 j=1,...,n h=1,...,p l’elemento di matrice in posizione (i, k) di (AB)C è dato da ⌘ X p ⇣X n X aij bjh dhk = aij bjh dhk . h=1 j=1 j=1,...,n h=1,...,p Le due espressioni coincidono, poichè l’ordine in cui si e↵ettuano le due sommatorie è irrilevante. ⌅ Se A = (aij ) 2 Mn (R) è una matrice quadrata, gli elementi aii (1 i n) si dice che formano la diagonale principale (o semplicemente la diagonale) di A. Ad esempio, nella matrice seguente gli elementi sulla diagonale principale sono in rosso 0 1 3 7 1 B C @1 0 2A . 3 2 5 Chiamiamo matrice identica di ordine n, indicata con In , la matrice n ⇥ n che ha tutti gli elementi sulla diagonale principale uguali ad 1, e tutti gli altri uguali a 0: 0 1 1 0 0 ... 0 B C B0 1 0 . . . 0 C B C C . 0 0 1 . . . 0 In = B B C .. C B .. .. .. @. . . .A Diagonale principale Matrice identica 0 0 0 ... 1 La proposizione che segue è di semplice verifica. Proposizione 10.2.2 (Elemento neutro). Per ogni A 2 Rm,n si ha Im A = AIn = A . In particolare, In è elemento neutro rispetto al prodotto in Mn (R). Sia 2 R, A, A0 2 Rm,n e B, B 0 2 Rn,p . Chiamiamo Xi le colonne di A, Xi0 le colonne di A0 , Yk le righe di B e Yk0 le righe di B 0 . Quindi: 0 1 0 1 ⇣ ⌘ X1 X10 B = Y1 Y 2 . . . Y p B C B 0C B X2 C B X2 C 0 C B . C A=B A = . B . C B . C ⇣ ⌘ . @ A @ . A 0 0 0 0 B = Y 1 Y2 . . . Y p 0 Xm Xm 71 Elemento neutro Notiamo che la somma di matrici definita nell’esempio 4.1.5 corrisponde alla somma dei loro vettori riga/colonna, 0 1 X1 + X10 B C ⇣ ⌘ B X2 + X20 C 0 0 0 0 0 C A+A =B , B + B = Y + Y Y + Y . . . Y + Y , (10.2) 1 2 p .. 1 2 p B C . @ A 0 Xm + Xm ed il prodotto per uno scalare è dato semplicemente da 0 1 X1 B C ⇣ B X2 C B A=B . C , B = Y1 Y 2 . . . C @ .. A Xm Proposizione 10.2.3 (Bilinearità). Per ogni valgono le proprietà Yp ⌘ . (10.3) 2 R, A, A0 2 Rm,n e B, B 0 2 Rn,p i) (A + A0 )B = AB + A0 B; ii) A(B + B 0 ) = AB + AB 0 ; iii) ( A)B = A( B) = (AB). Dimostrazione. Il prodotto fra matrici Rm,n ⇥Rn,p ! Rm,p è definito usando il prodotto scalare canonico di Rn , e la proposizione è una immediata conseguenza della linearità del prodotto scalare. Chiamiamo Xi ed Xi0 rispettivamente le righe di A ed A0 , Yk e Yk0 rispettivamente le colonne di B e B 0 . Da (10.1) e (10.2) si ricava (A + A0 )B = (Xi + Xi0 ) · Yk = Xi · Yk + Xi0 · Yk = Xi · Yk + Xi0 · Yk = AB + A0 B , A(B + B 0 ) = Xi · (Yk + Yk0 ) = Xi · Yk + Xi · Yk0 = Xi · Yk + Xi · Yk0 = AB + AB 0 . Nella seconda uguaglianza abbiamo usato la linearità del prodotto scalare. In maniera simile da (10.1) e (10.3) si ricava ( ( Xi ) · Yk = ( A)B (AB) = Xi · Yk = (Xi · Yk ) = Xi · ( Yk ) = A( B) dove la terza uguaglianza segue dalla linearità del prodotto scalare. Osservazione 10.2.4. (Mn (R), +, 0, ·, In ) è un anello non commutativo. 72 ⌅ Bilinearità del prodotto Proposizione 10.2.5. Per ogni A, A0 2 Rm,n , B 2 Rn,p e i) t (A + A0 ) = tA + tA0 ; 2 R si ha Proprietà della trasposizione ii) t (AB) = ( tB) · ( tA) ; iii) t ( A) = ( tA) ; Dimostrazione. Notiamo che se X = (x1 , x2 , . . . , xn ) ed X 0 = (x01 , x02 , . . . , x0n ) sono due vettori riga, allora 0 1 0 1 0 01 x1 + x01 x1 x1 B x + x0 C B x C B x0 C B 2 B 2C B C 2C t (X +X 0 ) = t (x1 +x01 , x2 +x02 , . . . , xn +x0n ) = B C = B C+B 2 C = t X +t X 0 . @ . . . A @. . . A @. . . A xn + x0n x0n xn Chiamiamo Xi ed Xi0 rispettivamente le righe di A ed A0 , Yk e Yk0 rispettivamente le colonne di B e B 0 . Da (10.2), e dalla precedente osservazione, segue che 0 1 X1 + X10 t B C ⌘ B X2 + X20 C ⇣ t t 0 0 t 0 t 0 B C (A + A ) = B = (X + X ) (X + X ) . . . (X + X ) 1 2 m .. 1 2 m C . @ A = = ⇣ ⇣ 0 Xm + Xm t X1 + t t X10 t X2 t t + t X20 ⌘ t t 0 Xm . . . Xm + ⇣ + t X10 t X20 . . . X1 X2 . . . Xm 0 1 0 1 X1 X10 t t B C B 0C B X2 C B X2 C t t 0 C B C = B B .. C + B .. C = A + A . @ . A @ . A Xm ⌘ t 0 Xm ⌘ 0 Xm Questo prova il punto i). Per il punto ii) osserviamo prima che se X è un vettore riga e Y un vettore colonna, t (X · Y ) = X · Y = (t X) · (t Y ), dove la prima uguaglianza segue dal fatto che X · Y è uno scalare (ovvero una matrice 1 ⇥ 1) e la seconda dalla simmetria del prodotto scalare. Quindi 1 0 1 0 t X 1 · Y1 X 1 · Y2 . . . X 1 · Yp (X1 · Y1 ) t (X2 · Y1 ) . . . t (Xm · Y1 ) B C B C B X2 · Y1 X2 · Y2 . . . X2 · Yp C Bt (X1 · Y2 ) t (X2 · Y2 ) . . . t (Xm · Y2 )C t B C (AB) = B .. .. C .. .. .. C=B C B .. . . A @ . . . @ . A X m · Y1 X m · Y2 . . . X m · Y p t (X1 · Yp ) 0 1 ( t Y 1 ) · ( t X 1 ) ( t Y 1 ) · ( t X 2 ) . . . ( t Y1 ) · ( t X m ) Bt C B ( Y 2 ) · ( t X 1 ) ( t Y 2 ) · ( t X 2 ) . . . ( t Y2 ) · ( t X m ) C C =B .. .. .. B C . . . @ A t t t t t t ( Yp ) · ( X 1 ) ( Yp ) · ( X 2 ) . . . ( Yp ) · ( X m ) 73 t (X2 · Yp ) . . . t (Xm · Yp ) 0 1 Y1 Bt C ⇣ B Y2 C t t C =B B .. C · X1 X2 . . . @ . A t t t ⌘ Xm Yp = ( tB) · ( tA) . Questo prova ii). La proprietà iii) è elementare e segue da (10.3): la sua verifica è lasciata come esercizio. ⌅ Enunciamo, senza dimostrazione, una proprietà dei determinanti. Teorema 10.2.6 (Teorema di Binet). Il determinante di un prodotto è il prodotto dei determinanti: |AB| = |A| · |B| per ogni A, B 2 Mn (R). Esercizio 10.2.7. Sia A= ✓ 2 7 1 4 ◆ , B= ✓ 5 3 2 1 ◆ . Verificare che |AB| = |A| · |B|. Soluzione. Si ha |A| = 8 + 7 = 15, |B| = 5 6 = 1, ✓ ◆ ✓ ◆ 2·5+7·2 2·3+7·1 24 13 AB = = , 1·5+4·2 1·3+4·1 3 1 e |AB| = 24 39 = 15 = |A| · |B|. X 10.3 Inversa ed aggiunta di una matrice Una matrice A 2 Mn (R) si dice invertibile (rispetto al prodotto righe per colonne) se esiste una matrice A 1 2 Mn (R) tale che A·A 1 =A 1 · A = In . Come già osservato nel caso dei gruppi (proposizione 2.2.2), l’inverso di un elemento è unico se l’operazione è associativa. Vedremo in questa sezione come si calcola esplicitamente l’inverso di una matrice. Osservazione 10.3.1. Se A e B sono matrici n ⇥ n invertibili, AB è invertibile ed ha come inversa la matrice B 1 A 1 . Infatti per l’associatività del prodotto si ha (B 1 A 1 )(AB) = B 1 (A 1 A)B = B 1 In B = B 1 B = In ed anche (AB)(B 1 A 1 ) = A(BB 1 )A 74 1 = AIn A 1 = AA 1 = In . Matrici invertibili Definizione 10.3.2. Sia A = (aij ) 2 Mn (R). Chiamiamo aggiunta della matrice A, indicata con A⇤ , la matrice n ⇥ n che si ottiene da A sostituendo l’elemento aij con il suo complemento algebrico ij (definito a pag. 35). Abbiamo già osservato, nell’esercizio 5.2.3, che esistono matrici diverse da zero non invertibili. Enunciamo senza dimostrazione un teorema che permette di stabilire in quali casi una matrice quadrata è invertibile, e di calcolare la sua inversa. Teorema 10.3.3 (Teorema di Laplace). A 2 Mn (R) è invertibile se e solo se |A| = 6 0, ed in tal caso l’inversa è data dalla matrice A 1 = 1 t ⇤ (A ) |A| dove t (A⇤ ) è la trasposta della matrice aggiunta di A. Esercizio 10.3.4. Sia A la matrice 0 Calcolare A 1 1 3 1 5 B C A=@0 4 1A . 2 3 1 usando il teorema di Laplace. Soluzione. La matrice aggiunta è data da 0 3 1 5 B B+ 0 4 1 B B 2 3 1 B B B 3 1 5 B B ⇤ 0 4 1 A = B B B 2 3 1 B B B 3 1 5 B B+ 0 4 1 @ 2 3 1 0 4 B+ 3 B B B 1 =B B 3 B B @ 1 + 4 1 1 5 1 5 1 3 1 5 0 4 1 2 3 1 3 1 5 + 0 4 1 2 3 1 3 1 5 + 0 4 1 2 3 1 3 1 5 0 4 1 2 3 1 3 1 5 0 4 1 2 3 1 3 1 5 + 0 4 1 2 3 1 0 2 3 + 2 3 0 1 1 5 1 5 1 0 + 2 3 2 3 + 0 75 4 3 1 3 1 4 1 1 C C C C C C C C C C C C C C C C C A C 0 C C 1 C B C = @ 14 C C 19 C A 2 7 3 1 8 C 7A . 12 Matrice aggiunta Con lo sviluppo di Laplace rispetto alla prima colonna si calcola |A| = teorema di Laplace si calcola l’inversa: 0 1 1 14 19 1 t ⇤ 1 B C A 1= (A ) = 7 3A . @ 2 |A| 35 8 7 12 35. Usando il X Esercizio 10.3.5. Determinare aggiunta ed inversa della matrice ✓ ◆ a11 a12 A= . a21 a22 Inversa di una matrice 2 ⇥ 2 Soluzione. Ricordiamo che |A| = a11 a22 a12 a21 , e l’inversa esiste se |A| 6= 0. In tal caso, usando il teorema di Laplace si trova: ✓ ◆ ✓ ◆ a22 a21 a22 a12 1 ⇤ 1 A = , A = , a11 a22 a12 a21 a12 a11 a21 a11 Si può verificare che e↵ettivamente AA Esercizio 10.3.6. Sia A la matrice Dire per quali valori di 1 X = A 1 A = I2 . 0 1 1 0 1 B C A = @ 1 2A . 0 2 1 la matrice è invertibile, e per tali valori determinare l’inversa. Soluzione. Con lo sviluppo di Laplace rispetto alla prima riga si calcola |A| = 2 3. La matrice quindi è invertibile se 6= 3/2. In questo caso, aggiunta ed inversa sono date da 0 1 1 2 2 1 + B+ C 1 2 1 0 1 0 2 C 0 B B C 3 2 B 0 1 1 1 1 0 C C C=B A⇤ = B + 1 2 A . @ 2 C B 2 1 0 1 0 2 C B 1 2 1 B C @ 0 1 1 1 1 0 A + + 1 2 2 1 e A 1 = 0 1 t ⇤ 1 B (A ) = @ |A| 2 3 76 3 2 2 1 2 1 1 1 C 2A . X Lezione XI Il metodo di eliminazione di Gauss Sommario: matrici triangolari e determinante; metodo di eliminazione di Gauss; sistemi (di equazioni lineari) ridotti e a scala. Esempi ed esercizi. 11.1 Matrici triangolari Definizione 11.1.1. Una matrice A = (aij ) 2 Rm,n si dice Matrici triangolari • triangolare superiore se aij = 0 per ogni i > j; • triangolare inferiore se aij = 0 per ogni i < j. Una matrice triangolare si dice completa se aii 6= 0 per ogni i. La trasposta di una matrice triangolare superiore è una triangolare inferiore. Nel seguito considereremo solo matrici triangolari superiori. Una matrice triangolare superiore ha quindi la forma 0 a11 a12 a13 B B 0 a22 a23 B B 0 0 a33 B B . .. .. B .. . . @ 0 0 0 | ... ... ... .. . a1m a2m a3m .. . . . . amm {z m 0 a11 a12 a13 B B 0 a22 a23 B B 0 0 a33 B B . .. .. B .. . . B B B 0 0 0 B B 0 0 0 B B . . .. B .. .. . @ 0 0 0 1 a1n C a2n C C a3n C C .. C . C A . . . amn ... ... ... } | {z } n m (se m n) 1 9 . . . a1n > > C > > C . . . a2n C > > = C . . . a3n C n > > .. C .. > C . . C > > ; C > C . . . ann C 9 ... 0 C C > = .. C C m . A > ; ... 0 n (se m > n) Notiamo che se A 2 Mn (R) è una matrice quadrata triangolare superiore, ripetendo n volte lo sviluppo di Laplace rispetto alla prima colonna si ottiene: |A| = a11 a22 a23 a24 0 a33 a34 0 0 a44 .. .. .. . . . 0 0 0 = a11 a22 a33 . . . a2n a33 a34 . . . a3n 0 a44 . . . a4n = a11 a22 . .. .. . .. .. . . 0 0 . . . ann . . . a3n . . . a4n . . . .. . . . . ann a44 . . . a4n . . . .. = . . . = a a a · · · a . 11 22 33 nn 0 . 0 . . . ann 77 Il determinante di A è quindi il prodotto degli elementi sulla sua diagonale principale. Il determinante è diverso da zero (e quindi, per il teorema 10.3.3, A è invertibile) se e solo se aii 6= 0 8 i, ovvero se e solo se A è una matrice triangolare completa. Determinante di matrici triangolari 11.2 Il metodo di eliminazione di Gauss E’ possibile e↵ettuare delle operazioni elementari su un sistema di m equazioni lineari che permettono di ottenere un sistema equivalente, ovvero con le stesse soluzioni (vedere pagina 15). Se E è la matrice completa del sistema, ed E1 , . . . , Em le sue righe, tali operazioni elementari corrispondono alle seguenti operazioni sulle righe di E: (I) scambiare fra di loro due righe Ei ed Ej , con i 6= j; (II) sostituire una riga Ei con Ei , con 6= 0; (III) sostituire una riga Ei con Ei + Ej , con i 6= j e 2 R. Se E è una matrice quadrata, per i punti 2 e 8 della proposizione 5.4.4, l’operazione (I) trasforma E in una nuova matrice E 0 con |E 0 | = |E|, mentre l’operazione (III) trasforma E in una nuova matrice E 0 con |E 0 | = |E|. Il metodo di eliminazione di Gauss permette di trasformare una qualsiasi matrice A = (aij ) 2 Rm,n in una triangolare superiore B usando le operazioni (I) e (III). Se A è una matrice quadrata, |B| = ±|A| ed il segno è positivo se si è usata la trasformazione (I) un numero pari di volte, altrimenti è negativo. Se A è la matrice completa di un sistema lineare (di m equazioni in n 1 incognite), B è la matrice completa di un sistema lineare equivalente. Il metodo consiste in p passi, con p = min(m 1, n). Se la prima colonna di A è nulla saltiamo direttamente al passo 2, altrimenti riordiniamo le righe in modo da ottenere una matrice A0 = (a0ij ) 2 Rm,n con a011 6= 0. Dette Ei le righe di A0 , chiamiamo A00 = (a00ij ) 2 Rm,n la matrice ottenuta da A0 sostituendo, per ogni i = 2, . . . , m, la riga Ei con Ei a0i1 (a011 ) 1 E1 ; notiamo che a00i1 = a0i1 a0i1 (a011 ) 1 a011 = 0. Il risultato del primo passo è quindi: 0 1 0 1 0 0 0 0 a a a . . . a1n a11 a12 a13 . . . a1n B 11 12 13 C B C B C B 0 a0022 a0023 . . . a002n C B a21 a22 a23 . . . a2n C B C B C 00 B 0 a00 a00 . . . a00 C C a a a . . . a A=B ! A = 31 32 33 3n 23 33 3n B C B C B . .. .. .. C B .. .. .. .. C . B @ . . . . A . . . C @ . A am1 am2 am3 . . . amn 0 a00m2 a00m3 . . . a00mn Il secondo passo consiste nel prendere la sottomatrice (m 1)⇥(n 1) di A00 evidenziata e applicare ad essa il primo passo, ottenendo una matrice A000 della forma: 78 Metodo di eliminazione di Gauss Passo 1 Passo 2 0 B B B B 000 A = B B B B @ a011 a012 a013 ... a01n 0 a000 22 a000 23 ... a000 2n 0 .. . 0 .. . a000 33 . . . a000 3n .. . 0 0 000 a000 m3 . . . amn .. . 1 C C C C C C C C A Il terzo passo consiste nel prendere la sottomatrice (m 2) ⇥ (n 2) di A000 evidenziata e applicare ad essa il primo passo. Si continua cosı̀ per fino ad ottenere una matrice triangolare superiore B (è evidente che il procedimento termina dopo m 1 passi se m n, o dopo n passi se m > n). Esempio 11.2.1. Applichiamo il metodo di 0 0 3 B A = @2 8 3 9 eliminazione di Gauss alla matrice 1 5 1 C 2 4A . 6 0 Dette Ei le righe, e↵ettuiamo in successione (primo passo): scambio di E1 con E3 ; sostituzione di E2 con E2 23 E3 . Si ottiene 0 1 3 9 6 0 E $E3 B C A 1 ! @2 8 2 4A 0 3 5 1 E2 !E2 0 3 9 B C B 2 2 2 2 ! @2 3 3 8 3 9 2 3 6 4 3 0A = @0 2 0 3 5 1 0 3 2 E 3 3 0 3 9 6 0 1 1 6 0 C 2 4A . 5 1 Siano Ei0 le righe della matrice ottenuta. Il secondo e ultimo passo consiste nel sostituire E30 con E30 32 E20 , ottenendo la matrice triangolare superiore 0 3 9 B B = @0 2 0 3 32 2 5 1 0 6 0 3 9 C B 2 4 A = @0 2 3 3 0 0 2 ( 2) 1 24 6 2 8 1 0 C 4A . 5 Esempio 11.2.2. Applichiamo il metodo di eliminazione di Gauss alla trasposta t A della matrice A dell’esercizio precedente. Siano Ei le righe di tA. Il primo passo consiste nello scambiare E1 con E4 , sostituire E2 con E2 3E4 ed E3 con E3 5E4 : 0 0 B B3 B B5 @ 1 2 8 2 4 1 3 C 9C C 6C A 0 0 1 B 3 E1 $E4 B !B B5 @ 0 4 8 2 2 1 0 C 9C C 6C A 3 E2 !E2 E3 !E3 0 1 0 1 4 0 1 3E4 B C B B 3 3 · 1 8 3 · 4 9 3 · 0C 5E4 B C B0 !B B5 5 · 1 2 5 · 4 6 5 · 0C = B0 @ A @ 0 2 3 0 79 4 4 18 2 1 0 C 9C C 6C A 3 Passo 3 Dette Ei0 le righe della matrice ottenuta, il secondo consiste nel sostituire E30 con E30 18 0 2 E2 ed E40 con E40 E 0 . Si ottiene la matrice: 4 4 2 0 1 1 4 0 B0 4 9 C B C B C . 69 @0 0 A 2 0 15 2 0 Dette Ei00 le righe della matrice ottenuta, il terzo e ultimo passo consiste nel sostituire 15 00 E400 con E400 E3 . Si ottiene in questo modo la matrice triangolare superiore 60 0 1 1 4 0 B0 4 9 C B C B=B C . 69 @0 0 A 2 0 0 0 Esercizio 11.2.3. Usando il metodo di eliminazione di Gauss, calcolare il determinante della matrice 0 1 0 3 5 B C A = @2 8 2 A 3 9 6 e verificare che si ottiene lo stesso risultato usando lo sviluppo di Laplace. Soluzione. Trasformiamo prima la matrice in una triangolare superiore T , quindi calcoliamo |T |. A meno di un segno, questo darà il determinante di A. Notiamo che la matrice A è formata dalle prime tre colonne della matrice dell’esempio 11.2.1. Procedendo come nell’esempio, dopo due passi si ottiene la matrice: 0 1 3 9 6 B C T = @0 2 2 A , 0 0 8 formata dalle prime tre colonne della matrice B dell’esempio 11.2.1. Il determinante di una matrice triangolare è il prodotto degli elementi sulla diagonale, quindi |T | = 3 · 2 · 8 = 48. Poiché nel primo passo abbiamo scambiato due righe (E1 ed E3 ) e nel secondo nessuna, il numero totale di scambi è dispari e |A| = |T | = 48. D’altra parte lo sviluppo di Laplace rispetto alla prima colonna di A dà |A| = 2 = 54 3 5 3 5 +3 9 6 8 2 102 = = 2(3 · 6 5 · 9) + 3(3 · 2 5 · 8) 48 , X come ci aspettavamo. 80 Esercizio 11.2.4. Usando il metodo di eliminazione di Gauss, calcolare il determinante della matrice 0 1 0 3 5 1 B2 8 2 4 C B C A=B C . @3 9 6 0 A 0 0 8 4 Soluzione. Notiamo che le prime tre righe di A formano la matrice dell’esempio 11.2.1. Procedendo come nell’esempio, dopo due passi si ottiene la matrice: 0 1 3 9 6 0 B0 2 2 4 C B C B C . @0 0 8 5A 0 0 8 4 Dette Ei0 le righe di quest’ultima matrice, l’ultimo passo consiste nel sostituire E40 con E40 E30 , ottenendo la matrice 0 1 3 9 6 0 B0 2 2 4 C B C T =B C . @0 0 8 5A 0 0 0 1 Quindi |T | = 3 · 2 · 8 · 1 = 48. Siccome abbiamo e↵ettuato uno scambio (E1 ed E3 nel primo passo), si ha |A| = |T | = 48. X Ripetiamo l’esercizio 5.3.2 usando il metodo di eliminazione di Gauss, e mostriamo come con questo metodo i calcoli siano estremamente più semplici. Esercizio 11.2.5. Dire per quali valori di a, b, c 2 R è nullo il determinante della matrice 0 1 1 a a2 B C A = @1 b b 2 A . 1 c c2 Soluzione. Dette Ei le righe di A, il primo passo è 0 1 1 a a2 E2 !E2 E1 E !E E1 B C A 2 2 ! A0 = @0 b a b2 a2 A . 0 c a c2 a2 Il secondo passo consiste nell’annullare il termine in posizione (3, 2). Per fare questo, dette Ei0 le righe di A0 , sostituiamo E30 con E30 cb aa E20 ed otteniamo 0 1 2 1 a a a 0 E30 !E30 cb a E2 B C A0 ! A00 = @0 b a b2 a2 A . 0 0 (c2 a2 ) cb aa (b2 a2 ) 81 Notiamo che b2 (c2 a2 ) a2 = (b c b a)(b + a). Quindi l’elemento in posizione (3, 3) è a 2 (b a a2 ) = (c2 = c(c Il risultato è: a2 ) (c b) a(c a)(b + a) = c2 bc b) = (c b) . a)(c ac + ab 0 1 1 a a2 B C A00 = @0 b a b2 a2 A . 0 0 (c a)(c b) Poiché non abbiamo e↵ettuato scambi di righe: |A| = |A00 | = (b a)(c a)(c b) . Il determinante è nullo se e solo se almeno due dei tre coefficienti sono uguali, ovvero se e solo se almeno due righe di A sono uguali. X 11.3 Sistemi ridotti e a scala Definizione 11.3.1. • Una matrice si dice ridotta per righe se ogni riga non nulla ha un elemento non nullo sotto il quale ci sono solo zeri (o meglio, sotto il quale non ci sono elementi diversi da zero). • Se A è una matrice ridotta per righe ed X una sua riga non nulla, chiamiamo speciale il primo elemento di X non nullo (da sinistra) sotto il quale ci sono solo zeri. Matrici ridotte Elementi speciali • Un sistema di equazioni lineari si dice ridotto se la matrice dei coefficienti è ridotta per righe. Sistemi ridotti • Un sistema di equazioni lineari si dice a scala se la matrice dei coefficienti è triangolare superiore completa8 . Sistemi a scala Un esempio di matrice ridotta per righe 0 0 7 B B1 3 B A=B B0 0 B @0 4 0 0 è: 5 0 0 2 4 0 0 0 0 11 13 0 0 1 0 Gli elementi speciali sono evidenziati in rosso. 8 1 3 C 0C C 0C C . C 0A 0 (11.1) In realtà la definizione di sistema a scala è un po’ più generale di cosı̀, ma a noi interesseranno solo questo tipo di sistemi. 82 Osservazione 11.3.2. Una matrice è ridotta per righe se e solo se eliminando le righe nulle e riordinando le colonne si ottiene una matrice triangolare superiore completa. Per trasformare una matrice ridotta per righe in una a triangolare superiore completa è sufficiente, dopo aver eliminato le righe nulle, riordinare le colonne in modo che gli elementi speciali siano sulla diagonale principale. Ad esempio per la matrice (11.1), basta eliminare la terza riga, quindi scambiare la terza colonna con la quarta e mettere l’ultima colonna al primo posto: 0 1 0 1 0 7 5 0 0 3 3 0 7 0 5 0 B1 3 2 4 0 0 C B 0 1 3 4 2 0C B C B C A ! B ! A0 = B C C . @ 0 4 11 13 0 0 A @ 0 0 4 13 11 0A 0 0 0 1 0 0 0 0 0 1 0 0 I sistemi ridotti sono i più semplici da risolvere. Prima di discutere il metodo generale, studiamo l’esempio in cui la matrice dei coefficienti è la matrice A in (11.1). Si consideri il sistema 8 > 0x1 + 7x2 + 5x3 + 0x4 + 0x5 + 3x6 = 6 > > > > > > < 1x1 + 3x2 + 2x3 + 4x4 + 0x5 + 0x6 = 0 0x1 + 0x2 + 0x3 + 0x4 + 0x5 + 0x6 = > > > > 0x1 + 4x2 + 11x3 + 13x4 + 0x5 + 0x6 = 9 > > > : 0x1 + 0x2 + 0x3 + 1x4 + 0x5 + 0x6 = 2 dove 2 R è un parametro. La terza equazione è del tipo 0 = e se 6= 0 il sistema è incompatibile. Studiamo quindi il caso = 0 e facciamo vedere che è compatibile determinandone le soluzioni. La terza equazione è del tipo 0 = 0 e può essere eliminata. Il valore di x5 è arbitrario, in quanto moltiplica zero in tutte le equazioni. Riordinando le variabili si ottiene un sistema la cui matrice dei coefficienti è la matrice A0 qui sopra: 8 3x6 + 7x2 + 5x3 = 6 > > > > < 1x1 + 3x2 + 4x4 + 2x3 = 0 > 4x2 + 13x4 + 11x3 = 9 > > > : 1x4 =2 Per risolvere le equazioni rimaste, procediamo dal basso verso l’alto risolvendo ciascuna equazione rispetto alla variabile che moltiplica l’elemento speciale, quindi sostituiamo l’espressione ottenuta nelle equazioni rimanenti. Al primo passo si ottiene x4 = 2, che sostituito nelle equazioni rimanenti dà 8 > + 7x2 + 5x3 = 6 > < 3x6 > > : 1x1 + 3x2 + 2x3 = 4x2 + 11x3 = 9 83 4x4 = 8 13x4 = 15 15 4 La soluzione della terza equazione è x2 = ( 3x6 11 x, 4 3 57 x 4 3 25 x 4 3 1x1 = = e sostituita nelle prime due dà 129 4 13 4 la cui soluzione è x6 = 13 + 25 x . e x6 = 43 + 19 x. 4 4 3 4 4 3 Detto x3 = t1 e x5 = t2 , la soluzione generale è quindi: (x1 , . . . , x6 ) = 13 4 + 25 t, 4 1 15 4 11 t , t , 2, t2 , 43 4 1 1 4 + 19 t 4 1 (11.2) e dipende da due parametri t1 , t2 2 R. L’espressione (11.2) è detta rappresentazione parametrica delle soluzioni del sistema, in quanto le incognite sono espresse in termini di t1 e t2 , detti parametri liberi: ogni volta che fissiamo un valore per questi parametri otteniamo una soluzione particolare del sistema. Il metodo illustrato si generalizza facilmente. Metodo di sostituzione delle variabili Consideriamo un sistema di equazioni lineari a scala. Sia A = (aij ) 2 Rm,n la matrice dei coefficienti (triangolare superiore completa) e B = t (b1 , b2 , . . . , bn ) la matrice dei termini noti. Abbiamo tre casi 1. m n; 2. m > n e bn+1 = bn+2 = . . . = bm = 0: in tal caso possiamo eliminare le equazioni nulle ed ottenere un sistema equivalente di n equazioni in n incognite; 3. m > n ed i coefficienti bn+1 , bn+2 , . . . , bm non sono tutti nulli: in questo caso il sistema è incompatibile in quanto almeno una equazione è del tipo 0 = bi . Mostreremo che nei primi due casi il sistema è compatibile in maniera costruttiva, determinando le sue soluzioni. A meno di eliminare equazioni del tipo 0 = 0, possiamo assumere che sia m n. Il sistema ha quindi la forma: 8 > a11 x1 + a12 x2 + a13 x3 + . . . + a1m xm + . . . + a1n xn = b1 > > > > > a22 x2 + a23 x3 + . . . + a2m xm + . . . + a2n xn = b2 > < a33 x3 + . . . + a3m xm + . . . + a3n xn = b3 > > .. .. .. > .. > . > . . . > > : amm xm + . . . + amn xn = bn con aii 6= 0 8 i = 1, . . . , m. Un sistema di questo tipo si può risolvere dal basso verso l’alto. Siccome amm 6= 0, possiamo esprimere xm in funzione di xm+1 , . . . , xn : xm = 1 amm (am,m+1 xm+1 + am,m+2 xm+2 + amn xn 84 bn ) . Rappresentazione parametrica Parametri liberi Soluzione di sistemi a scala Sostituendo tale espressione nelle equazioni rimanenti eliminiamo xm dalle equazioni ed otteniamo un sistema a scala con m 1 equazioni ed n 1 incognite. Scriviamo quindi xm 1 in funzione di xm+1 , xm+2 , . . . , xn e sostituiamo nelle equazioni rimanenti, eliminando anche xm 1 ed ottenendo un sistema di m 2 equazioni ed n 2 incognite. Continuando in questo modo, dopo m le incognite x1 , . . . , xm sono espresse tutte in funzione di xm+1 , xm+2 , . . . , xn , e per ogni scelta di n m parametri reali t1 , t2 , . . . , tn m , ponendo xm+1 = t1 , xm+2 = t2 , . . . , xn = tn m si ottiene una soluzione. Osservazione 11.3.3. Un sistema a scala è compatibile se e solo se non ha equazioni del tipo 0 = , dove è un termine noto diverso da zero. Eliminando le equazioni nulle, un sistema a scala compatibile può essere sempre trasformato in uno equivalente di m equazioni ed n incognite, con m n. La soluzione generale di tale sistema dipende da n m parametri reali; in particolare, la soluzione è unica se n = m. Risoluzione di un sistema ridotto Consideriamo un sistema di matrice completa (A|B), con A ridotta per righe. A meno di eliminare equazioni nulle, possiamo assumere che (A|B) non abbia righe nulle. In questo caso, se A ha righe nulle, allora almeno un’equazione è del tipo 0 = , con termine noto non nullo, e il sistema è incompatibile. Viceversa se A non ha righe nulle, possiamo riordinare le incognite in modo da trasformare il sistema in uno a scala equivalente (facendo corrispondere gli elementi speciali alla diagonale principale), di matrice completa (A0 |B). Notiamo che una matrice A0 2 Rm,n triangolare superiore completa e senza righe nulle ha sempre m n. Il sistema di matrice completa (A0 |B) può essere risolto con il metodo di sostituzione delle variabili (è compatibile, essendo m n). Possiamo quindi concludere che: Proposizione 11.3.4. • Un sistema ridotto è compatibile se e solo se non ha equazioni del tipo 0 = , con termine noto non nullo. • Un sistema ridotto compatibile si può risolvere trasformandolo in uno a scala e applicando il metodo di sostituzione delle variabili. In questo caso: I la soluzione generale dipende da n m parametri, dove n è il numero di incognite ed m il numero di righe non nulle del sistema di partenza; I la soluzione è unica se e solo se n = m; I se il sistema è omogeneo, l’insieme delle soluzioni è un sottospazio vettoriale W ✓ Rn di dimensione n m (su questo punto torneremo più avanti). Se n = m, W = {0} e l’unica soluzione è quella nulla. 85 Soluzione di sistemi ridotti Notiamo che per risolvere un sistema ridotto non è necessario riordinare le colonne e trasformarlo in uno a scala. Si può risolvere direttamente per sostituzione, dal basso verso l’alto, risolvendo ciascuna equazione nell’incognita che moltiplica l’elemento speciale di quella riga. Le incognite che non moltiplicano elementi speciali corrispondono a parametri liberi. Esercizio 11.3.5. Risolvere il sistema 8 > > < 2x1 + x2 + 2x3 + 1x4 = 1 2x1 + 3x2 x3 = 3 > > : 1x + x3 = 0 1 Soluzione. Notiamo che il sistema è compatibile, in quanto non ha equazioni del tipo 0 = b, con b termine noto non nullo. La soluzione generale dipenderà da n m = 1 parametro (n = 4 sono le incognite e m = 3 le equazioni non nulle). Risolviamo dal basso verso l’alto rispetto all’incognita che moltiplica l’elemento speciale, evidenziato in rosso. Dall’ultima equazione si ottiene x1 = x3 , e sostituendo nelle rimanenti due: ⇢ 2x3 + x2 + 2x3 + 1x4 = 1 2x3 + 3x2 ovvero semplificando ⇢ x3 x2 3x2 = 3 + 1x4 = 1 3x3 = 3 Dalla seconda equazione si ricava x2 = x3 +1, che sostituita nella prima dà x3 +1+1x4 = 1, ovvero x4 = x3 . Detto x3 = t, le soluzioni sono date da (x1 , x2 , x3 , x4 ) = ( t, t + 1, t, t) X per ogni valore del parametro t 2 R. 86 Lezione XII Riduzione di sistemi lineari Sommario: riduzione di una matrice; soluzione di un sistema lineare generale; calcolo dell’inversa di una matrice per riduzione e con il metodo di eliminazione di Gauss. Esempi ed esercizi. 12.1 Riduzione di una matrice In questa sezione spieghiamo come trasformare una matrice E in una matrice F ridotta per righe, usando l’operazione (III) di pagina 78. Il metodo è una variante del metodo di eliminazione di Gauss. Sia E = (aij ) 2 Rm,n , Ei1 la prima riga non nulla di E e sia ai1 j1 il primo elemento non nullo di Ei1 . Per ottenere una matrice E 0 = (a0ij ) che abbia tutti zeri sotto l’elemento a0i1 j1 e↵ettuiamo la sostituzione Ek ! Ek (ai1 j1 ) 1 akj1 Ei1 per ogni k > i1 . L’elemento ai1 j1 è un elemento speciale della matrice E 0 . Notiamo che a0ij = aij per ogni i i1 , e che l’elemento a0i1 j1 ha tutti zeri sotto di lui. Sia ora Ei02 la prima riga non nulla di E 0 con i2 > i1 , e sia ai2 j2 il primo elemento non nullo di Ei02 . Con la sostituzione Ek0 ! Ek0 (a0i2 j2 ) 1 a0kj2 Ei02 , per ogni k > i2 , otteniamo una matrice E 00 = (a00ij ) che ha a00ij = a0ij per ogni i i2 , e tale che l’elemento a00i1 j1 ha tutti zeri sotto di lui. Iterando il procedimento dopo un numero finito di passi (al più m) si ottiene una matrice F ridotta per righe, in quanto ogni riga non nulla ha almeno un elemento con tutti zeri sotto. Esempio 12.1.1. Riduciamo la matrice 0 2 1 B A=@ 3 1 0 1 Si ha i1 = j1 = 1 ed il primo passo è quindi 0 A 2 B 0 !A =@ 0 0 E2 !E2 32 E1 E3 !E3 0E1 87 1 1 C 1 A 9 1 1 1 1 1 1 1 2 5 2 5 2 1 1 9 1 C A Riduzione di una matrice Quindi i2 = j2 = 2 ed il secondo passo è 0 2 0 0 0 B 0 E3 !E3 +2E2 00 A !A =@ 0 0 1 1 1 1 2 5 2 5 2 0 6 4 A00 è la matrice ridotta cercata. Esempio 12.1.2. Riduciamo la matrice 0 0 B 3 B A=B @ 0 4 1 1 4 3 2 1 8 6 1 9 7 5 Stavolta i1 = 1, j1 = 2 ed il primo passo è A E2 !E2 +E1 E3 !E3 4E1 E4 !E4 +3E1 0 B B !A =B @ 0 0 3 0 4 1 0 0 0 La seconda riga ha già un elemento speciale, quindi Evidentemente i3 = 3 e j3 = 4. L’ultimo passo è 0 0 1 B E40 !E40 83 E30 B 3 0 A0 ! A00 = B @ 0 0 4 0 1 C A 1 C C C A 2 1 0 0 1 8 3 8 1 C C C A possiamo saltare al terzo passo. 2 1 0 0 La matrice A00 è ridotta per righe. 1 8 3 0 1 C C C A 12.2 Soluzione di sistemi lineari generali Dato un sistema di matrice completa E = (A|B), possiamo trasformarlo in un sistema equivalente di matrice F = (A0 |B 0 ) tale che A0 è ridotta per righe, usando il metodo illustrato nella sezione precedente. Tale sistema può quindi essere risolto con il metodo di sostituzione delle variabili. Attenzione: in questo caso ci interessa ridurre per righe solo la matrice dei coefficienti. Osservazione 12.2.1. Se F = (A0 |B 0 ) è ridotta per righe, A0 non è necessariamente ridotta per righe. Ad esempio: ! 0 1 1 F = (A0 |B 0 ) = 1 1 0 88 Soluzione di sistemi lineari generali è ridotta per righe, ma A0 non lo è in quanto 0 A = ✓ 0 1 1 1 0 3 0 4 1 1 4 3 ◆ e la prima riga non ha elementi speciali. Esempio 12.2.2. Sia 0 B B E = (A|B) = B @ 2 1 8 6 1 1 9 7 5 C C C A Usando la solita operazione (III) trasformiamo E in una matrice F = (A0 |B 0 ) con A0 ridotta per righe. Il primo elemento non nullo della prima riga è 1, in posizione (1, 2). Usiamo (III) in modo da far venire tutti zeri sotto questo elemento. Il primo passo è 0 1 E2 !E2 +E1 0 1 2 1 E3 !E3 4E1 B 3 0 1 8 C E !E +3E1 B C E 4 4 ! F = (A0 |B 0 ) = B C @ 0 0 0 3 A 4 0 0 8 La matrice F è la matrice cercata. Notiamo che A0 è ridotta per righe (ha un elemento speciale in tutte le righe esclusa la terza, che è nulla), mentre F non è ridotta per righe (la terza riga di F è non nulla e non ha elementi speciali). Notiamo che la matrice di questo esempio è la stessa dell’esempio 12.1.2, solo che stavolta ci siamo fermati al primo passo perché interessati a ridurre solo le prime tre colonne, e non la matrice completa. Esercizio 12.2.3. Dire per quali valori di b 2 R il 8 > > < 2x1 + x2 + x3 x1 x2 x3 > > : x + 2x + 2x 1 2 3 sistema = 1 = 0 = b è compatibile, e per tali valori determinarne le soluzioni. Soluzione. Usando (III) trasformiamo la matrice completa 0 1 2 1 1 1 B C E = (A|B) = @ 1 1 1 0 A 1 2 2 b 89 in una matrice F = (A0 |B 0 ), con A0 ridotta per righe. Il primo elemento non nullo della prima riga è 2, in posizione (1, 1). Il primo passo è 0 1 E2 !E2 + 12 E1 2 1 1 1 E3 !E3 12 E1 B C 1 1 1 E ! E0 = @ 0 A 2 2 2 3 3 1 0 b 2 2 2 Usiamo l’operazione (II), che pure trasforma plificare le righe con coefficienti non interi: 0 E20 !2E20 2 0 0 B 0 E3 !2E3 00 E !E =@ 0 0 un sistema in uno equivalente, per sem- 1 1 3 Il primo elemento non nullo della seconda riga è successivo è 0 2 00 00 00 B 0 0 00 E2 !E3 +3E2 E ! F = (A |B ) = @ 0 0 1 1 1 C 1 1 A 3 2b 1 1 in posizione (2, 2). Il passo 1 1 0 1 1 1 C 1 1 A 0 2b + 2 La matrice A0 è ridotta per righe. Un sistema ridotto equivalente a quello di partenza è quindi: 8 > > < 2x1 + x2 + x3 = 1 1x2 x3 = 1 > > : 0 = 2b + 2 Per la proposizione 11.3.4 il sistema è compatibile se e solo se = 2b + 2 = 0, ovvero b = 1. In quest’ultimo caso, procedendo per sostituzione si ottiene: x3 = t 2 R arbitrario, x2 = x3 1 = t 1, x1 = 12 (1 x2 x3 ) = 1. La soluzione generale è quindi: (x1 , x2 , x3 ) = (1, t 1, t) X e dipende da un parametro t 2 R. 12.3 Calcolo dell’inversa di una matrice per riduzione Sia A = (aij ) 2 Mn (R) una matrice quadrata. Possiamo calcolare l’inversa (se esiste) come segue. Una matrice X = (xij ) 2 Mn (R) è inversa di A se risolve il sistema di equazioni lineari (di n2 equazioni nelle n2 incognite xij ): A · X = In . 90 Possiamo trasformare il sistema in uno equivalente riducendo la matrice (A|In ), e quindi risolverlo per sostituzione. Illustriamo questo metodo calcolando l’inversa della matrice 0 1 0 3 0 B C A = @5 9 7 A 5 6 8 Abbiamo 0 1 0 3 0 1 0 0 B C E = (A|I3 ) = @ 5 9 7 0 1 0 A 5 6 8 0 0 1 Evidentemente i1 = 1 e j1 = 2. Dette Ei le righe 0 0 3 E2 !E2 3E1 E3 !E3 2E1 B 0 E !E =@ 5 0 5 0 della matrice E, il primo passo è 1 0 1 0 0 C 7 3 1 0 A 8 2 0 1 Notiamo che i2 = 2 e j2 = 1. Dette Ei0 le righe di E 0 , 0 0 3 B 0 E3 !E3 E2 00 00 00 E ! E = (A |B ) = @ 5 0 0 0 il passo successivo è 1 0 1 0 0 C 7 3 1 0 A 1 1 1 1 Dobbiamo ora risolvere il sistema A00 X = B 00 , ovvero svolgendo colonne: 0 1 0 3x21 3x22 3x23 1 B C B @5x11 + 7x31 5x12 + 7x32 5x13 + 7x33 A = @ 3 x31 x32 x33 1 Risolvendo dal basso verso l’alto per sostituzione si trova: 0 1 8 7 2 5 5 B C A 1 = X = @ 13 0 0 A 1 1 1 il prodotto righe per 1 0 0 C 1 0A 1 1 Si può verificare che la matrice trovata è e↵ettivamente l’inversa di A. 12.4 Determinare una base per riduzione Proposizione 12.4.1. Sia A = (aij ) 2 Rk,n una matrice triangolare superiore completa ed Ei = (0, . . . , 0, aii , ai,i+1 , . . . , ain ) 2 Rn le sue righe, con i = 1, . . . , k e k n. I vettori Ei sono linearmente indipendenti. 91 Dimostrazione. La condizione x1 E 1 + x2 E 2 + . . . + xk E k = 0 è equivalente al sistema di n equazioni in k incognite: 8 > a11 x1 > > > > > a12 x1 + a22 x2 > > > < a13 x1 + a23 x2 + a33 x3 > a1k x1 + a2k x2 + a3k x3 + . . . + akk xk > > > .. > > . > > > : a x + a x + a x + ... + a x 1n 1 2n 2 3n 3 kn k = = = = 0 0 0 0 .. . = 0 Notiamo che la matrice dei coefficienti è la trasposta di A. Risolvendo dall’alto verso il basso: poiché a11 6= 0, deve essere x1 = 0; sostituendo x1 = 0 nelle altre equazioni, dalla seconda equazione, poiché a22 6= 0, ricaviamo x2 = 0; procedendo in questo modo si dimostra che l’unica soluzione del sistema è x1 = x2 = . . . = xk = 0, ovvero i vettori Ei sono linearmente indipendenti. ⌅ Corollario 12.4.2. Le righe non nulle di una matrice ridotta per righe sono vettori linearmente indipendenti (per l’osservazione 11.3.2). Il metodo di riduzione di una matrice può essere usato per calcolare la dimensione di un sottospazio di Rn . Più in generale può essere usato per calcolare la dimensione di un sottospazio di uno spazio vettoriale V di cui si conosca una base. Siano Xi = (ai1 , ai2 , . . . , ain ) 2 Rn dei vettori, con i = 1, . . . , k, e sia W ✓ Rn il sottospazio generato da tali vettori. Evidentemente detta A è la matrice che ha Xi come righe, ed Xi0 le righe di una matrice ridotta A0 ottenuta da A usando (III), allora W = L(X1 , . . . , Xk ) = L(Xi0 , . . . , Xk0 ). I vettori non nulli dell’insieme {Xi0 , . . . , Xk0 }, essendo linearmente indipendenti (cor. 12.4.2) sono una base di W . Un discorso analogo vale se Xi sono le n-uple delle componenti di vettori vi 2 V in una base B fissata, con n = dim(V ). Esercizio 12.4.3. Determinare una base del sottospazio W di R3 generato dai vettori v1 = (1, 0, 2) , v2 = ( 1, 1, 3) , v3 = (2, 1, 3) . Esprimere tali vettori come combinazione lineare dei vettori della base trovata. Soluzione. Sia A la matrice che ha per righe vi : 0 1 1 0 2 B C A=@ 1 1 3A . 2 1 3 92 Riduciamo la matrice A: A 0 1 2 C 1A 1 1 0 B 0 !A =@0 1 0 1 E2 !E2 +E1 E3 !E3 2E1 E30 !E30 0 1 0 E20 B 00 !A =@0 1 0 0 1 2 C 1A , 0 dove abbiamo chiamato Ei = vi le righe di A ed Ei0 le righe di A0 . Una base di W è data dalle righe non nulle di A00 , ovvero i vettori w1 = (1, 0, 2) , w2 = (0, 1, 1) . Le componenti dei vettori vi nella base B = (w1 , w2 ) sono date da v1 = (1, 0)B , v2 = ( 1, 1)B , v3 = (2, 1)B . X Esercizio 12.4.4. Determinare una base del sottospazio W di M2 (R) generato dalle matrici ✓ ◆ ✓ ◆ ✓ ◆ 1 2 1 5 2 7 A1 = , A2 = , A3 = . 3 0 3 1 6 1 Determinare le componenti di tali matrici nella base trovata. Soluzione. Sia B la base canonica di M2 (R). In tale base A1 = (1, 2, 3, 0)B , Riduciamo la matrice E 0 1 B E =@1 2 A2 = (1, 5, 3, 1)B , A3 = (2, 7, 6, 1)B . 2 R3,4 che ha per righe le 4-uple delle componenti di A1 , A2 , A3 : 1 0 1 2 3 0 1 2 3 0 E2 !E2 E1 C E3 !E3 2E1 0 B C !E =@0 3 0 1A 5 3 1A 7 6 1 0 3 0 1 0 1 1 2 3 0 E3 !E3 E1 B C ! E 00 = @ 0 3 0 1 A . 0 0 0 0 La matrice E 00 è ridotta, le sue righe non nulle: B1 = (1, 2, 3, 0)B = ✓ 1 2 3 0 ◆ , B2 = (0, 3, 0, 1)B = ✓ 0 3 0 1 ◆ , formano una base B 0 = (B1 , B2 ) di W . Si può verificare che in questa base: A1 = (1, 0)B0 , A2 = (1, 1)B0 , 93 A3 = (2, 1)B0 . X 12.5 Inversa di una matrice con il metodo di Gauss Abbiamo visto come si calcola l’inversa di una matrice A = (aij ) 2 Mn (R) per riduzione. Un metodo alternativo è l’algoritmo di Gauss: invece di trasformare (A|In ) in una matrice ridotto, la si può trasformare in una matrice 0 1 a011 a012 . . . a01n b011 . . . b01n B C B 0 a022 . . . a02n b021 . . . b02n C 0 0 B (A |B ) = B . .. . . .. .. .. C C . . . . . . A @ . 0 0 . . . a0nn b0n1 . . . b0nn triangolare superiore. A è invertibile se e solo se A0 è triangolare superiore completa (poiché deve essere |A0 | = 6 0), ed in questo caso il sistema A0 X = B 0 si può risolvere dal basso verso l’alto per sostituzione. La soluzione X = (xij ) dà l’inversa di A. Esempio 12.5.1. Sia A= Con il metodo di Gauss troviamo ! 1 2 1 0 (A|I2 ) = 2 4 0 1 ✓ 1 2 2 4 ◆ . 1 2 0 0 E2 !E2 2E1 ! (A0 |B 0 ) = 1 0 2 1 ! . Dunque la matrice non è invertibile (come si poteva anche capire dal fatto che le righe di A sono proporzionali, quindi il determinante è nullo). Esercizio 12.5.2. Determinare l’inversa della matrice ✓ ◆ 1 2 A= . 1 1 Soluzione. Con il metodo di Gauss troviamo ! 1 2 1 0 E2 !E2 +E1 (A|I2 ) = ! (A0 |B 0 ) = 1 1 0 1 Il sistema 0 A ·X = ✓ x11 + 2x21 x12 + 2x22 3x21 3x22 ◆ ha soluzione A 1 =X= 94 1 3 1 3 2 3 1 3 0 =B = ! 1 2 1 0 0 3 1 1 ✓ 1 0 1 1 ! . ◆ X Lezione XIII Applicazioni lineari Sommario: applicazioni lineari e matrici rappresentative; proprietà elementari; nucleo, immagine e teorema della dimensione. 13.1 Definizione e prime proprietà Definizione 13.1.1. Una applicazione f : V ! W fra due spazi vettoriali V, W si dice lineare se per ogni v1 , v2 2 V e 1 , 2 2 R si ha f ( 1 v1 + 2 v2 ) = 1 f (v1 ) + 2 f (v2 ) Applicazioni lineari (13.1) Nel caso in cui V = W , l’applicazione f è detta endomorfismo di V . Endomorfismi Come nel caso di applicazioni generali, V è detto dominio e W è detto codominio di f . Due applicazioni lineari f, g sono uguali se hanno lo stesso dominio V , lo stesso codominio W , e f (v) = g(v) per ogni v 2 V . Data una applicazione lineare f : V ! W , un vettore w 2 W si dice immagine di v 2 V tramite f se f (v) = w. Esempio 13.1.2. Sia V = C k (R) lo spazio delle funzioni R ! R di classe k (funzioni derivabili k volte e con derivate continue, se k 1; funzioni continue se k = 0). La derivazione df D : f 7! D[f ] = dx k k 1 è una applicazione lineare da C (R) a C (R), per ogni k 1. La derivazione è un endomorfismo dello spazio delle funzioni di classe C 1 . Esempio 13.1.3. Sia V = C 0 ([0, 1]) lo spazio delle funzioni continue [0, 1] ! R. L’integrale Z 1 I : f 7! I[f ] = f (x)dx 0 è una applicazione lineare da V in R. Esempio 13.1.4. Sia S un insieme e V = Fun(S, R) lo spazio delle funzioni da S in R. Ad ogni x0 2 S è associata una applicazione lineare evx0 : V ! R detta valutazione in x0 , data da evx0 [f ] = f (x0 ) . Esempio 13.1.5. L’applicazione f : R ! R, f (x) = x2 , non è lineare. Infatti, ad esempio, 9 = f (1 + 2) 6= f (1) + f (2) = 1 + 4 = 5. 95 Derivata Integrale Esempio 13.1.6. Ad ogni matrice A 2 Rm,n , e per ogni p, q interi positivi, sono associate due applicazioni lineari LA : Rn,p ! Rm,p e RA : Rq,m ! Rq,n come segue: LA (B) = A · B 8 B 2 Rn,p , RA (C) = C · A 8 C 2 Rq,m . La linearità segue dalla bilinearità del prodotto righe per colonne (prop. 10.2.3). Dalla stessa proposizione segue che LA+A0 = LA + LA0 , L A = LA , RA+A0 = RA + RA0 , R A = RA , per ogni 2 R e A, A0 2 Rm,n . Dall’associatività del prodotto (prop. 10.2.1) segue che per ogni A 2 Rm,n e B 2 Rn,r : LA LB = LA·B , RB RA = RA·B , (13.2) dove ‘ ’ indica come al solito la composizione di applicazioni (definizione 1.3.9). Segue dalla prop. 10.2.2 che LIm (B) = B , RIn (B) = B , per ogni B 2 Rm,n , ovvero la matrice identica corrisponde alla applicazione identica (definita a pagina 6). Sia A 2 Mn (R). Da (13.2) segue che LA è una applicazione invertibile se e solo se A è una matrice invertibile, e l’inversa è data da (LA ) 1 = LA 1 . Stesso discorso vale per RA . Esempio 13.1.7. Come caso particolare dell’esempio precedente, per ogni A 2 Rm,n abbiamo: • una applicazione lineare RA : Rm ! Rn , dove gli elementi di Rm ed Rn sono scritti come vettori riga e RA (X) = X · A per ogni X = (x1 , . . . , xm ) 2 Rm ; • una applicazione lineare LA : Rn ! Rm , dove gli elementi di Rm ed Rn sono scritti come vettori colonna e LA (Y ) = A · Y per ogni Y = t (y1 , . . . , yn ) 2 Rn . Esempio 13.1.8. Siano V e W due spazi vettoriali di dimensione n ed m rispettivamente. Possiamo allora scegliere una base B = (v1 , . . . , vn ) di V ed una base B 0 = (w1 , . . . , wm ) di W . Ad ogni matrice A = (aij ) 2 Rm,n è associata una 0 applicazione lineare, che indicheremo con LB,B A , data da Xm Xn 0 LB,B ( v + v + . . . + v ) = aij j wi . 1 1 2 2 n n A i=1 j=1 In altre parole, se ( 1 , 2 , . . . , n )B sono le componenti del vettore v nella base B, le 0 0 componenti (µ1 , µ2 , . . . , µm )B0 del vettore w = LB,B A (v) nella base B sono date da 0 1 0 10 1 0 1 µ1 a11 a12 . . . a1n 1 1 B C B CB C B C B µ2 C B a21 a22 . . . a2n C B 2 C B 2C B . C=B . B C B C .. .. C B . C B . C B .. C = LA B .. C . . . A@ . A @ . A @ . @.A µm am1 am2 . . . amn 96 n n Matrici Proposizione 13.1.9. Sia f : V ! W una applicazione lineare. Allora: 1. f (0V ) = 0W . 1, per ogni v1 , . . . , vn 2 V e per ogni 2. per ogni n f ( 1 v1 + 2 v2 + ... + n vn ) = 1 f (v1 ) + 1, . . . , 2 f (v2 ) n 2 R, si ha + ... + n f (vn ) . (13.3) Dimostrazione. Usando (13.1) nel caso particolare in cui 1 = 2 = 0 e v1 = v2 = 0V si ottiene f (0V ) = f (0 · 0V + 0 · 0V ) = 0 · f (0V ) + 0 · f (0V ) = 0W , ovvero il primo punto. Il secondo punto si dimostra per induzione. Usando (13.1) nel caso particolare in cui 2 = 0 si ottiene l’a↵ermazione per n = 1: f ( 1 v1 ) = 1 f (v1 ). Supponiamo ora che sia vera per n, allora detto v0 = 1 v1 + 2 v2 + . . . + n vn si ha f ( 1 v1 + 2 v2 + ... + = f (v0 ) + n vn + n+1 f (vn+1 ) = n+1 vn+1 ) 1 f (v1 ) = f (v0 + + 2 f (v2 ) n+1 vn+1 ) + ... + n f (vn ) + n+1 f (vn+1 ) dove la seconda uguaglianza segue da (13.1) e la terza è l’ipotesi induttiva. , ⌅ Esempio 13.1.10. L’applicazione f : R ! R data da f (x) = x + 2 non è lineare, in quanto f (0) 6= 0. Corollario 13.1.11. Se V è finitamente generato, una applicazione lineare f : V ! W è completamente determinata dai valori assunti sugli elementi di una qualunque base di V . Se infatti B = (v1 , . . . , vn ) è una base, ogni v 2 V si scrive in modo unico come combinazione lineare v = 1 v1 + 2 v2 + . . . + n vn e da (13.3) segue che f (v) = 1 f (v1 ) + 2 f (v2 ) + ... + n f (vn ) . Lemma 13.1.12. Sia V uno spazio di dimensione finita n, e sia B = (v1 , . . . , vn ) una base di V . Due applicazioni lineari f, g : V ! W sono uguali se e solo se 8 i = 1, . . . , n . f (vi ) = g(vi ) (13.4) Dimostrazione. L’implicazione “)” è ovvia. L’implicazione “(” è immediata conseguenza della linearità di f e g: per ogni v = 1 v1 + 2 v2 + . . . + n vn si ha f (v) = 1 f (v1 ) + 2 f (v2 ) + . . . + n f (vn ) = 1 g(v1 ) + 2 g(v2 ) + . . . + n g(vn ) = g(v) , dove la prima uguaglianza segue dalla linearità di f , l’ultima da quella di g e la seconda uguaglianza è (13.4). ⌅ 97 Proposizione 13.1.13. Sia f : V ! W è una applicazione lineare fra due spazi di dimensione finita, n = dim(V ) e m = dim(W ). Per ogni scelta di una base B = (v1 , . . . , vn ) di V e di una base B 0 = (w1 , . . . , wm ) di W possiamo trovare una (unica) 0 matrice A = (aij ) 2 Rm,n tale che f = LB,B A . L’elemento aij è dato dalla i-esima componente di f (vj ) nella base B 0 . Dimostrazione. f (vj ) 2 W si scrive in modo unico come combinazione lineare dei P vettori wi . Chiamiamo aij le componenti, ovvero f (vj ) = m i=1 aij wi . Allora f (vj ) = 0 B,B0 LA (vj ) per ogni vettore di base e per il corollario 13.1.11 si ha f = LB,B ⌅ A . Se f : V ! W è una applicazione lineare, B è una base di V e B 0 è una base di W , la 0 matrice A tale che f = LB,B è detta matrice rappresentativa di f rispetto alle basi A 0 B e B . Se V = W , chiameremo matrice rappresentativa di f nella base B la matrice A tale che f = LB,B A . Esercizio 13.1.14. Sia B = (1, 0), (0, 1) la base canonica di R2 e B 0 la base B 0 = v1 = (1, 1), v2 = (1, 4) . Data l’applicazione lineare f : R2 ! R2 , ✓ ◆ ✓ ◆ x 5x + y f = , y 4x + 2y determinare la matrice rappresentativa A di f nella base B; determinare la matrice rappresentativa A0 di f nella base B 0 . 0 0 Soluzione. Vogliamo trovare A, A0 2 M2 (R) tale che f = LA = LBA0,B . Le colonne di A sono date da ✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆ ✓ ◆ 1 a11 1 5 0 a21 0 1 A = =f = , A = =f = . 0 a21 0 4 1 a22 1 2 Quindi A= ✓ 5 1 4 2 ✓ 6 0 0 1 ◆ . ◆ . D’altra parte a0ij è la i-esima componente del vettore f (vj ) nella base B 0 . Poiché ✓ ◆ ✓ ◆ 5+1 5 4 f (v1 ) = = 6v1 , f (v2 ) = = v2 , 4+2 4 2·4 si ha 0 A = X Notiamo (vedere l’esempio precedente) che basi diverse corrispondono a matrici rappresentative di↵erenti di uno stesso endomorfismo, ed ha interesse trovare una base (se esiste) in cui la matrice rappresentativa sia la più semplice possibile, ossia diagonale. Studieremo questo problema (la “diagonalizzazione” di un endomorfismo) più avanti nel corso. 98 Matrice rappresentativa 13.2 Proprietà delle applicazioni lineari Se S ✓ V è un sottoinsieme ed f : V ! W una applicazione, indichiamo con f (S) il sottoinsieme di W dei vettori che sono immagine di (almeno) un vettore di S: f (S) = w = f (v) : v 2 S . (13.5) In particolare l’insieme f (V ) è detto immagine dell’applicazione f , e l’insieme Immagine N (f ) = v 2 V : f (v) = 0W è detto nucleo di f . Dalla prop. 13.1.9 (punto 1) segue che 0V 2 N (f ). Proposizione 13.2.1. Sia f : V ! W una applicazione lineare. Allora: 1. f manda sottospazi in sottospazi; in particolare f (V ) è un sottospazio di W . 2. N (f ) è un sottospazio di V . 3. f manda generatori di S in generatori di f (S). Dimostrazione. Sia S ⇢ V un sottospazio, w1 , w2 2 f (S) e 1 , 2 2 R. Allora esistono v1 , v2 2 S tali che w1 = f (v1 ) e w2 = f (v2 ). Da (13.1) segue che 1 w1 + 2 w2 = 1 f (v1 ) + 2 f (v2 ) = f ( 1 v1 + 2 v2 ) . Siccome S è per ipotesi un sottospazio, allora 1 v1 + 2 v2 2 S e 1 w1 + 2 w2 2 f (S) (essendo immagine tramite f dell’elemento 1 v1 + 2 v2 2 S). Per il criterio c) della proposizione 4.3.3, f (S) è un sottospazio di W . Questo prova il primo punto. Siano v1 , v2 2 N (f ) e 1 , 2 2 R. Da (13.1) segue che f ( 1 v1 + 2 v2 ) = 1 f (v1 ) + 2 f (v2 ) = 1 0V + 2 0V = 0V , ovvero 1 v1 + 2 v2 2 N (f ). Per il criterio c) della proposizione 4.3.3, N (f ) è un sottospazio di V . Questo prova il secondo punto. Siano v1 , v2 , . . . , vn dei generatori di S. Per ogni w 2 f (S) esiste v 2 S tale che f (v) = w. Possiamo scrivere v come combinazione lineare dei generatori, v = 1 v1 + 2 v2 + . . . + n vn , e da (13.3) segue che w= 1 f (v1 ) + 2 f (v2 ) + ... + n f (vn ) . Siccome questo vale per ogni w 2 f (S), i vettori f (v1 ), . . . , f (vn ) sono un insieme di generatori di f (S). ⌅ Ricordiamo che: una applicazione f è suriettiva se ogni elemento del codominio è nell’immagine di f , ovvero f (V ) = W ; è iniettiva se manda elementi distinti in elementi distinti, ovvero f (v) = f (v0 ) ) v = v0 . 99 Nucleo Proposizione 13.2.2. Una applicazione lineare f è iniettiva se e solo se N (f ) = {0V }. Dimostrazione. Se N (f ) contiene un vettore v non nullo, allora f (v) = 0W = f (0V ) ed f non è iniettiva. Viceversa se N (f ) = {0V }, allora f (v) f (v0 ) = f (v v0 ) si annulla se e solo se v v0 = 0V , e questo prova l’iniettività di f . ⌅ Proposizione 13.2.3. Una applicazione lineare iniettiva f manda vettori linearmente indipendenti in vettori linearmente indipendenti. Dimostrazione. Siano v1 , v2 , . . . , vn linearmente indipendenti e wi = f (vi ). Siccome N (f ) = {0V }, la combinazione 1 w1 + ... + n wn = f ( 1 v1 + . . . + n vn ) è nulla se e solo se la combinazione 1 v1 + . . . + n vn è nulla, ovvero se e solo se 1 = . . . = n = 0 (per ipotesi sull’indipendenza dei vettori vi ). Questo prova che i vettori wi sono linearmente indipendenti. ⌅ Corollario 13.2.4. Sia f : V ! W una applicazione lineare e siano n = dim(V ) e m = dim(W ). Si ha: 1. se f è suriettiva, allora n m; 2. se f è iniettiva, allora n m; 3. se f è biunivoca, allora n = m e per ogni base B = (v1 , . . . , vn ) di V l’insieme (f (v1 ), . . . , f (vn )) è una base di W . Dimostrazione. Sia B = (v1 , . . . , vn ) una base di V . Se f è suriettiva, segue dal punto 3 della proposizione 13.2.1 che (f (v1 ), . . . , f (vn )) sono generatori di f (V ) = W . Quindi n m (per il lemma di Steinitz). Segue dal punto 3 della proposizione 13.2.1 e dalla proposizione precedente che, per ogni sottospazio S ✓ V , una applicazione lineare iniettiva f manda basi di S in basi di f (S). Quindi se f è iniettiva, (f (v1 ), . . . , f (vn )) è una base di f (V ) ✓ W , da cui n = dim f (V ) m. Se f è sia iniettiva che suriettiva, allora manda basi di V in basi di f (V ) = W , ed ovviamente n = m. ⌅ Una applicazione lineare biunivoca f : V ! W è detta isomorfismo fra V e W . Se V è finitamente generato e (v1 , . . . , vn ) è una sua base, l’applicazione B : V ! Rn che associa ad ogni vettore la sua n-upla delle componenti, B (x1 v1 + x2 v2 + . . . + xn vn ) = (x1 , x2 , . . . , xn ) , è un isomorfismo. 100 Isomorfismo Teorema 13.2.5 (della dimensione). Sia n = dim(V ) e f : V ! W una applicazione lineare. Allora: dim N (f ) + dim f (V ) = n . Dimostrazione. Se N (f ) = {0V }, l’applicazione è iniettiva e manda basi di V in basi di f (V ). Quindi dim f (V ) = dim(V ) = n come richiesto. Supponiamo che N (f ) 6= {0V }. Sia k la dimensione di N (f ) e (v1 , . . . , vk ) una sua base. Usando il metodo del completamento ad una base, possiamo completare tale insieme ad una base (v1 , . . . , vk , vk+1 , . . . , vn ) di V . Osserviamo che f si annulla sui primi k vettori di base, e w1 = f (vk+1 ) w2 = f (vk+2 ) ... wn k = f (vn ) sono generatori di f (V ). Facciamo vedere che sono linearmente indipendenti. Sia 1 w1 + 2 w2 + ... + n k wn k = f ( 1 vk+1 + 2 vk+2 + ... + n k vn ) = 0W una combinazione lineare nulla. Allora 1 vk+1 + 2 vk+2 + ... + n k vn 2 N (f ) \ L(vk+1 , . . . , vn ) . Per costruzione, poiché (v1 , . . . , vk , vk+1 , . . . , vn ) sono linearmente indipendenti, l’unico elemento del nucleo che è combinazione lineare dei vettori (vk+1 , . . . , vn ) è il vettore nullo. Quindi 1 vk+1 + 2 vk+2 + . . . + n k vn = 0V e per l’indipendenza lineare dei vi questo implica 1 = 2 = . . . = n k = 0. Abbiamo provato che i vettori wi sono vettori linearmente indipendenti, e quindi una base di f (V ). Segue che dim f (V ) = n k = n dim N (f ), e questo conclude la dimostrazione. ⌅ 101 Teorema della dimensione Lezione XIV Rango e sistemi lineari Sommario: applicazioni e sistemi lineari; rango di una matrice; teoremi di RouchéCapelli e di Cramer; teorema degli orlati. Esercizi. 14.1 Applicazioni e sistemi lineari Sia LA l’applicazione dell’esempio 13.1.7 associata ad una matrice A = (aij ) 2 Rk,n . Notiamo che il nucleo di LA è l’insieme dei vettori colonna X = t (x1 , . . . , xn ) tali che 0 1 0 1 a11 x1 + a12 x2 + . . . + a1n xn 0 B C B C B a21 x1 + a22 x2 + . . . + a2n xn C B0C C = B.C , LA (X) = A · X = B .. B C B.C . @ A @.A ak1 x1 + ak2 x2 + . . . + akn xn 0 ovvero l’insieme delle soluzioni del sistema lineare omogeneo che ha A come matrice dei coefficienti. Se (A|B) è la matrice completa di un sistema compatibile, una soluzione è un vettore colonna X tale che LA (X) = B. Risolvere il sistema vuol dire quindi trovare tutti i vettori che hanno per immagine un vettore B fissato. Il sistema è compatibile se e solo se B è nell’immagine di LA . Proposizione 14.1.1. Data una soluzione X0 di un sistema lineare compatibile A·X =B , (14.1) tutte e sole le soluzioni di (14.1) si ottengono aggiungendo ad X0 un elemento di N (LA ), ovvero una soluzione del sistema omogeneo associato. Chiameremo X0 una soluzione particolare di (14.1). Dimostrazione. Sia Y una soluzione del sistema. Allora A(Y X0 ) = A · Y A · X0 = B B = 0, ovvero Y X0 risolve il sistema omogeneo associato. Viceversa se A·Z = 0, allora detto Y = X0 + Z si ha A · Y = A · X0 + A · Z = B + 0 = B, ovvero Y è soluzione del sistema lineare. ⌅ 14.2 Rango di una matrice Siano ei i vettori della base canonica di Rn . E’ immediato verificare che l’immagine di ei tramite LA è data dall’i-esima colonna della matrice A: 0 1 a1i B C Ba C LA (ei ) = B .2i C @ .. A aki 102 Soluzione particolare per ogni i = 1, . . . , n. Siccome una applicazione lineare manda generatori in generatori, le colonne di A generano l’immagine di LA . Indichiamo con ⇢colonne (A), detto rango per colonne di A, la dimensione dello spazio generato dalle colonne di A; ovvero la dimensione dell’immagine di LA . Indichiamo con ⇢righe (A) = ⇢colonne (tA), detto rango per righe di A, la dimensione dello spazio generato dalle righe di A. Teorema 14.2.1. Il rango per righe è uguale al rango per colonne: ⇢righe (A) = ⇢colonne (A) per ogni A 2 Rk,n . Tale numero sarà chiamato rango di A ed indicato con ⇢(A). Dimostrazione. Come illustrato nella sezione 12.4, la dimensione dello spazio generato dalle righe di A si può calcolare riducendo la matrice e contando le righe non nulle della matrice ridotta ottenuta, sia essa A0 e m il numero di righe non nulle. Quindi ⇢righe (A) = m . Il sistema omogeneo AX = 0 è equivalente ad A0 X = 0, e per la proposizione 11.3.4 le soluzioni formano uno spazio vettoriale di dimensione n m. Quindi dim N (LA ) = n m. Per il teorema della dimensione (teorema 13.2.5), dim N (LA ) + dim LA (Rn ) = dim(Rn ) = n . Ma per definizione dim LA (Rn ) = ⇢colonne (A). Quindi ⇢colonne (A) = n dim N (LA ) = n (n m) = m = ⇢righe (A) . ⌅ Corollario 14.2.2. Sia A 2 Rk,n . La dimensione dello spazio delle soluzioni del sistema omogeneo AX = 0 è n ⇢(A). Segue inoltre dalla proposizione 14.1.1 che: Corollario 14.2.3. Se AX = B è un sistema compatibile di k equazioni in n incognite, tutte e sole le soluzioni sono della forma X = X0 + t1 X1 + . . . + tm Xm dove: • m=n ⇢(A), • t1 , . . . , tm sono parametri reali, 103 Rango per colonne Rango per righe • X1 , . . . , Xm formano una base dello spazio delle soluzioni del sistema omogeneo associato, • X0 è una soluzione particolare del sistema AX = B. Teorema 14.2.4 (Rouché-Capelli). Un sistema di matrice completa (A|B) è compatibile se e solo se ⇢(A|B) = ⇢(A) . Dimostrazione. Per riduzione trasformiamo (A|B) in (A0 |B 0 ), con A0 ridotta per righe. Il sistema A0 X = B 0 è compatibile se e solo se non contiene equazioni del tipo 0 = b, con b termine noto non nullo; ovvero, se e solo se il numero di righe non nulle di A0 è uguale al numero di righe non nulle di (A0 |B 0 ). Siccome il numero di righe non nulle di A0 è ⇢(A) ed il numero di righe non nulle di (A0 |B 0 ) è ⇢(A|B), il sistema AX = B è compatibile se e solo se ⇢(A|B) = ⇢(A). ⌅ 14.3 Proprietà del rango Evidentemente, siccome ⇢righe (A) = ⇢colonne (tA) ed il rango per righe coincide con quello per colonne, si ha ⇢(A) = ⇢(tA) per ogni matrice A. Proposizione 14.3.1. Se A 2 Rk,n , allora ⇢(A) min(k, n) . Diremo che A ha rango massimo se ⇢(A) = min(k, n). Dimostrazione. Se A 2 Rk,n , l’immagine di LA è contenuta in Rk ed ha dimensione al più pari ad k. Quindi ⇢(A) k. Per lo stesso motivo, ⇢(tA) n. Siccome ⇢(A) = ⇢(tA), ⇢(A) è minore del minimo fra k ed n. ⌅ Abbiamo già osservato che se A 2 Rk,n è ridotta per righe, ⇢(A) è dato dal numero di righe non nulle di A. Se A 2 Rk,n è triangolare superiore completa, allora ha rango massimo. Infatti in questo caso A è ridotta per righe, ed il numero di righe non nulle è il minimo fra k e n (vedere i due casi k n e k > n a pagina 77). Lemma 14.3.2. A 2 Mn (R) ha determinante diverso da zero se e solo se ⇢(A) = n. Dimostrazione. Se |A| = 6 0, applicando il metodo di eliminazione di Gauss si ottiene da 0 A una matrice A triangolare superiore completa. Le righe di una matrice triangolare superiore completa sono tutte non nulle, quindi ⇢(A) = n. Viceversa se ⇢(A) = n, riducendo per righe A si ottiene una matrice ridotta A00 che ha tutte le righe non nulle. A00 può essere trasformata in una matrice triangolare superiore completa A000 riordinando le colonne. Una matrice triangolare superiore completa 104 ha sempre determinante non nullo, e siccome |A| = |A00 | è uguale ad |A000 | a meno di un segno, si ricava |A| = 6 0. ⌅ Teorema 14.3.3 (Cramer). Un sistema di n equazioni lineari in n incognite AX = B ammette un’unica soluzione se e solo se |A| = 6 0, ed in tal caso la soluzione è data da X = (x1 , . . . , xn ) con xi = a11 . . . a1,i a21 . . . a2,i .. .. . . an1 . . . an,i 1 1 1 b1 a1,i+1 . . . a1,n b2 a2,i+1 . . . a2,n .. .. .. . . . bn an,i+1 . . . an,n |A| Teorema di Cramer (14.2) per i = 1, . . . , n. La matrice a numeratore si ottiene da A = (aij ) sostituendo alla i-esima colonna il vettore colonna dei termini noti B = t (b1 , . . . , bn ). Dimostrazione. Se il sistema è compatibile, ⇢(A) = ⇢(A|B) e le soluzioni sono dipendono da n ⇢(A) parametri. La soluzione è unica se e solo se ⇢(A) = n, ovvero se e solo se |A| = 6 0 (per il Lemma 14.3.2). Viceversa se |A| = 6 0, la matrice A è invertibile ed esiste un unico vettore X che ha per immagine, tramite LA , il vettore B. Tale vettore è dato da: X = A 1B . Il sistema è quindi compatibile ed ammette un’unica soluzione. Sia ij il complemento algebrico di aij . Per il teorema di Laplace l’elemento in posizione (i, j) della matrice A 1 è dato da cij = |A| 1 ji . Quindi Xn Xn xi = cij bj = |A| 1 bj ji . j=1 j=1 Nell’ultima sommatoria riconosciamo lo sviluppo di Laplace della matrice a numeratore dell’equazione (14.2), fatto rispetto alla colonna i-esima. Questo conclude la dimostrazione. ⌅ Anche il calcolo del rango può essere ridotto ad un calcolo di determinanti, usando il seguente teorema (enunciato senza dimostrazione), noto come teorema di Kronecker o anche teorema degli orlati. Definizione 14.3.4. Data una matrice A 2 Rk,n , una matrice quadrata M ottenuta da A eliminando k p righe e n p colonne si dirà minore di ordine p di A. Teorema 14.3.5. Una matrice A 2 Rk,n ha rango p se e solo se esiste un minore M di ordine p il cui determinante è non nullo, e tutti i minori di ordine p + 1 contenenti M hanno determinante nullo. I minori di ordine p + 1 contenenti un minore M di ordine p si dicono orlati di M , da cui il nome del teorema. 105 Minori Teorema degli orlati Orlati 14.4 Esercizi Esercizio 14.4.1 (4.2.1 di [BruLan]). Determinare il rango della matrice: 0 1 1 0 1 B C A=@ 2 1 1A . 1 1 0 Soluzione 1 (per riduzione). Indicando come al solito con Ri le righe, per riduzione si ottiene: 0 1 0 1 0 1 1 0 R2 !R2 2R1 R3 !R3 +R1 B C R30 !R30 R20 B 0 A !@0 1 3A !A =@0 1 0 1 1 0 0 1 1 C 3A . 4 Quindi ⇢(A) = ⇢(A0 ) = 3. X Soluzione 2. Calcoliamo il determinante di A, usando lo sviluppo di Laplace rispetto alla prima riga: |A| = 1 1 1 + 0 2 1 1 1 = 1 + 3 = 4 6= 0 . X Dal Lemma 14.3.2 segue che A ha rango massimo, ovvero ⇢(A) = 3. Esercizio 14.4.2 (da 4.6.3 di [BruLan]). Determinare il rango della matrice: 0 0 B0 B A=B @0 1 Soluzione 1 (per riduzione). Riducendo A si ottiene: 0 0 R2 !R2 R1 R3 !R3 2R1 B R !R R1 B 0 A 4 4 ! B @0 1 Quindi ⇢(A) = ⇢(A0 ) = 3. 1 0 0 1 2 1 1 0 1 1 0C C C 0A 0 1 1 2 2 2 1 3 2 R3 !R3 106 1 1 1C C C . 2A 1 0 0 B0 R2 B ! A0 = B @0 1 1 0 0 1 2 1 0 0 1 1 0C C C . 0A 0 X Soluzione 2 (con il teorema degli orlati). Chiamiamo M il minore di ordine 3 di A evidenziato: 0 1 B 0 1 2 1 C B 0 1 1 1 C B C B 0 2 3 2 C @ A 1 2 2 1 Il determinante di M è non nullo. Infatti con lo sviluppo di Laplace rispetto alla prima colonna 1 1 |M | = =1. 2 3 Il suo unico orlato è l’intera matrice A, e con lo sviluppo di Laplace rispetto alla prima colonna si calcola 1 2 1 |A| = 1 1 1 2 3 2 e questo vale 0, poiché l’ultima riga è somma delle prime due (proposizione 5.4.4, punto 7). Per il teorema degli orlati, questo prova che il rango della matrice è 3. X Esercizio 14.4.3. Risolvere il sistema di equazioni lineari 8 > x1 + x3 = 3 < 2x1 + x2 x3 = 0 > : x1 + x2 = 3 Soluzione. La matrice dei coefficienti è la matrice A dell’esercizio 14.4.1, ed il determinante è |A| = 4 è diverso da zero. Per il teorema di Cramer, la soluzione è unica e data da x1 = 3 0 0 1 3 1 |A| 1 1 0 x2 = 1 3 2 0 1 3 |A| 1 1 0 x3 = 1 0 3 2 1 0 1 1 3 |A| Ricordiamo che la prima matrice a numeratore si ottiene sostituendo alla prima colonna di A la colonna dei termini noti (in rosso), la seconda matrice a numeratore si ottiene sostituendo alla seconda colonna di A la colonna dei termini noti, e la terza matrice a numeratore si ottiene sostituendo alla terza colonna di A la colonna dei termini noti. Calcolando i determinanti, ad esempio con lo sviluppo di Laplace rispetto alla colonna in rosso, si trova (x1 , x2 , x3 ) = (0, 3, 3). X 107 Lezione XV Esercitazione 15.1 Applicazioni lineari Esercizio 15.1.1. Per 2 R si consideri la matrice 0 1 2 1 4 B C A = @0 5 0 A . 1 Determinare una base per nucleo e immagine dell’endomorfismo LA : R3 ! R3 . Soluzione. L’immagine di LA è lo spazio generato dalle colonne di A, ovvero dalle righe di B = tA. Riordinando le righe di B si ottiene 0 1 0 1 0 1 2 0 1 1 5 1 5 B C R $R2 0 B C R0 !R0 2R20 B C B = @1 5 A 1 ! B = @2 0 1 A 3 3 ! B 00 = @2 0 1 A , 4 0 4 0 0 0 2 in cui abbiamo chiamato Ri le righe di B e Ri0 le righe di B 0 . La matrice B 00 è ridotta per righe, per ogni 2 R; le righe non nulle sono una base di LA (R3 ). Si ha: 1. Se 6= 2, una base di LA (R3 ) è formata dai vettori v1 = (1, 5, ), v2 = (2, 0, 1), v3 = (0, 0, 2). La dimensione di LA (R3 ) è 3, quindi LA (R3 ) = R3 . 2. Se = 2, una base di LA (R3 ) è formata dai vettori v1 = (1, 5, 2), v2 = (2, 0, 1). La dimensione di LA (R3 ) è 2. Per il teorema della dimensione, il nucleo N (LA ) ha dimensione 0 nel primo caso e 1 nel secondo. Se 6= 2 si ha quindi N (LA ) = {0}. Se = 2, qualunque vettore non nullo X = (x1 , x2 , x3 ) 2 N (LA ) è una base del nucleo. Per determinare X, sostituiamo = 2 nell’espressione di A e risolviamo il sistema A · X = 0. Dette Ei le righe di A, riducendo A per righe: 0 1 0 1 2 1 4 2 1 4 E3 !E3 12 E1 B C E30 !E30 103 E20 0 B C A ! @0 5 0 A ! A = @0 5 0A 0 32 0 0 0 0 si ottiene il sistema equivalente A0 X = 0, ovvero ⇢ 2x1 + x2 + 4x3 = 0 5x2 = 0 che risolto per sostituzione dà X = ( 2x3 , 0, x3 ). Una base del nucleo si ottiene prendendo x3 = 1, ed è data dal vettore ( 2, 0, 1). X 108 15.2 Basi e dimensione Esercizio 15.2.1 (4.6.1 di [BruLan]). Si considerino l’insieme I = {v1 , v2 , v3 , v4 , v5 } dei vettori di R4 : v1 = (1, 1, 2, 1) , v2 = ( 2, 2, 4, 2) , v4 = ( 1, 3, 3, 3) , v3 = (1, 1, 1, 1) , v5 = (1, 2, 1, 2) . Detto W = L(I): a) Estrarre una base B di W dall’insieme di generatori I. b) Completare B ad una base di R4 . Soluzione. Sia A la matrice che ha per righe i vettori di I, ossia 0 1 1 1 2 1 B C B 2 2 4 2C B C A=B 1C B 1 1 1 C B C 3A @ 1 3 3 1 2 1 2 Riducendo per righe si ha 0 1 R3 !R2 +2R1 B R3 !R3 R1 B0 R4 !R4 +R1 B R5 !R5 R1 0 A !A =B B0 B @0 0 1 0 2 2 3 2 0 1 1 1 1 1 C 0C C 2C C C 2A 1 R40 !R40 R50 !2R50 0 1 B 0 R3 B0 B 3R30 00 !A =B B0 B @0 0 1 0 2 0 0 2 0 1 0 1 1 1 C 0C C 2C C . C 0A 8 Come al solito abbiamo chiamato Ri = vi le righe di A ed Ri0 le righe di A0 . Una base B 0 di W è data dalle righe Ri00 non nulle di A00 , quindi B 0 = R100 = (1, 1, 2, 1) , R300 = (0, 2, 1, 2) , R500 = (0, 0, 1, 8) . Al punto a) si chiede però di trovare una base formata da vettori di I. Per estrarre una base B dall’insieme di generatori I è sufficiente prendere le righe di A corrispondenti alle righe non nulle di A00 . Quindi B = R1 = v 1 , R 3 = v 3 , R 5 = v 5 . Per completare B ad una base di R4 è sufficiente trovare un vettore ei della base canonica che, aggiunto alla matrice A00 , dà una matrice che è ancora ridotta per righe: infatti, in questo caso ei è linearmente indipendente dai vettori di B 0 , quindi non contenuto in W , quindi linearmente indipendente dai vettori di B. 109 Il vettore cercato è e4 = (0, 0, 0, 1), infatti 0 00 1 0 R1 1 1 BR00 C B 0 2 B 3C B B 00 C = B @R 5 A @ 0 0 e4 0 0 2 1 1 0 1 1 2C C C 8A 1 X è ridotta per righe. La base di R4 cercata è quindi (v1 , v3 , v5 , e4 ). Esercizio 15.2.2. Si considerino i vettori di R4 : v1 = (1, 2, 3, 1) , v2 = (4, 2, 2, 0) , v3 = (4, 1, 9, 2) , ed i vettori di R3 : w1 = (1, 4, 4) , w2 = (2, 2, 1) , w3 = (3, 2, 9) , w4 = ( 1, 0, 2) . Determinare le dimensioni di V = L(v1 , v2 , v3 ) e di W = L(w1 , w2 , w3 , w4 ). Soluzione. I vettori vi formano le righe, ed i vettori wj le colonne, della matrice: 0 1 B 1 2 3 1 C C A=B @ 4 2 2 0 A 4 1 9 2 Quindi dim(V ) = dim(W ) = ⇢(A). Il rango può essere calcolato come al solito per riduzione o con il teorema degli orlati. Usiamo il secondo metodo. Il minore di ordine 2 evidenziato ha determinante non nullo: 1 2 4 2 = 6. Ha due orlati, ottenuti eliminando la terza e la quarta riga rispettivamente. Il loro determinante è nullo, come si verifica con lo sviluppo di Laplace rispetto alla colonna in rosso: 1 4 4 1 4 4 2 2 1 2 2 1 1 0 2 3 2 9 4 4 2 1 2 1 2 +2 1 4 2 1 = 1 · ( 12) + 0 · ( 9) =3 4 4 2 1 0 1 4 = ( 2) = 3 · ( 12) + 2 · ( 9) 1 4 2 · ( 6) = 12 12 = 0 , 2 1 2 + ( 9) 1 4 2 9 · ( 6) = 36 18 + 54 = 0 . X Quindi ⇢(A) = 3. 110 15.3 Sistemi lineari Esercizio 15.3.1. Si consideri il sistema lineare: 8 x1 x2 + x3 = > > > > < x4 = 1 > x1 + x2 + x3 + x4 = 0 > > > : x1 x2 = 0 a) Stabilire per quali 2 R il sistema è compatibile. b) Determinare la soluzione generale del sistema per i valori di compatibile. per i quali è c) Per ogni 2 R, determinare una base dello spazio W delle soluzioni del sistema lineare omogeneo associato. Soluzione. Detta (A|B) la la matrice dei coefficienti: 0 1 1 1 0 B0 0 0 B (A|B) = B @1 1 1 1 1 0 0 matrice completa del sistema ed Ri le sue righe, riduciamo 1 0 1 1 C B 1 C R3 !R3 R1 B 0 0 !B C @0 0A +1 0 1 1 0 1 1 1 B1 1 0 R2 $R4 B ! (A0 |B 0 ) = B @0 +1 0 0 0 0 0 1 B1 R3 !R3 +R4 B ! (A00 |B 00 ) = B @0 0 1 1 0 0 0 1 0 0 0 0 1 1C C C A 0 1 0C C C A 1 1 1 +1 0 1 0 0 0 0 0 0 +1 1 1 1 C C C. A Le matrici A00 e (A00 |B 00 ) sono ridotte per righe per ogni valore di . Ricordiamo che ⇢(A) è il numero di righe non nulle di A00 e ⇢(A|B) è il numero di righe non nulle di (A00 |B 00 ). Distinguiamo due casi: i) se = 0 o = 1, ⇢(A) = 3 6= ⇢(A|B) = 4 ed il sistema non ammette soluzioni (per il teorema di Rouché-Capelli); ii) se 2 / {0, 1}, ⇢(A) = ⇢(A|B) = 4 ed il sistema è compatibile. In risposta al punto a): il sistema è compatibile se e solo se 2 / {0, 1}. 111 Per 2 / {0, 1} le soluzioni si determinano risolvendo il sistema equivalente di matrice completa (A0 |B 0 ), ovvero 8 x1 x2 + 1x3 = > > > > < 1x x = 0 1 2 > ( + 1)x2 + x4 = > > > : x4 = 1 Risolvendo per sostituzione dal basso verso l’alto si ottiene la risposta al punto b): (x1 , x2 , x3 , x4 ) = + +1 1 , + +1 1 , , 1 . Passiamo al punto c). Il sistema omogeneo associato è equivalente al sistema A0 X = 0, ossia 8 x1 x2 + 1x3 = 0 > > > > < 1x1 x2 = 0 > ( + 1)x2 + x4 = 0 > > > : x4 = 0 Lo spazio W delle soluzioni ha dimensione 4 ⇢(A), ossia 0 nel caso ii) e 1 nel caso 1. Se = 0, risolvendo per sostituzione si trova (x1 , x2 , x3 , x4 ) = (t, t, 0, t) con t 2 R. Una base di W è quindi data dal vettore (1, 1, 0, 1). Se = 1, risolvendo per sostituzione si trova (x1 , x2 , x3 , x4 ) = (t, t, 0, 0) con t 2 R. Una base di W è quindi data dal vettore (1, 1, 0, 0). 112 X Lezione XVI Endomorfismi semplici Sommario: matrice del cambiamento di base; matrici simili e coniugate; matrici diagonalizzabili/endomorfismi semplici. Rotazioni nel piano. 16.1 Matrice del cambiamento di base Consideriamo due basi B = (v1 , . . . , vn ) e B 0 = (v10 , . . . , vn0 ) di uno spazio vettoriale V . Possiamo allora scrivere i vettori vi0 nella base B: v10 = a11 v1 + a12 v2 + . . . + a1n vn , v20 = a21 v1 + a22 v2 + . . . + a2n vn , .. .. . . vn0 = an1 v1 + an2 v2 + . . . + ann vn . Definiamo tre matrici n ⇥ n: 0 1 a11 a12 . . . a1n B C B a21 a22 . . . a2n C B A=B . .. .. C C , . . . A @ . an1 an2 . . . ann Si ha allora: 0 1 v1 B C B v2 C C E=B B .. C , @.A vn 0 1 v10 B 0C B v2 C 0 C E =B B .. C . @.A vn0 E0 = A · E . La matrice A, i cui elementi sono le componenti dei vettori della base B 0 nella base B, è detta matrice del cambiamento di base da B a B 0 . Analogamente i vettori vi si possono scrivere nella base B 0 , e chiameremo A0 la matrice del cambiamento di base da B 0 a B: E = A0 · E 0 . Proposizione 16.1.1. La matrice A del cambiamento di base da B a B 0 è invertibile, e la sua inversa è la matrice A0 del cambiamento di base da B 0 a B. Dimostrazione. Per l’associatività del prodotto righe per colonne E = A0 · E 0 = A0 · (A · E) = (A0 · A) · E . (16.1) Poiché le righe di E sono una base di Rn , il rango è ⇢(E) = n e la matrice E è invertibile (Lemma 14.3.2). Moltiplicando ambo i membri di (16.1) per E 1 da destra, si ottiene: A0 · A = In . 113 Matrice del cambiamento di base ⌅ Quindi A0 = A 1 . E’ naturale chiedersi che relazione c’è tra le matrici rappresentative di una applicazione lineare f : V ! V (un “endomorfismo” di V ) in due basi diverse di V . Ricordiamo che B = (bij ) si dice matrice rappresentativa di f nella base B se: f (v1 ) = b11 v1 + b21 v2 + . . . + bn1 vn , f (v2 ) = b12 v1 + b22 v2 + . . . + bn2 vn , .. .. . . f (vn ) = b1n v1 + b2n v2 + . . . + bnn vn , e in maniera simile è definita la matrice rappresentativa B 0 = (b0ij ) di f nella base B 0 . In notazione matriciale, dette F ed F 0 le matrici 0 1 0 1 f (v1 ) f (v10 ) B C B C B f (v2 ) C B f (v20 ) C 0 C C F =B F =B B .. C , B .. C , . . @ A @ A 0 f (vn ) f (vn ) si ha F 0 = tB0 · E 0 . F = tB · E , Proposizione 16.1.2. Le matrici rappresentative B e B 0 sono legate dalla relazione: t B0 = A · tB · A 1 , o equivalentemente B 0 = (tA) 1 · B · tA . Dimostrazione. Come prima cosa, dalla linearità di F segue che f (vi0 ) = f (ai1 v1 + ai2 v2 + . . . + ain vn ) = ai1 f (v1 ) + ai2 f (v2 ) + . . . + ain f (vn ) o in forma matriciale F0 = A · F . Quindi t Usando E = A0 · E 0 = A 1 B0 · E 0 = A · tB · E . · E 0 si ottiene: t B0 · E 0 = A · tB · A 1 · E0 , 1 . e siccome la matrice E 0 è invertibile, si ha t B0 = A · tB · A 114 Applicando la trasposizione ambo i membri di questa uguaglianza, e usando la proprietà della trasposizione di invertire l’ordine in un prodotto (proposizione 10.2.5, punto ii), si trova la relazione equivalente B 0 = t (A · t B · A 1 ) = (tA) 1 · B · tA . ⌅ Esempio 16.1.3. In R2 , si considerino le basi B = v1 = (1, 0), v2 = (0, 1) e B 0 = v10 = (1, 1), v20 = ( 1, 1) . Le matrici del cambiamento di base sono date da ✓ ◆ ✓ ◆ 1 1 1 1 1 0 1 A= , A =A = . 2 1 1 1 1 Se f : R2 ! R2 è l’applicazione lineare f (x, y) = ( y, x) la matrice rappresentativa nella base B è ✓ 0 B= 1 1 0 e la matrice rappresentativa nella base B 0 è ✓ ◆✓ 1 1 0 1 0 t 1 t B = ( A) · B · A = 2 1 1 1 ◆ 1 0 ◆✓ 1 1 1 1 ◆ = ✓ 1 0 0 1 ◆ . La matrice B 0 si poteva calcolare direttamente notando che f (v1 ) = f (1, 1) = ( 1, 1) = v1 , f (v2 ) = f (1, 1) = (1, 1) = v2 . L’applicazione f è una riflessione nel piano rispetto alla bisettrice del II e IV quadrante, come mostrato in figura. v2 v1 y (x, y) y x x ( y, x) I punti della bisettrice, corrispondenti ai vettori proporzionali a v2 = (1, 1), sono lasciati invariati da f . I punti fuori dalla bisettrice vengono riflessi rispetto ad essa. 115 16.2 Matrici simili e coniugate Definizione 16.2.1. Due matrici A, A0 2 Mn (R) si dicono: • simili se sono matrici rappresentative di uno stesso endomorfismo f : R ! R in due basi B e B 0 di Rn ; n • coniugate se esiste una matrice P 2 Mn (R) invertibile tale che A0 = P 1 n Matrici simili e coniugate AP . Osservazione 16.2.2. Le due basi nella definizione precedente non devono essere necessariamente distinte. In particolare, una matrice è sempre simile a se stessa. Proposizione 16.2.3. A e A0 sono simili se e solo se sono coniugate. In questo caso, t P è la matrice del cambiamento di base da B a B 0 . Dimostrazione. Se A e A0 sono simili, ovvero sono matrici rappresentative di un endomorfismo f : Rn ! Rn in due basi B e B 0 rispettivamente, allora per la proposizione 16.1.2 sono legate dalla relazione A0 = P 1 AP , dove tP è la matrice del cambiamento di base da B a B 0 . Quindi A e A0 sono coniugate. Viceversa, supponiamo esista una matrice invertibile P tale che A0 = P 1 AP . Poniamo f = LA , B = (e1 , . . . , en ) uguale alla base canonica di Rn e B 0 = (v10 , . . . , vn0 ) la base i cui vettori formano le colonne della matrice P . I vettori della base canonica sono le righe della matrice identica, quindi 0 1 0 1 e1 v10 B C B 0C B e2 C B v2 C t 0 C = In , B . C= P . E=B E = . B.C B.C . @ A @.A en vn0 La matrice del cambiamento di base da B a B 0 è esattamente tP , poiché E 0 = tP · In = tP · E . La matrice rappresentativa di f nella base canonica è chiaramente A. Per la proposizione 16.1.2, La matrice rappresentativa di f nella base B 0 è data da P 1 AP = A0 . Le matrici A e A0 sono quindi simili. ⌅ Definizione 16.2.4. • Una matrice A si dice diagonalizzabile se è simile ad una matrice ovvero 0 1 0 0 ... 0 1 B C 0 ... 0 C B0 2 C B C 0 0 . . . 0 =B 3 B C .. .. .. C B .. @. . . .A 0 0 0 ... n con 1, . . . , n 2 R. 116 diagonale, Matrici diagonalizzabili • Un endomorfismo f di V si dice semplice se esiste una base B = (v1 , . . . , vn ) di V in cui è rappresentato da una matrice diagonale , ovvero f (v1 ) = 1 v1 + 0 v2 + 0 v3 + . . . + 0 vn = f (v2 ) = 0 v1 + 2 v2 + 0 v3 + . . . + 0 vn = f (v3 ) = 0 v1 + 0 v2 + .. . 3 v3 + . . . + 0 vn = .. . f (vn ) = 0 v1 + 0 v2 + 0 v3 + . . . + n vn = 1 v1 , 2 v2 , 3 v3 , n vn . Proposizione 16.2.5. L’endomorfismo LA è semplice se e solo se A è diagonalizzabile. Dimostrazione. La matrice rappresentativa di LA nella base canonica è A. Se LA è semplice, esiste una base in cui la matrice rappresentativa è diagonale, quindi A è simile ad una matrice diagonale, ovvero diagonalizzabile. Viceversa, se A è diagonalizzabile, ovvero A = P P 1 con diagonale e P invertibile, allora nella base formata dalle colonne di P l’endomorfismo f = LA è rappresentato dalla matrice diagonale . Quindi LA è semplice. ⌅ Esempio 16.2.6. • La matrice B dell’esempio 16.1.3 è diagonalizzabile, essendo simile alla matrice B 0 , che è diagonale. Anche la matrice B 0 dell’esempio 16.1.3 è diagonalizzabile, essendo già in forma diagonale. • La matrice identica In è diagonale, quindi diagonalizzabile. La trasformazione identica LIn è rappresentata dalla matrice identica in ogni base di Rn , poiché (per la proprietà dell’elemento neutro e dell’inverso) l’unica matrice simile alla matrice identica è la matrice identica stessa: P • L’endomorfismo 1 In P = P f : R2 ! R 2 , 1 P = In . f (x, y) = (2x, 3y) , è semplice, essendo rappresentato nella base canonica dalla matrice diagonale ✓ ◆ 2 0 A= . 0 3 • L’endomorfismo f : R2 ! R 2 , f (x, y) = (x + 2y, 3x + 2y) , è semplice, essendo rappresentato nella base B = v1 = (2, 3), v2 = (1, 1) dalla matrice ✓ ◆ 4 0 A= . 0 1 117 Endomorfismi semplici Come mostrato nel seguente esempio, non tutti gli endomorfismi sono semplici, e non tutte le matrici sono diagonalizzabili. Esempio 16.2.7. L’endomorfismo f : R2 ! R 2 , f (x, y) = ( y, x) , (16.2) non è semplice. In altre parole la sua matrice rappresentativa A nella base canonica: A= ✓ 0 1 1 0 ◆ non è diagonalizzabile. Infatti, supponiamo per assurdo che esista un vettore v = (x, y) non nullo ed uno scalare 2 R tale che f (v) = v. Allora (x, y) risolve il sistema ⇢ y= x x= y Tale sistema ha però come unica soluzione quella nulla, qualunque sia il valore di . Un problema che si presenta spesso nelle applicazioni consiste, dato un endomorfismo di uno spazio vettoriale, nel determinare una base (se esiste) in cui è rappresentato da una matrice diagonale. Vedremo nel prossimo capitolo come si risolve questo problema. Osservazione 16.2.8. Notiamo che l’applicazione (16.2) rappresenta una rotazione antioraria di 90 rispetto all’origine degli assi, come si evince dalla figura qui sotto. ( y, x) x (x, y) y y x 16.3 Esercizio: rotazioni nel piano Sia X = t (x1 , x2 ) 2 R2 un vettore non nullo ed Y = t (y1 , y2 ) un secondo vettore della stessa lunghezza ottenuto da X con una rotazione (rispetto all’origine) in senso antiorario di un angolo #. Vogliamo risolvere il seguente problema: Esercizio 16.3.1. Esprimere (y1 , y2 ) in funzione di (x1 , x2 ). 118 Y # X y2 x2 ↵ y1 x1 Figura 6: Rotazione nel piano La situazione è illustrata in figura 6. Proposizione 16.3.2. Si ha y1 = x1 cos # x2 sin # , y2 = x2 cos # + x1 sin # , ovvero Y = LR(#) (X) dove abbiamo chiamato R(#) la matrice: ✓ cos # R(#) := sin # sin # cos # ◆ . (16.3) Dimostrazione. Detto r = kXk = kY k il raggio del cerchio, si ha x1 = r cos ↵, x2 = r sin ↵, y1 = r cos e y2 = r sin . Poiché = ↵ + #, usando le formule di addizione e sottrazione di seno e coseno si ottiene: y1 = r cos(↵ + #) = r cos ↵ cos # r sin ↵ sin # = x1 cos # x2 sin # , y2 = r sin(↵ + #) = r sin ↵ cos # + r cos ↵ sin # = x2 cos # + x1 sin # . ⌅ L’applicazione lineare LR(#) : R2 ! R2 è quindi una rotazione (rispetto all’origine) in senso antioriario di un angolo #. Le rotazioni soddisfano numerose proprietà, la cui trattazione va oltre gli scopi di questo corso. Le matrici di rotazione non sono diagonalizzabili (su questo torneremo più avanti). 119 Lezione XVII Autovalori e autovettori Sommario: autovalori, autovettori, autospazi; polinomio caratteristico; molteplicità geometrica e algebrica di un autovalore. Esempi. 17.1 Autovalori e autovettori Definizione 17.1.1. Sia f : V ! V una applicazione lineare e v 2 V un vettore non nullo. Se esiste 2 R tale che f (v) = v , diremo che è un autovalore di f e che v è un autovettore di f associato a . In altre parole, v è autovettore di f se è trasformato da f in un vettore parallelo al vettore v stesso. Osservazione 17.1.2. Un endomorfismo f è semplice (definizione 16.2.4) se esiste una base di V fatta di autovettori di f . Definizione 17.1.3. Data A 2 Mn (R), diremo che v 2 Rn è un autovettore di A di autovalore se v è autovettore di LA di autovalore , ovvero soddisfa: Av = v . Osservazione 17.1.4. A 2 Mn (R) è diagonalizzabile (definizione 16.2.4) se esiste una base di V fatta di autovettori di LA . Esempio 17.1.5. • Siano a, b 2 R e sia f : R2 ! R2 l’applicazione f (x, y) = (ax, by). I vettori e1 = (1, 0) ed e2 = (0, 1) sono autovettori di f : f (e1 ) = a e1 , f (e2 ) = b e2 , associati agli autovalori a e b, rispettivamente. • Sia A= ✓ 3 2 0 1 ◆ . Il vettore e1 = (1, 0) è autovettore di A di autovalore 3: Ae1 = 3e1 . Il vettore v = (1, 1) è autovettore di A di autovalore 1: infatti, Av = v. 120 Autovalori e autovettori Esempio 17.1.6. La matrice 1 A= p 2 ✓ 1 1 1 1 ◆ non possiede autovettori. Infatti, per assurdo un autovettore v = (x1 , x2 ) di autovalore dovrebbe risolvere il sistema p ⇢ x1 x2 = 2 x1 p x1 + x2 = 2 x2 Ma tale sistema non è compatibile (Esercizio: verificare che il sistema non ammette soluzioni). Notiamo che A rappresenta una rotazione (antioraria, fatta rispetto all’origine) di 45 , come si vede sostituendo # = 45 nell’equazione (16.3). In generale, nessuna matrice di rotazione R(#) possiede autovettori9 , poiché non esiste nessun vettore non nullo v che con una rotazione è trasformato in un vettore parallelo a v. 1 Lemma 17.1.7. Se A = P P , con 0 1 diagonale ( 1 , . . . , autovalore i . B B0 B =B B0 B .. @. 0 n 0 2 0 .. . 0 0 0 3 .. . 0 1 0 C 0C C 0C C .. C .A ... ... ... ... (17.1) n 2 R). Allora la colonna i-esima di P è un autovettore di A di Dimostrazione. Sia A = P P (17.1). Evidentemente A · P = (P P 1 con P = (pij ) invertibile e 1 )P = P (P 1 come nell’equazione P ) = P In = P . Indicando con Xi le colonne di P , si ha A · P = A · X1 , A · X2 , . . . , 0 p11 p12 p13 . . . B B p21 p22 p23 . . . B P· =B B p21 p22 p23 . . . .. .. B .. @ . . . A · Xn , 10 p1n 1 CB p2n C B 0 CB B p2n C CB 0 .. C B .. . A@ . pn1 pn2 pn3 . . . pnn 9 0 0 2 0 .. . 0 0 0 3 .. . 0 ... ... ... ... 1 0 C 0C C 0C C .. C .A n tranne, ovviamente, il caso in cui # è un multiplo di 360 : in questo caso R(#) è la matrice identica. 121 0 B B B =B B B @ = 1 p11 2 p12 3 p13 1 p21 2 p22 3 p23 1 p21 2 p22 3 p23 .. . 1 pn1 1 X1 L’uguaglianza A · P = P · .. . 2 pn2 , 2 X2 ... ... ... n p1n n Xn C C n p2n C C .. C . A n pnn n p2n C .. . 3 pn3 . . . ,..., 1 . è quindi equivalente a A · Xi = 8 i = 1, . . . , n , i Xi ovvero Xi è autovettore di A di autovalore i. ⌅ E’ naturale domandarsi se la matrice A del lemma 17.1.7 possiede altri autovalori oltre agli elementi di matrice di . Vedremo che la risposta è negativa. Definizione 17.1.8. Se a l’insieme: è un autovalore di f , chiameremo autospazio di f associato V = v 2 V : f (v) = v . Per estensione, se f = LA diremo che V è un autospazio della matrice A. Proposizione 17.1.9. Per ogni f e per ogni suo autovalore , l’autospazio V è un sottospazio vettoriale di V . Dimostrazione. Come al solito dobbiamo provare che per ogni v1 , v2 2 V e per ogni a1 , a2 2 R, la combinazione lineare a1 v1 +a2 v2 appartiene a V . Per ipotesi f (vi ) = vi . Per la linearità di f si ha f (a1 v1 + a2 v2 ) = a1 f (v1 ) + a2 f (v2 ) = a1 v1 + a2 v2 = (a1 v1 + a2 v2 ) . Quindi a1 v1 + a2 v2 è autovettore di f con autovalore , ovvero appartiene a V . ⌅ Segue dalla precedente proposizione che l’autovettore di f associato ad un autovalore non è mai unico. Ad esempio se 0 6= v 2 V , allora anche il vettore v appartiene a V (cosı̀ come il vettore av per ogni a 2 R). Esempio 17.1.10. • Sia f : R2 ! R2 l’applicazione f (x, y) = (2x, 3y). Gli autospazi di f sono dati da: V2 = (x, 0) : x 2 R , V3 = (0, y) : y 2 R . • Sia f : R2 ! R2 l’applicazione f (x, y) = (3x + 2y, y). Gli autospazi di f sono dati da: V1 = (t, t) : t 2 R , V3 = (t, 0) : t 2 R . 122 Autospazio Proposizione 17.1.11. Sia f : V ! V una applicazione lineare e siano v1 , v2 due autovettori di f associati ad autovalori 1 , 2 distinti (cioè 1 6= 2 ). Allora {v1 , v2 } sono linearmente indipendenti. Dimostrazione. Sia per assurdo v2 = av1 . Allora 2 v2 = f (v2 ) = f (av1 ) = af (v1 ) = a 1 v1 = 1 v2 . Quindi ( 2 )v2 1 =0. Ma 1 2 6= 0 per ipotesi, e v2 6= 0 per definizione di autovettore. Abbiamo raggiunto un assurdo: v2 non può essere proporzionale a v1 , ovvero i due vettori sono linearmente indipendenti (teorema 6.1.8). ⌅ La proposizione precedente si può generalizzare come segue. Proposizione 17.1.12. Sia f : V ! V una applicazione lineare e siano v1 , v2 , . . . , vk degli autovettori di f associati ad autovalori 1 , 2 , . . . , k distinti ( i 6= j 8 i 6= j). Allora v1 , v2 , . . . , vk sono linearmente indipendenti. Dimostrazione. Un autovettore è per definizione non nullo, quindi v1 6= 0. Per il teorema 6.1.8 è sufficiente dimostrare, per ogni i = 2, . . . , k, che vi non è combinazione lineare dei vettori v1 , v2 , . . . , vi 1 . La dimostrazione procede per induzione. Supponiamo che sia vera per vi 1 (vi 1 non è combinazione lineare dei vettori v1 , v2 , . . . , vi 2 , ovvero i vettori v1 , v2 , . . . , vi 1 sono linearmente indipendenti). Ammettiamo per assurdo che v i = a1 v 1 + a2 v 2 + . . . + ai 1 v i 1 . Allora f (vi ) = a1 f (v1 ) + a2 f (v2 ) + . . . + ai 1 f (vi 1 ) = a1 1 v1 + a2 2 v2 + . . . + ai 1 i 1 vi 1 . Ma deve essere anche f (vi ) = i vi = i a1 v 1 + i a2 v 2 + ... + i ai 1 v i 1 . Sottraendo le ultime due equazioni si trova: a1 ( 1 i )v1 + a2 ( i )v2 2 + . . . + ai 1 ( Per ipotesi induttiva, i vettori v1 , v2 , . . . , vi precedente equazione si ricava aj ( j i) =0 1 =0. sono linearmente indipendenti e dalla 8 j = 1, . . . , i 123 i )vi 1 i 1 1. Siccome per ipotesi j i 6= 0, i coefficienti aj devono essere tutti nulli. Quindi vi = 0, contraddicendo l’ipotesi che si tratta di un autovettore. Questo dimostra il passo induttivo: vi non può essere combinazione lineare dei vettori v1 , v2 , . . . , vi 1 . ⌅ Corollario 17.1.13. • Se V è uno spazio vettoriale di dimensione n, un endomorfismo f : V ! V ha al più n autovalori distinti. • Una matrice A 2 Mn (R) ha al più n autovalori distinti. Dimostrazione. Il primo punto segue dalla proposizione 17.1.12 e dal fatto che in V non è possibile trovare più di n vettori linearmente indipendenti. Il secondo punto si ottiene dal primo quando f = LA e V = Rn . ⌅ 17.2 Polinomio caratteristico Un problema tipico consiste nel determinare autovalori ed autovettori di un endomorfismo o di una matrice, e di stabilire se l’endomorfismo è semplice e la matrice diagonalizzabile. Lo studio di autovalori ed autovettori di un endomorfismo f si può ridurre al caso delle matrici scegliendo una base (qualsiasi) per il dominio di f , e studiando la matrice rappresentativa in quella base. In questo paragrafo vediamo come si risolve il problema nel caso delle matrici. Data A = (aij ) 2 Mn (R) e X 2 Rn , l’equazione A·X = X si può riscrivere nella forma (A In )X = 0 (17.2) Condizione necessaria e sufficiente affinché il sistema omogeneo (17.2) ammetta soluzioni non nulle è che la matrice dei coefficienti sia non invertibile, ossia che il suo determinante sia zero: |A a11 a21 a31 In | = .. . a12 a22 a32 .. . an1 an2 a13 a23 a33 ... ... ... .. . an3 a1n a2n a3n .. . =0. (17.3) . . . ann Il determinante (17.3) è un polinomio a coefficienti reali di grado n nella variabile , detto polinomio caratteristico di A ed indicato con pA ( ). Il polinomio caratteristico è della forma pA ( ) = |A In | = ( 1)n n + c1 124 n 1 + c2 n 2 + . . . + cn 1 + cn Polinomio caratteristico con coefficienti ci 2 R che dipendono dalla matrice A. In particolare, cn = |A| è il determinante di A e ( 1)n 1 c1 = a11 + a22 + a33 + . . . + ann è la somma degli elementi sulla diagonale, ed è detto traccia della matrice A. Abbiamo detto che 0 2 R è autovalore di A, ossia esiste un vettore non nullo X tale che AX = 0 X, se e solo se pA ( 0 ) = 0. Gli autovalori di A sono quindi le radici reali del polinomio caratteristico. Osservazione 17.2.1. Gli autovalori di A sono le radici reali del polinomio caratteristico pA ( ). Osservazione 17.2.2. Per il teorema di Binet, se P è una matrice invertibile allora |P 1 (A In )P | = |P | 1 · |(A In )| · |P | = |A In | , ovvero matrici coniugate hanno lo stesso polinomio caratteristico. In particolare, le matrici rappresentative di un endomorfismo f hanno tutte lo stesso polinomio caratteristico, e le radici reali di tale polinomio sono gli autovalori di f . Osservazione 17.2.3. Una conseguenza dell’osservazione precedente è che due matrici coniugate hanno lo stesso determinante e la stessa traccia. Esempio 17.2.4. Se A= ✓ a11 a12 a21 a22 ◆ è una matrice 2 ⇥ 2, il suo polinomio caratteristico è dato da |A a11 a21 I2 | = a12 a22 Esempio 17.2.5. Se A= 2 = ✓ (a11 + a22 ) + a11 a22 0 1 1 0 a12 a21 . ◆ il polinomio caratteristico è pA ( ) = 2 +1. Tale polinomio non ammette radici reali10 , e quindi A non possiede autovettori. 10 Le sue radici sono =± p 1 = ±i, con i unità immaginaria dei numeri complessi. 125 Traccia Esempio 17.2.6. Sia 0 1 3 1 1 B C A = @1 0 2 A . 1 2 0 Il polinomio caratteristico è dato da 3 pA ( ) = 1 1 1 1 2 2 2 = (3 ) = (3 )( 2 +3 2 = 3 1 2 2 4) ( +6 1 + 1 1 2 2) + (2 + ) 8 (calcolato con lo sviluppo di Laplace rispetto alla prima colonna). Il polinomio si può fattorizzare come segue: pA ( ) = ( e gli autovalori di A sono dati da 1)( 4)( + 2) = 1, 4, 2. Metodo pratico di ricerca degli autovalori e autovettori di A: 1. si determinano gli autovalori, ovvero le radici reali del polinomio caratteristico; 2. per ogni autovalore , si determinano gli autovettori associati risolvendo il sistema omogeneo (A In )X = 0 . Lo spazio delle soluzioni è l’autospazio V , e la sua dimensione è data da dim(V ) = n in cui ⇢(A In ) è il rango di A ⇢(A In ) In (corollario 14.2.2). Definizione 17.2.7. Chiamiamo molteplicità geometrica dell’autovalore indicata con g , la dimensione dell’autospazio associato: g = dim(V ). Se 0 di A, è una radice di pA ( ), allora il polinomio si può fattorizzare come segue: pA ( ) = ( 0) k q( ) dove q( ) è un polinomio e q( 0 ) 6= 0. L’esponente k è detto molteplicità di 126 0. Molteplicità geometrica Definizione 17.2.8. Chiamiamo molteplicità algebrica dell’autovalore indicata con m , la sua molteplicità come radice del polinomio caratteristico. Teorema 17.2.9. Per ogni autovalore uguale alla molteplicità algebrica: g 0 0 di A, di A, la molteplicità geometrica è minore o m 0 . Dimostrazione. Supponiamo g 0 = k. Possiamo prendere una base (v1 , . . . , vk ) di V e completarla ad una base B = (v1 , . . . , vk , vk+1 , . . . , vn ) di Rn . Siccome (A In )vi = ( per ogni i k, l’applicazione lineare LA matrice 0 M= ✓ Ik 0 0 B B B B B ◆ B B ⇤ =B B ⇤ B B B B B @ In 0 0 .. . 0 )vi nella base B è rappresentata da una 0 0 0 ... ... 0 0 0 .. . .. . 0 0 0 .. . ... ... ... 0 0 ... 0 0 .. . ⇤ ... ⇤ ... .. . 0 0 .. . ⇤ ... ⇤ ⇤ ... ⇤ ⇤ ... ⇤ .. .. . . ⇤ ... ⇤ 0 0 ⇤ ⇤ .. . 1 C C C C C C C C C C C C C C A dove 0 è la matrice nulla con n k righe e k colonne ed i blocchi indicati con un asterisco sono arbitrari. Il polinomio caratteristico è pA ( ) = |M |. Facendo k volte lo sviluppo di Laplace rispetto alla prima riga si trova pA ( ) = ( 0 )k q( ) dove q( ) è un polinomio in . La molteplicità algebrica di radice di q( ), altrimenti è maggiore di k. Questo prova che m 0 0 è k se 0 non è una k = g 0. ⌅ Esempio 17.2.10. Sia A la matrice 0 1 1 2 3 B C A = @0 1 5 A 0 0 1 Siccome A I3 è una matrici triangolare, il determinante è il prodotto degli elementi sulla diagonale: pA ( ) = |A I3 | = (1 )3 . 127 Molteplicità algebrica Quindi = 1 è autovalore di molteplicità algebrica m molteplicità geometrica. Dobbiamo risolvere il sistema (A ovvero ⇢ = 3. Determiniamo la I3 )X = 0 2x2 + 3x3 = 0 5x3 = 0 La soluzione è x2 = x3 = 0 e x1 = t 2 R arbitrario. L’autospazio associato a quindi V1 = (t, 0, 0) : t 2 R = 1 è e la molteplicità geometrica dell’autovalore è dim(V1 ) = 1 ed è strettamente minore della molteplicità algebrica. Esempio 17.2.11. Gli autovalori di una matrice triangolare superiore sono gli elementi sulla diagonale. Se infatti 0 1 a11 a12 a13 . . . a1n B C B 0 a22 a23 . . . a2n C B C 0 a33 . . . a3n C A=B B0 C .. .. .. C B .. @ . . A . . 0 0 0 . . . ann allora A In è una matrice triangolare, ed il determinante è dato dal prodotto degli elementi sulla diagonale: pA ( ) = |A In | = (a11 )(a22 )(a33 ) . . . (ann ). Tutte e sole le radici del polinomio caratteristico (ovvero gli autovalori di A) sono date dagli elementi a11 , a22 , . . . , ann . 128 Matrici triangolari superiori Lezione XVIII Diagonalizzazione di matrici Sommario: criteri per la diagonalizzabilità di una matrice. Esempi ed esercizi. 18.1 Diagonalizzazione Ricordiamo che un polinomio p(x) di grado n si può sempre scrivere come segue: z1 )m1 (x p(x) = (x z2 )m2 . . . (x z r )mr dove z1 , . . . , zr 2 C sono radici complesse distinte di p(x) e mi è detta molteplicità della radice zi . Ad esempio x3 + x2 3)2 (x + 7) . 33x + 63 = (x Ovviamente m1 + m2 + . . . + mr = n . Osservazione 18.1.1. Gli autovalori di una matrice A 2 Mn (R) sono le radici reali di pA ( ). Dette 1 , . . . , r le radici reali distinte, per la molteplicità algebrica vale la disuguaglianza m 1 + m 2 + ... + m 1 n , e si ha uguaglianza se e solo se tutte le radici di pA ( ) sono reali. Lemma 18.1.2. Se A = P P 1 , con 0 1 B B0 B =B B0 B .. @. 0 diagonale ( 1 , 1, 2, . . . , n. 2, . . . , n 0 2 0 .. . 0 0 0 3 .. . 0 ... ... ... ... 1 0 C 0C C 0C C .. C .A n 2 R). Allora tutti e soli gli autovalori di A sono dati da Dimostrazione. Segue dall’osservazione 17.2.2 che pA ( ) = p ( ) = ( 1)n ( 1 )( 2) . . . ( Le radici (reali) del polinomio caratteristico sono quindi date da 129 n) 1, . 2, . . . , n. ⌅ Osservazione 18.1.3. Notiamo che la traccia di è data da 1 + 2 + . . . + n ed il determinante da 1 2 · · · n . Come conseguenza del lemma precedente, poiché A e hanno lo stesso determinante e la stessa traccia, si ha • la traccia di una matrice diagonalizzabile è la somma dei suoi autovalori (ciascuno contato con la sua molteplicità); • il determinante di una matrice diagonalizzabile è il prodotto dei suoi autovalori (ciascuno contato con la sua molteplicità). Proposizione 18.1.4. La somma di autospazi di un endomorfismo f : V ! V è diretta. Dimostrazione. Siano 1 , . . . , r autovalori distinti di f , e supponiamo che v 2 V V 2 + . . . + V r si possa scrivere in due modi 1 + v = v 1 + v 2 + . . . + v r = w1 + w2 + . . . + wr come somma di vettori degli autospazi, vi , wi 2 V i 8 i = 1, . . . , r. Allora (v1 w1 ) + (v2 w2 ) + . . . + (vr wr ) = 0 . Quindi i vettori vi wi 2 V i sono linearmente dipendenti. Dalla proposizione 17.1.12 si deduce che questi vettori devono essere tutti nulli (altrimenti sarebbero linearmente indipendenti), quindi vi = wi 8 i e per ogni vettore v la decomposizione come somma di vettori degli autospazi V i è unica. Questo prova che la somma di autospazi è diretta. ⌅ Teorema 18.1.5. Un endomorfismo f : V ! V è semplice se e solo se V =V dove 1 , 2 , . . . , associati. r 1 V ... 2 V r , sono gli autovalori distinti di f (r n) e V 1 , . . . , V r gli autospazi Dimostrazione. Proviamo prima che se f è semplice, V è somma diretta degli autospazi. Sia n = dim(V ) e B = (v1 , . . . , vn ) una base di V formata da autovettori di f (che per ipotesi è semplice) allora: V = L(v1 , . . . , vn ) ✓ V 1 +V 2 + ... + V r ; l’inclusione opposta è ovvia. Poiché la somma è diretta (prop. 18.1.4), si ha la tesi. Viceversa, sia Bi una base di V i , per i = 1, . . . , r. Se V è somma diretta degli autospazi di f , allora B1 [ B2 [ . . . [ Br è una base di V , ed è ovviamente formata da autovettori di f . ⌅ 130 Il teorema che segue fornisce un criterio per stabilire quando una matrice reale è diagonalizzabile (ovvero quando l’endomorfismo associato è semplice). Teorema 18.1.6. Una matrice A 2 Mn (R) è diagonalizzabile se e solo se: i) tutte le radici del polinomio caratteristico sono reali; ii) ogni autovalore ha molteplicità algebrica uguale alla molteplicità geometrica. Dimostrazione. Dimostriamo prima che la condizione è necessaria. Indichiamo con 1 , 2 , . . . , r gli autovalori distinti di A (r n), e con g i e m i le molteplicità geometriche e algebriche. Per il teorema 18.1.5 (applicato ad f = LA ) si ha n = dim(V ) = dim(V V 1 ... 2 V r) = dim(V 1 ) + dim(V 2 ) + . . . + dim(V r ) =g m 1 +g 1 2 + ... + g +m 2 r + ... + m r n, dove la seconda riga segue dalla formula di Grassmann e la prima disuguaglianza segue dal teorema 17.2.9. Deve essere quindi: m 1 +m 2 + ... + m r =n=g 1 +g 2 + ... + g r e per l’osservazione 18.1.1 questo significa che tutte le radici di pA ( ) sono reali. Siccome g i m i , la precedente uguaglianza implica anche g i = m i (per ogni i = 1, . . . , r). Questo prova i) e ii). Viceversa, se i) e ii) sono verificati, poiché tutte le radici di pA ( ) sono reali, si ha n=m 1 +m 2 + ... + m r = dim(V 1 ) + dim(V 2 ) + . . . + dim(V r ) dove l’ultima uguaglianza segue dall’ipotesi. Quindi dim(V ) = dim(V 1 V 2 ... V r) e per il corollario 7.1.5: V = V 1 V 2 . . . V r . Per il teorema 18.1.5, questo prova che f = LA è semplice, ovvero A è diagonalizzabile. ⌅ Corollario 18.1.7. Se A 2 Mn (R) ha n autovalori distinti, allora è diagonalizzabile. Dimostrazione. Le radici distinte di pA ( ) sono al più n. Se A ha n autovalori distinti, questi sono tutte e sole le radici di pA ( ), che ha quindi solo radici reali e con molteplicità m i = 1 (per i = 1, . . . , n). Siccome 1 g i m i segue che g i = m i = 1 ed A è diagonalizzabile per il teorema 18.1.6. Questo si poteva anche dimostrare in maniera diretta, notando che se A ha n autovalori distinti, ha n autovettori linearmente indipendenti, ed n vettori linearmente indipendenti formano sempre una base di Rn . ⌅ 131 Ricordiamo che una matrice A 2 Mn (R) è diagonalizzabile se e solo se esiste P 2 Mn (R) invertibile tale che P 1 AP è diagonale. La matrice P , detta matrice diagonalizzante di A, si può determinare come segue. Sappiamo che le colonne di P sono autovettori di A (lemma 17.1.7). Essendo P è invertibile, ha rango massimo e le sue colonne sono n vettori linearmente indipendenti: formano quindi una base di Rn . Data una matrice A 2 Mn (R) diagonalizzabile, per determinare una matrice diagonalizzante P (in generale, non unica) è sufficiente trovare una base B = (v1 , . . . , vn ) di Rn formata da autovettori di A. Una matrice diagonalizzante è la matrice che ha i vettori vi come colonne. Proposizione 18.1.8. Sia A 2 Mn (R) diagonalizzabile e B = (v1 , . . . , vn ) una base di Rn formata da autovettori di A. Detta P la matrice che ha per colonne i vettori vi , P 1 AP è diagonale. Dimostrazione. Per ipotesi Avi = i vi , con di P 1 , la condizione P 1 P = In equivale a ⇢ 0 wi · v j = 1 L’elemento di matrice (i, j) di P 1 i 2 R autovalori di A. Dette wi le righe se i 6= j , se i = j . AP vale quindi wi · Avj = wi · ( i vi ) = i (wi · vi ) = ⇢ se i 6= j , se i = j . 0 i Esempio 18.1.9. Una base di R2 formata da autovettori della matrice ✓ ◆ 0 1 A= 1 0 è data da: v1 = (1, 1) , v2 = ( 1, 1) . Si può infatti verificare che Av1 = v1 e Av2 = P = t v1 t v2 L’inversa di P è data da P 1 1 = 2 = ✓ ✓ v2 . La matrice diagonalizzante è ◆ 1 1 . 1 1 1 1 1 1 e si può verificare facilmente che ✓ ◆✓ ◆✓ 1 1 0 1 1 1 1 P AP = 2 1 1 1 0 1 ◆ 1 1 ◆ = ✓ 1 0 0 1 ◆ è diagonale e che gli elementi sulla diagonale sono gli autovalori di A. 132 ⌅ Matrice diagonalizzante Esercizio 18.1.10. Diagonalizziamo la matrice 0 1 3 1 1 B C A = @1 0 2 A . 1 2 0 Soluzione. Gli autovalori sono già stati calcolati nell’esempio 17.2.6, e sono dati da 2. Avendo tre autovalori distinti, A è diagonalizzabile. Una 1 = 1, 2 = 4 e 3 = base v1 = (x1 , y1 , z1 ) , v2 = (x2 , y2 , z2 ) , v3 = (x3 , y3 , z3 ) si ottiene risolvendo i sistemi lineari Av1 = v1 , Av2 = 4v2 , Av3 = 2v3 . Procedendo ad esempio con il metodo di Gauss, si trova che una soluzione non nulla del primo è data da v1 = ( 1, 1, 1), una soluzione non nulla del secondo è data da v2 = (2, 1, 1), ed una soluzione non nulla del terzo è data da v2 = (0, 1, 1). I tre vettori trovati formano una base di R3 composta da autovettori di A. La matrice diagonalizzante è data da 0 1 1 2 0 B C P = t v1 t v2 t v3 = @ 1 1 1 A 1 1 1 Verifichiamo che P 1 AP è diagonale e che gli elementi sulla diagonale sono gli autovalori di A. Determinante ed aggiunta di P sono dati da: |P | = 1· 0 1 1 1 1 1 1 B+ 1 1 B B B 2 0 P⇤ = B B 1 1 B B @ 2 0 + 1 1 2· 1 1 1 + 1 1 1 1 1 1 1 1 1 0 1 0 1 = 1 + 1 1 1 1 + 1 Usando il teorema di Laplace si trova quindi: 0 P 1 6, 2 1B 1 t ⇤ = (P ) = @ 2 |P | 6 0 133 1 1 2 1 2 1 1 C 0 C C 2 C B C=@ 2 C C 2 C A 2 1 3 1 2 C 1A . 3 2 1 1 1 0 C 3A . 3 Si può verificare che 0 2 1B 1 P AP = @ 2 6 0 0 2 1B = @ 2 6 0 2 1 3 2 1 3 come aspettato. 10 2 3 CB 1 A @1 3 1 10 2 CB 1 A@ 3 10 1 1 1 2 CB 0 2A @ 1 1 2 0 1 1 1 0 1 8 0 1 C B 1 4 2A=@0 1 4 2 0 1 0 C 1A 1 0 4 0 1 0 0 1 C B 0A=@ 0 2 0 0 2 0 1 0 C 0 A 3 X Abbiamo già incontrato esempi di matrici che non ammettono autovalori, e matrici che ne ammettono ma non sono diagonalizzabili. La matrice dell’esempio 17.2.10 ha un autovalore con molteplicità algebrica 3 e geometrica 1, e per il teorema 18.1.6 non può essere diagonalizzata. Nel seguito diamo un esempio geometrico. Esempio 18.1.11. Per 0 < ✓ < 2⇡ consideriamo la matrice 0 1 cos ✓ sin ✓ 0 B C A = @ sin ✓ cos ✓ 0A . 0 0 1 Se v = (x, y, 0) è un vettore del piano z = 0, allora A agisce su v come una rotazione di un angolo ✓. Se v = (0, 0, z) è un vettore ortogonale al suddetto piano, allora Av = v: il vettore resta invariato. La matrice A rappresenta quindi una rotazione nello spazio tridimensionale attorno all’asse z. Il vettore (0, 0, 1) è una base dell’autospazio V1 . Un vettore non nullo v = (x, y, 0) non è mai autovettore di A, in quanto non può essere trasformato da una rotazione nel piano in un vettore v0 parallelo a v. La matrice A non ha quindi altri autovettori oltre ai vettori di V1 . Non esiste una base di R3 formata da autovettori di A, che quindi non è diagonalizzabile. Un caso molto importante è dato dalle matrici simmetriche. Una matrice A 2 Rn si dice simmetrica se tA = A. Le matrici simmetriche si possono sempre diagonalizzare. Più in generale, vale il seguente teorema (qui enunciato senza dimostrazione): Teorema 18.1.12. Sia A una matrice simmetrica. Allora: • A è diagonalizzabile; • autovettori associati ad autovalori distinti sono ortogonali; • esiste una base ortonormale di Rn fatta di autovettori di A. 134 Matrici simmetriche 18.2 Esercizi Esercizio 18.2.1. Siano A, B, C le seguenti matrici: A= ✓ 1 0 1 1 ◆ , B= ✓ 1 2 3 1 ◆ , C= ✓ 3 4 1 0 ◆ . a) Determinare il polinomio caratteristico di ciascuna matrice. b) Determinare gli autovalori di ciascuna matrice. c) Stabilire quali delle tre matrici sono diagonalizzabili. Soluzione. a) pA ( ) = ( + 1)2 , pB ( ) = 2 + 5, pC ( ) = 2 + 3 4=( 1)( + 4). b) la matrice A ha autovalore 1 con molteplicità algebrica 2; B non ha autovalori reali; gli autovalori di C sono 1 = 1, 2 = 4. c) B non è diagonalizzabile. C ha due autovalori distinti, quindi è diagonalizzabile. Un autovettore v = t (x1 , x2 ) di A deve risolvere il sistema (A ( 1)I2 )v = ✓ 0 1 0 0 ◆✓ ◆ ✓ ◆ x1 0 = . x2 0 Quindi V 1 = {(x, 0) : x 2 R} ha dimensione 1 ed A non è diagonalizzabile (la molteplicità geometrica di è 1, ed è minore della molteplicità algebrica). X Esercizio 18.2.2. Per t 2 R si consideri la matrice 0 1 1 0 t2 B C A = @0 t 0 A . 1 0 1 a) Dire per quali valori di t la matrice è diagonalizzabile. b) Per i valori di t determinati in a), trovare una base di R3 formata da autovettori di A. Soluzione. a) il polinomio caratteristico è pA ( ) = (t )( 2 2 + 1 radici sono t, 1 = t , 2 = 1 3 = 1+t . t2 ). Le sue Si hanno tre casi 1. se t = 0, gli autovalori sono 1 = 0 e 2 = 3 = 1; A è diagonalizzabile se e solo se la molteplicità geometrica dell’autovalore 1 è pari alla molteplicità algebrica, 135 ovvero uguale a 2. La molteplicità geometrica g è la dimensione del nucleo di A I2 , ovvero g = 3 ⇢(A I2 ). Poiché 0 1 0 0 0 B C A I 3 = @0 1 0 A , 1 0 0 si ha ⇢(A I2 ) = 2 e g = 1. Quindi la matrice A non è diagonalizzabile. 2. se t = 1/2, gli autovalori sono 1 = è diagonalizzabile se e solo se ⇢(A A = 1/2 e 3 = 3/2; come nel primo caso, A 1 I ) = 1. Evidentemente 2 I2 ) = ⇢(A 2 2 0 1 1/2 0 1/4 B C 1 I =@ 0 0 0 A . 2 3 1 0 1/2 2 Siccome la terza riga è il doppio della prima, il rango è 1 ed A è quindi diagonalizzabile. 3. se t 2 / {0, 1/2} i tre autovalori sono distinti. Quindi A è diagonalizzabile. b) Diagonalizziamo A nei casi t = 1/2 e t 2 / {0, 1/2}: 1. se t = 1/2, gli autovettori v = t (x, y, z) associati all’autovalore 1 = risolvono 0 10 1 0 1 1 1/2 0 1/4 x (2x + z) 4 B CB C B C 0 = (A 12 I3 )v = @ 0 0 0 A @y A = @ 0 A . 1 1 0 1/2 z (2x + z) 2 Quindi z = e (0, 1, 0). 2 = 1/2 2x ed y è arbitrario. Una base di V1/2 è data dai vettori (1, 0, 2) Gli autovettori v = t (x, y, z) associati all’autovalore 3 = 3/2 risolvono 0 10 1 0 1 1 1/2 0 1/4 x ( 2x + z) 4 B CB C B C 0 = (A 32 I3 )v = @ 0 1 0 A @y A = @ y A . 1 1 0 1/2 z ( 2x + z) 2 Quindi z = 2x e y = 0. Una base di V3/2 è data dal vettore (1, 0, 2). I tre autovettori insieme formano una base B di R2 : B = (1, 0, 2) , (0, 1, 0) , (1, 0, 2) . 2. se t 2 / {0, 1/2}, un autovettore v = t (x, y, z) associato all’autovalore 1 = t si ottiene risolvendo 0 10 1 0 1 1 t 0 t2 x (1 t)x + t2 z B CB C B C 0 = (A tI2 )v = @ 0 0 0 A @y A = @ 0 A . 1 0 1 t z x + (1 t)z 136 Una soluzione è data da v1 = (0, 1, 0). Un autovettore v = t (x, y, z) associato all’autovalore 2 = 1 t si ottiene risolvendo 0 10 1 0 1 t(x + tz) t 0 t2 x B CB C B C 0 = (A (1 t)I2 )v = @0 2t 1 0 A @y A = @(2t 1)y A . 1 0 t z x + tz Una soluzione è data da v2 = (t, 0, 1). Un autovettore v = t (x, y, z) associato all’autovalore 3 = 1 t si ottiene risolvendo 0 10 1 0 1 t 0 t2 x t(x tz) B CB C B C 0 = (A (1 + t)I2 )v = @ 0 1 0 A @y A = @ y A . 1 0 t z x tz Una soluzione è data da v3 = (t, 0, 1). I tre vettori v1 , v2 , v3 formano la base cercata. X Esercizio 18.2.3. Per t 2 R si considerino le matrici 0 1 0 1 t 0 0 t 1 10 B C B C A = @0 2 0 A , B = @0 2 0 A . 0 0 3 0 t t a) Determinare nucleo e immagine dell’endomorfismo LB : R3 ! R3 . b) Si stabilisca per quali valori di t le matrici A e B sono simili. Soluzione. a) L’immagine di LB è generata dalle colonne di B, ovvero dalle righe di t B. Si può trovare una base riducendo t B per righe. Dette Ri le sue righe, si ha 0 1 !R 0 1 1 3 t 0 0 R 1 2 t R2 !R1 B C R !R2 B C t B = @ 1 2 tA 3 ! M = @10 0 t A . 10 0 t t 0 0 La matrice M è ridotta per righe per ogni valore di t. Se t 6= 0, ⇢(B) = ⇢(M ) = 3 e l’immagine di LB è R3 ; se t = 0, le due righe non nulle di M formano una base dell’immagine di LB , che ha quindi dimensione 2. Per il teorema della dimensione, se t 6= 0 il nucleo è N (LB ) = {0}. Se t = 0, il nucleo ha dimensione 1 ed i suoi vettori si trovano risolvendo il sistema 0 10 1 0 1 0 1 0 1 10 x y + 10z 0 B CB C B C B C @0 2 0 A @y A = @ 2y A = @0A . 0 0 0 z 0 0 137 Si trova y = z = 0 e x arbitrario. Quindi N (LB ) = L{(1, 0, 0)}. b) Condizione necessaria è che A e B abbiano gli stessi autovalori. Gli autovalori di A sono t, 2, 3. Quelli di B sono le radici di )2 (2 pB ( ) = (t ). Le due matrici hanno gli stessi autovalori se e solo se t = 3. In quest’ultimo caso, B è diagonalizzabile (quindi, simile ad A) se e solo se l’autovalore = 3 ha molteplicità geometrica pari a quella algebrica (che è 2). L’autospazio associato è formato dai vettori v = t (x, y, z) che risolvono: 0 10 1 0 1 0 1 10 x y + 10z B CB C B C 0 = (B 3I2 )v = @0 1 0 A @y A = @ y A . 0 3 0 z 3y Quindi y = z = 0 ed x è arbitrario. Una base di V3 è data da (1, 0, 0), e la molteplicità geometrica di = 3 è dim(V3 ) = 1. Possiamo concludere che le matrici A e B non sono simili per nessun valore di t. X Esercizio 18.2.4. Siano A, B, C le seguenti matrici: 0 1 0 1 2 1 0 1 1 0 B C B C A = @0 2 0 A , B = @0 2 0 A , 0 0 1 0 0 2 a) Determinare autovalori ed autovettori di A e B. 0 1 1 1 1 B C C = @0 t 0 A . 0 0 2 b) Stabilire se A e B sono simili. c) Esistono valori di t 2 R per cui B e C sono simili? Soluzione. a) le tre matrici sono triangolari superiori: gli autovalori sono gli elementi sulla diagonale. Gli autovalori di A sono 1 = 1 e 2 = 2. Il primo ha molteplicità algebrica 1, il secondo 2. Gli autovettori associati, v1 = t (x, y, z) e v2 = t (x0 , y 0 , z 0 ), devono risolvere 0 10 1 0 1 1 1 0 x x+y B CB C B C 0 = (A 1 I2 )v1 = @0 1 0A @ y A = @ y A 0 0 0 z 0 e 0 = (A 0 0 1 B 2 I2 )v2 = @0 0 0 0 138 10 1 0 1 0 x0 y0 CB C B C 0 A @y 0 A = @ 0 A . 1 z0 z0 Quindi V 1 = {(0, 0, z) : z 2 R} e V 2 = {(x0 , 0, 0) : x0 2 R}. Notiamo che la matrice A non è diagonalizzabile, poiché 2 ha molteplicità geometrica data da dim(V 2 ) = 1 ed algebrica uguale a 2. Gli autovalori di B sono 01 = 1 e 02 = 2. Il primo ha molteplicità algebrica 1, il secondo 2. Gli autovettori associati, v10 = t (x, y, z) e v20 = t (x0 , y 0 , z 0 ), devono risolvere 0 10 1 0 1 0 1 0 x y B CB C B C 0 0 0 = (B 1 I2 )v1 = @0 1 0A @ y A = @y A 0 0 1 z z e 0 = (B 0 10 1 0 1 1 1 0 x0 x0 + y 0 B CB C B C 0 0 0 0A @ y 0 A = @ 0 A . 2 I2 )v2 = @ 0 0 0 0 0 z 0 Quindi V 01 = {(x, 0, 0) : x 2 R} e V 02 = {(x0 , x0 , z 0 ) : x0 , z 0 2 R}. I tre vettori (1, 0, 0) 2 V 01 e (1, 1, 0), (1, 1, 1) 2 V 02 formano una base di R3 , quindi B è diagonalizzabile (in alternativa, basta si poteva notare che la molteplicità algebrica di ciascun autovalore è uguale a quella algebrica). b) A e B non sono simili: infatti B è diagonalizzabile ed A no. c) Condizione necessaria è che B e C abbiano gli stessi autovalori, quindi t = 2. Per t = 2, C è simile a B se è diagonalizzabile, ovvero se la molteplicità geometrica dell’autovalore = 2 è pari a 2. Determiniamo l’autospazio associato. Un vettore v = t (x, y, z) è autovettore di C associato all’autovalore = 2 se risolve 0 10 1 0 1 1 1 1 x x+y+z B CB C B C 0 = (C 2I2 )v = @ 0 0 0A @y A = @ 0 A . 0 0 0 z 0 Quindi V2 = {(y + z, y, z) : y, z 2 R}. Una base di V2 è data ad esempio dai vettori (1, 1, 0) e (1, 0, 1). La molteplicità geometrica dell’autovalore = 2 è dim(V2 ) = 2, quindi C è diagonalizzabile. In risposta al punto c), B e C sono simili se (e solo se) t = 2. X Esercizio 18.2.5. Sia A la matrice 0 2 B0 B A=B @0 0 1 3 0 0 1 4 5 0 1 0 0C C C . 0A 1 Riconoscere che è diagonalizzabile e determinare una matrice diagonalizzante P . 139 Soluzione. A ha quattro autovalori distinti (gli elementi sulla diagonale): 1 = 1, 2 = 2, 3 = 3, 4 = 5. E’ quindi diagonalizzabile. Per trovare un autovettore t v = (x1 , x2 , x3 , x4 ) associato all’autovalore 1 dobbiamo risolvere il sistema: 0 = (A 0 1 B0 B I2 )v = B @0 0 1 2 0 0 1 4 4 0 10 1 0 1 0 x1 x1 + x2 + x3 B C B C 0C C Bx2 C B 2x2 + 4x3 C CB C = B C A 0 A @x 3 A @ 4x3 0 x4 0 La soluzione è x1 = x2 = x3 = 0 e x4 arbitrario. Un autovettore è v1 = (0, 0, 0, 1). In maniera simile, per trovare un autovettore associato all’autovalore 2 risolviamo il sistema 0 10 1 0 1 0 1 1 0 x1 x2 + x3 B0 1 4 0 C Bx C Bx + 4x C B C B 2C B 2 3C 0 = (A 2I2 )v = B CB C = B C @0 0 3 0 A @x3 A @ 3x3 A 0 0 0 1 x4 x4 La soluzione è x2 = x3 = x4 = 0 e x1 arbitrario. Un autovettore è v2 = (1, 0, 0, 0). Per 3 risolviamo il sistema 0 10 1 0 1 1 1 1 0 x1 x1 + x2 + x3 B 0 0 4 0 C Bx C B C 4x3 B C B 2C B C 0 = (A 3I2 )v = B CB C = B C @ 0 0 2 0 A @x 3 A @ A 2x3 0 0 0 2 x4 2x4 La soluzione è x3 = x4 = 0 e x1 = x2 arbitrario. Un autovettore è v3 = (1, 1, 0, 0). Per 4 risolviamo il sistema 0 10 1 0 1 3 1 1 0 x1 3x1 + x2 + x3 B0 B C B 2 4 0C 2x2 + 4x3 C B C Bx 2 C B C 0 = (A 5I2 )v = B CB C = B C @0 A 0 0 0 A @x 3 A @ 0 0 0 0 4 x4 4x4 La soluzione è x4 = 0, x2 = 2x3 e x1 = x3 . Un autovettore è v4 = (1, 2, 1, 0). La matrice diagonalizzante è P = t v1 t v2 t v3 t v4 140 0 0 B0 B =B @0 1 1 0 0 0 1 1 0 0 1 1 2C C C . 1A 0 X Lezione XIX Geometria di R2 Sommario: rette e circonferenze nel piano; intersezioni; distanze (punto–punto, punto– retta, retta–circonferenza); rette tangenti ad una circonferenza. Esempi. 19.1 Equazioni di una retta Sia O = (0, 0) l’origine del piano cartesiano. Consideriamo due punti, P di coordinate u = (u1 , u2 ) e Q di coordinate x = (x1 , x2 ) di R2 , distinti e diversi dall’origine. I tre punti O, P e Q sono allineati se e solo se x = tu per qualche t 6= 0, ovvero se e solo se i corrispondenti vettori x e u sono proporzionali. Ad esempio, assumendo per semplicità che x1 e u1 siano diversi da zero, l’inclinazione del segmento OP è l’arcotangente di x2 /x1 , l’inclinazione del segmento OQ è l’arcotangente di u2 /u1 , ed i punti sono allineati se e solo se x2 /x1 = u2 /u1 , ovvero esiste t 6= 0 tale che x1 = tu1 e x2 = tu2 . In figura 7a è disegnato l’esempio u = (1, 2) e x = 3u = (3, 6). L’equazione ⇢ x1 = tu1 x = tu () x2 = tu2 al variare di t 2 R descrive tutti i punti appartenenti alla retta r0 passante per l’origine e la cui direzione è data dal vettore u = (u1 , u2 ) (l’origine si ottiene per t = 0). Sommando a tu un vettore p = (p1 , p2 ) indipendente da t si ottiene una retta parallela ad r0 ma passante per il punto di coordinate p = (p1 , p2 ). La retta r passante per p e parallela ad u è quindi il luogo dei punti11 di coordinate x date da ⇢ x1 = p1 + tu1 x = p + tu () (19.1) x2 = p2 + tu2 Come esempio, in figura 7b è disegnata (in blu) la retta di direzione u = (2, 1) e passante per il punto p = (0, 1). L’equazione (19.1) è detta equazione parametrica della retta r. L’equazione parametrica di una retta non è unica. Moltiplicando ad esempio il vettore u per uno scalare, la retta rappresentata non cambia (vettori proporzionali hanno la stessa direzione). Inoltre come punto p è possibile scegliere un qualsiasi punto della retta. Ad esempio le equazioni: r : x = (1, 1) + t(3, 2) , r0 : x = (1, 1) + t(6, 4) , 11 r00 : x = (4, 3) + t(6, 4) , Un luogo geometrico è l’insieme di tutti e soli i punti del piano che hanno una determinata proprietà, solitamente espressa attraverso una equazione. 141 Equazione parametrica di una retta x 6 u p u 2 1 3 (a) Vettori proporzionali (b) Retta passante per p = (0, 1) e parallela a u = (2, 1) Figura 7 descrivono la stessa retta. Le rette r e r0 coincidono, perché abbiamo semplicemente moltiplicato per 2 il vettore che dà la direzione della retta. Inoltre il punto (4, 3) appartiene ad r (si ottiene scegliendo t = 1 nell’equazione di r), quindi anche r00 coincide con r. Data una retta r di equazioni parametriche (19.1), possiamo ridurre l’ambiguità nella scelta del vettore che ne individua la direzione chiedendo che abbia norma 1. Esistono solo due vettori di norma 1 paralleli ad r, sono dati da ±u/kuk e si dicono versori della retta. Si dice invece vettore normale ad r un qualsiasi vettore non nullo n che sia perpendicolare alla retta stessa. Ad esempio, il vettore n = ( u2 , u1 ) è ortogonale ad u, e tutti i vettori normali sono proporzionali ad esso. Eliminando da (19.1) il parametro t si ottiene una equazione detta equazione cartesiana della retta r. Per eliminare il parametro t è sufficiente prendere in ambo i membri di (19.1) il prodotto scalare con il vettore n = ( u2 , u1 ). Si ottiene n · x = n · p () u 2 x 1 + u1 x 2 = Abbiamo provato che (19.1) implica (19.2). Mostriamo che è vero anche il viceversa, (19.2) implica (19.1) e quindi descrive lo stesso luogo geometrico (la stessa retta). Notiamo che per ipotesi (a, b) 6= (0, 0), poiché u 6= (0, 0). Il rango della matrice dei coefficienti è quindi 1, e la soluzione generale di (19.2) dipende da un parametro t. Evidentemente p è una soluzione particolare, poiché u2 p 1 + u1 p 2 + u2 p 1 142 Vettore normale u 2 p 1 + u1 p 2 . Chiamando a = u2 , b = u1 e c = u2 p1 u1 p2 si trova l’equazione cartesiana di una generica retta r, data da ax1 + bx2 + c = 0 . (19.2) ap1 + bp2 + c = Versore u1 p 2 = 0 . Equazione cartesiana di una retta La soluzione generale ha quindi la forma x = p + tv dove v è una qualsiasi soluzione non nulla dell’equazione omogenea associata. Possiamo scegliere v = u, infatti au1 + bu2 = u2 u1 + u 1 u2 = 0 , ottenendo in questo modo x = p + tu, che è esattamente (19.1). Osservazione 19.1.1. L’equazione (19.2) descrive una retta se e solo se (a, b) 6= (0, 0) (se a = b = 0 l’insieme delle soluzioni è l’insieme vuoto, se c 6= 0, oppure l’intero piano, se c = 0). Il vettore n = (a, b) è perpendicolare alla retta di equazione (19.2). Osservazione 19.1.2. Come per le equazioni parametriche, anche l’equazione cartesiana di una retta non è unica. Ad esempio, moltiplicando tutti e tre i coefficienti a, b, c per uno scalare non nullo si ottiene una equazione di↵erente della medesima retta. Vedremo in e↵etti, quando parleremo di intersezioni, che due equazioni ax1 + bx2 + c = 0 e a0 x1 + b0 x2 + c0 = 0 descrivono la stessa retta se e solo i vettori (a, b, c) e (a0 , b0 , c0 ) di R3 sono proporzionali. Supponiamo di voler risolvere il seguente problema: sia r la retta di equazione ax1 + bx2 + c = 0 e p = (p1 , p2 ) un punto qualsiasi del piano. Vogliamo scrivere l’equazione parametrica della retta r0 passante per p ed ortogonale ad r. La soluzione è semplice: r0 ha equazione ⇢ x1 = p1 + ta 0 r : (19.3) x2 = p2 + tb come si evince notando che la direzione di r0 è data dal vettore (a, b), che è perpendicolare ad r (osservazione 19.1.1). Un altro problema che può capitare è di voler trovare un’equazione della retta passante per due punti dati. Siano a = (a1 , a2 ) e b = (b1 , b2 ) due punti distinti: è immediato trovare l’equazione parametrica della retta passante per questi due punti. In (19.1) si pone p = a e si nota che la retta deve essere parallela al vettore u = b a. Un’equazione parametrica è quindi data da ⇢ x1 = a1 + t(b1 x2 = a2 + t(b2 a1 ) a2 ) (19.4) Si noti che ponendo t = 0 nelle equazioni parametriche si ritrova il punto x = a, e ponendo t = 1 si trova il punto x = b. Per ottenere un’equazione cartesiane basta prendere l’equazione x = a + t(b a) e fare il prodotto scalare ambo i membri con il vettore normale ( u2 , u1 ) = (a2 b2 , b1 a1 ). Si ottiene (a2 b2 )x1 (a1 b1 )x2 + a1 b2 a2 b1 = 0 . 143 Rette ortogonali Rette passante per due punti b u a Figura 8 In forma matriciale, l’equazione si può scrivere nella forma: x1 b1 a1 x2 a1 b 2 a2 a2 =0. (19.5) Esempio 19.1.3. Scriviamo l’equazione della retta passante per i punti a = (1, 2) e b = ( 2, 4). L’equazione parametrica è data da ⇢ x1 = 1 3t x2 = 2 + 2t L’equazione cartesiana è data da: x1 1 x2 3 2 2 = 2x1 + 3x2 8=0. Il grafico è in figura 8. 19.2 Intersezione fra due rette Date due rette r e r0 ci sono tre possibilità: le rette si intersecano in un punto, sono parallele (quindi hanno intersezione vuota), oppure coincidono (e l’intersezione è tutta la retta). Per stabilire quale dei tre casi si verifica, si può usare il rango. L’intersezione r \ r0 è il luogo dei punti le cui coordinate risolvono il sistema ⇢ ax1 + bx2 + c = 0 a0 x 1 + b 0 x 2 + c 0 = 0 in cui la prima equazione è un’equazione cartesiana della retta r, la seconda è un’equazione cartesiana della retta r0 , e per ipotesi (a, b) 6= (0, 0) e (a0 , b0 ) 6= (0, 0). Indicando con A e (A|B) le matrici associate al sistema: ! ! a b a b c A= , (A|B) = , a0 b 0 a0 b 0 c0 144 evidentemente il rango soddisfa 1 ⇢(A) ⇢(A|B) 2 , in cui la prima disuguaglianza segue dal fatto che ogni riga di A ha almeno un elemento non nullo. Per il teorema di Rouché-Capelli, 1. se ⇢(A) = 1 e ⇢(A|B) = 2 il sistema non ammette soluzione, e r \ r0 = ; è l’insieme vuoto (questo vuol dire che le rette r e r0 sono parallele e distinte); 2. se ⇢(A) = ⇢(A|B) = 1 le due righe della matrice dei coefficienti sono proporzionali, e le due rette coincidono: r = r0 ; in questo caso l’intersezione r \ r0 = r è una retta; 3. se ⇢(A) = ⇢(A|B) = 2 il sistema ammette un’unica soluzione, e l’intersezione r \ r0 è un punto. Esempio 19.2.1. Siano r e r0 le rette di equazioni cartesiane r : 2x1 r0 : 4x1 3x2 + 1 = 0 6x2 = 0 Si ha ⇢(A) = 1 e ⇢(A|B) = 2: le due rette sono parallele e non coincidenti. Esempio 19.2.2. Siano r e r0 le rette di equazioni cartesiane r : 2x1 3x2 + 1 = 0 r0 : 4x1 + 2x2 1 = 0 Si ha ⇢(A) = ⇢(A|B) = 2: le due rette si incontrano in un punto. Esempio 19.2.3. Siano r e r0 le rette di equazioni cartesiane r : 2x1 r0 : 4x1 3x2 + 1 = 0 6x2 + 2 = 0 Si ha ⇢(A) = ⇢(A|B) = 1: le due rette coincidono. 19.3 Circonferenze Ricordiamo che la distanza del punto P di coordinate x = (x1 , x2 ) dall’origine, ovvero la lunghezza del segmento OP , è data da q kxk = x21 + x22 . Più in generale (vedere figura 9a), la distanza fra due punti di coordinate x = (x1 , x2 ) e y = (y1 , y2 ), indicata con d(x, y), è la norma del vettore (x1 y1 , x2 y2 ), ossia p d(x, y) = kx yk = (x1 y1 )2 + (x2 y2 )2 . 145 x = (x1 , x2 ) |x2 y2 | d(x, y) = kx |x1 yk y = (y1 , y2 ) y1 | (a) Distanza R (b) c Circonferenza di centro c = (4, 2) e raggio R = 3. Figura 9 Una circonferenza di centro c = (c1 , c2 ) e raggio R > 0 è l’insieme dei punti del piano a distanza R dal punto c. Quindi un punto x è sulla circonferenza se e solo se soddisfa: kx Circonferenza ck = R , ovvero elevando al quadrato ambo i membri: (x1 c1 )2 + (x2 c2 ) 2 = R 2 . (19.6) Un esempio è in figura 9b. Data una retta di equazione ax1 + bx2 + d = 0, l’intersezione della retta con la circonferenza di equazione (19.6) è l’insieme delle soluzioni del sistema (non lineare): ⇢ (x1 c1 )2 + (x2 c2 )2 = R2 ax1 + bx2 + d = 0 Equazione della circonferenza Intersezione fra retta e una circonferenza Per trovare le intersezioni si procede per sostituzione. Sappiamo che (a, b) 6= (0, 0). Supponiamo ad esempio sia a 6= 0, allora dalla seconda equazione ricaviamo x1 = a 1 (bx2 + d), che sostituita nella prima dà una equazione di secondo grado in una sola variabile. Il numero di soluzioni (reali) dipenderà dal segno del discriminante. Si hanno tre possibilità: 1. se il discriminante è positivo, retta e circonferenza si incontrano in due punti; 2. se il discriminante è zero, retta e circonferenza si incontrano in un punto (in questo caso la retta si dice tangente alla circonferenza); 3. se il discriminante è negativo, l’intersezione è vuota. Esempio 19.3.1. Determiniamo l’intersezione della retta di equazione x1 x2 + 2 = 0 con la circonferenza di centro (2, 1) e raggio 3 (figura 10a). Dobbiamo risolvere il sistema ⇢ (x1 2)2 + (x2 1)2 = 9 x1 x2 + 2 = 0 146 Retta tangente (a) (b) (c) Figura 10 Dalla seconda si ricava x2 = x1 +2, che sostituita nella prima dà (x1 2)2 +(x1 +1)2 9 = 0. Sviluppando i quadrati si trova 2x21 2x1 4=0 che ha soluzioni x1 = 2, 1. Usando x2 = x1 + 2 si evince che l’intersezione è data dai due punti di coordinate (2, 4) e ( 1, 1). In maniera simile si trova l’intersezione fra due circonferenze, diciamo una di centro c = (c1 , c2 ) e raggio R e la seconda di centro c0 = (c01 , c02 ) e raggio R0 . Se le due circonferenze hanno lo stesso centro, allora coincidono oppure hanno intersezione vuota. Supponiamo quindi che c 6= c0 . L’intersezione è l’insieme delle soluzioni del sistema (non lineare): ⇢ (x1 c1 )2 + (x2 c2 )2 = R2 (x1 c01 )2 + (x2 c02 )2 = R02 Notiamo che sottraendo membro a membro le due equazioni, i termini di secondo grado scompaiono. Si ottiene in questo modo il sistema equivalente ⇢ (x1 c1 )2 + (x2 c2 )2 = R 2(c1 c01 )x1 + 2(c2 c02 )x2 = (c21 2 c02 1 ) + (c2 c02 2) R2 + R02 La seconda equazione descrive una retta, ed il sistema si può ora risolvere come nel caso delle intersezioni fra retta e circonferenza. A seconda dei casi, le due circonferenze si incontreranno in un punto, in due o in nessuno. Esempio 19.3.2. In figura 10b è mostrata come esempio l’intersezione fra la circonfep renza di centro (2, 1) e raggio 3 e la circonferenza di centro ( 32 , 52 ) e raggio 5 2/2. Le due circonferenze si incontrano nei punti ( 1, 1) e (2, 2). 147 Intersezione fra due circonferenze Un altro problema consiste, data una circonferenza di centro c e raggio R ed un punto p sulla circonferenza, nel trovare l’equazione della retta r tangente alla circonferenza nel punto p. La tangente deve essere ortogonale al segmento da c a p, ovvero al vettore p c. L’equazione cartesiana di r sarà quindi (p c) · (x Tangenti ad una circonferenza p) = 0 . Si vede infatti che la direzione è quella giusta e x = p è soluzione particolare dell’equazione, quindi p è un punto della retta. Esempio 19.3.3. La retta tangente alla circonferenza di centro c = (2, 2) e raggio R = 5 nel punto p = (5, 2) ha equazione 3x1 4x2 23 = 0 . La situazione è illustrata in figura 10c. 19.4 Distanze La distanza di un punto p da una retta r è la lunghezza del segmento che va da p alla proiezione ortogonale di p su r, sia essa q. Se r ha equazione cartesiana (19.2), la retta r0 ortogonale ad r è data da (19.3). L’intersezione fra r ed r0 si ottiene sostituendo i valori di x1 e x2 dati da (19.3) nell’equazione (19.2) e risolvendo in t. Si ottiene ax1 + bx2 + c = a(p1 + ta) + b(p2 + tb) + c = 0 ovvero ap1 + bp2 + c . a2 + b 2 Sostituendo in (19.3) si trovano le coordinate del punto q = (x1 , x2 ), date da t= x1 = p1 ap1 + bp2 + c a, a2 + b2 x1 = p 2 ap1 + bp2 + c b. a2 + b 2 La distanza fra p ed r è quindi data da d(p, r) = kp qk = |ap1 + bp2 + c| p . a2 + b 2 Esempio 19.4.1. La distanza fra la retta r di equazione 7x1 p = (4, 1) vale |7 · 4 4 · 1 + 6| 30 p d(p, r) = =p . 2 2 7 +4 65 La situazione è illustrata in figura 11a. 148 (19.7) 4x2 + 6 = 0 ed il punto Distanza punto-retta r r d(r, C) d(p, r) p c (a) (b) Figura 11 Analogamente, per calcolare la distanza fra due rette parallele r ed r0 si calcola la distanza di r da un qualsiasi punto p 2 r0 . Per finire, data una circonferenza C di centro c e raggio R, un punto p ed una retta r, se d(p, c) R la distanza di p da C è data dalla distanza dal centro meno il raggio: d(p, C) = d(p, c) e in maniera simile se d(r, c) R, R la distanza di r da C è d(r, C) = d(c, r) Esempio 19.4.2. La distanza fra la retta r di equazione 3x1 circonferenza di centro c = (3, 1) e raggio R = 5/4 è data da: d(r, C) = |3 · 3 4 · 1 + 14| p 32 + 4 2 5 19 = 4 5 R. 4x2 + 14 = 0 e la 5 51 = . 4 20 La situazione è illustrata in figura 11b. 19.5 Esercizi Osservazione 19.5.1. Osserviamo che x1 b1 a1 x 2 a1 b 2 a2 a2 x1 x2 1 = a1 a2 1 . b1 b2 1 Quindi, l’equazione cartesiana di una retta passante per due punti distinti a = (a1 , a2 ) e b = (b1 , b2 ) si può anche scrivere nella forma x1 x2 1 a1 a2 1 = 0 . b1 b2 1 In particolare, questo significa che tre punti x = (x1 , x2 ), a = (a1 , a2 ) e b = (b1 , b2 ) sono allineati (cioé contenuti in una retta) se e solo se il determinante qui sopra è nullo. 149 Esercizio 19.5.2. Stabilire se i punti (1, 3), ( 2, 1) e (3, 1) sono allineati. Soluzione. Usiamo l’osservazione 19.5.1. Calcolando il determinante per riduzione e poi con lo sviluppo di Laplace rispetto alla terza colonna si trova: 1 2 3 3 1 1 1 1 1 1 3 2 R2 !R2 R1 R3 !R3 R1 = 3 1 4 0 = 2 0 3 2 4 2 = 6 + 8 = 14 . X Quindi i punti non sono allineati. Esercizio 19.5.3. Determinare una equazione cartesiana e una parametrica della retta passante per i punti (2, 1) e ( 2, 3). Soluzione. Usando (19.4) si trova una equazione parametrica: ⇢ x1 = 2 4t x2 = 1 + 2t e usando (19.5) si trova quella cartesiana. Poiché x1 2 x2 4 1 2 una equazione cartesiana è x1 + 2x2 = 2x1 + 4x2 8, X 4 = 0. Esercizio 19.5.4. Si determini la distanza del punto p = (2, 1) dalla retta r di equazione 2x1 x2 + 5 = 0. Si determini la distanza del punto p0 = (1, 3) dalla retta r0 di equazione x1 + 2x2 7 = 0. Soluzione. Usando la formula (19.7) si ottiene: d(p, r) = |2 · 2 1 · 1 + 5| 8 p =p , 22 + 1 2 5 e |1 · 1 + 2 · 3 7| p =0. 12 + 2 2 La distanza di p0 da r0 è zero. Si può in e↵etti notare che p0 2 r0 . d(p0 , r0 ) = Esercizio 19.5.5. Si determini la distanza fra le rette di equazioni: r: ⇢ x1 = 2 4t , x2 = 1 + 2t r0 : x1 + 2x2 150 7=0. X Soluzione. Notiamo che le due rette sono parallele. La prima è parallela al vettore u = ( 4, 2), la seconda è ortogonale al vettore (a, b) = (1, 2), ovvero parallela al vettore u0 = ( 2, 1). Siccome u = 2u0 le due rette sono parallele. La distanza fra r e r0 è la distanza fra un qualsiasi punto p 2 r ed r0 . Ad esempio, possiamo scegliere p = (2, 1) e calcolare d(p, r0 ) = |1 · 2 + 2 · 1 7| 3 p =p . 2 2 1 +2 5 X Esercizio 19.5.6. Determinare l’intersezione fra le circonferenze C e C 0 di equazione (x1 3)2 + (x2 + 4)2 = 25 , (x1 + 1)2 + x22 = 9 . Soluzione. Sottraendo membro a membro le due equazioni si ottiene l’equazione: r: 8x1 + 8x2 + 8 = 0 . Poiché C \ C 0 = r \ C 0 , basta determinare l’intersezione di C 0 con la retta r. Dall’equazione di r si ricava x1 = x2 + 1, che sostituita nell’equazione di C 0 dà: (x2 + 2)2 + x22 = 9 2x22 + 4x2 () 5=0. q ed i corrispondenti valori di x1 sono ± 72 . p p p p L’intersezione è quindi nei due punti 7/2, 7/2 1 e 7/2, 7/2 1 . La situazione è illustrata in figura 12. X Le soluzioni sono date da x2 = 1± q 7 , 2 r Figura 12 151 Lezione XX Esercitazione Sommario: esempi svolti di temi d’esame.12 20.1 Tema d’esame #1 Esercizio 20.1.1. Si consideri il seguente sistema di equazioni lineari dipendente da un parametro 2 R: 8 x2 + x4 = 2 > > > < x1 + 2x2 + 2x3 + 2x4 = 3 > x2 + ( + 2)x3 + ( + 3)x4 = 2 > > : ( 1)x1 + 2x2 + x3 + 2x4 = 5 a) Determinare i valori di b) per i valori di per cui il sistema ammette soluzioni; trovati al punto a), determinare la soluzione generale del sistema. Esercizio 20.1.2. Nello spazio vettoriale R4 si considerino i seguenti sottospazi: V := L (2, 4, 1, 3), (1, 0, 1, 0), ( 4, 8, 2, 6), (2, 12, 1, 9) , W := (x1 , x2 , x3 , x4 ) 2 R4 : x1 x3 = 2x1 + x2 + 2x3 + x4 = 0 . a) Si determini, se esiste, una base per ciascuno dei sottospazi: V , W , V \W , V +W ; b) la somma V + W è diretta? c) si determini, se esiste, una base di W ? . Esercizio 20.1.3. Si consideri la matrice: 0 1 2 0 4 B C A=@ t+1 1 2t A t + 1 0 2t + 2 Stabilire per quali valori di t 2 R la matrice A è diagonalizzabile. 12 Con un abuso di notazione, in questo capitolo la riga i-esima di una qualsiasi matrice verrà indicata sempre con il simbolo Ri . 152 20.2 Tema d’esame #2 Esercizio 20.2.1. Considerare la matrice 0 1 B 1 B A=B @ 2 0 0 1 1 1 2 3 3 1 1 C C C A a) Calcolare il rango di A; b) indicare una base per lo spazio delle righe ed una per lo spazio delle colonne di A; c) discutere il sistema A·X =B nelle variabili X = t (x1 , x2 , x3 ), con B = t (1, 1, 4, 2); d) esistono valori di t 2 R per cui A·X = B 0 , con B 0 = t (1, 1, t, t), ammette soluzione? Esercizio 20.2.2. Sia V il sottospazio di R3 formato dai vettori v della forma v = ( 2a1 + a2 , a1 a3 , a1 + a2 + a3 ) con a1 , a2 , a3 2 R. a) Calcolare la dimensione di V ; b) scrivere una base di V . Esercizio 20.2.3. Siano A e B le matrici 0 1 4 1 0 B C A=@ 0 2 0 A , 0 0 2 con t parametro reale. 0 1 2 1 0 B C B=@ 0 2 0 A , 0 0 t a) Calcolare gli autovalori di A e trovare una base per ciascun autospazio di A; b) la matrice A è diagonalizzabile? In caso a↵ermativo, trovare una matrice diagonalizzante; c) esistono valori di t 2 R per cui le matrici A e B sono simili? 153 20.3 Soluzioni tema d’esame #1 Esercizio 20.3.1. Si consideri il seguente sistema di equazioni lineari dipendente da un parametro 2 R: 8 x2 + x4 = 2 > > > < x1 + 2x2 + 2x3 + 2x4 = 3 > x2 + ( + 2)x3 + ( + 3)x4 = 2 > > : ( 1)x1 + 2x2 + x3 + 2x4 = 5 a) Determinare i valori di b) per i valori di per cui il sistema ammette soluzioni; trovati al punto a), determinare la soluzione generale del sistema. Soluzione. a) La matrice completa del sistema è 0 B B (A|B) = B @ 0 1 0 1 2 1 1 2 0 2 +2 1 2 +3 2 1 2 3C C C. 2A 5 Per riduzione si ottiene (A|B) 0 B B !B B @ R1 $R2 1 0 2 1 1 2 0 1 R4 !R4 ( 2 0 +2 0 1 B 1)R1 B 0 !B B0 @ 0 2 1 2 +3 2 1 1 1 3 C 2C C 5C A 2 2 0 +2 +2 2 1 +3 2 +4 2 +4 0 1 2 R3 !R3 R2 B B0 1 R4 !R4 +(2 4)R2 ! (A0 |B 0 ) = B B0 0 @ 0 0 3 2 2 3 +8 2 0 +2 +2 1 C C C C A 1 2 3 C 1 2C C. +2 0 C A 0 La matrice completa A0 è ridotta per righe, qualunque sia il valore di . Se = 2, allora ⇢(A) = 3 6= ⇢(A|B) = 4, e il sistema non è compatibile. Se = 2, allora ⇢(A) = ⇢(A|B) = 3: il sistema è compatibile e le soluzioni dipendono da un parametro reale. Se 6= ±2, allora ⇢(A) = ⇢(A|B) = 4, e il sistema è compatibile ed ammette un’unica soluzione. b) Il sistema di matrice completa (A0 |B 0 ) è equivalente a quello di partenza ed è dato 154 da 8 x1 + 2x2 + 2x3 + 2x4 = 3 > > > < x2 + x4 = 2 > ( + 2)(x3 + x4 ) = 0 > > : ( + 2)x3 = Se 6= ±2 l’unica soluzione si trova per sostituzione dal basso verso l’alto. Si ottiene ✓ ◆ +2 4 (x1 , x2 , x3 , x4 ) = , , , 2 2 2 2 Se = 2 il sistema diventa 8 > < x1 + 2x2 + 2x3 + 2x4 = 3 x2 + x4 = 2 > : 4x3 = 2 Assegnando un valore t arbitrario ad x4 e risolvendo per sostituzione si trova (x1 , x2 , x3 , x4 ) = 0, 2 t, 1 ,t 2 , X con t 2 R. Esercizio 20.3.2. Nello spazio vettoriale R4 si considerino i seguenti sottospazi: V := L (2, 4, 1, 3), (1, 0, 1, 0), ( 4, 8, 2, 6), (2, 12, 1, 9) , W := (x1 , x2 , x3 , x4 ) 2 R4 : x1 x3 = 2x1 + x2 + 2x3 + x4 = 0 . a) Si determini, se esiste, una base per ciascuno dei sottospazi: V , W , V \W , V +W ; b) la somma V + W è diretta? c) si determini, se esiste, una base di W ? . Soluzione. a) Dei restanti vettori, li 0 2 4 1 B 1 @1 0 2 12 1 generatori di V , il terzo è proporzionale al primo. Per stabilire se i scriviamo come righe di una matrice e la riduciamo per righe: 1 0 1 0 1 3 2 4 1 3 2 4 1 3 C R3 !R3 3R1 B C R !R +4R2 B C !@ 1 0 1 0A 3 3 ! 0A @ 1 0 1 0 A. 9 4 0 4 0 0 0 0 0 La terza riga è nulla. Una base B di V è data dai primi due generatori: B = u1 = (2, 4, 1, 3) , u2 = (1, 0, 1, 0) . 155 W è lo spazio delle soluzioni di un sistema di due equazioni lineari omogenee: la prima è equivalente a x1 = x3 , che usata nella seconda dà 2x1 + x2 + 2x3 + x4 = x2 + x4 = 0, ossia x2 = x4 . I vettori di W hanno quindi la forma 0 1 B0 B v = (t1 , t2 , t1 , t2 ) = B @1 0 1 0 ✓ ◆ 1C C t1 C 0 A t2 1 con t1 , t2 2 R. In altre parole, W è l’immagine dell’applicazione lineare LA : R2 ! R4 associata alla matrice 0 1 1 0 B0 1C B C A=B C. @1 0A 0 1 Tale immagine è generata dalle colonne di A, che sono evidentemente linearmente indipendenti e formano quindi una base. Una base B 0 di W è quindi data dai vettori: B 0 = u2 = (1, 0, 1, 0) , u3 = (0, 1, 0, 1) . I tre vettori u1 , u2 , u3 generano V + W . La 0 1 0 u1 B C B B = @ u2 A = B @ u3 matrice 2 4 1 1 0 1 0 1 0 1 3 C 0 C A 1 ha rango massimo, cioé ⇢(B) = 3. Infatti il minore 3 ⇥ 3 evidenziato ha determinante non nullo (con lo sviluppo di Laplace rispetto alla terza riga si verifica che il determinante è 1). Quindi le righe di B sono linearmente indipendenti e formano una base di V + W . Una base di V + W è quindi data dai vettori u1 , u2 , u3 . L’intersezione V \ W è data dai vettori di V che soddisfano le equazioni che definiscono W . Ogni vettore di V ha la forma: (x1 , x2 , x3 , x4 ) = t1 u1 + t2 u2 = (2t1 + t2 , 4t1 , t1 + t2 , 3t1 ) . Sostituendo nelle equazioni di W si trova ⇢ x1 x3 = (2t1 + t2 ) (t1 + t2 ) = t1 = 0 2x1 + x2 + 2x3 + x4 = x2 + x4 = 4t1 + 3t1 = 0 I vettori di V \ W hanno quindi la forma (t2 , 0, t2 , 0), ovvero sono proporzionali al vettore u2 . Se ne deduce che una base di V \ W è formata dal vettore u2 . 156 b) Ricordiamo che la somma di due sottospazi è diretta se e solo se la loro intersezione è data dal solo vettore nullo. Siccome V \ W = L(u2 ) 6= {0}, la somma V + W non è diretta. c) Un vettore v = (x1 , x2 , x3 , x4 ) appartiene a W ? se e solo se il suo prodotto scalare con i vettori della base B 0 è zero: ⇢ u2 · v = x1 + x3 = 0 u3 · v = x2 x4 = 0 La soluzione dipende da due parametri reali, ed è data da 0 1 1 0 B 0 1 C✓ ◆ B C 1 v = ( 1, 2, C 1, 2) = B @ 1 0A 2 0 1 con 1 , 2 2 R. In altre parole, W ? è l’immagine dell’applicazione lineare LC : R2 ! R4 associata alla matrice 0 1 1 0 B 0 1C B C C=B C. @ 1 0A 0 1 Le colonne di C sono linearmente indipendenti e formano quindi una base di W ? . X Esercizio 20.3.3. Si consideri la matrice: 0 1 2 0 4 B C A=@ t+1 1 2t A t + 1 0 2t + 2 Stabilire per quali valori di t 2 R la matrice A è diagonalizzabile. Soluzione. Il polinomio caratteristico è dato da pA ( ) = |A I3 | = 2 t+1 t+1 0 1 0 4 2t 2t + 2 . Con lo sviluppo di Laplace rispetto alla seconda colonna si trova: pA ( ) = ( + 1) 2 4 t + 1 2t + 2 = ( + 1) 2 157 (2t + 4) = ( + 1) (2t + 4) . Gli autovalori sono quindi 1 =0, 2 = 1, 3 = 2t + 4 . Se i tre autovalori sono distinti, ossia se t 2 / { 2, 52 }, la matrice è A certamente diagonalizzabile. Rimangono da studiare i due casi t = 2 e t = 5/4. Sia t = 2, quindi 3 = 1 = 0. A è diagonalizzabile se e solo se la molteplicità geometrica dell’autovalore 0, data da g0 = 3 ⇢(A 0I3 ), è pari a 2. Per t = 2, 0 1 0 1 2 0 4 0 0 0 B C R1 !R1 +2R3 0 B C A=@ 1 1 !A =@ 1 1 4 A 4 A. 1 0 2 1 0 2 A0 è ridotta per righe, quindi ⇢(A) = ⇢(A0 ) = 2. La molteplicità geometrica dell’autovalore 0 è g0 = 3 2 = 1 e la matrice A non è diagonalizzabile. Passiamo al caso t = 5/2, quindi 3 = 2 = 1. A è diagonalizzabile se e solo se la molteplicità geometrica dell’autovalore 1, data da g 1 = 3 ⇢(A + 1I3 ), è pari a 2. Per t = 2, 0 1 0 1 R2 !R2 + 12 R1 3 0 4 3 0 4 B C R3 !R3 + 12 R1 00 B C A + I3 = @ 32 0 5 A ! A = @ 0 0 3 A. 3 0 2 0 0 0 2 A00 è ridotta per righe, quindi ⇢(A) = ⇢(A00 ) = 2. La molteplicità geometrica dell’autovalore 1 è g 1 = 3 2 = 1 e la matrice A non è diagonalizzabile. In conclusione: A è diagonalizzabile se e solo se t 2 / { 2, 52 }. X 20.4 Soluzioni tema d’esame #2 Esercizio 20.4.1. Considerare la matrice 0 1 B 1 B A=B @ 2 0 0 1 1 1 2 3 3 1 1 C C C A a) Calcolare il rango di A; b) indicare una base per lo spazio delle righe ed una per lo spazio delle colonne di A; c) discutere il sistema A·X =B nelle variabili X = t (x1 , x2 , x3 ), con B = t (1, 1, 4, 2); 158 d) esistono valori di soluzione? 2 R per cui A · X = B , con B = t (1, 1, , ), ammette Soluzione. a) Per riduzione si trova: A 0 B B !B @ R2 !R2 +R1 R3 !R3 2R1 1 0 0 0 0 1 1 1 2 1 1 1 1 C C C A 0 B B !B @ R3 !R3 R2 R4 !R4 R2 1 0 0 0 0 1 0 0 2 1 0 0 1 C C C. A Quindi il rango è ⇢(A) = 2. Le righe non nulle della matrice trovata formano una base per lo spazio generato dalle righe di A. Quindi: b) Una base per lo spazio delle righe di A è data da: B = (1, 0, 2) , (0, 1, 1) . Una base per lo 0 1 1 B t A=@ 0 1 2 3 spazio delle colonne si ottiene 1 0 2 0 1 1 C R3 !R3 +2R1 B !@ 0 1 1 1 A 3 1 0 1 riducendo tA. Si ha: 1 0 2 0 1 C R3 !R3 R2 B !@ 0 1 1 A 1 1 0 Una base per lo spazio delle colonne di A è quindi data da 1 1 2 0 C 1 1 1 A. 0 0 0 B 0 = (1, 1, 2, 0) , (0, 1, 1, 1) . c) Con le stesse operazioni usate al punto a) si riduce sistema: 0 1 R3 !R3 R2 3R1 B 0 R !R R R1 B (A|B) 4 4 2 ! (A0 |B 0 ) = B @ 0 0 la matrice completa (A|B) del 0 1 0 0 Un sistema equivalente è quindi: ⇢ x1 2x3 = 1 x2 + x3 = 1 Il sistema è compatibile, e la soluzione generale è data da (x1 , x2 , x3 ) = (1 + 2t, 1 per t 2 R. 159 t, t) 2 1 0 0 1 1 0 0 1 C C C. A d) Ripetendo le stesse operazioni del punto c) riduciamo la matrice (A|B ): 0 1 1 0 2 1 R3 !R3 R2 3R1 B 1 1 C R !R R R1 B 0 1 C (A|B ) 4 4 2 ! B C. @ 0 0 0 4 A 0 0 0 2 Qualunque sia il valore di almeno una fra la terza e la quarta riga è non nulla: poiché ⇢(A) = 2 e ⇢(A|B ) 2 {3, 4}, si ha sempre ⇢(A) 6= ⇢(A|B ). La risposta è quindi (per il teorema di Rouché-Capelli): il sistema al punto d) non ammette soluzioni per nessun valore di . X Esercizio 20.4.2. Sia V il sottospazio di R3 formato dai vettori v della forma v = ( 2a1 + a2 , a1 a3 , a 1 + a2 + a3 ) con a1 , a2 , a3 2 R. a) Calcolare la dimensione di V ; b) scrivere una base di V . Soluzione. Notiamo che 0 2 1 B v=@1 0 1 1 10 1 0 a1 CB C 1 A @ a2 A . 1 a3 Quindi V è l’immagine dell’applicazione lineare associata alla matrice 0 1 2 1 0 B C A=@1 0 1A . 1 1 1 L’immagine di LA è generata dalle colonne di A, ovvero dalle righe una base possiamo ridurre tA per righe, ottenendo: 0 1 0 1 0 2 1 1 2 1 1 2 B C R3 !R3 +R1 B C R3 !R3 2R2 B t A=@1 0 1A !@1 0 1A !@1 0 1 1 2 0 2 0 di tA. Per trovare 1 1 1 C 0 1A . 0 0 Le righe non nulle della matrice ridotta cosı̀ trovata formano una base di V . Quindi: b) una base di V è data da B = (2, 1, 1) , (1, 0, 1) . X a) la dimensione di V è 2. 160 Esercizio 20.4.3. Siano A e B le matrici 0 1 4 1 0 B C A=@ 0 2 0 A , 0 0 2 con t parametro reale. 0 1 2 1 0 B C B=@ 0 2 0 A , 0 0 t a) Calcolare gli autovalori di A e trovare una base per ciascun autospazio di A; b) la matrice A è diagonalizzabile? In caso a↵ermativo, trovare una matrice diagonalizzante; c) esistono valori di t 2 R per cui le matrici A e B sono simili? Soluzione. a) Siccome A è triangolare superiore, gli autovalori sono 1 = 4 (con molteplicità algebrica m1 = 1) e 2 = 2 (con molteplicità algebrica m2 = 2). Un autovettore associato all’autovalore 1 si ottiene risolvendo il sistema: 0 10 1 0 1 0 x1 B CB C (A 2 0 A @ x2 A = 0 . 1 I3 )X = @ 0 0 0 2 x3 La soluzione è (x1 , x2 , x3 ) = (a, 0, 0) con a 2 R. Una base dell’autospazio V ad esempio prendendo t = 1, ed è data dal vettore v1 = (1, 0, 0). Gli autovettori associati all’autovalore 2 risolvono il sistema: 0 10 1 2 1 0 x1 B CB C (A 2 I3 )X = @ 0 0 0 A @ x2 A = 0 . 0 0 0 x3 1 si ottiene La soluzione è (x1 , x2 , x3 ) = (t1 , 2t1 , t2 ) con t1 , t2 2 R. Una base B dell’autospazio V 2 è data ad esempio dai vettori che si ottengono prendendo (t1 , t2 ) = (1, 0) e (t1 , t2 ) = (0, 1). Quindi B = v2 = (1, 2, 0) , v3 = (0, 0, 1) . b) A è diagonalizzabile: (v1 , v2 , v3 ) è una base di R3 formata da autovettori di A. Una matrice diagonalizzante P è data da 0 1 1 1 0 B C P = t v1 t v2 t v3 = @ 0 2 0 A . 0 0 1 c) La matrice B è simile ad A se e solo se è diagonalizzabile ed ha gli stessi autovalori di A. Essendo triangolare superiore, gli autovalori di B sono 2 (con molteplicità algebrica 161 m = 2) e t (con molteplicità algebrica 1). Condizione necessaria perché A e B siano simili è quindi t = 1 = 4. La matrice B è diagonalizzabile se la molteplicità geometrica dell’autovalore 2 è pari a quella algebrica, deve essere quindi 3 Poiché ⇢(B ⇢(B 2I3 ) = m = 2 . 0 1 0 1 0 B C 2I3 ) = @ 0 0 0 A 0 0 t 2 per t = 4 il rango di B 2I3 è 2 e la matrice B non è diagonalizzabile. La risposta al punto c) è quindi: per nessun valore di t 2 R le matrici A e B sono simili. X 162 Lezione XXI Geometria di R3: rette, piani e intersezioni Sommario: rette e piani nello spazio tridimensionale; equazioni parametriche e cartesiane; intersezioni. 21.1 Rette e piani in R3 : equazioni parametriche La geometria di R3 è in molti aspetti simile a quella di R2 . Un punto P dello spazio tridimensionale è individuato da tre coordinate p = (p1 , p2 , p3 ) 2 R3 . Graficamente, il punto è il vertice di un parallelepipedo rettangolo i cui lati hanno lunghezza p1 , p2 e p3 (come mostrato in figura 13a). Possiamo anche identificare p con il vettore geometrico uscente dall’origine e di estremo P . x3 x3 u+v u p3 P = (p1 , p2 , p3 ) v p2 p1 x2 x2 x1 x1 (a) Coordinate in 3D. (b) Regola del parallelogramma. Figura 13 Il prodotto di u = (u1 , u2 , u3 ) per uno scalare dà un vettore parallelo a u, e due vettori sono paralleli se e solo se sono proporzionali. Come nel caso di R2 , questa osservazione permette di scrivere le equazioni parametriche di una retta r passante per p e parallela ad u: 8 > < x1 = p1 + tu1 r : x = p + tu () (21.1) x2 = p2 + tu2 > : x3 = p3 + tu3 Come in R2 , anche in questo caso la somma di due vettori u e v è data dalla diagonale del parallelogramma che ha u e v per lati (figura 13b). Notiamo che due vettori u e v non allineati individuano un piano ⇧, e che u + v appartiene allo stesso piano 163 Equazioni parametriche di una retta x3 u u+v v x1 x2 Figura 14: Piano individuato da due vettori. ⇧ (figura 14). Più in generale, il piano ⇧ è l’insieme di tutte le combinazioni lineari t1 u + t2 v, con t1 , t2 2 R. Le equazioni parametriche del piano ⇧ passante per l’origine e individuato da u e v sono date da ⇧ : x = t1 u + t2 v e più in generale sommando un vettore p indipendente dai parametri t1 , t2 si ottengono le equazioni parametriche del piano passante per p e parallelo ad u e v: 8 > < x1 = p1 + t 1 u1 + t 2 v 1 x = p + t1 u + t2 v () (21.2) x2 = p2 + t 1 u2 + t 2 v 2 > : x3 = p3 + t 1 u3 + t 2 v 3 Le equazioni qui sopra descrivono un piano se e solo se i vettori u e v sono linearmente indipendenti, ovvero ◆ ✓ u 1 u 2 u3 ⇢ =2. v1 v2 v3 Viceversa, se il rango è 1 si ritrova l’equazione di una retta (uno dei due parametri è ridondante). Come nel caso di R2 , anche in R3 è possibile eliminare il parametro t dalle equazioni di una retta. In maniera simile, si possono eliminare i parametri t1 , t2 dalle equazioni di un piano. Esempio 21.1.1. Si consideri la retta r ⇢ R3 di equazioni parametriche 8 > < x1 = 1 t x2 = 3 2t > : x3 = 5 + 3t 164 Equazioni parametriche di un piano x3 p 5 u 3 1 x1 x2 q Figura 15: Esempio di retta in R3 . La direzione è data da u = ( 1, 2, 3), e la retta passa per i punti p = (1, 3, 5) e q = (3, 1, 1) (che si ottiene scegliendo t = 2). Il disegno è in figura 15. Ricavando dalla prima equazione t = x1 1 e sostituendo questa espressione nella seconda e nella terza possiamo eliminare il parametro t ed ottenere x2 = 3 + 2x1 + 2 e x3 = 5 3x1 3, ovvero: ⇢ 2x1 + x2 + 1 = 0 3x1 + x3 2 = 0 Esempio 21.1.2. Si consideri il piano ⇧ ⇢ R3 di equazioni parametriche 8 > < x1 = 1 + 2t1 + t2 x2 = 2 t 1 t 2 > : x3 = t 2 Risolvendo le ultime due equazioni rispetto a t1 e t2 si trova: t1 = 2 x2 x3 e t2 = x3 . Sostituendo queste espressioni nella prima equazione si trova un’equazione cartesiana del piano ⇧: x1 + 2x2 + x3 5 = 0 . 21.2 Equazioni cartesiane di una retta Dagli esempi precedenti si intuisce che un piano in R3 è definito da una equazione lineare in tre incognite, ed una retta è definita da un sistema di due equazioni in tre incognite. Iniziamo in questo paragrafo a studiare il caso della retta in R3 . Uno schema riassuntivo è nella tabella 1. Le equazioni parametriche (21.1) descrivono una retta se e solo se (u1 , u2 , u3 ) 6= (0, 0, 0). Supponiamo ad esempio che sia u1 6= 0. Possiamo allora eliminare il parametro 165 t ricavando dalla prima equazione t = (x1 nelle due rimanenti si ottiene ⇢ x2 = p2 + u2 (x1 p1 )/u1 () x3 = p3 + u3 (x1 p1 )/u1 p1 )/u1 . Sostituendo questa espressione ⇢ u2 x 1 u3 x 1 u1 x 2 u1 x 3 u2 p 1 + p 2 = 0 u3 p 1 + p 3 = 0 Chiamando (a, b, c) = (u2 , u1 , 0) , (a0 , b0 , c0 ) = (u3 , 0, u1 ) , e chiamando d = u2 p1 + p2 e d0 = u3 p1 + p3 , le equazioni cartesiane della retta r si possono scrivere nella forma: ⇢ a x1 + b x 2 + c x 3 + d = 0 (21.3) a0 x 1 + b 0 x 2 + c 0 x 3 + d 0 = 0 Osserviamo che i vettori (a, b, c) = (u2 , u1 , 0) e (a0 , b0 , c0 ) = (u3 , 0, u1 ) sono linearmente indipendenti (ossia, non allineati), infatti la matrice ◆ ✓ ◆ ✓ a b c u2 u 1 0 = a0 b 0 c 0 u3 0 u1 ha rango 2 (è ridotta per righe ed ha due righe non nulle, essendo u1 6= 0). Più in generale, le equazioni (21.3) descrivono una retta se e solo se ✓ ◆ a b c ⇢ =2, a0 b0 c0 ovvero i vettori (a, b, c) e (a0 , b0 , c0 ) sono non allineati. Osserviamo che i vettori (u2 , u1 , 0) e (u3 , 0, u1 ) sono perpendicolari rispetto al vettore u, che individua la direzione della retta (esercizio: verificare che il prodotto scalare è zero). Più in generale, in maniera analoga al caso di R2 , al variare di d e d0 le equazioni (21.3) descrivono un fascio di rette parallele di direzione ortogonale ai vettori (a, b, c) e (a0 , b0 , c0 ). Se si chiede quindi di scrivere le equazioni di una retta r ortogonale al piano di equazione parametrica (21.2) (quindi, ortogonale a u e v), in forma cartesiana r avrà equazione ⇢ u1 x 1 + u 2 x 2 + u 3 x 3 + d = 0 v1 x 1 + v2 x 2 + v3 x3 + d 0 = 0 con d, d0 2 R. Osservazione 21.2.1. Abbiamo visto come si passa dalle equazione parametriche a quelle cartesiane di una retta. Per passare dalle equazioni cartesiane (21.3) a quelle parametriche è sufficiente risolvere il sistema (21.3). Siccome la matrice dei coefficienti ha rango 2, la soluzione dipenderà da un solo parametro reale. 166 Equazioni cartesiane di una retta 21.3 Equazioni cartesiane di un piano L’equazione cartesiana ⇧ : ax1 + bx2 + cx3 + d = 0 (21.4) descrive un piano in R3 se e solo se (a, b, c) 6= (0, 0, 0). Al variare di d 2 R si ottiene un fascio di piani paralleli. In particolare, per d = 0 si ottiene il piano contenente l’origine, la cui equazione è (a, b, c) · (x1 , x2 , x3 ) = 0. Osserviamo che il vettore (a, b, c) è ortogonale al piano di equazione (21.4). In particolare, i piani ortogonali alla retta di equazione parametrica (21.1) hanno equazione cartesiana u 1 x 1 + u 2 x 3 + u3 x 3 + d = 0 con d 2 R. Data una equazione cartesiana di un piano ⇧, si possono trovare delle equazioni parametriche risolvendo l’equazione di ⇧. Se ad esempio a 6= 0, la soluzione generale è 8 1 > < x1 = a (bt1 + ct2 + d) x2 = t 1 > : x3 = t 2 Date delle equazioni parametriche di un piano, della forma (21.2), la corrispondente equazione cartesiana si può scrivere in maniera compatta nella forma x p u v x1 = p1 x3 u1 v1 p2 x3 u2 v2 p3 u3 v3 =0. Tale determinante infatti si annulla se e solo se la prima riga è combinazione lineare delle altre due, ovvero vale un’equazione del tipo (21.2). Osservazione 21.3.1. Come nel caso di R2 , data una retta r di R3 , le sue equazioni cartesiana/parametriche di r non sono uniche. E dato un piano ⇧ di R3 , le sue equazioni cartesiana/parametriche di ⇧ non sono uniche. Ad esempio le equazioni cartesiane 2x1 + x2 x3 = 4 4x1 + 2x2 2x3 = 8 e descrivono lo stesso piano (la seconda è un multiplo della prima, si tratta quindi di equazioni equivalenti). 167 Equazione cartesiana di un piano Tabella 1: Equazioni di rette e piani. Equazioni parametriche Retta r Piano ⇧ x = p + tu x = p + t 1 u + t2 v u 6= 0 Condizione Equazioni cartesiane ⇢ Osservazioni ✓ u v a x 1 + b x2 + c x3 + d = 0 a 0 x 1 + b0 x 2 + c 0 x 3 + d 0 = 0 ⇢ Condizione ⇢ ✓ a a0 b b0 c c0 ◆ ◆ =⇢ ✓ u1 v1 u2 v2 u3 v3 ◆ =2 ax1 + bx2 + cx3 + d = 0 (a, b, c) 6= (0, 0, 0) =2 u k r, (a, b, c) ? r, (a0 , b0 , c0 ) ? r. (a, b, c) ? ⇧, u k ⇧, v k ⇧. 21.4 Intersezioni Iniziamo con lo studio dell’intersezione di due piani. Siano ⇧ e ⇧0 due piani di equazioni cartesiane: ⇧ : ax1 + bx2 + cx3 + d = 0 , ⇧0 : a0 x1 + b0 x2 + c0 x3 + d0 = 0 . L’intersezione ⇧ \ ⇧0 è l’insieme delle soluzioni del sistema di matrice completa (A|B) = ✓ a b c a0 b 0 c 0 d d0 ◆ . Notiamo che 1 ⇢(A) ⇢(A|B) 2 (la prima disuguaglianza segue dal fatto che ciascuna riga di A ha almeno un elemento non nullo). Possono allora verificarsi tre casi: 1. Se ⇢(A) = 1 e ⇢(A|B) = 2, il sistema è incompatibile e l’intersezione è vuota. 2. Se ⇢(A) = ⇢(B) = 1, possiamo eliminare una delle due equazioni (per riduzione ad esempio) e quella che rimane è l’equazione di un piano: ⇧ \ ⇧0 = ⇧ = ⇧0 è quindi un piano di R3 . 3. Se ⇢(A) = ⇢(B) = 2, si ottengono le equazioni cartesiane di una retta: ⇧ \ ⇧0 è una retta di R3 . Notiamo che ⇧ = ⇧0 se e solo se i vettori (a, b, c, d) e (a0 , b0 , c0 , d0 ) di R4 sono proporzionali. 168 Intersezione di due piani Consideriamo ora l’intersezione del piano ⇧ con una retta r di equazioni cartesiane ⇢ a1 x 1 + b 1 x 2 + c 1 x 3 + d 1 = 0 a2 x 1 + b 2 x 2 + c 2 x 3 + d 2 = 0 Intersezione di una retta e un piano L’intersezione r \ ⇧ in questo caso è l’insieme delle soluzioni del sistema lineare di matrice completa, che continuiamo a indicare con il simbolo (A|B), data da 0 1 a1 b 1 c 1 d1 B C (A|B) = @ a2 b2 c2 d2 A . a b c d Notiamo che (a1 , b1 , c1 ) e (a2 , b2 , c2 ) devono essere linearmente indipendenti (altrimenti le prime due equazioni non descrivono una retta). Quindi 2 ⇢(A) ⇢(A|B) 3. Possono allora verificarsi tre casi: 1. Se ⇢(A) = 2 e ⇢(A|B) = 3, il sistema è incompatibile e l’intersezione è vuota. 2. Se ⇢(A) = ⇢(B) = 2, una delle tre equazioni può essere eliminata (per riduzione ad esempio). Siccome le prime due equazioni sono indipendenti, la terza (quella di ⇧) deve essere combinazione lineare delle prime due. Quindi r \ ⇧ = r (ovvero la retta r è contenuta nel piano ⇧). 3. Se ⇢(A) = ⇢(B) = 3, la soluzione è unica e l’intersezione è un punto. Per finire, sia r0 una seconda retta, di equazioni cartesiane: ⇢ a01 x1 + b01 x2 + c01 x3 + d01 = 0 a02 x1 + b02 x2 + c02 x3 + d02 = 0 L’intersezione r \ r0 è l’insieme delle soluzioni di completa è 0 a1 b 1 c 1 Ba b c B 2 2 2 (A|B) = B 0 0 0 @ a1 b 1 c 1 a02 b02 c02 un sistema lineare la cui matrice 1 d1 d2 C C C . 0 A d1 d02 Come nel caso precedente, il rango della matrice dei coefficienti è maggiore uguale di due, ed è minore o uguale al numero di righe. Quindi: 2 ⇢(A) 3 e ⇢(A) ⇢(A|B) 4 . Possono allora verificarsi i seguenti casi: 1. Se ⇢(A) = 2 e ⇢(A|B) = 3, il sistema non ammette soluzioni e r \ r0 = ;. 2. Se ⇢(A) = 2 e ⇢(A|B) = 4, come nel primo caso l’intersezione è vuota. 169 Intersezione di due rette Tabella 2: Intersezioni. ⇢(A) ⇢(A|B) r \ r0 r\⇧ ⇧ \ ⇧0 1 1 — — retta 1 2 — — 2 2 retta (r = r0 ) ; retta (r ⇢ ⇧) piano (⇧ = ⇧0 ) 2 3 ; ; — 3 3 punto punto — 3 4 ; — — 3. Se ⇢(A) = 3 e ⇢(A|B) = 4, come nel primo caso l’intersezione è vuota. 4. Se ⇢(A) = ⇢(B) = 2, possiamo eliminare due equazioni (ad esempio, per riduzione) ed ottenere le equazioni cartesiane di una retta: questo vuol dire che r = r0 e r \ r0 = r = r0 è una retta. 5. Se ⇢(A) = ⇢(B) = 3, possiamo eliminare una equazione ed ottenere un sistema di tre equazioni in tre incognite. Siccome la matrice dei coefficienti ha rango massimo (uguale a 3), la soluzione è unica e l’intersezione è un punto. Osservazione 21.4.1. Il secondo caso (⇢(A) = 2 e ⇢(A|B) = 4) non può mai verificarsi. Infatti se ⇢(A|B) = 4, il determinante della matrice (A|B) è diverso da zero. Il determinante si può calcolare con lo sviluppo di Laplace rispetto all’ultima colonna: |(A|B)| = d1 a2 b 2 c 2 a01 b01 c01 a02 b02 c02 d2 a1 b 1 c 1 a01 b01 c01 a02 b02 c02 + d01 a1 b 1 c 1 a2 b 2 c 2 a02 b02 c02 d02 a1 b 1 c 1 a2 b 2 c 2 a01 b01 c01 . Le matrici 3 ⇥ 3 che compaiono nella formula sono i minori di ordine 3 di A. Se |(A|B)| = 6 0, almeno un minore di ordine 3 di A deve avere determinante non nullo, da cui (per il teorema degli orlati) deve essere ⇢(A) 3. Osservazione 21.4.2. Si può dire qualcosa di più sul primo e terzo caso. Se ⇢(A) = 2 e ⇢(A|B) = 3 le due rette sono parallele ma non coincidenti. Se ⇢(A) = 3 e ⇢(A|B) = 4 le due rette non sono parallele e non si intersecano: due rette di questo tipo si dicono sghembe. Siccome due rette contenute nello stesso piano sono sempre parallele oppure si intersecano in un punto, due rette sono sghembe se e solo se non sono complanari. Uno schema riassuntivo è nella tabella 2. 170 Rette sghembe Lezione XXII Geometria di R3: lunghezze, aree e volumi Sommario: distanze, aree e volumi; equazione di una sfera; prodotto vettoriale e prodotto misto; area di un parallelogramma e volume di un parallelepipedo; retta passante per due punti distinti; piano individuato da tre punti non allineati. 22.1 Distanze, equazione di una sfera Come in R2 , anche in R3 la distanza di un punto p = (p1 , p2 , p3 ) dall’origine è data dalla norma del corrispondente vettore uscente dall’origine, data da q kpk = p21 + p22 + p23 . (22.1) Distanza dall’origine Per provarlo basta guardare la figura 16a. Per il teorema di Pitagora, la diagonale del p rettangolo nel piano x3 = 0 disegnato in figura ha lunghezza L = p21 + p22 ; il segmento OP è la diagonale di un triangolo rettangolo (in rosso) i cui cateti hanno lunghezza L e p3 rispettivamente: per il teorema di Pitagora, la lunghezza di OP è data da q q L2 + p23 = p21 + p22 + p23 , ovvero dalla formula (22.1). Dati due punti a = (a1 , a2 , a3 ) e b = (b1 , b2 , b3 ), possiamo costruire il parallelogramma in figura 16b che ha per lati i vettori a e b a, e per diagonale la loro somma, ovvero a + (b a) = b (regola del parallelogramma). La lunghezza del segmento di estremi a e b è uguale alla lunghezza del segmento di estremi O e b a, quindi d(a, b) = d(O, b a) = kb ak. Si ottiene in questo modo la formula per la distanza fra due punti arbitrari: q d(a, b) = (a1 b1 )2 + (a2 b2 )2 + (a3 b3 )2 . (22.2) Per la distanza d(p, ⇧) di un punto p = (p1 , p2 , p3 ) da un piano ⇧, di equazione ax1 + bx2 + cx3 + d = 0 , esiste una semplice formula, simile a quella che in R2 dà la distanza di un punto da una retta. La distanza è data dalla lunghezza del segmento di estremi p e q, con q = (q1 , q2 , q3 ) proiezione ortogonale di p sul piano. Le coordinate di q si trovano intersecando ⇧ con 171 Distanza fra due punti x3 b x3 a ak d( a , b) b p3 kb P = (p1 , p2 , p3 ) a O p2 O L p1 x2 x2 x1 x1 (a) Distanza di un punto dall’origine. (b) Distanza fra due punti. Figura 16 la retta r ortogonale a ⇧ e passante per p. Tale retta ha equazioni parametriche: 8 > < x1 = p1 + at x2 = p2 + bt > : x3 = p3 + ct Sostituendo queste espressioni nell’equazione di ⇧ si ottiene il valore del parametro t corrispondente alle coordinate di q. Si ha a(p1 + at) + b(p2 + b) + c(p3 + ct) + d = 0 () t= ap1 + bp2 + cp3 + d . a2 + b 2 + c 2 Sostituendo questo valore di t nelle equazioni di r si trovano le coordinate di q: (q1 , q2 , q3 ) = (p1 , p2 , p3 ) ap1 + bp2 + cp3 + d (a, b, c) . a2 + b 2 + c 2 La distanza è data da ap1 + bp2 + cp3 + d (a, b, c) a2 + b 2 + c 2 ap1 + bp2 + cp3 + d |ap1 + bp2 + cp3 + d| p 2 = k(a, b, c)k = a + b2 + c 2 . a2 + b 2 + c 2 a2 + b 2 + c 2 d(p, ⇧) = kp qk = Semplificando numeratore e denominatore si trova la formula finale: d(p, ⇧) = |ap1 + bp2 + cp3 + d| p . a2 + b 2 + c 2 Usando la formula (22.2) della distanza, è possibile scrivere l’equazione cartesiana di una superficie sferica. 172 Distanza di un punto da un piano x3 x2 x1 Figura 17: Sfera di centro c = (0, 0, 1) e raggio R = 1. La superficie sferica di centro c = (c1 , c2 , c3 ) e raggio R > 0 è l’insieme dei punti x 2 R3 a distanza R dal punto c, ovvero soddisfacenti l’equazione d(x, c) = R . Elevando al quadrato ambo i membri dell’equazione, ed usando la formula (22.2), si trova l’equazione cartesiana di una superficie sferica (x1 c1 )2 + (x2 c2 )2 + (x3 c3 ) 2 = R 2 . Un esempio è in figura 17. 22.2 Angolo fra due vettori di R3 Abbiamo visto che, dato uno spazio vettoriale V con un prodotto scalare (definizione 8.3.1), questo può essere usato per definire l’angolo convesso ' (cioè, 0 ' ⇡) fra due vettori non nulli u e v attraverso la formula: cos ' = u·v . kuk kvk Un prodotto scalare canonico è dato da (8.6), ed il corrispondente angolo in R2 è proprio l’angolo convesso individuato dai vettori geometrici u e v. In R3 , due vettori geometrici uscenti dall’origine individuano un angolo convesso ✓, come mostrato in figura 18a. Verifichiamo che l’angolo ✓ e l’angolo ', definito in astratto a partire dal prodotto scalare, coincidono. 173 Superficie sferica u u kuk u+v u L ✓/2 v ✓ v kvk O v O (a) (b) Figura 18: Parallelograma ed angolo individuati dai vettori u e v. Lavoriamo nel piano contenente i vettori u e v. Per costruzione, i vettori u/kuk e v/kvk sono contenuti in una circonferenza di centro O e raggio 1, come illustrato in figura 18b. Evidentemente sin 2✓ = L . (22.3) Usando la formula di duplicazione del seno si scrive il membro di sinistra come r 1 cos ✓ sin 2✓ = 2 mentre per il membro di destra notiamo che 2L = d u , v kuk kvk = u kuk v kvk = = q r⇣ u kuk · u kuk u kuk + v kvk v kvk L’uguaglianza (22.3) diventa quindi: r r 1 cos ✓ 1 = 2 2 2 ⌘ ⇣ u · kuk · 2 v kvk v kvk u 2 kuk · ⌘ v kvk u·v . kuk kvk Confrontando membro di sinistra e membro di destra si ottiene cos ✓ = u·v kuk kvk esattamente come ci aspettavamo. 174 = q 2 u·v 2 kuk . kvk 22.3 Prodotto vettoriale e prodotto misto Dati due vettori u e v di R3 , il loro prodotto vettoriale, indicato con u ^ v, è il vettore di componenti u ^ v = u2 v 3 u3 v 2 , u 3 v 1 u1 v3 , u 1 v2 u2 v 1 . Prodotto vettoriale (22.4) La regola mnemonica è: u^v = u 1 u2 u3 , + v1 v2 v3 u1 u2 u 3 u1 u2 u3 , + v1 v2 v3 v1 v2 v3 ! Indicando come al solito con (e1 , e2 , e3 ) è la base canonica di R3 , osserviamo che formalmente il prodotto vettoriale si può calcolare attraverso il determinante e1 e 2 e 3 u ^ v = u1 u 2 u3 v1 v2 v3 (22.5) come si può verificare con lo sviluppo di Laplace rispetto alla prima riga. Si tratta solo formalmente di un determinante, in quanto gli elementi della prima riga non sono numeri ma i versori dei tre assi di R3 . Lo scalare (u ^ v) · w è detto prodotto misto vettori u, v e w di R3 . Notiamo che (u ^ v) · w = w1 · u 1 u 2 u3 v1 v2 v3 w2 · u1 u2 u3 u1 u2 u 3 + w3 · v1 v2 v3 v1 v2 v3 Nell’espressione precedente riconosciamo lo sviluppo del determinante: u1 u2 (u ^ v) · w = v1 v2 w1 w2 di Laplace rispetto alla terza riga u3 v3 w3 (22.6) Lemma 22.3.1. Per i vettori della base canonica valgono le regole: e 1 ^ e2 = e 3 , e2 ^ e3 = e1 , e 3 ^ e 1 = e2 . Dimostrazione. Se u = e1 = (0, 0, 1) e v = e2 = (0, 1, 0), si ha ! 1 0 0 1 0 0 1 0 0 = (0, 0, 1) = e3 . u^v = , , + 0 1 0 0 1 0 0 1 0 In modo analogo si provano le altre due uguaglianze. 175 ⌅ Prodotto misto Proposizione 22.3.2. 1. Il prodotto vettoriale R3 ⇥ R3 ! R3 , (u, v) 7! u ^ v, è una operazione interna di R3 non associativa e non commutativa. Gode invece della proprietà anticommutativa: u^v = v^u 8 u, v 2 R3 . 2. u, v 2 R3 sono linearmente dipendenti 13 3. Vale la seguente identità di Lagrange: () u ^ v = 0. Identità di Lagrange ku ^ vk2 = kuk2 kvk2 ku · vk2 . 4. Il prodotto vettoriale u ^ v è ortogonale al piano individuato da u e v. 5. La norma del vettore u ^ v è l’area del parallelogramma di lati u e v. Area di un parallelogramma 6. Il prodotto misto gode della simmetria ciclica: (u ^ v) · w = (w ^ u) · v = (v ^ w) · u per ogni u, v, w 2 R3 . 7. u, v, w 2 R3 sono linearmente dipendenti 14 () (u ^ v) · w = 0. 8. |(u ^ v) · w| è il volume del parallelepipedo che ha per lati i vettori u, v e w. Dimostrazione. 1. Scambiando due righe di una matrice il determinante cambia segno. Da questa osserazione e da (22.5) segue la proprietà anticommutativa del prodotto vettoriale. Per il Lemma 22.3.1, e1 ^ e2 = e3 è diverso da e2 ^ e1 = e3 ; inoltre se u = (1, 1, 0), il vettore (e1 ^ e2 ) ^ u = e3 ^ u = ( 1, 1, 0) è diverso da e1 ^ (e2 ^ u) = e1 ^ (0, 0, 1) = (0, 1, 0) ; quindi il prodotto vettoriale non è commutativo e non è associativo. 2. E’ sufficiente osservare che le componenti di u ^ v sono, a meno di un segno, il determinante dei minori di ordine 2 della matrice: ✓ ◆ u1 u2 u 3 A= . v1 v2 v3 13 14 Ricordiamo che due vettori di R3 non nulli sono linearmente dipendenti se e solo se sono paralleli. Ricordiamo che tre vettori non nulli di R3 sono linearmente dipendenti se e solo se sono complanari. 176 Volume di un parallelepipedo I vettori u e v sono linearmente indipendenti se e solo se ⇢(A) = 2, ed una condizione necessaria e sufficiente (per teorema degli orlati) è che almeno un minore di ordine 2 di A abbia determinante non nullo, ovvero almeno una componente di u ^ v sia diversa da zero. Quindi u e v sono linearmente indipendenti se e solo se u ^ v 6= 0, a↵ermazione equivalente a quella che si voleva dimostrare. 3. L’identità di Lagrange si prova con un semplice calcolo. Si ha: kuk2 kvk2 (u · v)2 = (u21 + u22 + u23 )(v12 + v22 + v32 ) (u1 v1 + u2 v2 + u3 v3 )2 = u21 v12 + u21 v22 + u21 v32 + u22 v12 + u22 v22 + u22 v32 + u23 v12 + u23 v22 + u23 v32 u21 v12 + u22 v22 + u23 v32 + 2u1 u2 v1 v2 + 2u1 u3 v1 v3 + 2u2 u3 v2 v3 = (u2 v3 u3 v2 )2 + (u3 v1 u1 v3 )2 + (u1 v2 u2 v 1 ) 2 = ku ^ vk2 . 4. Usando (22.6) si calcola il prodotto scalare u1 u 2 u 3 (u ^ v) · u = v1 v2 v3 = 0 . u1 u 2 u3 Il determinante è zero perché la matrice ha due righe uguali. In maniera simile si prova che (u ^ v) · v = 0, da cui segue che u ^ v è ortogonale a qualsiasi combinazione lineare dei vettori u e v, ovvero la tesi. 5. L’area del parallelogramma in figura 18a è Area = base ⇥ altezza = kuk kv sin ✓k . D’altra parte dall’identità di Lagrange, ricordando che u · v = kuk kvk cos ✓, segue che p p kuk2 kvk2 (u · v)2 = kuk2 kvk2 (1 p = kuk kvk 1 cos2 ✓ = kuk kvk | sin ✓ | , ku ^ vk = cos2 ✓) da cui la tesi. 6. Segue da (22.6) e dalle proprietà del determinante (che cambia segno se si scambiano due righe, e rimane invariato se si e↵ettuano un numero pari di scambi). 7. Segue da (22.6) e dalle proprietà del determinante: tre vettori sono linearmente indipendenti se e solo se la matrice che ha i vettori come righe ha rango 3. Nel caso di una matrice 3 ⇥ 3, per il teorema degli orlati è necessario e sufficiente che tale matrice abbia determinante non nullo. 177 w pru^v (w) u h v O Figura 19: Parallelepipedo individuato dai vettori u, v e w. 8. La situazione è illustrata in figura 19. Per il punto 5, la base del parallelepipedo ha area data da ku ^ vk. L’altezza è la norma del vettore pru^v (w) = u^v , ovvero altezza = Il volume è quindi Volume = base ⇥ altezza = = (u ^ v) · w , ku ^ vk2 |(u ^ v) · w| . ku ^ vk |(u ^ v) · w| ku ^ vk = |(u ^ v) · w| , ku ^ vk come volevasi dimostrare. ⌅ Da un punto di vista geometrico, dati due vettori u e v linearmente indipenenti, u ^ v ha direzione ortogonale al piano ⇧ contenente i vettori u e v (figura 20) e la norma è data dall’area del parallelogramma di lati u e v. Per determinare il verso di u ^ v esistono varie regole mnemoniche (la regola della mano destra, la regola di Fleming della mano sinistra, la regola della vite destrorsa, etc.), che non tratteremo in questo corso. Notiamo che, dato un piano ⇧ di equazioni parametriche: ⇧ : x = p + t1 u + t2 v , l’equazione parametrica della retta r ortogonale a ⇧ e passante per un punto p0 sarà data da r : x = p0 + t(u ^ v) . 178 x3 u^v v u x2 x1 Figura 20: Prodotto u ^ v. Per finire, osserviamo che come nel caso di matrici 2 ⇥ 2 (paragrafo 8.2), anche il determinante di una matrice A 2 M3 (R) ha una interpretazione geometrica: il suo modulo è il volume del parallelepipedo che ha le righe di A come lati. Proposizione 22.3.3. Siano u, v 2 R3 due vettori linearmente indipendenti. Allora la terna u, v, u ^ v è una base di R3 . Dimostrazione. Chiamiamo w = u ^ v. Il prodotto misto di u, v, w, è dato da (u ^ v) · w = (u ^ v) · (u ^ v) = ku ^ vk2 e quindi è diverso da zero per il punto 2 della proposizione 22.3.2. Dalla proposizione 22.3.2, punto 7, segue che i vettori u, v, w sono linearmente indipendenti, e quindi formano una base di R3 . ⌅ 22.4 Retta per due punti, piano individuato da tre punti Non è difficile scrivere le equazioni parametriche della retta r passante per due punti distinti a e b. Si ha r : x = a + t(b a) . Siccome u = b a 6= 0, la precedente equazione descrive una retta. Per t = 0 si ottiene il punto a, e per t = 1 si ottiene il punto a + (b a) = b. Quindi a, b 2 r come richiesto. D’altra parte x a = t(b a) se e solo se i vettori x a e b a sono linearmente dipendenti. Due vettori di R3 sono linearmente dipendenti se e solo se il loro prodotto vettoriale è zero, quindi le equazioni cartesiane di r si possono scrivere nella forma (b a) ^ (x 179 a) = 0 . Notiamo che si tratta di tre equazioni in tre incognite, ma solo due sono indipendenti fra di loro. Infatti, il sistema in forma matriciale è dato da: 0 10 1 0 (b3 a3 ) b 2 a2 x 1 a1 B CB C 0 (b1 a1 ) A@ x2 a2 A = 0 @ b 3 a3 (b2 a2 ) b 1 a1 0 x 3 a3 e la matrice dei coefficienti ha rango 2 (con lo sviluppo di Laplace si prova che il determinante è zero, ed è facile trovare un minore di ordine due con determinante non nullo, da cui per il teorema degli orlati il rango è 2). Consideriamo ora tre punti a, b, c 2 R3 . Le equazioni parametriche: ⇧ : x = a + t1 (b a) + t2 (c a) descrivono un piano se e solo se i due vettori u = b a e v = c a sono linearmente indipendenti (ovvero i tre punti a, b, c non sono allineati). Notiamo che se (t1 , t2 ) = (0, 0), si ottiene x = a; se (t1 , t2 ) = (1, 0), si ottiene x = b; se (t1 , t2 ) = (0, 1), si ottiene x = c. Quella trovata è quindi l’equazione del piano passante per tre punti a, b, c non allineati. Ricordiamo che due vettori sono linearmente indipendenti se e solo se il loro prodotto vettoriale è diverso da zero, si ottiene quindi la condizione (b a) ^ (c a) 6= 0 . Scrivendo le equazioni parametriche di ⇧ nella forma x a = t1 (b a) + t2 (c a), si vede che x 2 ⇧ se e solo se i tre vettori x a, b a e c a sono linearmente dipendenti. Ricordiamo che tre vettori di R3 sono linearmente dipendenti se e solo se il loro prodotto misto è zero, quindi x appartiene al piano ⇧ se e solo se: (x a) · (b La (22.7) è l’equazione cartesiana di equivalente: x1 a1 ⇧: b1 c1 a) ^ (c a) = 0 . (22.7) ⇧. L’equazione può essere scritta nella forma x2 a2 b2 c2 x3 a3 b3 c3 1 1 1 1 =0. (22.8) Proviamo che (22.7) è equivalente a (22.8). Per riduzione, sottraendo la seconda riga della matrice in (22.8) alle altre tre, si ottiene x1 a1 b1 c1 x2 a2 b2 c2 x3 a3 b3 c3 1 1 1 1 x1 = a1 x 2 a1 b1 x1 a2 x 3 a2 a1 b 2 a1 x 2 180 a2 a2 a3 0 a3 1 b 3 a3 0 x 3 a3 0 , Tabella 3: Retta passante per a, b 2 R3 ; piano contenente a, b, c 2 R3 . Retta r Equazioni parametriche Equazioni cartesiane Piano ⇧ x = a + t(b a) a) ^ (x a) = 0 (b a 6= b Condizione x = a + t1 (b (x a) · (b (b a) + t2 (c a) ^ (c a) ^ (c a) a) = 0 a) 6= 0 e con lo sviluppo di Laplace rispetto all’ultima colonna otteniamo = x1 b1 x1 a1 x 2 a1 b2 a1 x 2 a2 x 3 a2 b 3 a2 x 3 a3 a3 a3 = x b c cioé il determinante in (22.8) è proprio il prodotto misto in (22.7). Uno schema riassuntivo è nella tabella 3. 181 a a a , Appendice A Equazioni polinomiali Sommario: equazioni polinomiali; il campo dei numeri complessi; polinomi; teorema fondamentale dell’algebra (senza dimostrazione); le equazioni di secondo e terzo grado; cenni sull’equazione di quarto grado. A.1 Introduzione Una equazione algebrica o polinomiale di grado n in una incognita x è una equazione della forma a0 x n + a1 x n 1 + . . . + an 1 x + an = 0 Equazioni polinomiali con ai elementi di un qualche campo, e qui assumeremo sempre ai 2 R salvo indicazioni contrarie, e a0 6= 0. Dividendo per a0 , l’equazione si può sempre ridurre alla forma xn + a1 n 1 x a0 + ... + an 1 x a0 + an a0 =0 con il coefficienti di xn uguale ad 1. Gli autovalori di una matrice n ⇥ n sono soluzioni di una equazione di grado n. Una equazione polinomiale a coefficienti reali può non ammettere soluzioni reali: ad esempio x2 + 1 = 0, ovvero x2 = 1, non ammette soluzioni reali, poiché il quadrato di un numero reale è sempre positivo o nullo. A.2 Richiami sui numeri complessi Intuitivamente i numeri complessi si ottengono dai reali aggiungendo una radice del numero reale 1. Tale radice è detta unità immaginaria ed è generalmente indicata p con il simbolo “i”, ma qui verrà indicata con il simbolo 1 per non confonderla con un indice di riga. Un numero complesso è un numero della forma p z =x+ 1y x, y 2 R . La parte reale di z, indicata con <(z), e la parte immaginaria, indicata con =(z), sono i numeri reali: <(z) = x ; , =(z) = y . p Sia z 0 = x0 + 1 y 0 (con x0 , y 0 2 R). I numeri complessi si sommano e moltiplicano secondo la regola p p z + z 0 = (x + x0 ) + 1 (y + y 0 ) , z · z 0 = xx0 yy 0 + 1 (xy 0 + x0 y) . 182 Unità immaginaria L’insieme di tutti i numeri complessi è indicato con C. E’ un anello commutativo, con somma e prodotto definiti qui sopra ed elementi neutri lo 0 e l’1 dei numeri reali. L’applicazione lineare p R2 ! C , (x, y) 7! x + 1y , è biunivoca. Diremo che i numeri complessi formano uno spazio vettoriale reale di dimensione 2, “isomorfo” ad R2 . p Il complesso coniugato di z = x + 1 y è il numero p z̄ = x 1y . Complesso coniugato Il prodotto z z̄ = x2 + y 2 è non negativo, e si annulla se e solo se z = 0. In particolare ogni z 6= 0 è invertibile, con inverso: z̄ z 1= . z z̄ I numeri complessi formano quindi un campo. Ogni punto di R2 si può rappresentare nella forma (x, y) = (r cos ✓, r sin ✓) , con r 0 e 0 ✓ < 2⇡. I numeri r, ✓ sono univocamente determinati se (x, y) 6= (0, 0), e si dicono coordinate polari del punto (x, y). Usando le coordinate polari, ogni numero complesso non nullo si può scrivere nella forma p z = r(cos ✓ + 1 sin ✓) . p Il numero r = z z̄ è detto modulo del numero complesso z. Un numero complesso diverso da zero ha esattamente n radici di ordine n, date da ⇢ ⇣ p p ✓ + 2k⇡ p ✓ + 2k⇡ ⌘ n z = n r cos + 1 sin : k = 0, . . . , n 1 , n n p dove n r indica la radice n-esima positiva di r. Le radici di z sono disposte su un cerchio di raggio r ed equidistanti fra di loro. In figura 21, a titolo di esempio, sono riportate le radici n-esime di 1 per n = 3, 4. A.3 Polinomi Sia n 0 un intero non negativo. Un polinomio di grado n nella variabile ⇠ a coefficienti in un campo K è una espressione del tipo p(⇠) = a0 ⇠ n + a1 ⇠ n 1 + . . . + an 1 ⇠ + an 183 Coordinate polari Modulo y y (0, 1) p 1 , 23 2 ⇡ 2 2⇡ 3 (1, 0) 0 ( 1, 0) x (1, 0) ⇡ 0 4⇡ 3 1 , 2 x 3⇡ 2 p 3 2 (0, (a) n = 3 1) (b) n = 4 Figura 21: Radici complesse n-esime di 1 con ai 2 K per ogni i, e a0 6= 0. A noi interesserà il caso K = R. In quasto paragrafo utilizziamo il simbolo ⇠ per indicare la variabile, per enfatizzare che si tratta appunto di un simbolo e non un numero. Sia p0 (⇠) = a00 ⇠ n + a01 ⇠ n 1 + . . . + a0n 1 ⇠ + a0n un altro polinomio. Due polinomi p(⇠) e p0 (⇠) sono uguali se e solo se a0 = a00 , a1 = a01 , ... an = a0n . Dato ⇠0 2 R, valutare il polinomio in ⇠0 vuol dire sostituire al simbolo ⇠ il numero reale ⇠0 : si ottiene in questo modo un numero reale p(⇠0 ). La funzione reale: f :R!R, x 7! p(x) , che associa ad ogni x 2 R il numero p(x) è detta funzione polinomiale. Polinomi e funzioni polinomiali sono in corrispondenza biunivoca (due polinomi sono uguali se e solo se sono uguali le funzioni polinomiali associate). Un numero ⇠0 2 R è detto radice del polinomio p(⇠) se è uno zero della corrispondente funzione polinomiale: p(⇠0 ) = 0. Un polinomio reale può non ammettere radici reali: ad esempio p(⇠) = ⇠ 2 + 1 non ammette radici reali. Ammette però due radici complesse. Più in generale, vale il seguente teorema. Teorema A.3.1 (Teorema fondamentale dell’algebra). Un polinomio di grado n a coefficienti in C ammette sempre n radici complesse, ovvero può essere scritto nella forma p(⇠) = a(⇠ z1 )(⇠ z2 ) . . . (⇠ zn ) , dove z1 , . . . , zn 2 C sono le sue radici e a 2 C. 184 Radici Teorema fondamentale dell’algebra Siccome R ⇢ C, come caso particolare si ottiene che un polinomio a coefficienti reali ammette sempre radici complesse. Corollario A.3.2. Un polinomio di grado n a coefficienti in R ammette sempre n radici complesse, ovvero può essere scritto nella forma p(⇠) = a(⇠ z1 )(⇠ z2 ) . . . (⇠ zn ) , dove z1 , . . . , zn 2 C sono le sue radici e a 2 R. Le radici z1 , . . . , zn non sono necessariamente distinte. Ad esempio il polinomio x2 1)2 2x + 1 = (x ammette due radici, entrambe uguali ad 1. In generale, indicando con µ1 , . . . , µr le radici distinte del polinomio p(⇠) (r n), si avrà p(⇠) = a(⇠ µ1 )m1 (⇠ µ2 )m2 . . . (⇠ µr )mr , dove mi 2 Z+ è detto molteplicità della radice µi , e Molteplicità m1 + m2 + . . . + mr = n . A.4 L’equazione di secondo grado La formula risolutiva per le equazioni di secondo grado è ben nota dalle scuole superiori. L’equazione ax2 + bx + c = 0 (con a 6= 0) ha soluzioni b± p b2 4ac . 2a La formula risolutiva vale sia quando i coefficienti sono reali, sia quando sono complessi. Se a, b, c 2 R, si possono verificare tre casi, che dipendono dal segno della grandezza b2 4ac, detta discriminante: se il discriminante è positivo si hanno due soluzioni reali distinte; se è nullo si ha una sola soluzione ed è reale (di molteplicità 2); se è negativo si hanno due soluzioni complesse coniugate. x= Osservazione A.4.1. Notiamo che per ogni (x 1 )(x 2) = x2 ( 1, 2 1 + 2 C vale l’identità 2 )x + 1 2 . Risolvere l’equazione x2 + bx + c = 0 equivale quindi a trovare due numeri che ⇢ b 1+ 2 = 1 2 = c 185 1, 2 tali Formula risolutiva equazione di 2 grado Discriminante A.5 L’equazione di terzo grado Un’equazione di terzo grado si può sempre scrivere nella forma: x3 + ax2 + bx + c = 0 . (1.1) Con la sostituzione a 3 l’equazione (1.1) si trasforma in una in cui manca il termine di grado 2. Si ha infatti: y =x+ y 3 + py + q = 0 (1.2) con 1 2 2 1 a +b, q = a3 ab + c . 3 27 3 Per motivi imperscrutabili, scriviamo y = u + v e sostituiamo in (1.2). Sostituendo si trova l’equazione (u3 + v 3 + q) + (u + v)(3uv + p) = 0 . p= Per trovare una soluzione di questa equazione in due variabili, è sufficiente risolvere il sistema (non lineare) di due equazioni in due incognite ⇢ 3 u + v3 = q (1.3) 3uv = p Il miracolo è che tutte le soluzioni dell’equazione di terzo grado di partenza si possono ottenere risolvendo questo sistema. Si ha infatti: Proposizione A.5.1. y è soluzione dell’equazione (1.2) se e solo se y = u + v, con u e v soluzioni di (1.3). Dimostrazione. Dobbiamo provare il “solo se”. Sia y soluzione di (1.2). Possiamo sempre trovare due numeri u, v tali che u + v = y e 3uv = p (per l’osservazione A.4.1, u e v sono le soluzioni dell’equazione z 2 yz p3 = 0) e ricavare 0 = y 3 + py + q = (u3 + v 3 + q) + (u + v)(3uv + p) = u3 + v 3 + q ⌅ che è la seconda equazione cercata. Prendendo il cubo della seconda equazione in (1.3), si vede che u3 , v 3 risolvono l’equazione di secondo grado (osservazione A.4.1): z 2 + qz p3 =0. 27 Non tutte le soluzioni di questa equazione daranno però soluzioni di (1.3). Elevando al cubo l’equazione 3uv = p abbiamo aggiunto delle soluzioni. 186 Usando la formula risolutiva per le equazioni di secondo grado si trova ( ) r r 2 3 2 3 q q p q q p {u3 , v 3 } = + + , + 2 4 27 2 4 27 e quindi y =u+v = s 3 q + 2 r q 2 p3 + + 4 27 s 3 q 2 r Formula risolutiva equazione di 3 grado q 2 p3 + . 4 27 Questa è la celebre formula risolutiva per l’equazione (1.2). Ripetiamo che non tutte le radici cubiche daranno soluzioni dell’equazione (1.2). Due radici cubiche u, v di u3 , v 3 danno soluzioni dell’equazione di terzo grado se e solo se 3uv = p. Ci chiediamo ora, nel caso in cui i coefficienti p, q siano reali, quante sono le soluzioni reali di (1.2). Questo dipende dal valore di q 2 p3 + , 4 27 detto discriminante dell’equazione. Si può verificare che se il discriminante è minore o uguale a zero tutte le soluzioni sono reali, mentre se il discriminante è positivo l’equazione ha una soluzione reale (che si ottiene prendendo le radici reali nella formula risolutiva) e due complesse coniugate15 . Esempio A.5.2. Un caso particolare di (1.1) si ha quando c = ab. In tal caso x3 + ax2 + bx + c = (x + a)(x2 + b) e le soluzioni sono x = aex=± p b. A.6 Cenni sull’equazione di quarto grado Un’equazione di quarto grado si può sempre scrivere nella forma: x4 + ax3 + bx2 + cx + d = 0 . Con la sostituzione y =x+ (1.4) a 4 si trasforma (1.4) nell’equazione y 4 + py 2 + qy + r = 0 15 Per maggiori dettagli, si può leggere l’articolo di G. Gorni, “L’equazione di terzo grado”, on-line qui: http://sole.dimi.uniud.it/~gianluca.gorni/Dispense/TerzoGrado.pdf 187 Discriminante dove abbiamo chiamato 3 2 1 3 1 p= a +b, q= a ab + c , 8 8 2 Cerchiamo quindi una soluzione della forma 3 4 1 a + a2 b 256 16 r= 1 ac + d . 4 y =u+v+w . Si può dimostrare che u, v, w sono le soluzioni dell’equazione di terzo grado ⇣p p r⌘ q2 z3 + z2 + z =0. 2 16 4 64 Quest’ultima equazione può essere risolta come illustrato nel paragrafo precedente. La situazione cambia drasticamente nel caso di equazioni polinomiali di grado superiore al quarto. Per tali equazioni è noto che non esistono formule risolutive esprimibili tramite radicali (Teorema di Abel-Ruffini). La storia delle equazioni algebriche, dai Babilonesi ai nostri giorni, si può trovare nel libro “Storia della matematica” di C.B. Boyer (Mondadori, 2000). A.7 Polinomi a coefficienti interi Nel caso di un polinomio a coefficienti interi, sia esso p(x) = an xn + an 1 xn 1 + . . . + a1 x + a0 con an 6= 0, è possibile trovare le radici razionali con il metodo illustrato nel seguito. Per il teorema delle radici razionali, se un numero razionale r = p/q è una radice di p(x) allora i) p divide a0 ; ii) q divide an . Per trovare le radici razionali basta allora verificare per sostituzione quali fra le combinazioni p/q, con p divisore di a0 e q divisore di an , sono radici. Con questo metodo ovviamente non è possibile determinare radici che non siano razionali. Esempio A.7.1. Determiniamo le radici razionali di p(x) = I divisori di a0 = x3 + 3x2 + 6x 8. 8 sono ±1, ±2, ±4, ±8; i divisori di a3 = p/q 2 {±1, ±2, ±4, ±8} . Per sostituzione si verifica che le radici sono 1, 4, 2, quindi p(x) = (x 1)(x 188 4)(x + 2) . 1 sono ±1; quindi Teorema delle radici razionali Esempio A.7.2. Determiniamo le radici razionali di p(x) = x3 + 12 x2 2x 1. Come prima cosa moltiplichiamo p(x) per 2, in modo da ottenere un polinomio a coefficienti interi che indichiamo con p̃(x): p̃(x) = 2p(x) = 2x3 + x2 I divisori di a0 = 4x 2. 2 sono ±1, ±2; quindi p 2 {±1, ±2} . i divisori di a3 = 2 sono ±1, ±2; quindi q 2 {±1, ±2} . Dobbiamo provare tutte le combinazioni p/q e vedere quali sono radici del polinomio. Facendo la verifica si trova p̃(1) = 3, p̃( 1) = 1 , p̃( 12 ) = L’unica radice razionale è quindi 3 4 , 1 ) 2 p̃( =0, p̃(2) = 10 , p̃( 2) = 6 1/2. Si può in e↵etti verificare che p p(x) = (x + 12 )(x 2)(x + p 2) . Regola di Ruffini Dato uno scalare r e un polinomio p(x) di grado n: p(x) = an xn + an 1 xn 1 Regola di Ruffini + . . . + a1 x + a0 con an 6= 0, la regola di Ruffini permette di decomporre p(x) nella forma p(x) = (x r)q(x) + R in cui q(x) = bn 1 xn 1 + . . . + b1 x + b0 è un polinomio di grado n 1 e R è una costante detta “resto”. Per calcolare i coefficienti b0 , . . . , bn 1 si procede come illustrato nella tabella seguente: an an 1 bn 1 r r an = bn an 1 + bn 1 r = bn 2 1 an an 2 bn 2 r ... ... a2 b2 r a1 b1 r a0 b0 r + bn 2 r = bn 3 ... ... a 2 + b2 r = b1 a1 + b1 r = b0 a0 + b0 r =R 2 189 Se r è una radice di p(x), allora il resto è R = 0. La regola di Ruffini permette allora di scrivere un polinomio come il prodotto di x r, con r radice, per un polinomio di grado inferiore. Se p(x) ha coefficienti interi, una radice razionale (se esiste) si può trovare come illustrato all’inizio del paragrafo, e poi si può applicare la regola di Ruffini per provare a determinare le radici rimanenti. Esempio A.7.3. Sia p(x) = x3 + 12 x2 Sappiamo che r = (x + 12 )q(x). Si ha 1. 1/2 è una radice. Determiniamo allora q(x) tale che p(x) = 1 1/2 1/2 2 0 1 1 1 = b2 0 = b1 2 = b0 0 =R 1/2 Quindi q(x) = x2 2x 2e p(x) = (x + 12 )(x2 2) . Le rimanenti radici (irrazionali) si trovano notando che x2 2 = (x + p 2)(x p 2). Esempio A.7.4. Sia p(x) = 2x3 + 2x2 x 3. Si vede a occhio che r = 1 è una radice (p(1) = 2 + 2 Ruffini: 1 2 2 2 1 4 3 3 2 = b2 4 = b1 3 = b0 0 =R 1 3 = 0). Con la regola di Quindi q(x) = 2x2 + 4x + 3 e p(x) = (x 1)(2x2 + 4x + 3) . Si può verificare che q(x) non ha radici reali (il discriminante è negativo). Quindi l’unica radice reale di p(x) è r = 1. 190 Se r è una radice di p(x), allora il resto è R = 0. La regola di Ruffini permette allora di scrivere un polinomio come il prodotto di x r, con r radice, per un polinomio di grado inferiore. Se p(x) ha coefficienti interi, una radice razionale (se esiste) si può trovare come illustrato all’inizio del paragrafo, e poi si può applicare la regola di Ruffini per provare a determinare le radici rimanenti. Esempio A.7.3. Sia p(x) = x3 + 12 x2 Sappiamo che r = (x + 12 )q(x). Si ha 1. 1/2 è una radice. Determiniamo allora q(x) tale che p(x) = 1 1/2 1/2 2 0 1 1 1 = b2 0 = b1 2 = b0 0 =R 1/2 Quindi q(x) = x2 2x 2e p(x) = (x + 12 )(x2 2) . Le rimanenti radici (irrazionali) si trovano notando che x2 2 = (x + p 2)(x p 2). Esempio A.7.4. Sia p(x) = 2x3 + 2x2 x 3. Si vede a occhio che r = 1 è una radice (p(1) = 2 + 2 Ruffini: 1 2 2 2 1 4 3 3 2 = b2 4 = b1 3 = b0 0 =R 1 3 = 0). Con la regola di Quindi q(x) = 2x2 + 4x + 3 e p(x) = (x 1)(2x2 + 4x + 3) . Si può verificare che q(x) non ha radici reali (il discriminante è negativo). Quindi l’unica radice reale di p(x) è r = 1. 190