Appunti di Geometria
Transcript
Appunti di Geometria
Appunti di Geometria - 4 Samuele Mongodi - [email protected] Le prime tre sezioni servono solo a rendere chiaro (spero) il legame tra algebra lineare e geometria analitica; per questo non contengono veri e propri esercizi. La loro lettura può tuttavia essere utile per comprendere quanto segue. 1 Geometria del piano Consideriamo il piano usuale della geometria euclidea e indichiamolo con E 2 (la E sta per Euclideo, il 2 per il fatto che siamo sul piano). Scegliamo un punto in E 2 , che chiameremo origine e indicheremo con O; vogliamo mostrare che in questo modo il piano è uno spazio vettoriale. Dato un punto A, possiamo ~ che parte da O e arriva ad A; dati due vettori OA ~ e considerare il vettore OA ~ ~ ~ ~ OB, diciamo che OC = OA+OB se il quadrilatero OACB è un parallelogramma (regola del parallelogramma). = B _ _ r_r{8 C {{ { rrr{ {{ rrrr { { {{ rr { {{rrrrr { { { {{ rr { {r{rrr { { {rr { /A O ~ e un numero reale λ, diciamo che OC ~ = λOA ~ se O, A, C Dati poi un vettore OA sono sulla stessa retta, in quest’ordine se λ è positivo e nell’ordine C, O, A se λ è negativo, di modo che la distanza tra O e C sia |λ| volte la distanza tra O e A. Non è difficile vedere che in questo modo l’insieme E 2 diventa uno spazio vettoriale reale. Inoltre, abbiamo definito il concetto di lunghezza di un vettore: ~ è la distanza tra O e A e si indica di solito con la lunghezza del vettore OA ~ ~ kOAk (si chiama, spesso, norma del vettore OA). Esempio: Consideriamo l’insieme ~ k = 1} S = {P ∈ E 2 | kOP Esso è composto da tutti i punti che hanno distanza 1 dall’origine O, quindi è la circonferenza di centro O e raggio 1. Esempio: Fissiamo un punto A che non sia l’origine e definiamo ~ | λ ∈ R} r(A) = {λOA ~ tale insieme è la retta passante per O ovvero l’insieme di tutti i multipli di OA; e per A. 1 Esempio: Fissiamo due punti A e B, distinti, e definiamo ~ + λ(OB ~ − OA) ~ | λ ∈ R} r(A, B) = {OA ~ − OA, ~ ognuno sommato a OA. ~ Tale insieme è la retta ovvero i multipli di OB passante per A e B. Osserviamo che r(A) è un sottospazio vettoriale di E 2 , mentre S e r(A, B) (se A e B non sono l’origine) non lo sono, in quanto nessuno dei due contiene l’origine. Le descrizioni della retta date nel secondo e nel terzo esempio si dicono parametriche, in quanto sono realizzate al variare di un parametro reale (che nei nostri esempi si chiama λ). ~ OB, ~ OC; ~ consideriamo il vetInoltre, supponiamo di avere tre vettori OA, ~ che corrisponde all’intersezione della retta r(C) con la retta r(A, B) tore OD (se non si intersecano, si provi con l’intersezione di r(A) e r(B, C) o con l’intersezione di r(B) con r(A, C), una di queste esiste per forza1 ). Allora ~ = λOC ~ OD in quanto è un elemento di r(C) e ~ = OA ~ + µ(OB ~ − OA) ~ OD in quanto è un elemento di r(A, B), ma allora ~ + µOB ~ − µOA ~ = λOC ~ OA ovvero ~ + µOB ~ − λOC ~ =0 (1 − µ)OA Quindi tre vettori sono sempre linearmente dipendenti; questo vuol dire che (poiché due vettori non dipendenti li possiamo trovare) E 2 ha dimensione 2. Esempio: Dati due punti A e B, il loro punto medio è individuato dal vettore ~ + OB)/2 ~ (OA In generale, i punti del segmento tra A e B sono descritti da ~ + (1 − t)OB ~ | t ∈ [0, 1]} s(A, B) = {tOA Attenzione! La limitazione t ∈ [0, 1] è importante, infatti se lasciamo variare il parametro t in tutto R otteniamo la descrizione di tutta la retta per A e B e non solo del segmento. Esempio: Dati tre punti A, B, C, il baricentro del triangolo da loro formato è individuato dal vettore ~ + OB ~ + OC)/3 ~ (OA In generale, i punti interni del triangolo di vertici A, B, C sono descritti da ~ + sOB ~ + (1 − t − s)OC ~ | t, s ∈ [0, 1], t + s ≤ 1} t(A, B, C) = {tOA 1 Si provi a dimostrarlo! 2 Anche qui, le due limitazioni t, s ∈ [0, 1] e t + s ≤ 1 sono importanti, altrimenti si ottiene l’intero piano. Dati n vettori v1 , . . . , vn , definiamo combinazione lineare convessa degli n vettori una somma λ1 v1 + . . . + λn vn in cui gli n numeri reali λ1 , . . . , λn sono positivi e tali che λ1 + . . . + λn = 1. L’insieme di tutte le combinazioni lineari convesse di {v1 , . . . , vn } si dice inviluppo convesso di v1 , . . . , vn ed è la più piccola figura convessa che contiene i punti individuati dai vettori v1 , . . . , vn . Esempio: Un sottospazio vettoriale proprio W di E 2 è l’origine oppure una retta per l’origine; infatti, dim W < 2 e, se dim W = 0, per forza deve essere ~ un vettore di W , allora tutti gli altri W = {0}. Se invece dim W = 1, sia OA ~ e quindi suoi multipli; vettori di W devono essere linearmente dipendenti da OA perciò ~ | λ ∈ R} W = {λOA ovvero W = r(A). La retta r(A, B), con A, B diversi dall’origine, non è un sottospazio vettoriale; però può essere descritta come la traslazione di un sottospazio vettoriale. ~ = OB ~ − OA, ~ possiamo dire che Se infatti chiamiamo OC ~ r(A, B) = r(C) + OA r(C) è la retta parallela a r(A, B) che passa per O e si dice giacitura della retta r(A, B), che viene detta sottospazio affine di E 2 . In generale un sottospazio affine E di uno spazio vettoriale V è della forma E = v + W con W sottospazio vettoriale, v vettore non nullo. W viene allora detto giacitura di E (è il sottospazio ‘parallelo’ passante per l’origine). Consideriamo ora una applicazione lineare T : E 2 → R e studiamone il nucleo. Possono presentarsi due casi: dim ker T = 2 o dim ker T = 1; l’applicazione non può essere iniettiva (dim ker T = 0) perché E 2 ha dimensione 2, mentre R ha dimensione 1). Nel primo caso, T è l’applicazione nulla. Altrimenti, il nucleo di T è un sottospazio di dimensione 1, ovvero una retta per l’origine. Dunque, una retta per l’origine può anche essere descritta come ~ ∈ E 2 | T (OA) ~ = 0} {OA Questa si dice descrizione cartesiana o implicita di una retta; per descrivere una retta generica r(A, B), dovremo considerare non il nucleo (ovvero le soluzioni di T (v) = 0), ma lo spazio delle soluzioni del sistema T (v) = c con c ∈ R. Quindi una retta generica ha la seguente forma cartesiana: ~ ∈ E 2 | T (OA) ~ = c} {OA Fissando una base di E 2 , ogni vettore è individuato da 2 coordinate, quindi ~ = (x, y) e T sarà associata ad una matrice 1 × 2: possiamo scrivere OA a b 3 ~ = c si potrà scrivere come Dunque, il sistema T (OA) x a b =c y ovvero ax + by = c che è l’equazione cartesiana della retta nella geometria analitica. L’intersezione di due rette, descritte implicitamente dalle applicazioni lineari T ed S e dai numeri reali c e f , sarà data dal sistema ~ T (OA) = c ~ S(OA) = f Se poi T = a otteniamo che il sistema si può a d b S= d e riscrivere come b x c = e y f Dunque, lo studio delle intersezioni di due rette si riconduce allo studio della risolubilità di sistemi lineari; in particolare, due rette si diranno parallele se a b a b c rk = 1 ma rk =2 d e d e f Ovvero se il sistema non ha soluzioni. Passare dalla rappresentazione cartesiana a quella parametrica equivale a ~ = c; per passare invece dalla forma trovare lo spazio delle soluzioni di T (OA) parametrica a quella cartesiana, bisogna scegliere una base della giacitura, completarla a una base dello spazio e definire tramite questa base una applicazione lineare che si annulli solo sulla giacitura. 2 Rette e piani nello spazio La costruzione di uno spazio vettoriale a partire dal piano euclideo può essere fatta anche nello spazio euclideo E 3 in cui sia fissata l’origine O, esattamente nello stesso modo, quindi non la ripeteremo. Tutte le descrizioni parametriche date nella sezione precedente rimangono valide: ~ | λ ∈ R} r(A) = {λOA descrive la retta passante per O e A, ~ + λ(OB ~ − OA) ~ | λ ∈ R} r(A, B) = {OA descrive la retta per A e B, cosı̀ come s(A, B) descrive il segmento di estremi A e B e t(A, B, C) descrive il triangolo di vertici A, B, C. Esempio: L’insieme ~ k = 1} S 2 = {P ∈ E 3 | kOP 4 non è più una circonferenza, ma una sfera, di centro l’origine e raggio 1. Esempio: L’insieme ~ + µOB ~ | λ, µ ∈ R} p(A, B) = {λOA descrive il piano di E 3 che passa per O, A e B. Notiamo che è anche un sottospazio vettoriale di E 3 , in quanto se due punti P e Q si trovano su di esso, anche il quarto vertice del parallelogramma OP XQ si trova su di esso e quindi è chiuso per somma. Inoltre è ovviamente chiuso per moltiplicazione per un numero reale. Esempio: L’insieme ~ + λOB ~ + µOC ~ | λ, µ ∈ R} p(A, B, C) = {OA descrive il piano di E 3 passante per A, B, C; esso è un sottospazio affine di E 3 , in quanto non passa per l’origine, ma è ottenuto traslando il piano per l’origine ~ = OB ~ − OA ~ e OE ~ = OC ~ − OA, ~ che ne è la giacitura. p(D, E), con OD Come abbiamo fatto con E 2 , si può mostrare che E 3 ha dimensione 3; infatti, siano A, B, C, D quattro punti e supponiamo che la retta r(D) intersechi il piano ~ allora p(A, B, C) nel punto rappresentato dal vettore OE, ~ = λOD ~ OE e ~ = OA ~ + µOB ~ + ν OC ~ OE quindi ~ + µOB ~ = λOC ~ − λOD ~ =0 OA ovvero quattro vettori sono sempre linearmente dipendenti. Del resto, possiamo ben trovare tre vettori indipendenti. Consideriamo, come prima, una applicazione T : E 3 → R; il suo nucleo potrà avere dimensione 3 o 2. Nel primo caso, T è l’applicazione nulla. Nel secondo caso, il nucleo di T è un piano per l’origine; dunque, fissando una base ~ = (x, y, z) e la matrice 1 × 3 associata a T come e scrivendo il vettore OA a b c avremo che un piano per l’orgine si descrive come l’insieme delle soluzioni di x a b c y =0 z Quindi, più in generale, avremo che un piano (anche non per l’origine) si descriverà come x a b c y =d z con d ∈ R. 5 Dunque, l’intersezione di due piani sarà descritta dalle soluzioni di un sistema del tipo x a b c d y = e f g h z Se rk a e b f c g =1 ma rk a e b f d =2 h c g i piani si dicono paralleli e il sistema non ha soluzioni; se entrambe le matrici hanno rango 1 i piani sono coincidenti e il sistema è banale. Se entrambe le matrici hanno rango 2, le soluzioni formano una retta; infatti sono tutte della ~ + λOB ~ con OA ~ una soluzione particolare e OB ~ una soluzione del forma OA sistema omogeneo associato. Una retta in E 3 può dunque essere descritta in forma implicita come l’intersezione di due piani, ovvero come le soluzioni di x a b c d y = e f g h z con le condizioni sul rango data dalla risoluzione di un a e p t Le due rette dette sopra; l’intersezione di due rette sarà allora sistema del tipo d b c x f g y = h s q r z w u v ax + by + cz ex + f y + gz = d = h si diranno incidenti se le due matrici a b c e f g A= p q r t u v px + qy + rz tx + uy + vz a b e f B= p q t u c g r v = s = w d h s w hanno rango 3, si diranno sghembe se rkA = 3 e rkB = 4, si diranno parallele se rkA = 2 e rkB = 3 e si diranno coincidenti se rkA = rkB = 2. Il fatto che i due sistemi rappresentino delle rette (e quindi siano sistemi di piani incidenti) garantisce che il rango non è mai meno di 2. Una retta ax + by + cz ex + f y + gz = d = h si dice incidente con il piano px + qy + rz = s 6 se le matrici a e p b f q c g r a e p b f q c g r d h s hanno entrambe rango 3; si dice parallela a quel piano se la prima matrice ha rango 2 e la seconda ha rango 3; appartiene a quel piano se entrambe le matrici hanno rango 2. Risolvendo esplicitamente il sistema che descrive una retta, la si può mettere nella forma parametrica r(A, B); similmente si può fare per trovare la forma parametrica di un piano. Esercizio 1 Trovare 3 rette a due a due sghembe in E 3 . Esercizio 2 Trovare una retta in E 3 che passi per il punto (1, 0, 0) e sia parallela alla retta x = 0 y+z = 0 Esercizio 3 Trovare una retta in E 3 che passi per il punto (1, 1, 1), sia parallela al piano x − y − 2z = 0 e sia incidente con la retta −x + y = 0 x−y+z = 1 3 Prodotto scalare euclideo nel piano e nello spazio Sul piano E 2 è definito il prodotto scalare di due vettori come segue: ~ OBi ~ = kOAk ~ · kOBk ~ · cos(AOB) \ hOA, Ovviamente, una simile definizione si può estendere anche nello spazio euclideo E 3. Questo prodotto scalare gode di alcune proprietà: ~ OBi ~ = hOB, ~ OAi ~ 1. simmetria, ovvero hOA, ~ + µOC, ~ OBi ~ = λhOA, ~ OBi ~ + 2. linearità nel primo argomento, ovvero hλOA ~ ~ µhOC, OBi 3. linearità nel secondo argomento, mettendo assieme i due precedenti punti ~ OAi ~ ≥ 0 per ogni A ∈ E 2 e si annulla solo se 4. positività, ovvero hOA, ~ ~ OA = OO, ovvero se l’argomento è il vettore nullo. Inoltre, notiamo che ~ 2 = hOA, ~ OAi ~ kOAk Ora, se fissiamo una base di E 2 e associamo ad ogni vettore delle coordinate (quindi lo vediamo come R2 ), abbiamo che, dati ~ = (a1 , a2 ) OA ~ = (b1 , b2 ) OB 7 si ha che ~ = kOAk q ~ = kOBk a21 + a22 q b21 + b22 e, dal teorema di Carnot per il coseno, si ha ~ OBk ~ cos(AOB) ~ 2 + kOBk ~ 2 − kOA ~ − OBk ~ 2) \ = 1 (kOAk kOAk 2 ovvero ~ OBi ~ = hOA, 1 2 (a + a22 + b21 + b22 − ((a1 − b1 )2 + (a2 − b2 )2 )) = a1 b1 + a2 b2 2 1 Quindi, su R2 , il prodotto scalare definito prima diventa a1 b1 h , i = a1 b1 + a2 b2 a2 b2 Poiché il coseno di un angolo è nullo se e solo se questo dista un multiplo di π da π/2, due vettori non nulli hanno prodotto scalare nullo se e solo se l’angolo \ è retto. Quindi, due vettori si dicono ortogonali se convesso AOB ~ OBi ~ =0 hOA, ~ ⊥ OB. ~ e si scrive OA ~ è L’insieme dei vettori ortogonali a un vettore dato OA ~ OBi ~ = 0} {B ∈ E 2 | hOA, ~ = (a1 , a2 ), si scrive come e dunque in coordinate, fissata una base in cui OA {(x, y) ∈ R2 | a1 x + a2 y = 0} ~ ⊥. e dunque è una retta, indicata con OA Più in generale, anche l’insieme ~ OBi ~ = c} {B ∈ E 2 | hOA, è una retta, per c ∈ R, in quanto corrisponde, in coordinate, alle soluzioni dell’equazione a1 x + a2 y = c. Tutto questo si può riportare senza alcun problema in E 3 , con le seguenti differenze. L’espressione in coordinate del prodotto scalare sarà a1 b1 h a2 , b2 i = a1 b1 + a2 b2 + a3 b3 a3 b3 e gli insiemi ~ OBi ~ = c} {B ∈ E 3 | hOA, ~ fissato e c ∈ R saranno piani e non più rette. per OA Due rette in E 2 ax + by = c dx + ey = f 8 sono ortogonali se e solo se (a, b) ⊥ (d, e), ovvero se e solo se ad + be = 0; allo stesso modo in E 3 una retta ax + by + cz = d ex + f y + gz = h e un piano px + qy + rz = s sono ortogonali se e solo se (a, b, c) ⊥ (p, q, r) e (e, f, g) ⊥ (p, q, r) ovvero se e solo se ap + bq + cr = 0 ep + f q + gr = 0 Ovvero, il piano px + qy + rz = s è ortogonale a una retta se e solo se il vettore (p, q, r) è parallelo alla stessa retta. Due rette in E 3 sono ortogonali se e solo se sono complanari e ortogonali in quel piano. Infine, esaminiamo brevemente l’insieme ~ − OA, ~ OP ~ − OBi ~ = k} {P ∈ E 2 | hOP con A, B ∈ E 2 , k ∈ R. Ovviamente si ha ~ − OA, ~ OP ~ − OBi ~ = hOP 1 ~ ~ 2 + hOA, ~ OBi ~ ~ − (OA ~ + OB)/2, ~ ~ − (OA ~ + OB)/2i ~ + OBk = hOP OP − kOA 4 ~ + OB ~ = OC, ~ possiamo riscrivere la condizione come e dunque, posto OA ~ − OCk ~ = k + 1 kOCk ~ 2 − hOA, ~ OBi ~ kOP 4 Quindi, se 1 ~ 2 ~ OBi ~ <0 − hOA, k + kOCk 4 l’insieme è vuoto, se 1 ~ 2 ~ OBi ~ =0 k + kOCk − hOA, 4 ~ e se l’insieme è il punto OC 1 ~ 2 ~ OBi ~ >0 k + kOCk − hOA, 4 l’insieme è una circonferenza di centro C e raggio r 1 ~ 2 ~ OBi ~ k + kOCk − hOA, 4 Esercizio 4 Trovare una retta di E 3 , passante per (1, 2, 3) e ortogonale al piano x + y + z = 0. Esercizio 5 Trovare una retta di E 3 ortogonale alle due rette x+y = 0 x−y = 0 z = 1 x+z = 2 9 4 Forme bilineari Richiami Una forma (o applicazione) bilineare su V , spazio vettoriale sul campo K, è un’applicazione f :V ×V →K tale che i. f (v + v 0 , w) = f (v, w) + f (v 0 , w) (additività nella prima variabile) ii. f (v, w + w0 ) = f (v, w) + f (v, w0 ) (additività nella seconda variabile) iii. f (λv, w) = λf (v, w) (omogeneità nella prima variabile) iv. f (v, λw) = λf (v, w) (omogeneità nella seconda variabile) Supponiamo ora di considerare Rn e quindi di avere una forma bilineare f : Rn × Rn → R Se v = (v1 , v2 , . . . , vn ) e w = (w1 , w2 , . . . , wn ), possiamo scrivere v = v1 e1 + . . . + vn en w = w1 e1 + . . . + wn en dove e1 , . . . , en è la base canonica. Allora, applicando la prima proprietà delle forme bilineari, abbiamo che f (v, w) = f (v1 e1 , w) + . . . + f (vn en , w) e applicando la terza proprietà f (v, w) = v1 f (e1 , w) + . . . + vn f (en , w) Ora, applicando ad ogni addendo la seconda proprietà, abbiamo f (v, w) = v1 (f (e1 , w1 e1 ) + f (e1 , w2 e2 ) + . . . + f (e1 , wn en )) + . . . + +vn (f (en , w1 e1 ) + f (en , w2 e2 ) + . . . + f (en , wn en )) ed applicando la quarta proprietà otteniamo f (v, w) = v1 w1 f (e1 , e1 ) + . . . + v1 wn f (e1 , en ) + + v2 w1 f (e2 , e1 ) + . . . + v2 wn f (e2 , en ) + + ... + + vn w1 f (en , e1 ) + . . . + vn wn f (en , en ) Quindi, se definiamo la matrice f (e1 , e1 ) f (e1 , e2 ) . . . f (e1 , en ) f (e2 , e1 ) f (e2 , e2 ) . . . f (e2 , en ) A= ... ... ... ... f (en , e1 ) f (en , e2 ) . . . f (en , en ) 10 avremo che v1 v2 ... f (e1 , e1 ) f (e1 , e2 ) f (e2 , e1 ) f (e2 , e2 ) vn ... ... f (en , e1 ) f (en , e2 ) ... ... ... ... w 1 f (e1 , en ) w2 f (e2 , en ) = v t Aw . . . ... f (en , en ) wn e dunque f (v, w) = v t Aw Quindi ogni forma bilineare dà una matrice e, del resto, ogni matrice dà una forma bilineare. Più in generale, data una forma bilineare f su uno spazio vettoriale V di dimensione finita sul campo K, possiamo scriverne la matrice associata rispetto ad una base; data la base {v1 , . . . , vn }, la matrice associata ad f rispetto a questa base sarà f (v1 , v1 ) f (v1 , v2 ) . . . f (v1 , vn ) f (v2 , v1 ) f (v2 , v2 ) . . . f (v2 , vn ) A= ... ... ... ... f (vn , v1 ) f (vn , v2 ) . . . f (vn , vn ) Esempio Consideriamo l’applicazione f : R 3 × R3 → R data da f (v, w) = v1 w2 +v2 w3 +v3 w1 −v1 w3 −v2 w1 −v3 w2 , dove v = (v1 , v2 , v3 ) e w = (w1 , w2 , w3 ). Essa è ovviamente bilineare, in quanto lo sono tutte le applicazioni della forma 1 ≤ i, j ≤ 3 f (v, w) = vi wj e le combinazioni lineari di queste. Scriviamone la matrice associata rispetto alla base canonica: possiamo farlo calcolando f (ei , ej ) con 1 ≤ ij ≤ 3; osserviamo che f (e1 , e1 ) = f (e2 , e2 ) = f (e3 , e3 ) = 0 f (e1 , e2 ) = f (e2 , e3 ) = f (e3 , e1 ) = 1 f (e2 , e1 ) = f (e3 , e2 ) = f (e1 , e3 ) = −1 e dunque la matrice è 0 A = −1 1 1 0 −1 −1 1 0 Altrimenti, sapendo che deve valere f (v, w) = v t Aw, potevamo già ricavare i valori delle entrate della matrice dalla formula data per f : il coefficiente di vi wj è l’elemento di matrice sulla i−esima riga e sulla j−esima colonna. Vediamo che per ogni v ∈ R3 , f (v, v) = 0, infatti 0 1 −1 v1 1 v2 = v t Av = v1 v2 v3 −1 0 1 −1 0 v3 11 = v1 v2 + v2 v3 + v3 v 1 − v 1 v3 − v2 v1 − v3 v2 = 0 Questo è una conseguenza del fatto che f (v, w) = −f (w, v) per ogni v, w ∈ R3 ; una forma bilineare con tali proprietà si dice antisimmetrica. Esempio Consideriamo l’applicazione f : R 4 × R4 → R data da f (v, w) = v1 w1 + v2 w2 + v3 w3 − v4 w4 . Come prima, essa è ovviamente bilineare; inoltre la matrice a lei associata è 1 0 0 0 0 1 0 0 A= 0 0 1 0 0 0 0 −1 Si ha che f (v, w) = f (w, v) per ogni v, w ∈ R4 , ovvero tale forma è simmetrica. Proviamo ora a cercare vettori per cui f (v, v) = 0; applicando la definizione di f , otteniamo che v deve soddisfare v12 + v22 + v32 − v42 = 0 ovvero v12 + v22 + v32 = v42 Quindi va bene qualunque vettore del tipo p x, y, z, ± x2 + y 2 + z 2 per x, y, z ∈ R; tali vettori non sono un sottospazio vettoriale di R4 , ma quello che si dice un cono. Infatti la somma di due vettori di questo tipo non è ancora un vettore di questo tipo, ma un loro multiplo reale lo è: p λx, λy, λz, ±λ x2 + y 2 + z 2 rientra nella descrizione, in quanto p p (λx)2 + (λy)2 + (λz)2 = |λ| x2 + y 2 + z 2 e il ± ci permette di aggiustare il segno di λ. Del resto, (1, 0, 0, 1) e (0, 1, 0, 1) sono vettori di questo tipo, mentre (1, 1, 0, 2) non lo è. Esempio Consideriamo lo spazio vettoriale R2 [x] dei polinomi a coefficienti reali di grado minore o uguale a 2. Definiamo l’applicazione f : R2 [x] × R2 [x] → R tramite la formula f (p(x), q(x)) = p(1)q(2) Verifichiamo che f è una forma bilineare: f (λp1 (x) + µp2 (x), q(x)) = (λp1 (1) + µp2 (1))q(2) = 12 = λp1 (1)q(2) + µp2 (1)q(2) = λf (p1 (x), q(x)) + µf (p2 (x), q(x)) f (p(x), λq1 (x) + µq2 (x)) = p(1)(λq1 (2) + µq2 (2)) = λp1 (1)q(2) + µp2 (1)q(2) = λf (p(x), q1 (x)) + µf (p(x), q2 (x)) e scriviamo f rispetto alla base {1, x, x2 } di R2 [x]. Per farlo, dobbiamo calcolare i valori di f sulle coppie di elementi della base. f (1, 1) = 1 · 1 = 1 f (1, x) = 1 · 2 = 2 f (1, x2 ) = 1 · 4 = 4 f (x, 1) = 1 · 1 = 1 f (x, x) = 1 · 2 = 2 f (x, x2 ) = 1 · 4 = 4 f (x2 , 1) = 1 · 1 = 1 f (x2 , x) = 1 · 2 = 2 f (x2 , x2 = 1 · 4 = 4 Dunque 1 A= 1 1 4 4 4 2 2 2 Proviamo ora ad utilizzare la matrice A per calcolare f (1 + 3x, 2x + 4x2 ): il polinomio 1+3x si rappresenta, nella base scelta, come (1, 3, 0), mentre 2x+4x2 corrisponde a (0, 2, 4), quindi 0 0 1 3 0 A 2 = 4 8 16 2 = 16 + 64 = 80 4 4 Esercizio 6 Si scriva la matrice associata alla forma bilineare su R3 definita da f (v, w) = v1 w1 + v1 w2 − 2v3 w1 + v3 w3 − v1 w3 + v2 w1 rispetto alla base canonica e si determini un vettore v tale che f (v, v) = 0. Esercizio 7 Si dimostri che l’applicazione f : R2 [x] × R2 [x] → R definita da Z f (p(x)q(x)) = 1 p(x)q(x)dx 0 è bilineare. Se ne calcoli la matrice rispetto alla base {1, x, x2 } e rispetto alla base {1 + x, x + x2 , x2 + 1}. Si dimostri che f (p(x), p(x)) > 0 per ogni p(x) non nullo. Esercizio 8 Si dimostri che l’applicazione f : R3 [x] × R3 [x] → R definita da f (p(x), q(x)) = p(1)q 0 (0) è bilineare. Se ne calcoli la matrice rispetto alle basi del precedente esercizio e si determinino quattro polinomi in R3 [x] linearmente indipendenti p1 , p2 , p3 , p4 tali che f (pi , pi ) = 0 per i = 1, 2, 3, 4. 13 5 Prodotti scalari Richiami L’applicazione bilineare su Rn definita da f (v, w) = v1 w1 + v2 w2 + . . . + vn wn si dice prodotto scalare canonico e si indica con hv, wi; esso gode delle seguenti proprietà i. hv, wi = hw, vi (simmetria); ii. hv, vi ≥ 0 (positività); iii. se hv, wi = 0 per ogni w ∈ Rn , allora v = 0 (non degenerazione). Se hv, wi = 0, diciamo che v e w sono ortogonali e scriviamo v ⊥ w; dato un sottospazio W ⊆ Rn , definiamo l’ortogonale di W come W ⊥ = {v ∈ Rn | hv, wi = 0 per ogni w ∈ W } La proprietà di non degenerazione equivale a dire che V ⊥ = {0}; se {w1 , . . . , wk } è una base di W , i vettori ortogonali a W sono tutti e soli quelli che soddisfano il sistema hv, w1 i = 0 ... hv, wk i = 0 La matrice associata a tale sistema ha come righe i vettori wi e dunque ha rango massimo; quindi le soluzioni del sistema sono un sottospazio vettoriale di dimensione n − k. Questo dimostra la relazione dim W + dim W ⊥ = dim V In generale, un prodotto scalare su Rn è una applicazione bilineare simmetrica, di solito indicata con h·, ·i. Ad essa è associata una matrice rispetto alla base canonica di Rn , come descritto nella sezione precedente; la simmetria della forma bilineare implica che anche la matrice associata sia simmetrica. Diciamo che un prodotto scalare è degenere se det A = 0; se invece la matrice associata è invertibile, diciamo che il prodotto scalare è non degenere. Gli elementi di ker A sono tutti e soli i vettori v per cui hv, wi = 0 per ogni w ∈ Rn Diciamo che un vettore v è isotropo per un certo prodotto scalare se hv, vi = 0 Ovviamente, tutti i vettori di ker A sono isotropi. Diciamo che un prodotto scalare è definito positivo se hv, vi > 0 per ogni v ∈ Rn \ {0} diciamo che è definito negativo se hv, vi < 0 per ogni v ∈ Rn \ {0} 14 diciamo che è semidefinito positivo se hv, vi ≥ 0 per ogni v ∈ Rn e diciamo che è semidefinito negativo se hv, vi ≤ 0 per ogni v ∈ Rn Se non rientra in nessuno dei casi precedenti, diciamo che è indefinito. I prodotti scalari definiti (positivi e negativi) sono per forza non degeneri, ma non è detto il contrario; un prodotto scalare definito non ammette vettori isotropi, mentre per quelli semidefiniti (che non siano definiti) e quelli indefiniti c’è sempre almeno un tale vettore. Tutto quanto detto sopra può essere generalizzato ad uno spazio vettoriale V di dimensione finita su R. Esempio Consideriamo il prodotto scalare su R3 dato da hv, wi = 2v1 w1 + 2v2 w2 + v3 w3 − v1 w2 − w1 v2 − w1 v3 − v1 w3 La matrice associata è −1 2 0 2 A = −1 −1 −1 0 1 e det A = 1, quindi il prodotto scalare non è degenere. Inoltre, osserviamo che hv, vi = 2v12 + 2v22 + v32 − 2v1 v2 − 2v1 v3 che si può riscrivere come (v1 − v2 )2 + v22 + (v1 − v3 )2 e dunque hv, vi > 0 per ogni v non nullo, quindi il prodotto scalare è definito positivo. Esempio Consideriamo il prodotto scalare su R4 dato da hv, wi = v1 w1 + v2 w2 + v3 w3 − v4 w4 La matrice associata è 1 0 A= 0 0 0 1 0 0 0 0 1 0 0 0 0 −1 e det A = −1, quindi il prodotto scalare è non degenere. Inoltre hv, vi = v12 + v22 + v32 − v42 quindi, se v = (1, 0, 0, 0), hv, vi > 0, ma se v = (0, 0, 0, 1) hv, vi < 0, quindi il prodotto scalare è indefinito. Possiamo dunque trovare un vettore isotropo non nullo, come ad esempio (1, 0, 0, 1). 15 Esempio Consideriamo il prodotto scalare su R2 [x] definito da Z hp(x), q(x)i = 1 p(x)q(x)dx + p(0)q(0) 0 La matrice associata è 2 A = 1/2 1/3 1/2 1/3 1/4 1/3 1/4 1/5 e det A = 1/63 , quindi non è degenere. Ovviamente, Z 1 p2 (x)dx + p(0)2 hp(x), p(x)i = 0 e dunque è sempre positivo, se p non è nullo, quindi il prodotto scalare è definito positivo. Esempio (Esercizio 4 - Scritto del 25 settembre 2006 ) Sia V lo spazio vettoriale generato su R da {ex , e−x , x} e sia h·, ·i il prodotto scalare definiti da hf, gi = (f g)0 (0). i. Determinare la matrice del prodotto scalare rispetto alla base {ex , e−x , x}. ii. Dire se tale prodotto scalare è degenere o meno. iii. Trovare, se esiste, un vettore isotropo. Lo spazio vettoriale V corrisponde all’insieme delle funzioni aex + be−x + cx con a, b, c ∈ R. (i). Per scrivere la matrice associata a h·, ·i rispetto alla base data, bisogna calcolare i prodotti scalari tra gli elementi della base. Per non confonderci con l’ordine in cui farli, chiamiamo f1 (x) = ex , f2 (x) = e−x , f3 (x) = x. Allora hf1 , f1 i = de2x (0) = 2e2x |x=0 = 2 dx hf1 , f2 i = d1 (0) = 0 dx dxex (0) = xex + ex |x=0 = 1 dx dxe−x hf2 , f3 i = (0) = −xe−x + e−x |x=0 = 1 dx hf1 , f3 i = hf2 , f2 i = de−2x (0) = −2e−2x |x=0 = −2 dx hf3 , f3 i = dx2 (0) = 2x|x=0 = 0 dx 16 Gli altri prodotti scalari li conosciamo grazie alla proprietà di simmetria. Quindi la matrice associata è 2 0 1 A = 0 −2 1 1 1 0 (ii). Si ha det A = 0, quindi il prodotto scalare è degenere; inoltre V ⊥ = ker A = Span(f1 + f2 − 2f3 ) (iii). Poiché il prodotto è degenere, trovare un vettore isotropo non nullo è banale, in quanto ogni elemento di V ⊥ è isotropo e la degenerazione del prodotto scalare implica che V ⊥ 6= {0}; ad esempio, il vettore f1 +f2 −2f2 = ex +e−x −2x è isotropo, come tutti i suoi multipli reali. (Non richiesto dall’esercizio del compito) Proviamo a vedere se ci sono vettori isotropi non in V ⊥ . Dato un elemento f (x) di V , scritto come aex +be−x +cx, abbiamo che a hf (x), f (x)i = a b c A b = c = 2a2 − 2b2 + 2ac + 2bc Ora, possiamo riscrivere questa espressione come 2(a − b + c)(a + b) Quindi, tutti gli elementi di V per cui a = −b sono isotropi, ovvero le funzioni della forma k(ex − e−x ) + hx, come anche gli elementi di V per cui a + c = b, ovvero le funzioni della forma kex + (k + h)e−x + hx. Esercizio 9 Si consideri il seguente prodotto scalare su R3 : hv, wi = 2v1 w1 − 2v2 w2 + v3 w3 + v1 w3 + v2 w3 + v3 w1 + v3 w2 Si scriva la matrice associata al prodotto scalare rispetto alla base canonica, si determini se è degenere o meno e, se esiste, si esibisca un vettore isotropo non nullo. Esercizio 10 Si consideri il seguente prodotto scalare su R3 [x]: Z 1 hp(x), q(x)i = (p(x)q(x))0 dx 0 Se ne scriva la matrice rispetto alla base {1, x, x2 , x3 }, si dica se è degenere, si dica se è definito, semidefinito o indefinito, si trovi, se esiste, un vettore isotropo non nullo. Esercizio 11 Si consideri lo spazio vettoriale V generato su R dalle funzioni {ex − 1, ex + 1, x} e si definisca su di esso il prodotto scalare Z 1 hf (x), g(x)i = f 0 (x)g 0 (x)dx 0 Determinare la matrice associata a tale prodotto scalare rispetto alla base {ex − 1, ex + 1, x}, determinare V ⊥ (e quindi dire se il prodotto scalare è degenere o meno) e trovare, se esiste, un vettore isotropo che non appartenga a V ⊥ . 17