Dispensa n.5

Transcript

Dispensa n.5
Appunti di Geometria - 5
Samuele Mongodi - [email protected]
1
Segnatura di un prodotto scalare
Richiami Sia V uno spazio vettoriale reale di dimensione n; sia
h·, ·i : V × V → R
un prodotto scalare. Data una base B = {v1 , . . . , vn } di V , la matrice associata
a h·, ·i nella base B è


hv1 , v1 i hv1 , v2 i · · · hv1 , vn i
 hv2 , v1 i hv2 , v2 i · · · hv2 , vn i 


A= .

..
..
 ..

.
.
hvn , v1 i
hvn , v2 i
···
hvn , vn i
Il prodotto scalare si dice non degenere se
V ⊥ = {0}
e, visto che
V ⊥ = ker A
il prodotto scalare è non degenere se e solo se det A 6= 0; il numero dim ker A
si dice indice di nullità e si indica, a volte, con i0 , mentre il rango di A viene
anche detto rango del prodotto scalare.
Il prodotto scalare si dice:
• definito positivo se hv, vi > 0 per ogni v non nullo in V
• definito negativo se hv, vi < 0 per ogni v non nullo in V
• semidefinito positivo se hv, vi ≥ 0 per ogni v in V
• semidefinito negativo se hv, vi ≤ 0 per ogni v in V
• indefinito altrimenti.
Notiamo che se il prodotto scalare è non degenere, allora non può essere
semidefinito (né negativo, né positivo); se, al contrario, il prodotto scalare è degenere, non può essere definito (né positivo, né negativo). Un prodotto indefinito
può essere sia degenere, che non degenere.
La matrice A associata al prodotto scalare è simmetrica, dunque è diagonalizzabile (teorema spettrale); la molteplicità di 0 come autovalore di A è la
1
dimensione del nucleo, quindi il numero che abbiamo indicato con i0 . Consideriamo ora il numero di autovalori positivi di A (contati con le rispettive molteplicità algebriche1 ) e chiamiamolo indice di positività del prodotto scalare,
indicato con i+ ; similmente, contiamo il numero di autovalori negativi (sempre con molteplicità) e chiamiamolo indice di negatività del prodotto scalare,
indicato con i− .
Ovviamente, visto che i0 è la molteplicità dell’autovalore nullo, i+ la somma
delle molteplicità degli autovalori positivi, i− la somma delle molteplicità degli
autovalori negativi, la somma i+ + i− + i0 è la somma di tutte le molteplicità,
quindi fa n (la dimensione dello spazio vettoriale).
La terna di numeri (i+ , i− , i0 ) (attenzione, non è un vettore!!) si dice
segnatura del prodotto scalare e permette di ricavare tutte le informazioni
necessarie:
1. se la segnatura è (n, 0, 0), il prodotto scalare è non degenere e definito
positivo;
2. se la segnatura è (0, n, 0), il prodotto scalare è non degenere e definito
negativo;
3. se la segnatura è (p, 0, n − p), il prodotto scalare è degenere e semidefinito
positivo;
4. se la segnatura è (0, m, n−m), il prodotto scalare è degenere e semidefinito
negativo;
5. se la segnatura è (p, n−p, 0), il prodotto scalare è non degenere e indefinito;
6. se la segnatura è (p, m, n−p−m), il prodotto scalare è degenere e indefinito.
Nota: In questi primi esercizi, volendoci concentrare sul calcolo della segnatura, daremo direttamente la matrice associata, ma non sarà sempre cosı̀.
Esempio Consideriamo il prodotto scalare

1 0
A = 0 −1
0 1
dato dalla matrice

0
1
0
Per determinarne la segnatura, dobbiamo trovare il segno degli autovalori, quindi scriviamo il polinomio caratteristico:


1−λ
0
0
−1 − λ 1  = −λ3 + 2λ − 1
det(A − λI) = det  0
0
1
−λ
Ora, se un polinomio a coefficienti interi ha radici razionali, queste sono date
da un divisore del termine noto fratto un divisore del coefficiente direttore; in
questo caso possono solo essere +1 e −1. E’ facile verificare che +1 è una radice
del polinomio: −1 + 2 − 1 = 0.
1 Se ad esempio la matrice A ha come autovalori 1 e 2 con molteplicità 2 e 3, conteremo 5
autovalori positivi
2
Quindi −λ3 + 2λ − 1 = −(λ√− 1)(λ2 + λ − √
1); il polinomio di secondo grado
λ2 + λ − 1 ha soluzioni (−1 + 5)/2 e (−1 − 5)/2.
Dunque i tre autovalori sono
√
√
1+ 5
−1 + 5
−
1
2
2
il primo dei quali è negativo, mentre gli altri due sono positivi. Dunque, i+ = 2,
i− = 1, i0 = 0. Quindi il prodotto scalare è non degenere ed indefinito.
Radici razionali di un polinomio a coefficienti interi Supponiamo di avere
un polinomio a coefficienti interi:
p(x) = axn + . . . + b
Allora, se esiste un numero razionale (quindi della forma p/q con p e q interi)
che sia una sia radice, si deve avere per forza che p divide b e q divide a. Ad
esempio, prendiamo il polinomio
30x3 − 7x2 − 7x + 2
le sue soluzioni razionali, se esistono, devono essere formate da un divisore di
2 fratto un divisore di 30. I divisori di 2 sono ±1 e ±2, i divisori di 30 sono
±1, ±2, ±3, ±5, ±6, ±10, ±15, ±30, quindi i candidati sono
1
2
1
1
2 1 1 2 1 1
±2, ±1, ± , ± , ± , ± , ± , ± , ± , ± , ± , ±
3 2 3 5 5 6 10 15 15 30
Si vede, con qualche tentativo, che i numeri −1/2, 1/3, 1/5 sono effettivamente
soluzioni.
Ovviamente, può anche capitare che si trovino solo alcune delle soluzioni, o
anche nessuna.
Esempio Vogliamo trovare la segnatura
matrice

0 1
A = 1 0
1 1
del prodotto scalare associato alla

1
1
0
Il polinomio caratteristico è
p(λ) = −λ3 + 3λ + 2
Proviamo a trovare delle radici razionali: esse saranno un divisore di 2 fratto
un divisore di −1, quindi abbiamo le quattro possibilità ±1, ±2. Vediamo che
2 e −1 funzionano. Facendo la divisione tra polinomi, si trova
p(λ) = −(λ − 2)(λ + 1)2
Quindi gli autovalori sono 2 con molteplicità 1 e −1 con molteplicità 2. Ovvero,
la segnatura è i+ = 1, i− = 2, i0 = 0.
Regola dei Segni di Cartesio Poiché a noi interessa solo quante radici
negative e positive ha un polinomio, ci sarà utile la seguente regola.
Sia dato un polinomio p(x) con tutte le radici reali di grado n. Il numero di
radici nulle è ovviamente il minimo grado con cui compare x. Scriviamo ora la
3
sequenza dei coefficienti, omettendo quelli nulli, in ordine di grado e contiamo
quante volte, in questa sequenza, si cambia di segno; questo sarà il numero delle
radici positive, contate con molteplicità. Il numero delle radici negative sarà
allora n meno il numero di radici nulle, meno il numero di radici positive.
Questo metodo non assicura che il polinomio abbia radici reali, ma assicura
che, se le ha, sono divise in un certo modo tra positive e negative.
Ad esempio, consideriamo il polinomio
p(x) = −x3 + 2x − 1
comparso nel primo esempio; esso non ha radici nulle e la successione dei
coefficienti non nulli è
−1, 2, −1
quindi ci sono 2 cambiamenti di segno (o variazioni), quindi il polinomio avrà 2
radici positive. Per differenza, avrà 3−2 = 1 radici negative, come già sapevamo.
Nel caso invece del polinomio del secondo esempio,
p(x) = −x3 + +3x + 2
non abbiamo radici nulle e la successione dei coefficienti non nulli è
−1, 3, 2
quindi una sola variazione, ovvero una sola radice positiva e, per differenza,
3 − 1 = 2 radici negative.
La potenza di questo metodo è che permette di conoscere il segno delle
radici senza effettivamente trovarle, ammesso di sapere già che esistano reali.
Ad esempio, nel caso del polinomio
p(x) = −x3 + 6x − 1
(che è polinomio caratteristico della matrice

1 2
A = 2 −1
0 1
simmetrica

0
1
0
e quindi per il teorema spettrale ha tutte le radici reali) il metodo delle radici
razionali non funziona e quindi non è facile fattorizzarlo; però, sappiamo che
non ha radici nulle e la sequenza
−1, 6, −1
ci dice che ha due radici positive (due variazioni di segno) e, di conseguenza,
una radice negativa, pur senza sapere esattamente quanto valgano queste tre
radici.
Esempio Vogliamo determinare la segnatura del prodotto scalare dato dalla
matrice


1 2 0 3
 2 0 1 1

A=
 0 1 2 3
3 1 3 0
4
Il suo polinomio caratteristico è

1−λ 2
0
 2
−λ
1
p(λ) = det 
 0
1 2−λ
3
1
3

3
1 
 = λ4 − 3λ3 − 4λ2 − λ + 31
3 
−λ
Quindi non ha autovalori nulli e, poiché la sequenza dei coefficienti è
1, −3, −4, −1, 31
con due variazioni, la matrice ha due autovalori positivi e due autovalori negativi. Quindi i+ = 2, i− = 2, i0 = 0.
Esercizio 1 Si determini la segnatura del prodotto scalare dato dalla matrice
0 2
A=
2 0
Esercizio 2 Si determini la segnatura

1
A = 0
1
del prodotto scalare dato dalla matrice

0 1
1 0
0 1
Esercizio 3 Si determini la segnatura

1
A = 1/2
1/3
del prodotto scalare dato dalla matrice

1/2 1/3
1/3 1/4
1/4 1/5
Esercizio 4 Si determini la segnatura del

1 0
0 −2
A=
0 0
0 0
Esercizio 5 Si determini la segnatura

0
1
A=
0
0
2
2.1
prodotto scalare dato dalla matrice

0 0
0 0

3 0
0 2
del prodotto scalare dato dalla matrice

1 0 0
0 1 0

1 0 1
0 1 0
Diagonalizzazione di prodotti scalari
Autospazi ortogonali
Richiami Sia V uno spazio vettoriale reale di dimensione n e sia h·, ·i un
prodotto scalare che, rispetto ad una qualche base, ha associata la matrice A.
5
Per il teorema spettrale, sappiamo che A ammette una base di autovettori. Supponiamo che A abbia n autovalori distinti; allora ad ogni autovalore
corrisponde un autovettore.
Ora, se v e w sono autovettori di autovalori λ e µ (distinti), si ha
hv, wi = v t Aw = µv t w
e
hw, vi = wt Av = λwt v
quindi
v t w(λ − µ) = 0
e dunque v t w = 0, quindi v e w sono ortogonali (sia rispetto al prodotto scalare
canonico, sia rispetto a quello associato ad A).
In particolare, quindi, se A ha autovalori λ1 , . . . , λn distinti con autovettori
associati v1 , . . . , vn , il prodotto scalare rispetto alla base B = {v1 , . . . , vn } ha
matrice associata


hv1 , v1 i hv1 , v2 i · · · hv1 , vn i
 hv2 , v1 i hv2 , v2 i · · · hv2 , vn i 


 ..

..
..
 .

.
.
hvn , v1 i hvn , v2 i · · · hvn , vn i
ora,
hvi , vi i = vit Avi = λi vit vi
e, per quanto detto prima
hvi , vj i = 0
Quindi la matrice associata é diagonale:

λ1 v1t v1
0
···
t
 0
λ
v
v
···
2
2
2

 ..
..
 .
.
0
Ora, sia ai =
p
···
0
0
0
..
.
λn vnt vn





|λi vit vi | (per i λi non nulli); allora rispetto alla base
v1
vn
,...,
a1
an
la matrice associata è diagonale e composta solo di 1 e −1. In particolare,
sulla diagonale si troveranno tanti 1 quanti autovalori positivi, tanti −1 quanti
autovalori negativi ed eventualmente uno 0 se c’è un autovalore nullo.
Esempio Consideriamo il prodotto scalare h·, ·i associato, rispetto alla base
canonica, alla matrice


4 2 0
A = 2 7 0
0 0 1
Il polinomio caratteristico di A è
p(λ) = det(A − λI) = (1 − λ)(3 − λ)(8 − λ)
6
e quindi gli autovalori sono 1, 3, 8; inoltre




3 2 0
 0 
ker(A − I) = ker 2 6 0 = Span  0 


0 0 0
1




1 2 0
2


ker(A − 3I) = ker 2 4 0  = Span  −1 


0 0 −2
0
  


−4 2
0
 1 
ker(A − 8I) = ker  2 −1 0  = Span  2 


0
0 −7
0
Se ora chiamiamo


0
v1 =  0 
1


2
v2 =  −1 
0


1
v3 =  2 
0
si ha che
hv1 , v1 i = v1t Av1 = 1
hv2 , v2 i = v2t Av2 = 3 ∗ v2t v2 = 3(4 + 1 + 0) = 15
hv3 , v3 i = v3t Av3 = 8v3t v3 = 8(1 + 4 + 0) = 40
mentre hvi , vj i = vit Avj = 0 se i 6= j; quindi nella base {v1 , v2 , v3 } il prodotto
scalare è associato alla matrice


1 0 0
0 15 0 
0 0 40
Se poi consideriamo la base
v3
v2
v1 , √ , √
15 2 10
otterremo che in essa la matrice associata è l’identità (quindi il prodotto scalare
è definito positivo e l’ultima scritta è una base ortonormale).
In generale, però, non si può sempre sperare che vi siano tutti autovalori
distinti; se un autovalore ha molteplicità algebrica maggiore di 1, si può scegliere
una base dell’autospazio associato (il nucleo di A − λI) che sarà ortogonale
agli altri autovettori, ma tra di loro gli elementi di questa base non saranno
necessariamente ortogonali. In questo caso si può utilizzare la tecnica descritta
nelle prossime righe per ottenere, da una base generica dell’autospazio, una base
di vettori ortonormali, oppure si può utilizzare direttamente (senza calcolare
autovalori e autovettori) il secondo metodo (detto procedimento di Lagrange).
Esercizio 6 Si trovi una base ortogonale con il metodo degli autovettori per il
prodotto scalare su R3 associato rispetto alla base canonica alla matrice


1 0 1
A = 0 1 0
1 0 1
7
Esercizio 7 Si trovi una base ortogonale con il metodo degli autovettori per il
prodotto scalare su R3 associato rispetto alla base canonica alla matrice


2 1 1
A = 1 1 0
1 0 1
2.2
Ortodiagonalizzazione di Gram-Schmidt
Richiami Sia V uno spazio vettoriale reale di dimensione n e sia h·, ·i un
prodotto scalare definito positivo (o negativo) su V . Sia B = {v1 , . . . , vn } una
base di V ; allora i vettori
w1
=
w2
=
w3
=
···
=
wn
=
v1
hv2 , w1 i
w1
hw1 , w1 i
hv3 , w1 i
hv3 , w2 i
w2 −
w1
v3 −
hw2 , w2 i
hw1 , w1 i
···
n−1
X hvn , wi i
wi
vn −
hwi , wi i
i=1
v2 −
formano anch’essi una base di V . Inoltre, per costruzione
hwi , wj i = 0
∀ i 6= j
Infine, se si pone
ai =
la base
p
|hwi , wi i|
w1
wn
,...,
a1
an
(il modulo serve se il prodotto è definito negativo) è ortogonale e composta da
vettori di norma 1 (o −1, se il prodotto è definito negativo). Si chiama dunque
base ortonormale (solo nel caso di un prodotto definito positivo).
Esempio Consideriamo il prodotto
nica, dalla matrice

1
−1
A=
0
0
scalare h·, ·i dato, rispetto alla base cano−1
2
−1
0
0
−1
2
−1

0
0

−1
2
Innanzitutto, il polinomio caratteristico di A è
p(λ) = λ4 − 7λ3 + 15λ2 − 10λ + 1
e dunque, poiché la sequenza dei coefficienti è 1, −7, 15, −10, 1, esso ha 4 radici
positive. Perciò il prodotto scalare è definito positivo.
Ora, applichiamo il procedimento di Gram-Schmidt alla base canonica.
w1 = e1
8
w 2 = e2 −
w3 = e3 −
et Ae1
−1
he2 , w1 i
w1 = e2 − t2
e1 = e2 −
e1 = e1 + e2
hw1 , w1 i
e1 Ae1
1
he3 , w2 i
he3 , w1 i
−1
0
w2 −
w 1 = e3 −
w2 − e1 = e1 + e2 + e3
hw2 , w2 i
hw1 , w1 i
1
1
w4 = e4 −
he4 , w3 i
he4 , w2 i
he4 , w1 i
w3 −
w2 −
w1 = e1 + e2 + e3 + e4
hw3 , w3 i
hw2 , w2 i
hw1 , w1 i
Ora, i quattro vettori trovati sono una base ortogonale; inoltre, ma solo in questo
caso, non in generale, sono anche di norma 1, quindi sono in effetti una base
ortonormale e dunque rispetto ad essa la matrice associata al prodotto scalare
è l’identità di R4 .
Esempio Consideriamo il prodotto scalare h·, ·i su R3 dato dalla formula
hv, wi = 2v1 w1 + v1 w2 + w1 v2 + w2 v2 + w3 v3
Innanzitutto, scriviamo la matrice associata

2 1
A = 1 1
0 0

0
0
1
e notiamo che il polinomio caratteristico è
p(λ) = λ3 − 4λ2 + 4λ − 1
e dunque, comparendo 3 variazioni di segno, abbiamo tre radici positive e
dunque il prodotto scalare è definito positivo.
Ora cerchiamo una base ortogonale, utilizzando Gram-Schmidt sulla base
canonica:
w1 = e1
w2 = e2 −
w3 = e3 −
1
hw1 , e2 i
w1 = e2 − e1
hw1 , w1 i
2
hw2 , e3 i
hw1 , e3 i
w1 −
w2 = e3
hw1 , w1 i
hw2 , w2 i
La base {e1 , e2 − e1 /2, e3 } è una base ortogonale per il prodotto scalare; rispetto
ad essa, la sua matrice è


2 0 0
A0 = 0 1/2 0
0 0 1
Dunque una base ortonormale sarà
√
e
e
√1 , e2 2 − √1 , e3
2
2
Esercizio 8 Sia h·, ·i il prodotto scalare su R3 associato rispetto alla base
canonica alla matrice


1 1/2 1/3
A = 1/2 1/3 1/4
1/3 1/4 1/5
9
Verificare che è definito positivo e trovare una base ortonormale.
Esercizio 9 Sia h·, ·i il prodotto scalare su R3 dato dalla formula
hv, wi = v1 w1 + v1 w2 + v2 w1 + 2v2 w2 − v1 w3 − v3 w1 + 3v3 w3
dove v = (v1 , v2 , v3 ) e w = (w1 , w2 , w3 ) rispetto alla base canonica. Verificare
che il prodotto scalare è definito positivo e trovare una base ortonormale.
Esercizio 10 Sia h·, ·i il prodotto scalare su R2 [x] dato da
hp(x), q(x)i = p(0)q(0) + p(1)q(1) + p(−1)q(−1) + 3p0 (0)q 0 (0)
dove l’apice indica la derivata. Dimostrare che tale prodotto scalare è definito
positivo e calcolare una base ortonormale.
Esercizio 11 Sia h·, ·i il prodotto scalare su R4 associato rispetto alla base
canonica alla matrice


4 0 2 1
 0 6 0 1

A=
 2 0 3 0
1 1 0 1
Verificare che è un prodotto scalare definito positivo e trovare una base ortonormale.
2.3
Metodo di Lagrange
Richiami Il metodo di Lagrange è una generalizzazione del metodo di GramSchmidt nel caso di prodotti scalari non necessariamente definiti positivi; la base
che si troverà alla fine ovviamente non sarà ortonormale a meno che il prodotto
scalare non sia definito positivo. In generale, si otterrà una base ortogonale, in
cui il prodotto scalare è associato ad una matrice diagonale; eventualmente si
potrà poi normalizzare tale base, di modo che i suoi vettori abbiano norma 1,
−1 o 0.
Sia dunque h·, ·i un prodotto scalare su V e sia {v1 , . . . , vn } una base di V .
Il metodo di Lagrange si compone di tre mosse:
1. se hv1 , v1 i =
6 0, sostituiamo i vettori v2 , . . . , vn con i vettori
v2 −
hv2 , v1 i
hv3 , v1 i
hvn , v1 i
v1 , v3 −
v1 , . . . , v n −
v1
hv1 , v1 i
hv1 , v1 i
hv1 , v1 i
2. se hv1 , v1 i = 0 ma esiste vi con i ≥ 2 tale che hvi , vi i =
6 0, consideriamo la
base {vi , v2 , . . . , vi−1 , v1 , vi+1 , . . . , vn } in cui abbiamo scambiato v1 e vi e
applichiamo il primo passo con vi invece che con v1
3. se hvi , vi i = 0 per ogni elemento della base, ma esistono vi e vj tali che
hvi , vj i =
6 0, allora si considera la base
{vi + vj , v2 , . . . , vi−1 , v1 , vi+1 , . . . , vj , . . . , vn }
ovvero si mette vi + vj al posto di v1 , si mette v1 al posto di vi e si lascia
il resto uguale, poi si procede come nella prima mossa, con vi + vj invece
che con v1 .
10
Se non si è riusciti ad applicare nessuna mossa, la matrice associata al prodotto
scalare nella base data è la matrice nulla, quindi il prodotto scalare è quello
nullo e ogni base è ortogonale.
Dopo essere riusciti ad applicare la prima mossa, si prende la base che si è
ottenuta {w1 , . . . , wn }, si leva il primo vettore (su cui non si lavora più e lo si
salva da qualche parte) e si ripete il tutto sulla base {w2 , . . . , wn }.
Nonostante l’apparenza complicata, dopo qualche esercizio questo metodo
risulta parecchio meccanico.
Esempio Consideriamo il prodotto scalare associato, nella base canonica di
R4 , alla matrice


3 1
0
2
1 2 −1 0 

A=
0 −1 0
1
2 0
1 −1
Il polinomio caratteristico di A è
p(λ) = λ4 − 4λ3 − 6λ2 + 20λ + 6
e quindi la segnatura è i+ = 2, i− = 2, i0 = 0. Ora applichiamo il metodo di
Lagrange, partendo dalla base canonica {e1 , e2 , e3 , e4 }.
Per prima cosa dobbiamo considerare he1 , e1 i = et1 Ae1 , ovvero l’elemento
di posizione (1, 1) nella matrice A, che è 3; dunque possiamo procedere con la
prima mossa:
e1 −→ e1
he1 ,e2 i
e1
e2 −→ e2 − he
1 ,e1 i
e3
−→
e3 −
e4
−→
e4 −
he1 ,e3 i
he1 ,e1 i e1
he1 ,e4 i
he1 ,e1 i e1
Ora, osserviamo che he1 , ei i non è altro che l’elemento di posizione (1, i) (o anche
(i, 1), visto che A è simmetrica) nella matrice A; quindi gli elementi della nuova
base sono
e1
2e1
e1 , e2 − , e3 , e4 −
3
3
Chiamiamo f1 , f2 , f3 , f4 questi vettori; nella base {f1 , f2 , f3 , f4 } la matrice associata al prodotto scalare è


3
0
0
0
0 5/3 −1 −2/3

A0 = 
0
−1
0
1 
0 −2/3 1 −7/3
Adesso ripartiamo considerando solo i vettori {f2 , f3 , f4 }, base di un sottospazio
V1 di dimensione 3 di V , ortogonale rispetto al prodotto scalare dato al vettore
f1 ; la restrizione ad esso del prodotto scalare ha matrice


5/3 −1 −2/3
0
1 
A1 =  −1
−2/3 1 −7/3
11
Ora dobbiamo considerare il prodotto scalare hf2 , f2 i che è l’elemento di posizione (1, 1) nella matrice A1 , ovvero 5/3; poiché non è nullo, possiamo applicare
la prima mossa del metodo di Lagrange
f2
f3
−→
−→
f2
f3 −
f4
−→
f4 −
hf2 ,f3 i
hf2 ,f2 i f2
hf2 ,f4 i
hf2 ,f2 i f2
Ancora, i prodotti scalari voluti sono semplicemente gli elementi della prima
riga (o della prima colonna) di A1 , quindi i nuovi vettori sono
f2 , f3 +
3f2
2f2
, f4 +
5
5
e li chiamiamo g2 , g3 , g4 (se si vuole essere pignoli, si può porre g1 = f1 , ma
tanto questo vettore non lo useremo più); ora calcoliamo la matrice associata al
prodotto scalare ristretto a V1 nella nuova base {g2 , g3 , g4 }:


5/3
0
0
−3/5
3/5 
A01 =  0
0
3/5 −13/5
Ora consideriamo il sottospazio V2 di dimensione 2 generato da {g3 , g4 }, ortogonale a g2 (e anche a g1 = f1 ); la restrizione del prodotto scalare a V2 è associata,
nella base {g3 , g4 }, alla matrice
−3/5
3/5
A2 =
3/5 −13/5
Poiché l’elemento di posto (1, 1) è −3/5, possiamo ancora applicare la prima
mossa del metodo di Lagrange:
g3
g4
−→
−→
g3
g4 −
hg3 ,g4 i
hg3 ,g3 i g3
e dunque la nuova base è
g3 , g4 + g3
in cui il prodotto scalare è associato alla matrice
−3/5 0
A02 =
0
−2
Dunque, nella base
{g1 , g2 , g3 , g4 + g3 }
il prodotto scalare su V è associato alla matrice


3 0
0
0
0 5/3
0
0

B=
0 0 −3/5 0 
0 0
0
−2
12
(e a conferma del nostro conteggio della segnatura, troviamo due entrate positive
e due entrate negative). Scriviamo la base trovata rispetto alla base canonica
di partenza:
g1 = f1 = e1
e1
g2 = f2 = e2 −
3
3f2
e1 3e2
3
e1
g3 = f3 +
e2 −
= e3 +
= e3 +
−
5
5
3
5
5
e1
2e2
2f2
2e1
2
4e1
e2 −
= e4 +
g4 = f4 +
= e4 −
+
−
5
3
5
3
5
5
g4 + g3 = e4 + e3 + e2 − e1
Quindi la base ortogonale trovata è
e1
3e2
e1
e1 , e2 − , e3 +
− , e4 + e3 + e2 − e1
3
5
5
E se la vogliamo normalizzare, basta dividere per le radici quadrate dei moduli
dei numeri sulla diagonale:
(
)
√
√
√
3e2
5e3
3e2
e1
e1
e1 e4 + e3 + e2 − e1
√ , √ −√ , √ + √ −√ ,
√
3
5
15
3
5
15
2
In quest’ultima base, la matrice associata al prodotto scalare è


1 0 0
0
0 1 0
0


0 0 −1 0 
0 0 0 −1
Come si vede, nel caso in cui si applichi sempre solo la prima mossa, il
metodo di Lagrange è solo una versione diversa di Gram-Schmidt. Vediamo ora
un esempio in cui si debbano utilizzare anche le altre due mosse.
Esempio Consideriamo su R4 il prodotto
canonica, dalla matrice

1 1 1
1 1 0

A=
1 0 1
0 0 0
scalare dato, rispetto alla base

0
0

0
1
Il polinomio caratteristico è p(λ) = λ4 − 4λ3 + 4λ2 − 1 e dunque la segnatura
è i+ = 3, i− = 1, i0 = 0. Ora, poiché e1 non è isotropo, possiamo applicare la
prima mossa del metodo di Lagrange:
e1
e2
−→
−→
e1
e2 −
e3
−→
e3 −
e4
−→
e4 −
13
he1 ,e2 i
he1 ,e1 i e1
he1 ,e3 i
he1 ,e1 i e1
he1 ,e4 i
he1 ,e1 i e1
e dunque la nuova base è
e1 , e2 − e1 , e3 , e4
Chiamiamo questi vettori f1 , f2 , f3 , f4 e consideriamo la matrice associata in
questa base:


1 0
0 0
0 0 −1 0

A0 = 
0 −1 1 0
0 0
0 1
Ora, ci restringiamo a V1 = Span{f2 , f3 , f4 }, su cui il prodotto scalare ha
matrice


0 −1 0
A1 = −1 1 0
0
0 1
Dunque non possiamo applicare la prima mossa del metodo, in quanto il primo
vettore è isotropo; allora consideriamo gli altri vettori: ad esempio f3 non è
isotropo, quindi possiamo considerare la nuova base {f3 , f2 , f4 }, in cui la matrice
è


1 −1 0
e1 = −1 0 0
A
0
0 1
e dunque possiamo applicare la prima mossa:
f3
f2
−→
−→
f3
f2 −
f4
−→
f4 −
hf3 ,f2 i
hf3 ,f3 i f3
hf3 ,f4 i
hf3 ,f3 i f3
(attenzione, f2 e f3 vanno scambiati, rispetto all’esempio precedente) ottenendo
come nuova base
f3 , f2 + f3 , f4
i cui vettori indichiamo con g2 , g3 , g4 e in cui

1 0
e01 = 0 −1
A
0 0
la matrice associata è

0
0
1
Osserviamo che non serve procedere, in quanto la matrice è già in forma diagonale; dunque la nostra base ortogonale è {g1 , g2 , g3 , g4 } (con g1 = f1 ), ovvero
g1 = f1 = e1
g2 = f3 = e3
g3 = f2 + f3 = (e2 − e1 ) + e3 = e3 + e2 − e1
g4 = f4 = e4
In essa, la matrice associata al prodotto scalare è


1 0 0 0
0 1 0 0


0 0 −1 0
0 0 0 1
14
e, consistentemente con la segnatura trovata in precedenza, vi sono 3 positivi e
un negativo; inoltre tale base è già normalizzata.
Esempio Consideriamo su R3 il prodotto

0 1
A = 1 0
1 1
scalare dato dalla matrice

1
1
0
Innanzitutto notiamo che
p(λ) = λ3 − 3λ − 2
e dunque la segnatura è i+ = 1, i− = 2, i0 = 0.
Ora, cerchiamo una base ortogonale; partendo dalla base canonica, notiamo
che i tre vettori di base e1 , e2 , e3 sono isotropi, quindi non possiamo applicare
né la prima, né la seconda mossa del metodo di Lagrange; dobbiamo quindi
applicare la terza.
Troviamo un prodotto scalare non nullo tra i vettori della base: ad esempio
he1 , e2 i = 1. Ora consideriamo la nuova base
{e1 + e2 , e2 , e3 }
e scriviamo la matrice associata al prodotto

2 1
e = 1 0
A
1 1
scalare rispetto a questa base:

1
1
0
Adesso possiamo applicare la prima mossa del metodo di Lagrange:
e1 + e2
e2
−→
−→
e1 + e2
1 +e2 ,e2 i
(e1 + e2 )
e2 − hehe
1 +e2 ,e1 +e2 i
e3
−→
e3 −
ottenendo i vettori
e2
−
2
che chiamiamo f1 , f2 , f3 . Rispetto a

2
e0 = 0
A
0
e1 + e2 ,
he1 +e2 ,e3 i
he1 +e2 ,e1 +e2 i (e1
+ e2 )
e1
, e3 − e1 − e2 )
2
questa nuova base la matrice diventa

0
0
−1/2 0 
0
−2
che è già diagonale. Dunque la base trovata è ortogonale. Se vogliamo rinormalizzarla, otteniamo
e1 + e2 e2 − e1 e3 − e2 − e1
√ , √ ,
√
2
2
2
Rispetto a quest’ultima base la matrice del prodotto scalare è


1 0
0
0 −1 0 
0 0 −1
15
Esercizio 12 Sia h·, ·i il prodotto scalare su R4 associato alla matrice


1 2 1
0
2 4 0
2

A=
1 0 −2 1 
0 2 1 −1
rispetto alla base canonica. Calcolarne la segnatura e trovare una base ortogonale rinormalizzata (ovvero rispetto alla quale il prodotto scalare sia in forma
canonica affine).
Esercizio 13 Sia h·, ·i il prodotto scalare su R2 [x] dato da
hp(x), q(x)i = p(1)q(1) − p(0)q(0)
Determinarne la segnatura e trovare una base ortogonale.
Esercizio 14 Sia h·, ·i il prodotto scalare su R4 dato, rispetto alla base canonica,
da
hv, wi = v1 w2 + w1 v2 − v1 w3 − w1 v3 + 2v2 w4 + 2w2 v4 − 2v3 w4 − 2w3 v4
Determinarne la segnatura e trovare una base ortogonale rinormalizzata.
Esercizio 15 Sia h·, ·i il prodotto scalare su R3 dato, rispetto alla base canonica,
da
1
1
1
1
1
1
hv, wi = v1 w1 + v1 w2 + w1 v2 + v1 w3 + w1 v3 + v2 w2 + v2 w3 + w2 v3
2
2
2
2
2
2
Determinarne la segnatura e trovare una base ortogonale.
3
Cambio di base per un prodotto scalare
Richiami Sia V uno spazio vettoriale reale di dimensione n e siano B =
{v1 , . . . , vn } e C = {w1 , . . . , wn } due sue basi; sia poi h·, ·i un prodotto scalare
su V .
La matrice associata al prodotto scalare nella base B è


hv1 , v1 i hv1 , v2 i · · · hv1 , vn i
 hv2 , v1 i hv2 , v2 i · · · hv2 , vn i 


B= .

..
..
 ..

.
.
hvn , v1 i
hvn , v2 i
···
hvn , vn i
mentre quella associata nella base C è

hw1 , w1 i hw1 , w2 i
 hw2 , w1 i hw2 , w2 i

C=
..
..

.
.
···
···

hw1 , wn i
hw2 , wn i 


..

.
···
hwn , wn i
hwn , w1 i
hwn , w2 i
Ora, se
wi = a1i v1 + . . . + ani vn
16
per i = 1, . . . , n, allora poniamo

a11
 ..
A= .
···

a1n
.. 
. 
an1
···
ann
e avremo che
wi = Avi
quindi
hwi , wj i = hAvi , Avj i
E dunque, se ho le coordinate di due vettori rispetto alla base C
r = (r1 , . . . , rn )
s = (s1 , . . . , sn )
il loro prodotto scalare è dato da
rt Cs
ma anche da
(Ar)t B(As)
e quindi
rt Cs = rt At BAs
da cui
C = At BA
Attenzione! Per cambiare di base una applicazione lineare, bisognava moltiplicare per la matrice di cambio di base e la sua inversa, mentre per cambiare di
base un prodotto scalare bisogna moltiplicare per la matrice di cambio di base
e la sua trasposta. Quindi le due operazioni non sono uguali. Due matrici C e
B per cui esiste A tale che At BA = C si dicono congruenti.
Le matrici A tali che At = A−1 (e quindi per cui le due formule coincidono)
si dicono ortogonali. Una conseguenza del teorema spettrale è che una matrice
simmetrica è simile ad una diagonale tramite una matrice ortogonale (ovvero, se
S è una matrice simmetrica, esiste una matrice A ortogonale tale che A−1 SA =
At SA è diagonale).
Dato un prodotto scalare, dunque, si può sempre trovare una base in cui
il prodotto scalare è associato ad una matrice diagonale (e si può trovare una
tale base di modo che la matrice di cambio di base sia ortogonale rispetto al
prodotto scalare euclideo).
Per farlo, bisogna trovare per prima cosa una base di autovettori della matrice associata al prodotto scalare, poi applicare Gram-Schmidt (con il prodotto
scalare canonico!) alle basi dei singoli autospazi.
Esempio Si consideri su R3 il prodotto scalare h·, ·i dato, rispetto alla base
canonica, dalla matrice


1 0 0
A = 0 1 0 
0 0 −1
17
(quindi hv, wi = v t Aw) e sia data la seguente base:
v1 = (1, 1, 1)
v2 = (1, 1, 0)
v3 = (1, 0, 0)
Vogliamo scrivere la matrice associata al prodotto scalare in questa nuova base.
Possiamo calcolare le singole entrate della matrice sapendo che nella casella
(i, j) dovremo mettere hvi , vj i, oppure, sfruttando la teoria precedente, possiamo
scrivere la matrice di cambio di base


1 1 1
M = 1 1 0
1 0 0
e dire che la matrice associata al prodotto scalare nella nuova base



 
1 1 1
1 0 0
1 1 1
1 2
M t AM = 1 1 0 0 1 0  1 1 0 = 2 2
1 0 0
0 0 −1
1 0 0
1 1
sarà

1
1
1
Ed in effetti
hv1 , v1 i = 1 + 1 − 1 = 1
hv2 , v2 i = 1 + 1 = 2
hv3 , v3 i = 1
hv1 , v2 i = 1 + 1 = 2
hv1 , v3 i = 1
hv2 , v3 i = 1
Esempio Vediamo ora come diagonalizzare una matrice simmetrica (ovvero la
matrice di un prodotto scalare) tramite una matrice ortogonale. Sia


0 1 1
A = 1 0 1
1 1 0
Innanzitutto troviamo una base di autovettori per A (che esiste per il teorema
spettrale).
Calcoliamo quindi p(λ) = det(A − λI) = λ3 − 3λ − 2 = (λ + 1)2 (λ − 2).
Avremo dunque un autovettore associato a 2 e due autovettori associati a −1:
  


−2 1
1
 1 
ker  1 −2 1  = Span  1 


1
1 −2
1



 

1 1 1
−1 
 −1
ker 1 1 1 = Span  1  ,  0 


1 1 1
0
1
Ora dobbiamo trasformare la base
  
 

−1
−1 
 1
 1 , 1 , 0 


1
0
1
18
in una base ortonormale rispetto al prodotto scalare standard; sappiamo già
che autovettori di autovalori diversi sono ortogonali, quindi non ci resta che
applicare il metodo di Gram-Schmidt alle singole basi degli autospazi. In questo
caso, l’autospazio relativo a 2 ha dimensione 1 e quindi non c’è nulla da fare;
invece, dobbiamo trovare una base ortogonale per l’autospazio relativo a −1.
Applichiamo dunque Gram-Schmidt alla coppia di vettori





−1
−1 

v =  1 ,w =  0 


0
1
utilizzando il prodotto scalare standard. Il primo vettore rimane uguale, mentre
il secondo diventa
hv, wi
v
w−
hv, vi
e (ricordiamo che stiamo usando il prodotto scalare standard)
hv, wi = (−1)(−1) + (1)(0) + (0)(1) = 1
hv, vi = (−1)(−1) + (1)(1) + (0)(0) = 2
dunque il secondo vettore della nuova base è


−1/2
v 
−1/2 
w− =
2
1
Ora abbiamo ottenuto la base ortogonale





 
−1/2 
−1
1

u =  1  , v =  1  , w0 =  −1/2 


1
0
1
per terminare basa dividere ogni vettore per la propria norma:
p
√
kuk = hu, ui = 3
p
√
kvk = hv, vi = 2
r
p
3
0
0
0
kw k = hw , w i =
2
Dunque
√ 

√ 
 √ 


−1/√6 
1/√3
−1/√ 2


u =  1/√3  , v =  1/ 2  , w0 =  −1/
p 6 

0
1/ 3
2/3
è una base ortonormale in cui A è diagonale. La matrice di cambio di base da
questa base a quella canonica
√
√ 
 √
1/√3 −1/√ 2 −1/√6

M = 1/√3 1/ 2 −1/
p 6
1/ 3
0
2/3
19
è dunque ortogonale e quindi
√
1/ √3
= M t = −1/√2
−1/ 6

M −1
Da cui
√
1/√3
1/ √2
−1/ 6

2
M t AM = M −1 AM = 0
0
0
−1
0
√ 
1/ 3

p0
2/3

0
0
−1
Esempio Cerchiamo una base ortonormale (rispetto al prodotto scalare standard) che diagonalizzi la matrice simmetrica


−1 0 1 0
 0 −1 0 1

A=
1
0 1 0
0
1 0 1
√
Il polinomio caratteristico è p(λ) = λ4 − 4λ2 + 4 che ha radici ± 2, entrambe
con molteplicità 2. Calcoliamo
dunque
√ le basi dei relativi autospazi, trovando
√
due basi di ker(A − 2I) e ker(A + 2I):
√


−1 − 2
0√
1
0

0
−1 − 2
0√
1 
=
ker 

0√ 
1
0
1− 2
0
1
0
1− 2





−1
1








1√ 
0√ 




= Span v1 = 
,
v
=
2
 −1 − 2 
1+ 2 



√


0
1+ 2
√


−1 + 2
0√
1
0

0
−1 + 2
0√
1 
=
ker 

1
0
1+ 2
0√ 
0
1
0
1+ 2





−1
1








1√ 
0√ 




= Span v3 = 
,
v
=
4
 −1 + 2 
1− 2 



√


0
1− 2
Ora applichiamo Gram-Schmidt rispetto al prodotto scalare canonico alle due
basi {v1 , v2 } e {v3 , v4 }.
Innanzitutto, rendiamole ortogonali; per la prima:
w1 = v1

√

hv2 , v1 i
−2(2 + 2)
√ v1 = v2 + v1 = 
w 2 = v2 − v 1 v1 = v2 −

2(2 + 2)
v1
20

0

1

0√ 
1+ 2
e per la seconda
w3 = v3

0

1

0√ 
1− 2
Ora non ci resta che normalizzare i vettori secondo la loro norma:
√
√
kv1 k2 = kv2 k2 = 2(2 + 2)
kv3 k2 = kv4 k2 = 2(2 − 2)

√

hv3 , v4 i
−2(2 − 2)
√ v3 = v4 + v3 = 
w 4 = v4 −
v3 = v4 −

hv3 , v3 i
2(2 − 2)
e dunque la base
 √
√
( 2 − 1)/2 2



0√



1/2 2


0
√
√
 
0 √
(1 + 2)/2 2
  ( 2 − 1)/2 2  
0√
,
,
 
 
0√
−1/2 2
1/2 2
0
 
√



√0
√
  (1 + 2)/2 2 
,

 

0√


−1/2 2
 
è ortonormale e diagonalizza A, ovvero sia, detta M la matrice che ha come
colonne questi vettori, si ha

√
2 √0
0
0
 0
2
0
0 

√
M t AM = M −1 AM = 
 0
0 − 2
0 
√
0
0
0
− 2
Esercizio 16 Trovare una matrice ortogonale M che porti la matrice simmetrica


1 2 −1
A= 2 0 0 
−1 0 −1
in forma diagonale.
Esercizio 17 Trovare una matrice ortogonale M che porti la matrice simmetrica


2 0 −3
A= 0 1 0 
−3 0 10
in forma diagonale.
Esercizio 18 Trovare una matrice ortogonale M che porti la matrice simmetrica


0 1 −1 0
1 0 0
2

A=
−1 0 0 −2
0 2 −2 0
in forma diagonale.
Esercizio 19 Trovare una matrice ortogonale M che porti la matrice simmetrica


0 1 1 1
 1 0 1 1

A=
 1 1 0 1
1 1 1 0
in forma diagonale.
21