Appunti di Geometria

Transcript

Appunti di Geometria
Appunti di Geometria - 4
Samuele Mongodi - [email protected]
Le prime tre sezioni servono solo a rendere chiaro (spero) il legame tra algebra lineare e geometria analitica; per questo non contengono veri e propri
esercizi. La loro lettura può tuttavia essere utile per comprendere quanto segue.
1
Geometria del piano
Consideriamo il piano usuale della geometria euclidea e indichiamolo con E 2 (la
E sta per Euclideo, il 2 per il fatto che siamo sul piano). Scegliamo un punto
in E 2 , che chiameremo origine e indicheremo con O; vogliamo mostrare che
in questo modo il piano è uno spazio vettoriale. Dato un punto A, possiamo
~ che parte da O e arriva ad A; dati due vettori OA
~ e
considerare il vettore OA
~
~
~
~
OB, diciamo che OC = OA+OB se il quadrilatero OACB è un parallelogramma
(regola del parallelogramma).
= B _ _ r_r{8 C
{{
{
rrr{
{{ rrrr {
{
{{ rr {
{{rrrrr { {
{
{{ rr
{
{r{rrr
{
{
{rr
{
/A
O
~ e un numero reale λ, diciamo che OC
~ = λOA
~ se O, A, C
Dati poi un vettore OA
sono sulla stessa retta, in quest’ordine se λ è positivo e nell’ordine C, O, A se λ
è negativo, di modo che la distanza tra O e C sia |λ| volte la distanza tra O e
A.
Non è difficile vedere che in questo modo l’insieme E 2 diventa uno spazio
vettoriale reale. Inoltre, abbiamo definito il concetto di lunghezza di un vettore:
~ è la distanza tra O e A e si indica di solito con
la lunghezza del vettore OA
~
~
kOAk (si chiama, spesso, norma del vettore OA).
Esempio: Consideriamo l’insieme
~ k = 1}
S = {P ∈ E 2 | kOP
Esso è composto da tutti i punti che hanno distanza 1 dall’origine O, quindi è
la circonferenza di centro O e raggio 1.
Esempio: Fissiamo un punto A che non sia l’origine e definiamo
~ | λ ∈ R}
r(A) = {λOA
~ tale insieme è la retta passante per O
ovvero l’insieme di tutti i multipli di OA;
e per A.
1
Esempio: Fissiamo due punti A e B, distinti, e definiamo
~ + λ(OB
~ − OA)
~ | λ ∈ R}
r(A, B) = {OA
~ − OA,
~ ognuno sommato a OA.
~ Tale insieme è la retta
ovvero i multipli di OB
passante per A e B.
Osserviamo che r(A) è un sottospazio vettoriale di E 2 , mentre S e r(A, B)
(se A e B non sono l’origine) non lo sono, in quanto nessuno dei due contiene
l’origine. Le descrizioni della retta date nel secondo e nel terzo esempio si dicono
parametriche, in quanto sono realizzate al variare di un parametro reale (che nei
nostri esempi si chiama λ).
~ OB,
~ OC;
~ consideriamo il vetInoltre, supponiamo di avere tre vettori OA,
~ che corrisponde all’intersezione della retta r(C) con la retta r(A, B)
tore OD
(se non si intersecano, si provi con l’intersezione di r(A) e r(B, C) o con l’intersezione di r(B) con r(A, C), una di queste esiste per forza1 ). Allora
~ = λOC
~
OD
in quanto è un elemento di r(C) e
~ = OA
~ + µ(OB
~ − OA)
~
OD
in quanto è un elemento di r(A, B), ma allora
~ + µOB
~ − µOA
~ = λOC
~
OA
ovvero
~ + µOB
~ − λOC
~ =0
(1 − µ)OA
Quindi tre vettori sono sempre linearmente dipendenti; questo vuol dire che
(poiché due vettori non dipendenti li possiamo trovare) E 2 ha dimensione 2.
Esempio: Dati due punti A e B, il loro punto medio è individuato dal vettore
~ + OB)/2
~
(OA
In generale, i punti del segmento tra A e B sono descritti da
~ + (1 − t)OB
~ | t ∈ [0, 1]}
s(A, B) = {tOA
Attenzione! La limitazione t ∈ [0, 1] è importante, infatti se lasciamo variare il
parametro t in tutto R otteniamo la descrizione di tutta la retta per A e B e
non solo del segmento.
Esempio: Dati tre punti A, B, C, il baricentro del triangolo da loro formato è
individuato dal vettore
~ + OB
~ + OC)/3
~
(OA
In generale, i punti interni del triangolo di vertici A, B, C sono descritti da
~ + sOB
~ + (1 − t − s)OC
~ | t, s ∈ [0, 1], t + s ≤ 1}
t(A, B, C) = {tOA
1 Si
provi a dimostrarlo!
2
Anche qui, le due limitazioni t, s ∈ [0, 1] e t + s ≤ 1 sono importanti, altrimenti
si ottiene l’intero piano.
Dati n vettori v1 , . . . , vn , definiamo combinazione lineare convessa degli n
vettori una somma
λ1 v1 + . . . + λn vn
in cui gli n numeri reali λ1 , . . . , λn sono positivi e tali che λ1 + . . . + λn =
1. L’insieme di tutte le combinazioni lineari convesse di {v1 , . . . , vn } si dice
inviluppo convesso di v1 , . . . , vn ed è la più piccola figura convessa che contiene
i punti individuati dai vettori v1 , . . . , vn .
Esempio: Un sottospazio vettoriale proprio W di E 2 è l’origine oppure una
retta per l’origine; infatti, dim W < 2 e, se dim W = 0, per forza deve essere
~ un vettore di W , allora tutti gli altri
W = {0}. Se invece dim W = 1, sia OA
~ e quindi suoi multipli;
vettori di W devono essere linearmente dipendenti da OA
perciò
~ | λ ∈ R}
W = {λOA
ovvero W = r(A).
La retta r(A, B), con A, B diversi dall’origine, non è un sottospazio vettoriale; però può essere descritta come la traslazione di un sottospazio vettoriale.
~ = OB
~ − OA,
~ possiamo dire che
Se infatti chiamiamo OC
~
r(A, B) = r(C) + OA
r(C) è la retta parallela a r(A, B) che passa per O e si dice giacitura della retta
r(A, B), che viene detta sottospazio affine di E 2 .
In generale un sottospazio affine E di uno spazio vettoriale V è della forma
E = v + W con W sottospazio vettoriale, v vettore non nullo. W viene allora
detto giacitura di E (è il sottospazio ‘parallelo’ passante per l’origine).
Consideriamo ora una applicazione lineare T : E 2 → R e studiamone il nucleo. Possono presentarsi due casi: dim ker T = 2 o dim ker T = 1; l’applicazione
non può essere iniettiva (dim ker T = 0) perché E 2 ha dimensione 2, mentre R
ha dimensione 1).
Nel primo caso, T è l’applicazione nulla. Altrimenti, il nucleo di T è un
sottospazio di dimensione 1, ovvero una retta per l’origine. Dunque, una retta
per l’origine può anche essere descritta come
~ ∈ E 2 | T (OA)
~ = 0}
{OA
Questa si dice descrizione cartesiana o implicita di una retta; per descrivere una
retta generica r(A, B), dovremo considerare non il nucleo (ovvero le soluzioni di
T (v) = 0), ma lo spazio delle soluzioni del sistema T (v) = c con c ∈ R. Quindi
una retta generica ha la seguente forma cartesiana:
~ ∈ E 2 | T (OA)
~ = c}
{OA
Fissando una base di E 2 , ogni vettore è individuato da 2 coordinate, quindi
~ = (x, y) e T sarà associata ad una matrice 1 × 2:
possiamo scrivere OA
a b
3
~ = c si potrà scrivere come
Dunque, il sistema T (OA)
x
a b
=c
y
ovvero
ax + by = c
che è l’equazione cartesiana della retta nella geometria analitica.
L’intersezione di due rette, descritte implicitamente dalle applicazioni lineari
T ed S e dai numeri reali c e f , sarà data dal sistema
~
T (OA)
= c
~
S(OA) = f
Se poi
T = a
otteniamo che il sistema si può
a
d
b
S= d
e
riscrivere come
b
x
c
=
e
y
f
Dunque, lo studio delle intersezioni di due rette si riconduce allo studio della
risolubilità di sistemi lineari; in particolare, due rette si diranno parallele se
a b
a b c
rk
= 1 ma rk
=2
d e
d e f
Ovvero se il sistema non ha soluzioni.
Passare dalla rappresentazione cartesiana a quella parametrica equivale a
~ = c; per passare invece dalla forma
trovare lo spazio delle soluzioni di T (OA)
parametrica a quella cartesiana, bisogna scegliere una base della giacitura, completarla a una base dello spazio e definire tramite questa base una applicazione
lineare che si annulli solo sulla giacitura.
2
Rette e piani nello spazio
La costruzione di uno spazio vettoriale a partire dal piano euclideo può essere
fatta anche nello spazio euclideo E 3 in cui sia fissata l’origine O, esattamente
nello stesso modo, quindi non la ripeteremo.
Tutte le descrizioni parametriche date nella sezione precedente rimangono
valide:
~ | λ ∈ R}
r(A) = {λOA
descrive la retta passante per O e A,
~ + λ(OB
~ − OA)
~ | λ ∈ R}
r(A, B) = {OA
descrive la retta per A e B, cosı̀ come s(A, B) descrive il segmento di estremi A
e B e t(A, B, C) descrive il triangolo di vertici A, B, C.
Esempio: L’insieme
~ k = 1}
S 2 = {P ∈ E 3 | kOP
4
non è più una circonferenza, ma una sfera, di centro l’origine e raggio 1.
Esempio: L’insieme
~ + µOB
~ | λ, µ ∈ R}
p(A, B) = {λOA
descrive il piano di E 3 che passa per O, A e B. Notiamo che è anche un
sottospazio vettoriale di E 3 , in quanto se due punti P e Q si trovano su di esso,
anche il quarto vertice del parallelogramma OP XQ si trova su di esso e quindi
è chiuso per somma. Inoltre è ovviamente chiuso per moltiplicazione per un
numero reale.
Esempio: L’insieme
~ + λOB
~ + µOC
~ | λ, µ ∈ R}
p(A, B, C) = {OA
descrive il piano di E 3 passante per A, B, C; esso è un sottospazio affine di E 3 ,
in quanto non passa per l’origine, ma è ottenuto traslando il piano per l’origine
~ = OB
~ − OA
~ e OE
~ = OC
~ − OA,
~ che ne è la giacitura.
p(D, E), con OD
Come abbiamo fatto con E 2 , si può mostrare che E 3 ha dimensione 3; infatti,
siano A, B, C, D quattro punti e supponiamo che la retta r(D) intersechi il piano
~ allora
p(A, B, C) nel punto rappresentato dal vettore OE,
~ = λOD
~
OE
e
~ = OA
~ + µOB
~ + ν OC
~
OE
quindi
~ + µOB
~ = λOC
~ − λOD
~ =0
OA
ovvero quattro vettori sono sempre linearmente dipendenti. Del resto, possiamo
ben trovare tre vettori indipendenti.
Consideriamo, come prima, una applicazione T : E 3 → R; il suo nucleo
potrà avere dimensione 3 o 2. Nel primo caso, T è l’applicazione nulla. Nel
secondo caso, il nucleo di T è un piano per l’origine; dunque, fissando una base
~ = (x, y, z) e la matrice 1 × 3 associata a T come
e scrivendo il vettore OA
a b c
avremo che un piano per l’orgine si descrive come l’insieme delle soluzioni di


x
a b c  y =0
z
Quindi, più in generale, avremo che un piano (anche non per l’origine) si
descriverà come


x
a b c  y =d
z
con d ∈ R.
5
Dunque, l’intersezione di due piani sarà descritta dalle soluzioni di un sistema
del tipo


x
a b c 
d
y =
e f g
h
z
Se
rk
a
e
b
f
c
g
=1
ma
rk
a
e
b
f
d
=2
h
c
g
i piani si dicono paralleli e il sistema non ha soluzioni; se entrambe le matrici
hanno rango 1 i piani sono coincidenti e il sistema è banale. Se entrambe le
matrici hanno rango 2, le soluzioni formano una retta; infatti sono tutte della
~ + λOB
~ con OA
~ una soluzione particolare e OB
~ una soluzione del
forma OA
sistema omogeneo associato.
Una retta in E 3 può dunque essere descritta in forma implicita come l’intersezione di due piani, ovvero come le soluzioni di


x
a b c 
d
y =
e f g
h
z
con le condizioni sul rango
data dalla risoluzione di un

a
e

p
t
Le due rette
dette sopra; l’intersezione di due rette sarà allora
sistema del tipo




d
b c 
x


f g
 y  =  h 


s 
q r
z
w
u v
ax + by + cz
ex + f y + gz
= d
= h
si diranno incidenti se le due matrici


a b c
e f g

A=
p q r 
t u v
px + qy + rz
tx + uy + vz

a b
e f
B=
p q
t u
c
g
r
v
= s
= w

d
h

s
w
hanno rango 3, si diranno sghembe se rkA = 3 e rkB = 4, si diranno parallele
se rkA = 2 e rkB = 3 e si diranno coincidenti se rkA = rkB = 2. Il fatto che i
due sistemi rappresentino delle rette (e quindi siano sistemi di piani incidenti)
garantisce che il rango non è mai meno di 2.
Una retta
ax + by + cz
ex + f y + gz
= d
= h
si dice incidente con il piano
px + qy + rz = s
6
se le matrici

a
e
p
b
f
q

c
g
r

a
e
p
b
f
q
c
g
r

d
h
s
hanno entrambe rango 3; si dice parallela a quel piano se la prima matrice ha
rango 2 e la seconda ha rango 3; appartiene a quel piano se entrambe le matrici
hanno rango 2.
Risolvendo esplicitamente il sistema che descrive una retta, la si può mettere
nella forma parametrica r(A, B); similmente si può fare per trovare la forma
parametrica di un piano.
Esercizio 1 Trovare 3 rette a due a due sghembe in E 3 .
Esercizio 2 Trovare una retta in E 3 che passi per il punto (1, 0, 0) e sia parallela
alla retta
x = 0
y+z = 0
Esercizio 3 Trovare una retta in E 3 che passi per il punto (1, 1, 1), sia parallela
al piano x − y − 2z = 0 e sia incidente con la retta
−x + y = 0
x−y+z = 1
3
Prodotto scalare euclideo nel piano e nello
spazio
Sul piano E 2 è definito il prodotto scalare di due vettori come segue:
~ OBi
~ = kOAk
~ · kOBk
~ · cos(AOB)
\
hOA,
Ovviamente, una simile definizione si può estendere anche nello spazio euclideo
E 3.
Questo prodotto scalare gode di alcune proprietà:
~ OBi
~ = hOB,
~ OAi
~
1. simmetria, ovvero hOA,
~ + µOC,
~ OBi
~ = λhOA,
~ OBi
~ +
2. linearità nel primo argomento, ovvero hλOA
~
~
µhOC, OBi
3. linearità nel secondo argomento, mettendo assieme i due precedenti punti
~ OAi
~ ≥ 0 per ogni A ∈ E 2 e si annulla solo se
4. positività, ovvero hOA,
~
~
OA = OO, ovvero se l’argomento è il vettore nullo.
Inoltre, notiamo che
~ 2 = hOA,
~ OAi
~
kOAk
Ora, se fissiamo una base di E 2 e associamo ad ogni vettore delle coordinate
(quindi lo vediamo come R2 ), abbiamo che, dati
~ = (a1 , a2 )
OA
~ = (b1 , b2 )
OB
7
si ha che
~ =
kOAk
q
~ =
kOBk
a21 + a22
q
b21 + b22
e, dal teorema di Carnot per il coseno, si ha
~ OBk
~ cos(AOB)
~ 2 + kOBk
~ 2 − kOA
~ − OBk
~ 2)
\ = 1 (kOAk
kOAk
2
ovvero
~ OBi
~ =
hOA,
1 2
(a + a22 + b21 + b22 − ((a1 − b1 )2 + (a2 − b2 )2 )) = a1 b1 + a2 b2
2 1
Quindi, su R2 , il prodotto scalare definito prima diventa
a1
b1
h
,
i = a1 b1 + a2 b2
a2
b2
Poiché il coseno di un angolo è nullo se e solo se questo dista un multiplo di
π da π/2, due vettori non nulli hanno prodotto scalare nullo se e solo se l’angolo
\ è retto. Quindi, due vettori si dicono ortogonali se
convesso AOB
~ OBi
~ =0
hOA,
~ ⊥ OB.
~
e si scrive OA
~ è
L’insieme dei vettori ortogonali a un vettore dato OA
~ OBi
~ = 0}
{B ∈ E 2 | hOA,
~ = (a1 , a2 ), si scrive come
e dunque in coordinate, fissata una base in cui OA
{(x, y) ∈ R2 | a1 x + a2 y = 0}
~ ⊥.
e dunque è una retta, indicata con OA
Più in generale, anche l’insieme
~ OBi
~ = c}
{B ∈ E 2 | hOA,
è una retta, per c ∈ R, in quanto corrisponde, in coordinate, alle soluzioni
dell’equazione a1 x + a2 y = c.
Tutto questo si può riportare senza alcun problema in E 3 , con le seguenti
differenze. L’espressione in coordinate del prodotto scalare sarà

 

a1
b1
h a2  ,  b2 i = a1 b1 + a2 b2 + a3 b3
a3
b3
e gli insiemi
~ OBi
~ = c}
{B ∈ E 3 | hOA,
~ fissato e c ∈ R saranno piani e non più rette.
per OA
Due rette in E 2
ax + by = c
dx + ey = f
8
sono ortogonali se e solo se (a, b) ⊥ (d, e), ovvero se e solo se ad + be = 0; allo
stesso modo in E 3 una retta
ax + by + cz = d
ex + f y + gz = h
e un piano
px + qy + rz = s
sono ortogonali se e solo se (a, b, c) ⊥ (p, q, r) e (e, f, g) ⊥ (p, q, r) ovvero se e
solo se
ap + bq + cr = 0
ep + f q + gr = 0
Ovvero, il piano px + qy + rz = s è ortogonale a una retta se e solo se il vettore
(p, q, r) è parallelo alla stessa retta.
Due rette in E 3 sono ortogonali se e solo se sono complanari e ortogonali in
quel piano.
Infine, esaminiamo brevemente l’insieme
~ − OA,
~ OP
~ − OBi
~ = k}
{P ∈ E 2 | hOP
con A, B ∈ E 2 , k ∈ R. Ovviamente si ha
~ − OA,
~ OP
~ − OBi
~ =
hOP
1 ~
~ 2 + hOA,
~ OBi
~
~ − (OA
~ + OB)/2,
~
~ − (OA
~ + OB)/2i
~
+ OBk
= hOP
OP
− kOA
4
~ + OB
~ = OC,
~ possiamo riscrivere la condizione come
e dunque, posto OA
~ − OCk
~ = k + 1 kOCk
~ 2 − hOA,
~ OBi
~
kOP
4
Quindi, se
1 ~ 2
~ OBi
~ <0
− hOA,
k + kOCk
4
l’insieme è vuoto, se
1 ~ 2
~ OBi
~ =0
k + kOCk
− hOA,
4
~ e se
l’insieme è il punto OC
1 ~ 2
~ OBi
~ >0
k + kOCk
− hOA,
4
l’insieme è una circonferenza di centro C e raggio
r
1 ~ 2
~ OBi
~
k + kOCk
− hOA,
4
Esercizio 4 Trovare una retta di E 3 , passante per (1, 2, 3) e ortogonale al piano
x + y + z = 0.
Esercizio 5 Trovare una retta di E 3 ortogonale alle due rette
x+y = 0
x−y = 0
z = 1
x+z = 2
9
4
Forme bilineari
Richiami Una forma (o applicazione) bilineare su V , spazio vettoriale sul
campo K, è un’applicazione
f :V ×V →K
tale che
i. f (v + v 0 , w) = f (v, w) + f (v 0 , w) (additività nella prima variabile)
ii. f (v, w + w0 ) = f (v, w) + f (v, w0 ) (additività nella seconda variabile)
iii. f (λv, w) = λf (v, w) (omogeneità nella prima variabile)
iv. f (v, λw) = λf (v, w) (omogeneità nella seconda variabile)
Supponiamo ora di considerare Rn e quindi di avere una forma bilineare
f : Rn × Rn → R
Se v = (v1 , v2 , . . . , vn ) e w = (w1 , w2 , . . . , wn ), possiamo scrivere
v = v1 e1 + . . . + vn en
w = w1 e1 + . . . + wn en
dove e1 , . . . , en è la base canonica. Allora, applicando la prima proprietà delle
forme bilineari, abbiamo che
f (v, w) = f (v1 e1 , w) + . . . + f (vn en , w)
e applicando la terza proprietà
f (v, w) = v1 f (e1 , w) + . . . + vn f (en , w)
Ora, applicando ad ogni addendo la seconda proprietà, abbiamo
f (v, w) = v1 (f (e1 , w1 e1 ) + f (e1 , w2 e2 ) + . . . + f (e1 , wn en )) + . . . +
+vn (f (en , w1 e1 ) + f (en , w2 e2 ) + . . . + f (en , wn en ))
ed applicando la quarta proprietà otteniamo
f (v, w)
= v1 w1 f (e1 , e1 ) + . . . + v1 wn f (e1 , en ) +
+ v2 w1 f (e2 , e1 ) + . . . + v2 wn f (e2 , en ) +
+ ... +
+ vn w1 f (en , e1 ) + . . . + vn wn f (en , en )
Quindi, se definiamo la matrice


f (e1 , e1 ) f (e1 , e2 ) . . . f (e1 , en )
 f (e2 , e1 ) f (e2 , e2 ) . . . f (e2 , en ) 

A=
 ...
...
...
... 
f (en , e1 ) f (en , e2 ) . . . f (en , en )
10
avremo che

v1
v2
...
f (e1 , e1 ) f (e1 , e2 )
 f (e2 , e1 ) f (e2 , e2 )
vn 
 ...
...
f (en , e1 ) f (en , e2 )
...
...
...
...
 w 
1
f (e1 , en )
 w2 

f (e2 , en )   
  = v t Aw
. . .   ... 
f (en , en )
wn
e dunque
f (v, w) = v t Aw
Quindi ogni forma bilineare dà una matrice e, del resto, ogni matrice dà una
forma bilineare.
Più in generale, data una forma bilineare f su uno spazio vettoriale V di
dimensione finita sul campo K, possiamo scriverne la matrice associata rispetto
ad una base; data la base {v1 , . . . , vn }, la matrice associata ad f rispetto a
questa base sarà


f (v1 , v1 ) f (v1 , v2 ) . . . f (v1 , vn )
 f (v2 , v1 ) f (v2 , v2 ) . . . f (v2 , vn ) 

A=
 ...
...
...
... 
f (vn , v1 ) f (vn , v2 ) . . . f (vn , vn )
Esempio Consideriamo l’applicazione
f : R 3 × R3 → R
data da f (v, w) = v1 w2 +v2 w3 +v3 w1 −v1 w3 −v2 w1 −v3 w2 , dove v = (v1 , v2 , v3 )
e w = (w1 , w2 , w3 ). Essa è ovviamente bilineare, in quanto lo sono tutte le
applicazioni della forma
1 ≤ i, j ≤ 3
f (v, w) = vi wj
e le combinazioni lineari di queste. Scriviamone la matrice associata rispetto alla
base canonica: possiamo farlo calcolando f (ei , ej ) con 1 ≤ ij ≤ 3; osserviamo
che
f (e1 , e1 ) = f (e2 , e2 ) = f (e3 , e3 ) = 0
f (e1 , e2 ) = f (e2 , e3 ) = f (e3 , e1 ) = 1
f (e2 , e1 ) = f (e3 , e2 ) = f (e1 , e3 ) = −1
e dunque la matrice è

0
A = −1
1
1
0
−1

−1
1
0
Altrimenti, sapendo che deve valere f (v, w) = v t Aw, potevamo già ricavare i
valori delle entrate della matrice dalla formula data per f : il coefficiente di vi wj
è l’elemento di matrice sulla i−esima riga e sulla j−esima colonna.
Vediamo che per ogni v ∈ R3 , f (v, v) = 0, infatti



0
1 −1
v1
1   v2  =
v t Av = v1 v2 v3 −1 0
1 −1 0
v3
11
= v1 v2 + v2 v3 + v3 v 1 − v 1 v3 − v2 v1 − v3 v2 = 0
Questo è una conseguenza del fatto che f (v, w) = −f (w, v) per ogni v, w ∈ R3 ;
una forma bilineare con tali proprietà si dice antisimmetrica.
Esempio Consideriamo l’applicazione
f : R 4 × R4 → R
data da f (v, w) = v1 w1 + v2 w2 + v3 w3 − v4 w4 . Come prima, essa è ovviamente
bilineare; inoltre la matrice a lei associata è


1 0 0 0
0 1 0 0 

A=
0 0 1 0 
0 0 0 −1
Si ha che f (v, w) = f (w, v) per ogni v, w ∈ R4 , ovvero tale forma è simmetrica.
Proviamo ora a cercare vettori per cui f (v, v) = 0; applicando la definizione di
f , otteniamo che v deve soddisfare
v12 + v22 + v32 − v42 = 0
ovvero
v12 + v22 + v32 = v42
Quindi va bene qualunque vettore del tipo
p
x, y, z, ± x2 + y 2 + z 2
per x, y, z ∈ R; tali vettori non sono un sottospazio vettoriale di R4 , ma quello
che si dice un cono. Infatti la somma di due vettori di questo tipo non è ancora
un vettore di questo tipo, ma un loro multiplo reale lo è:
p
λx, λy, λz, ±λ x2 + y 2 + z 2
rientra nella descrizione, in quanto
p
p
(λx)2 + (λy)2 + (λz)2 = |λ| x2 + y 2 + z 2
e il ± ci permette di aggiustare il segno di λ.
Del resto, (1, 0, 0, 1) e (0, 1, 0, 1) sono vettori di questo tipo, mentre (1, 1, 0, 2)
non lo è.
Esempio Consideriamo lo spazio vettoriale R2 [x] dei polinomi a coefficienti
reali di grado minore o uguale a 2. Definiamo l’applicazione
f : R2 [x] × R2 [x] → R
tramite la formula
f (p(x), q(x)) = p(1)q(2)
Verifichiamo che f è una forma bilineare:
f (λp1 (x) + µp2 (x), q(x)) = (λp1 (1) + µp2 (1))q(2) =
12
= λp1 (1)q(2) + µp2 (1)q(2) = λf (p1 (x), q(x)) + µf (p2 (x), q(x))
f (p(x), λq1 (x) + µq2 (x)) = p(1)(λq1 (2) + µq2 (2)) =
λp1 (1)q(2) + µp2 (1)q(2) = λf (p(x), q1 (x)) + µf (p(x), q2 (x))
e scriviamo f rispetto alla base {1, x, x2 } di R2 [x]. Per farlo, dobbiamo calcolare
i valori di f sulle coppie di elementi della base.
f (1, 1) = 1 · 1 = 1
f (1, x) = 1 · 2 = 2
f (1, x2 ) = 1 · 4 = 4
f (x, 1) = 1 · 1 = 1
f (x, x) = 1 · 2 = 2
f (x, x2 ) = 1 · 4 = 4
f (x2 , 1) = 1 · 1 = 1
f (x2 , x) = 1 · 2 = 2
f (x2 , x2 = 1 · 4 = 4
Dunque

1

A= 1
1

4
4
4
2
2
2
Proviamo ora ad utilizzare la matrice A per calcolare f (1 + 3x, 2x + 4x2 ): il
polinomio 1+3x si rappresenta, nella base scelta, come (1, 3, 0), mentre 2x+4x2
corrisponde a (0, 2, 4), quindi
 
 
0
0
1 3 0 A  2  = 4 8 16  2  = 16 + 64 = 80
4
4
Esercizio 6 Si scriva la matrice associata alla forma bilineare su R3 definita
da
f (v, w) = v1 w1 + v1 w2 − 2v3 w1 + v3 w3 − v1 w3 + v2 w1
rispetto alla base canonica e si determini un vettore v tale che f (v, v) = 0.
Esercizio 7 Si dimostri che l’applicazione
f : R2 [x] × R2 [x] → R
definita da
Z
f (p(x)q(x)) =
1
p(x)q(x)dx
0
è bilineare. Se ne calcoli la matrice rispetto alla base {1, x, x2 } e rispetto alla
base {1 + x, x + x2 , x2 + 1}. Si dimostri che f (p(x), p(x)) > 0 per ogni p(x) non
nullo.
Esercizio 8 Si dimostri che l’applicazione
f : R3 [x] × R3 [x] → R
definita da
f (p(x), q(x)) = p(1)q 0 (0)
è bilineare. Se ne calcoli la matrice rispetto alle basi del precedente esercizio e
si determinino quattro polinomi in R3 [x] linearmente indipendenti p1 , p2 , p3 , p4
tali che f (pi , pi ) = 0 per i = 1, 2, 3, 4.
13
5
Prodotti scalari
Richiami L’applicazione bilineare su Rn definita da
f (v, w) = v1 w1 + v2 w2 + . . . + vn wn
si dice prodotto scalare canonico e si indica con hv, wi; esso gode delle seguenti
proprietà
i. hv, wi = hw, vi (simmetria);
ii. hv, vi ≥ 0 (positività);
iii. se hv, wi = 0 per ogni w ∈ Rn , allora v = 0 (non degenerazione).
Se hv, wi = 0, diciamo che v e w sono ortogonali e scriviamo v ⊥ w; dato un
sottospazio W ⊆ Rn , definiamo l’ortogonale di W come
W ⊥ = {v ∈ Rn | hv, wi = 0 per ogni w ∈ W }
La proprietà di non degenerazione equivale a dire che V ⊥ = {0}; se {w1 , . . . , wk }
è una base di W , i vettori ortogonali a W sono tutti e soli quelli che soddisfano
il sistema

 hv, w1 i = 0
...

hv, wk i = 0
La matrice associata a tale sistema ha come righe i vettori wi e dunque ha
rango massimo; quindi le soluzioni del sistema sono un sottospazio vettoriale di
dimensione n − k. Questo dimostra la relazione
dim W + dim W ⊥ = dim V
In generale, un prodotto scalare su Rn è una applicazione bilineare simmetrica, di solito indicata con h·, ·i. Ad essa è associata una matrice rispetto alla
base canonica di Rn , come descritto nella sezione precedente; la simmetria della
forma bilineare implica che anche la matrice associata sia simmetrica.
Diciamo che un prodotto scalare è degenere se det A = 0; se invece la matrice
associata è invertibile, diciamo che il prodotto scalare è non degenere. Gli
elementi di ker A sono tutti e soli i vettori v per cui
hv, wi = 0
per ogni w ∈ Rn
Diciamo che un vettore v è isotropo per un certo prodotto scalare se
hv, vi = 0
Ovviamente, tutti i vettori di ker A sono isotropi.
Diciamo che un prodotto scalare è definito positivo se
hv, vi > 0
per ogni v ∈ Rn \ {0}
diciamo che è definito negativo se
hv, vi < 0
per ogni v ∈ Rn \ {0}
14
diciamo che è semidefinito positivo se
hv, vi ≥ 0
per ogni v ∈ Rn
e diciamo che è semidefinito negativo se
hv, vi ≤ 0
per ogni v ∈ Rn
Se non rientra in nessuno dei casi precedenti, diciamo che è indefinito.
I prodotti scalari definiti (positivi e negativi) sono per forza non degeneri,
ma non è detto il contrario; un prodotto scalare definito non ammette vettori
isotropi, mentre per quelli semidefiniti (che non siano definiti) e quelli indefiniti
c’è sempre almeno un tale vettore.
Tutto quanto detto sopra può essere generalizzato ad uno spazio vettoriale
V di dimensione finita su R.
Esempio Consideriamo il prodotto scalare su R3 dato da
hv, wi = 2v1 w1 + 2v2 w2 + v3 w3 − v1 w2 − w1 v2 − w1 v3 − v1 w3
La matrice associata è

−1
2
0
2
A = −1
−1

−1
0
1
e det A = 1, quindi il prodotto scalare non è degenere. Inoltre, osserviamo che
hv, vi = 2v12 + 2v22 + v32 − 2v1 v2 − 2v1 v3
che si può riscrivere come
(v1 − v2 )2 + v22 + (v1 − v3 )2
e dunque hv, vi > 0 per ogni v non nullo, quindi il prodotto scalare è definito
positivo.
Esempio Consideriamo il prodotto scalare su R4 dato da
hv, wi = v1 w1 + v2 w2 + v3 w3 − v4 w4
La matrice associata è

1
0
A=
0
0
0
1
0
0
0
0
1
0

0
0

0
−1
e det A = −1, quindi il prodotto scalare è non degenere. Inoltre
hv, vi = v12 + v22 + v32 − v42
quindi, se v = (1, 0, 0, 0), hv, vi > 0, ma se v = (0, 0, 0, 1) hv, vi < 0, quindi il
prodotto scalare è indefinito. Possiamo dunque trovare un vettore isotropo non
nullo, come ad esempio (1, 0, 0, 1).
15
Esempio Consideriamo il prodotto scalare su R2 [x] definito da
Z
hp(x), q(x)i =
1
p(x)q(x)dx + p(0)q(0)
0
La matrice associata è

2
A = 1/2
1/3
1/2
1/3
1/4

1/3
1/4
1/5
e det A = 1/63 , quindi non è degenere.
Ovviamente,
Z 1
p2 (x)dx + p(0)2
hp(x), p(x)i =
0
e dunque è sempre positivo, se p non è nullo, quindi il prodotto scalare è definito
positivo.
Esempio (Esercizio 4 - Scritto del 25 settembre 2006 ) Sia V lo spazio vettoriale
generato su R da {ex , e−x , x} e sia h·, ·i il prodotto scalare definiti da hf, gi =
(f g)0 (0).
i. Determinare la matrice del prodotto scalare rispetto alla base {ex , e−x , x}.
ii. Dire se tale prodotto scalare è degenere o meno.
iii. Trovare, se esiste, un vettore isotropo.
Lo spazio vettoriale V corrisponde all’insieme delle funzioni
aex + be−x + cx
con a, b, c ∈ R.
(i). Per scrivere la matrice associata a h·, ·i rispetto alla base data, bisogna
calcolare i prodotti scalari tra gli elementi della base. Per non confonderci con
l’ordine in cui farli, chiamiamo f1 (x) = ex , f2 (x) = e−x , f3 (x) = x. Allora
hf1 , f1 i =
de2x
(0) = 2e2x |x=0 = 2
dx
hf1 , f2 i =
d1
(0) = 0
dx
dxex
(0) = xex + ex |x=0 = 1
dx
dxe−x
hf2 , f3 i =
(0) = −xe−x + e−x |x=0 = 1
dx
hf1 , f3 i =
hf2 , f2 i =
de−2x
(0) = −2e−2x |x=0 = −2
dx
hf3 , f3 i =
dx2
(0) = 2x|x=0 = 0
dx
16
Gli altri prodotti scalari li conosciamo grazie alla proprietà di simmetria. Quindi
la matrice associata è


2 0 1
A = 0 −2 1
1 1 0
(ii). Si ha det A = 0, quindi il prodotto scalare è degenere; inoltre
V ⊥ = ker A = Span(f1 + f2 − 2f3 )
(iii). Poiché il prodotto è degenere, trovare un vettore isotropo non nullo è
banale, in quanto ogni elemento di V ⊥ è isotropo e la degenerazione del prodotto
scalare implica che V ⊥ 6= {0}; ad esempio, il vettore f1 +f2 −2f2 = ex +e−x −2x
è isotropo, come tutti i suoi multipli reali.
(Non richiesto dall’esercizio del compito) Proviamo a vedere se ci sono vettori isotropi non in V ⊥ . Dato un elemento f (x) di V , scritto come aex +be−x +cx,
abbiamo che


a
hf (x), f (x)i = a b c A  b  =
c
= 2a2 − 2b2 + 2ac + 2bc
Ora, possiamo riscrivere questa espressione come
2(a − b + c)(a + b)
Quindi, tutti gli elementi di V per cui a = −b sono isotropi, ovvero le funzioni
della forma k(ex − e−x ) + hx, come anche gli elementi di V per cui a + c = b,
ovvero le funzioni della forma kex + (k + h)e−x + hx.
Esercizio 9 Si consideri il seguente prodotto scalare su R3 :
hv, wi = 2v1 w1 − 2v2 w2 + v3 w3 + v1 w3 + v2 w3 + v3 w1 + v3 w2
Si scriva la matrice associata al prodotto scalare rispetto alla base canonica, si
determini se è degenere o meno e, se esiste, si esibisca un vettore isotropo non
nullo.
Esercizio 10 Si consideri il seguente prodotto scalare su R3 [x]:
Z 1
hp(x), q(x)i =
(p(x)q(x))0 dx
0
Se ne scriva la matrice rispetto alla base {1, x, x2 , x3 }, si dica se è degenere, si
dica se è definito, semidefinito o indefinito, si trovi, se esiste, un vettore isotropo
non nullo.
Esercizio 11 Si consideri lo spazio vettoriale V generato su R dalle funzioni
{ex − 1, ex + 1, x} e si definisca su di esso il prodotto scalare
Z 1
hf (x), g(x)i =
f 0 (x)g 0 (x)dx
0
Determinare la matrice associata a tale prodotto scalare rispetto alla base {ex −
1, ex + 1, x}, determinare V ⊥ (e quindi dire se il prodotto scalare è degenere o
meno) e trovare, se esiste, un vettore isotropo che non appartenga a V ⊥ .
17