Applicazioni lineari iniettive e suriettive. Isomorfismi. Spazi vettoriali

Transcript

Applicazioni lineari iniettive e suriettive. Isomorfismi. Spazi vettoriali
LEZIONE 20
20.1. Applicazioni lineari iniettive e suriettive.
Ricordo le seguenti due definizioni valide per applicazioni di qualsiasi tipo ϕ: X → Y
fra due insiemi. L’applicazione ϕ si dice iniettiva se dati x0 , x00 ∈ X con x0 6= x00 si ha
ϕ(x0 ) 6= ϕ(x00 ). l’applicazione ϕ si dice invece suriettiva se im(ϕ) = Y .
Un’immediata conseguenza della Proposizione 19.1.1 ii) della precedente lezione è la
seguente
Proposizione 20.1.1. Siano V e W spazi vettoriali su k = R, C. Se f : V → W è k–
lineare allora f è iniettiva se e solo se ker(f ) = { 0V }. Dall’Osservazione 19.1.2 i) segue che 0V ∈ ker(f ). Inoltre se v, v 0 , v 00 ∈ ker(f ) ed α ∈ k
allora
f (v 0 + v 00 ) = f (v 0 ) + f (v 00 ) = 0W , f (αv) = αf (v) = α0W = 0W ,
cioè
Proposizione 20.1.2. Siano V e W spazi vettoriali su k = R, C. Se f : V → W è k–
lineare allora ker(f ) è un sottospazio vettoriale di V . Esempio 20.1.3. Sia k = R, C e sia A ∈ k m,n fissata e si consideri l’applicazione lineare
µA : k n,1 → k m,1 (si veda l’Esempio 18.1.5).
Lo spazio ker(µA ) è formato dalle X ∈ k n,1 tali che 0km,1 = µA (X) = AX. In particolare
ker(µA ) è un sottospazio di k n,1 di dimensione n − rk(A) (si veda l’Esempio 18.2.4).
Concludiamo µA è iniettiva se e solo se n = rk(A): deve allora risultare necessariamente
n ≤ m.
In particolare l’applicazione f definita nell’Esempio 19.1.3 non può essere iniettiva.
Poiché tale applicazione coincide (tramite le solite identificazioni di k n e k m con k n,1 e
k m,1 ) con µA ove
3 1 −1
A=
1 −1 2
e tale matrice ha, chiaramente, rango rk(A) = 2, concludiamo che dim(ker(f )) = 3 −
rk(A) = 1: infatti ker(f ) = L(1, −7, −4).
Invece l’applicazione g dello stesso Esempio è iniettiva per lo stesso motivo: infatti
è definita dalla matrice B = t A, dunque dim(ker(g)) = 2 − rk(A) = 0, da cui segue
ker(g) = { (0, 0) }.
Typeset by AMS-TEX
1
2
20.1. APPLICAZIONI LINEARI INIETTIVE E SURIETTIVE
Per quanto riguarda im(µA ), poiché le matrici E1,1 , . . . , En,1 sono generatori di k n,1 la
Proposizione 19.2.1 implica che
im(µA ) = L(µA ((E1,1 ), . . . , µA ((En,1 )) = L(A1 , . . . , An ) ⊆ k m,1
ove A1 , . . . , An ∈ k m,1 sono le colonne della matrice A.
In particolare im(µA ) è un sottospazio di k m,1 di dimensione rk(A) (si veda la Proposizione 19.3.1 e quanto osservato dopo di essa). Quindi µA è suriettiva se e solo se m = rk(A):
deve allora risultare necessariamente n ≥ m.
Per esempio consideriamo le applicazioni f e g definite nell’Esempio 19.1.3: per quanto
visto f è suriettiva mentre g non lo è.
Ricordo che dalla teoria dei sistemi di equazioni le soluzioni di AX = B sono della
forma X0 + Y ove X0 è una soluzione particolare ed Y è soluzione del sistema omogeneo
associato AY = 0: ciò è consistente con la Proposizione 19.2.1 ii).
Un’interessante conseguenza di questo legame fra dimensione dell’immagine e rango è
la seguente. Se A ∈ k m,n , B ∈ k n,p risulta
rk(AB) = dim(im(µAB )) = dim(im(µA ◦ µB )) :
poiché im(µA ◦ µB ) ⊆ im(µA ) concludiamo che rk(AB) ≤ dim(im(µA )) = rk(A). Similmente
rk(AB) = rk(t (AB)) = rk(t B t A) = dim(im(µt B t A )) =
= dim(im(µt B ◦ µt A )) ≤ dim(im(µt B )) = rk(t B) = rk(B).
Concludiamo che rk(AB) ≤ min{rk(A), rk(B)} (A questo risultato si può anche giungere
direttamente osservando che le righe (risp. colonne) di AB sono combinazione lineare delle
righe (risp. colonne) di B (risp. A)).
Se poi n = p e B ∈ k n,n è invertibile allora rk(A) = rk((AB)B −1 ) ≤ rk(AB) ≤ rk(A)
dunque rk(A) = rk(AB).
Esempio 20.1.4. Sia I =]a, b[⊆ R un intervallo non vuoto e si consideri l’applicazione D: C p (I, R) → C p−1 (I, R)) di derivazione (si veda l’Esempio 19.1.9). Allora ker(D) è
costituito dalle funzioni ϕ: I → R tali che ϕ0 = 0 come funzioni. Segue allora dal teorema
di Lagrange che una tale ϕ deve essere costante su I. Concludiamo che D non è iniettiva.
Per quanto riguarda la suriettività si osservi che im(D) è costituito dalle funzioni ψ: I →
R tali che esiste ϕ ∈ C p (I, R) per cui ϕ0 = ψ ovvero dalle primitive di ψ: in particolare
D è suriettiva in quanto è noto che le primitive di una funzione di C p−1 (I, R) sono tutte
elementi in C p (I, R).
Concludiamo che D è suriettiva Re D−1 ψ è l’insieme di tutte le primitive di ψ che,
usualmente, si indica con il simbolo ψ(x)dx e viene chiamato integrale indefinito di ψ.
Ricordo che, dalla teoria, due primitive di una funzione differiscono, su ogni intervallo
contenuto nel dominio, per una costante: molto spesso si scrive
Z
ψ(x)dx = ϕ(x) + c.
LEZIONE 20
3
Come abbiamo visto sopra le funzioni costanti su I formano ker(D).
Più in generale si consideri l’operatore differenziale lineare
P (D) = a0 Dn + a1 Dn−1 + · · · + an−1 D + an : C ∞ (I, R) −→ C ∞ (I, R),
introdotto nell’Esempio 19.1.3. Allora ker(P (D)) è l’insieme delle soluzioni ϕ ∈ C ∞ (I, R)
dell’equazione differenziale lineare omogenea
(20.1.4.1)
a0 ϕ(n) + a1 ϕ(n−1) + · · · + an−1 ϕ0 + an ϕ = 0.
Ovviamente se b ∈ C ∞ (I, R) allora P (D)−1 (b) è l’insieme delle soluzioni ϕ ∈ C ∞ (I, R)
dell’equazione differenziale lineare non omogenea
(20.1.4.2)
a0 ϕ(n) + a1 ϕ(n−1) + · · · + an−1 ϕ0 + an ϕ = b.
In particolare la Proposizione 19.2.1 ii) ci permette d’affermare che le soluzioni dell’Equazione (20.1.4.2) si ottengono tutte sommando ad una soluzione particolare la totalità
delle soluzioni dell’equazione omogenea associata (20.1.4.1) ovvero l’integrale generale
dell’Equazione (20.1.4.2) è somma di un suo integrale particolare più l’integrale generale
dell’Equazione omogenea associata (20.1.4.1).
Esempio 20.1.5. Nell’Esempio 19.1.8 sono state definite le applicazioni lineari h·, ~v0 i e
· × ~v0 . Allora
ker(h·, ~v0 i) = { ~v ∈ V3 (O) | h~v , ~v0 i = 0 },
L(~v0 ),
ker(· × ~v0 ) = { ~v ∈ V3 (O) | ~v × ~v0 = ~0 } =
V3 (O)
se ~v0 6= ~0
se ~v0 = ~0.
Passiamo ora a studiare la suriettività delle due applicazioni. Si ha
im(h·, ~v0 i) = { α ∈ R | ∃~v ∈ V3 (O) tale che α = h~v , ~v0 i }.
Poiché dimR (R) = 1 segue che h·, ~v0 i è suriettivo se e solo se im(h·, ~v0 i) 6= { 0 }. Se ~v0 = ~0
chiaramente im(h·, ~v0 i) = { 0 }, quindi l’applicazione non è suriettiva: invece se ~v0 6= ~0,
poiché h~v0 , ~v0 i = |~v0 |2 6= 0, segue che l’applicazione è suriettiva.
Per la seconda delle due applicazioni risulta
im(· × ~v0 ) = { w
~ ∈ V3 (O) | ∃~v ∈ V3 (O) tale che w
~ = ~v × ~v0 } ⊆
⊆ ~v0⊥ = { w
~ ∈ V3 (O) | hw,
~ ~v0 i = 0 }
Vedremo in seguito che im(· × ~v0 ) = ~v0⊥ se ~v0 6= ~0.
20.2. Isomorfismi.
Ricordo che un’applicazione ϕ: X → Y fra insiemi si dice biiettiva se è iniettiva e
suriettiva. Ciò significa che se y ∈ Y , esiste (suriettività) ed è unico (iniettività) x ∈ X
tale che ϕ(x) = y: definiamo allora ϕ−1 : Y → X ponendo ϕ−1 (y) = x.
Si dimostra che ϕ è biiettiva se e solo se esiste un’applicazione ψ: Y → X tale che
ψ ◦ ϕ = idX e ϕ ◦ ψ = idY e risulta ψ = ϕ−1 .
4
20.2. ISOMORFISMI
Definizione 20.2.1. Siano V e W spazi vettoriali su k = R, C. Un’applicazione f : V → W
si dice isomorfismo se è lineare e biiettiva: in tal caso V e W si dicono isomorfi e si scrive
brevemente V ∼
= W.
Esempio 20.2.2. Siano V uno spazio vettoriale su k = R, C, B = (v1 , . . . , vn ) una sua
base. Si consideri l’applicazione [·]B : V → k n .
Nel corso della Lezione 14 si è visto che [v1 + v2 ]B = [v1 ]B + [v2 ]B e [λv]B = λ[v]B per
ogni v1 , v2 , v ∈ V e λ ∈ k: ciò significa che tale applicazione è lineare.
l’applicazione [·]B è suriettiva: infatti se (α1 , . . . , αn ) ∈ k n allora risulta
PChiaramente
n
[ i=1
i vi ]B = (α1 , . . . , αn ). Inoltre [·]B è anche iniettiva: infatti se v ∈ ker([·]B ) allora
Pα
n
v = i=1 0vi = 0V .
Concludiamo perciò che [·]B è un isomorfismo.
Esempio 20.2.3. Siano k = R, C ed A ∈ k m,n fissata. L’applicazione µA è un isomorfismo
se e solo se n − rk(A) = 0 e m = rk(A) ovvero se e solo se n = m = rk(A) cioè se e solo se
A è invertibile. Dalle uguaglianze
−1
µA ◦ µ−1
A = idkn = µIn = idkn = µA ◦ µA ,
(si veda l’Osservazione 19.1.12) si deduce allora che
µA−1 = µ−1
A .
In particolare k n,1 ∼
= k m,1 (o anche k n ∼
= k m per le usuali identificazioni) se e solo se
n = m.
Esempio 20.2.4. Nell’Esempio 19.1.8 sono state definite le applicazioni lineari h·, ~v0 i e
· × ~v0 . Come visto nell’Esempio 20.1.5 tali applicazioni non sono mai isomorfismi.
Siano V e W spazi vettoriali su k = R, C. Se f : V → W è un isomorfismo allora
f −1 : W → V è definita nel modo seguente: f −1 (w) = v se e solo se f (v) = w. Siano
w0 , w00 ∈ W e poniamo v 0 = f −1 (w0 ), v 00 = f −1 (w00 ), vb = f −1 (w0 + w00 ). Risulta che
f (b
v ) = w0 + w00 = f (v 0 ) + f (v 00 ) = f (v 0 + v 00 ),
quindi
f −1 (w0 + w00 ) = vb = v 0 + v 00 = f −1 (w0 ) + f −1 (w00 ).
Sia ora w ∈ W , α ∈ k e poniamo v = f −1 (w), ve = f −1 (αw). Risulta che
f (e
v ) = αw = αf (v) = f (αv),
quindi
f −1 (αw) = ve = αv = αf −1 (w).
Quanto osservato dimostra la seguente
LEZIONE 20
5
Proposizione 20.2.5. Siano V e W spazi vettoriali su k = R, C. Se f : V → W è un
isomorfismo allora anche f −1 è un isomorfismo. Si noti che V ∼
= V in quanto idV : V → V è lineare e biiettiva. La Proposizione 20.2.5
mostra che se V ∼
= W allora W ∼
= V . Infine la composizione di applicazioni biiettive è,
ovviamente, biiettiva: dalla Proposizione 19.1.11 segue che se U ∼
= V e V ∼
= W allora
∼
U = W.
Concludiamo che la relazione d’isomorfismo fra spazi vettoriali su k è d’equivalenza.
20.3. Spazi vettoriali di dimensione finita.
Siano V e W spazi vettoriali su k = R, C ed f : V → W un’applicazione k–lineare.
Supponiamo che V sia finitamente generato: allora sappiamo che im(f ) è a sua volta
finitamente generato dalla Proposizione 19.2.1 iii).
Per questo motivo, qualora il dominio di un’applicazione lineare sia finitamente generato,
a patto di cambiare opportunamente il codominio si può supporre che anch’esso sia finitamente generato.
Proposizione 20.3.1. Siano V e W spazi vettoriali su k = R, C finitamente generati.
Allora V ∼
= W se e solo se dimk (V ) = dimk (W ).
Dimostrazione. Supponiamo che f : V → W sia un isomorfismo. Siano B = (v1 , . . . , vn )
e D = (w1 , . . . , wm ) basi di V e W rispettivamente. Allora possiamo considerare la
composizione
n
m
g = [·]D ◦ f ◦ [·]−1
B : k −→ k .
Essendo composizione di applicazioni lineari, g è lineare. Essendo composizione di applicazioni biiettive, g è biiettiva. Concludiamo che g è un isomorfismo. Tramite le usuali
identificazioni k n ∼
= k n,1 e k m ∼
= k m,1 l’isomorfismo g si identifica con un isomorfismo
n,1
m,1
k
→ k
che, necessariamente (si veda l’Esempio 19.1.5), è della forma µA per una
qualche matrice A ∈ k m,n . Allora dimk (V ) = n = m = dimk (W ) (si veda l’Esempio
20.2.3).
Viceversa, sia dimk (V ) = dimk (W ) e siano B = (v1 , . . . , vn ) e D = (w1 , . . . , wn ) basi di
V e W rispettivamente. Allora l’applicazione [·]−1
D ◦ [·]B : V → W è un isomorfismo, perché
composta da isomorfismi. Dunque V ∼
= W. Esempio 20.3.2. Sia k = R, C. Riprendiamo in considerazione i sottospazi T Sn (k) e
Simn (k) di k n,n . Nell’Esempio 18.2.5 abbiamo visto che dimk (T Sn (k)) = n(n + 1)/2. Se
A ∈ k n,n allora A + t A ∈ Simn (k). In particolare è definita l’applicazione
f : T Sn (k) −→ Simn (k)
A −→ A + t A.
Se A = (ai,j )1≤i,j≤n ∈ T Sn (k) allora f (A) = B


 ai,j
(20.3.2.1)
bi,j = 2ai,i


aj,i
= (bi,j )1≤i,j≤n ∈ Simn (k) dove
se i < j,
se i = j,
se i > j.
6
20.3. SPAZI VETTORIALI DI DIMENSIONE FINITA
Chiaramente se α ∈ k e A ∈ T Sn (k) allora
f (αA) = αA + t (αA) = αA + αt A = α(A + t A) = αf (A).
Se , A0 , A00 ∈ T Sn (k) allora
f (A0 + A00 ) = A0 + A00 + t (A0 + A00 ) = A0 + A00 + t A0 + t A00 =
= A0 + t A0 + A00 + t A00 = f (A0 ) + f (A00 ).
Quindi f è k–lineare.
L’applicazione f è un isomorfismo. Infatti f è suriettiva. Infatti se B = (bi,j )1≤i,j≤n ∈
Simn (k) risulta B = f (A) con A = (ai,j )1≤i,j≤n ∈ T Sn (k) definita da
ai,j


 bi,j
bi,i /2
=


0
se i < j,
se i = j,
se i > j.
Inoltre f è iniettiva, cioè ker(f ) = { 0n,n }: se A = (ai,j )1≤i,j≤n ∈ T Sn (k) è tale che
f (A) = 0n,n , dalla relazione (20.3.2.1) segue che ai,j = 0 = 2ai,i , ovvero A = 0n,n .
La Proposizione 20.3.1 garantisce dunque che
dimk (Simn (k)) = dimn (T Sn (k)) = n(n + 1)/2.
Similmente si consideri
Altn (k) = { A ∈ k n,n | t A = −A }.
Si verifichi che Altn (k) è un sottospazio vettoriale di k n,n e che l’applicazione
g: ST Sn (k) −→ Altn (k)
A −→ A − t A
è un isomorfismo: in particolare
dimk (Altn (k)) = dimn (ST Sn (k)) = n(n − 1)/2
La seguente Proposizione ci permette di affermare che, per descrivere un’applicazione
lineare definita su uno spazio vettoriale finitamente generato, è sufficiente avere un numero
finito di informazioni.
LEZIONE 20
7
Proposizione 20.3.3. Siano V e W spazi vettoriali su k = R, C finitamente generati.
Sia B = (v1 , . . . , vn ) una base di V . Dati w1 , . . . , wn ∈ W esiste un’unica applicazione
k–lineare f : V → W tale che f (vi ) = wi per i = 1, . . . , n.
Dimostrazione. Supponiamo che una tale f esista. Essendo f lineare se v ∈ V e [v]B =
(x1 , . . . , xn ) si deve avere
n
n
n
X
X
X
f (v) = f (
x i vi ) =
xi f (vi ) =
xi wi .
(20.3.3.1)
i=1
i=1
i=1
da cui segue immediatamente l’unicità
Verifichiamo che la Formula (20.3.3.1) definisce un’applicazione k–lineare f soddisfacente la tesi. Chiaramente [vi ]B = ei ∈ k n dunque f (vi ) = wi , i = 1, . . . , n. Se α ∈ k si ha
[αv]B = (αx1 , . . . , αxn ), dunque
n
n
X
X
(αxi )wi = α(
xi wi ) = αf (v).
f (αv) =
i=1
i=1
Infine se v 0 , v 00 ∈ V e [v 0 ]B = (x01 , . . . , x0n ), [v 00 ]B = (x001 , . . . , x00n ), allora [v 0 + v 00 ]B =
(x01 + x001 , . . . , x0n + x00n )
0
00
f (v + v ) =
n
X
i=1
(x0i
+
x00i )wi
=
n
X
x0i wi
+
i=1
Concludiamo che f è un’applicazione k–lineare.
n
X
x00i wi = f (v 0 ) + f (v 00 ).
i=1
Quindi se due applicazioni lineari coincidono sugli elementi di una base del dominio, in
forza dell’unicità asserita nella Proposizione 20.3.3, esse coincidono ovunque.
Corollario 20.3.4. Siano V e W spazi vettoriali su k = R, C finitamente generati. Sia
B = (v1 , . . . , vn ) una base di V . Allora:
i) se f, g: V → W sono applicazioni k–lineari tali che f (vi ) = g(vi ) per i = 1, . . . , n allora
f = g;
ii) se h: V → W è un’applicazione k–lineare tale che h(vi ) = 0W per i = 1, . . . , n allora
h = 0V,W . Diamo ora alcuni esempi di applicazione della proposizione e del corollario di cui sopra.
Esempio 20.3.5. In R3 siano dati i vettori v1 = (1, 1, 1), v2 = (1, 0, −1), v3 = (2, 0, −1).
Fissiamo poi i vettori w1 = (1, 1), w2 = (−1, 0), w3 = (0, 2) in R2 .
Poiché è facile verificare che B = (v1 , v2 , v3 ) è una base di R3 segue dalla Proposizione
20.3.3 che esiste un’unica applicazione lineare f : R3 → R2 tale che f (vi ) = wi , i = 1, 2, 3.
Poiché
(x, y, z) = yv1 + (−x + 3y − 2z)v2 + (x − 2y + z)v3
8
20.3. SPAZI VETTORIALI DI DIMENSIONE FINITA
segue che
f (x, y, z) = f (yv1 + (−x + 3y − 2z)v2 + (x − 2y + z)v3 ) =
= yw1 + (−x + 3y − 2z)w2 + (x − 2y + z)w3 =
= (x − 2y + 2z, 2x − 3y + 2z).
Esempio 20.3.6. In R3 siano dati i vettori v1 = (1, 1, 1), v2 = (1, 0, −1), v3 = (2, 0, −1),
v4 = (4, 1, −1). Fissiamo poi i vettori w1 = (1, 1), w2 = (−1, 0), w3 = (0, 2), w4 = (0, 3) in
R2 .
Chiaramente i vettori v1 , v2 , v3 , v4 non possono formare una base di R3 , quindi non
possiamo applicare direttamente la Proposizione 20.2.1. Però, dall’esempio precedente,
sappiamo che esiste un’unica applicazione lineare f : R3 → R2 tale che f (vi ) = wi , i =
1, 2, 3: si deve stabilire se vale anche f (v4 ) = w4 . A tale scopo o utilizziamo la formula
già ottenuta per f oppure osserviamo che v4 = v1 + v2 + v3 : dunque affinché f (v4 ) = w4
si deve avere
w4 = f (v4 ) = f (v1 + v2 + v3 ) = f (v1 ) + f (v2 ) + f (v3 ) = w1 + w2 + w3
che è di immediata verifica.
Cosa si può affermare se si sostituisce w4 con w40 = (1, 1)?