Appunti - Università degli Studi di Trento

Commenti

Transcript

Appunti - Università degli Studi di Trento
Appunti del corso di
METODI MATEMATICI DELLA FISICA
Guido Cognola
∗
anno accademico 2009-2010
Questi appunti sono essenzialmente la trascrizione in maniera schematica e concisa delle lezioni svolte
nel corso di Metodi Matematici della Fisica – Seconda Unità – nell’anno accademico 2009-2010. Il
materiale è preso dai libri di testo consigliati e non deve assolutamente diventare un sostituto degli stessi.
http://science.unitn.it/˜cognola → didattica
∗ e-mail:
[email protected]
dicembre 2009
Testi consigliati
A.N. Kolmogorov and S.V. Fomin. Elementi di teoria delle funzioni e di analisi funzionale. Edizioni
MIR 1980.
V.V. Vladimirov et Coll. Recuel de Problèmes d’Équations de Physique Mathématique. Edizioni MIR
1976.
Indice
1 Integrale di Lebesgue
1.1 Integrale di Riemann
1.2 Misura di Lebesgue .
1.3 Funzioni misurabili .
1.4 Integrale di Lebesgue
1.5 Teoremi Classici . .
.
.
.
.
.
3
3
4
5
5
5
2 Spazi Metrici
2.1 Isometria fra spazi metrici . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2 Contrazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7
8
9
3 Spazi Normati
3.1 Esempi di spazi normati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
10
4 Spazi Euclidei
4.1 Esempi di spazi euclidei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.2 Sistemi ortonormali chiusi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3 Teorema di Riesz-Fischer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
12
13
15
5 Spazi di Hilbert
5.1 Lo spazio L2 . . . . . . . . . . . . . . .
5.2 Completezza di L1 e L2 . . . . . . . . .
5.3 Basi ortonormali in L2 . . . . . . . . . .
5.4 Sistema trigonometrico . . . . . . . . . .
5.5 Forma complessa della serie di Fourier .
5.6 Completezza del sistema trigonometrico
5.7 Polinomi di Legendre . . . . . . . . . . .
5.8 Polinomi di Hermite . . . . . . . . . . .
.
.
.
.
.
.
.
.
16
17
18
19
19
20
21
23
23
6 Funzionali lineari continui
6.1 Spazio duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2 Base duale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
25
27
27
7 Distribuzioni
7.1 Funzioni test . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2 Lo spazio D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.3 Lo spazio S . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.4 Distribuzioni di Schwartz . . . . . . . . . . . . . . . . . . . . . .
7.5 Distribuzioni regolari . . . . . . . . . . . . . . . . . . . . . . . . .
7.6 Prodotto di una distribuzione per una funzione C ∞ . . . . . . . .
7.7 Cambiamento di variabile . . . . . . . . . . . . . . . . . . . . . .
7.8 Derivazione . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.9 Prodotto diretto . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.10 Prodotto di convoluzione . . . . . . . . . . . . . . . . . . . . . . .
7.11 Condizioni sufficienti per l’esistenza del prodotto di convoluzione
7.12 Regolarizzazione . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.13 Distribuzioni temperate . . . . . . . . . . . . . . . . . . . . . . .
7.14 Trasformata di Fourier . . . . . . . . . . . . . . . . . . . . . . . .
7.15 Soluzioni fondamentali di operatori differenziali lineari . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
29
29
30
31
31
32
33
34
35
35
36
37
38
39
39
40
8 Operatori Lineari
8.1 Operatoti Limitati . . . . . . . . . . . . . . .
8.1.1 Proprietà dell’operatore aggiunto . . .
8.1.2 Proprietà dell’operatore autoaggiunto
8.2 Spettro . . . . . . . . . . . . . . . . . . . . .
8.3 Operatori Compatti . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
42
44
46
47
48
49
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9 Equazioni Integrali
9.1 Applicazioni . . . . . . . . . . . . . . . . . . . .
9.1.1 Problema di Cauchy . . . . . . . . . . .
9.1.2 Problema di Abel (1823) . . . . . . . . .
9.1.3 Problema della corda . . . . . . . . . . .
9.2 Equazioni di Fredholm . . . . . . . . . . . . . .
9.2.1 Nuclei di Hilbert-Schmidt . . . . . . . .
9.3 Soluzione delle equazioni integrali di II a specie
9.3.1 Equazioni a nucleo simmetrico . . . . .
9.3.2 Equazioni a nucleo degenere . . . . . . .
9.3.3 Equazioni di Volterra . . . . . . . . . .
9.3.4 Soluzioni sotto forma di serie di potenze
9.3.5 Nuclei Ortogonali . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
54
54
54
55
56
56
57
58
59
60
61
62
63
10 Contrazioni: metodo delle approssimazioni successive
64
11 Spazi di Hilbert
66
12 Distribuzioni
68
13 Equazioni integrali
89
Definizioni
Alcuni dei concetti seguenti si possono definire in spazi più generali, ma qui siamo interessati agli spazi
euclidei per i quali è definito il concetto di “distanza” fra due punti arbitrari. Questo è dato dalla norma
della differenza dei due punti, che per spazi reali è una vera distanza ρ(x, y) fra punti (vedi sotto).
• Punto di accumulazione. – x ∈ X è detto punto di accumulazione se ogni suo intorno contiene
almeno un punto di X.
• Chiusura. L’insieme X si dice chiuso se contiene tutti i suoi punti di accumulazione.
• Limitatezza. – X si dice limitato se la distanza fra ogni coppia di punti è finita. Vale a dire, per
ogni x, y ∈ X esiste C per cui ρ(x, y) ≤ C.
• Compattezza. – Uno spazio X si dice compatto se da ogni suo ricoprimento aperto è possibile
estrarre un sottoricoprimento finito.
G ∈ X si dice relativamente compatto o precompatto se la sua chiusura in X è compatta.
• TotaleSLimitatezza. – X è totalmente limitato se da è unione finita di “palle” aperte (ε-rete), cioè
n
X = k=1 B(xk , ε), dove B(x, ε) è la palla aperta di raggio ε centrata in x.
• Discontinuità di prima specie. – Quando i limiti destro e sinistro esistono entrambi ma sono diversi
fra loro.
• Funzione a variazione limitata. – f definita in [a, b] si dice a variazione limitata se, per ogni
suddivisone dell’intervallo del tipo a = x0 < x1 < · · · < xn = b si ha
n
X
k=1
|f (xk ) − f (xk−1 )| < costante .
• Funzione assolutamente continua. – f definita in [a, b] si dice assolutamente continua se, fissato
arbitrariamente ε > 0, esiste δ per cui
X
X
|f (bk ) − f (ak )| < ε ,
(bk − ak ) < δ ,
k
k
dove (ak , bk ) è una qualsiasi famiglia finita di intervalli disgiunti.
Ogni funzione assolutamente continua è uniformemente continua e a variazione limitata.
In particolare, l’integrale indefinito di ogni funzione sommabile definisce una funzione assolutamente
continua.
• Convergenza quasi ovunque. – Si dice che la successione {fn } converge a f quasi ovunque se
fn (x) → f (x), a meno di un insieme di misura nulla, vale a dire, l’insieme dei punti in cui la funzione
non converge ha misura nulla.
• Sottoinsieme denso: un insieme G è denso in X se ogni punto di X è circondato da punti di G
arbitrariamente vicini. In maniera precisa: per ogni x ∈ X e comunque scelto un numero ε > 0,
esiste un elemento xg ∈ G tale che ρ(x, xg ) < ε.
• Successione Fondamentale (o di Cauchy). – Una successione {xk } si dice fondamentale se soddisfa
il criterio di Cauchy, vale a dire se, comunque scelto un numero ε > 0, esiste un intero Nε tale
che ρ(xn , xm ) < ε, per ogni n, m > Nε . Ogni successione convergente ovviamente soddisfa questo
criterio. In generale però non vale il viceversa. Quindi il criterio di Cauchy è una condizione
necessaria ma non sufficiente per la convergenza delle successioni.
• Completezza di uno spazio. – Uno spazio X si dice completo se ogni successione fondamentale è
convergente. Questo significa che in uno spazio completo, la condizione di Cauchy è necessaria e
sufficiente per la convergenza.
Esempio. L’insieme Q dei numeri razionali non è completo. Esistono infatti successioni di numeri
razionali che convergono ad un numero reale, ma non razionale. L’insieme dei numeri reali IR è
completo ed è anche il completamento di Q. In IR ogni successione fondamentale converge ad un
numero reale.
• Spazio separabile. – Uno spazio X si dice separabile se contiene un insieme numerabile ovunque
denso in X (gli spazi che si incontrano comunemente lo sono).
Esempio. Un numero reale si può approssimare con precisione arbitraria mediante un numero
razionale. L’insieme dei numeri razionali Q è quindi denso in IR; inoltre Q è numerabile e dunque
IR è separabile.
1
Integrale di Lebesgue
E’ l’estensione dell’integrale di Riemann ad una classe più vasta di funzioni1 .
1.1
Integrale di Riemann
Analizziamo brevemente, da un punto di vista critico, la definizione di integrale secondo Riemann. Sia
quindi f (x) una funzione limitata definita nell’intervallo I ≡ (a, b), m e M rispettivamente gli
P estremi
inferiore e superiore che questa raggiunge al variare di x ∈ I, hi un “piccolo” intervallo in I con i hi = I,
mi , Mi e mi ≤ fi ≤ Mi gli estremi inferiore, superiore e un valore “rappresentativo” che la funzione
assume al variare di x ∈ hi . Si ponga
X
X
X
σ=
hi fi ,
s=
h i mi ,
S=
hi Mi+1 .
i
i
i
La funzione f (x) è integrabile secondo Riemann se i limiti per i → ∞ delle espressioni precedenti sono
coincidenti. Il procedimento precedente è sensato se nell’intervallo hi i possibili valori di fi sono “vicini”
fra loro, vale a dire se fi è effettivamente un punto rappresentativo della funzione. Se f è continua questo
è certamente vero, ma non è necessario.
Come si vede, nella definizione precedente si discretizza il dominio di definizione della funzione non
sapendo quindi come saranno distribuiti i valori della stessa nel generico intervallo. Nella definizione
integrale di Lebesgue il procedimento è simile, ma anzichè il dominio della funzione, si discretizza il
co-dominio, avendo quindi il controllo sui valori che la funzione assume in ogni intervallino.
Prima di procedere alla definizione generale, consideriamo una speciale classe di funzioni f (x) come
sopra, ma con la ulteriore restrizione che l’insieme Iαβ sia un multi-intervallo, dove
Iαβ ≡ {x ∈ I, tali che m ≤ α ≤ f (x) ≤ β ≤ M }
(1.1)
comunque scelti α e β.
A questo punto dividiamo il co-dominio di f in tanti piccoli intervalli m = α0 < α1 < α2 < ... < αn =
β ad ognuno dei quali corrisponderà un multi-intervallo
X
(1)
(2)
Iαi αi+1 = hi + hi + ... ≡ hi ⊂ I ,
hi = I ,
(1.2)
i
dove la funzione assumerà i valori αi ≤ fi ≤ αi+1 . Poniamo allora
X
X
X
s=
hi αi ≤ σ =
hi fi ≤ S =
hi αi+1
i
i
(1.3)
i
e osserviamo che i limiti per i → ∞ delle espressioni precedenti sono coincidenti, per costruzione. Infatti,
scelta un’arbitraria discretizzazione con αi+1 − αi < ε, si ha
X
S−s=
(αi+1 − αi )hi < ε(b − a) .
i
♣ hi è la misura (lunghezza) del multi-intervallo Iαi αi+1 . Se Iαβ non è un multi-intervallo, le espressioni
(1.3) non hanno alcun significato, a meno che non si definisca hi in modo preciso.
Per poter estendere l’integrale di Lebesgue a funzioni arbitarie è prima necessario definire la misura
di un insieme qualunque.
1 Per
una trattazione elementare vedi: F.G. Tricomi, Istituzioni di analisi superiore, Edizioni CEDAM, Padova (1964).
1.2
Misura di Lebesgue
E’ una delle varie estensioni del concetto di misura ad un insieme qualunque.
Sia P un intervallo (chiuso, aperto o semiaperto) in IR (o un rettangolo in IR2 o un iper-parallelepipedo
in Rn ). La misura m(P ) di P è la lunghezza (l’area, l’iper-volume) e la misura dell’insieme vuoto è nulla
per definizione; m(Φ) = 0. Questa misura gode delle proprietà
• m(P ) ≥ 0; la misura è reale e non negativa;
Pn
Sn
T
• m(P ) = k=1 m(Pk ) se P = k=1 Pk e Pi Pj = Φ;
la misura di un numero finito di intervalli disgiunti è la somma delle misure dei singoli intervalli.
La misura si estende facilmente ad ogni insieme elementare, vale a dire a qualunque unione infinita
di intervalli disgiunti. Si definisce
X
[
\
m′ (E) =
m(Pk ) ,
E=
Pk ,
Pi P j = Φ .
k
k
Si osservi che rispetto alla seconda proprietà della misura sopra, nell’ultima espressione l’indice k può assumere infiniti valori. In generale, la decomposizione dell’insieme elementare E in infiniti intervalli disgiunti
può essere effettuata in più modi; si dimostra che la misura m′ (E) non dipende dalla decomposizione.
Si dimostra inoltre che se E è unione finita o numerabile di insiemi elementari Ek disgiunti, allora
X
[
\
m′ (E) =
m′ (Ek ) ,
E=
Ek ,
Ei Ej = Φ .
k
k
Questa importante proprietà della misura m′ è detta Addidività numerabile o σ-additività.
Consideriamo ora un insieme qualsiasi A contenuto in una regione finita di IR (IRn ) e un suo ricoprimento arbitrario mediante intervalli (rettangoli) Pk . Definiamo la misura esterna di A mediante
l’espressione
µ∗ (A) =
inf
A⊂∪k Pk
m(Pk ) .
Si dimostra l’importante e “naturale” proprietà, che se A ⊂ B allora µ∗ (A) ≤ µ∗ (B).
• Definizione – Un insieme si dice misurabile nel senso di Lebesgue se si può approssimare con precisione
arbitraria mediante insiemi elementari. Più precisamente, A sarà misurabile (secondo Lebesgue) se, per
ogni ε > 0 esiste un insieme elementare E per cui
µ∗ (A∆ E) < ε ,
dove A∆ E è l’insieme complemetare dell’intersezione. In tal caso la funzione µ∗ si chiama misura di
Lebesgue e si indica semplicemente con µ.
Unione e intersezione numerabile di insiemi misurabili è misurabile. Valgono inoltre le proprietà
[
X
A=
An =⇒ µ(A) =
µ(An ) ,
(σ-additività) ,
n
n
dove {An } è una famiglia disgiunta di insiemi misurabili.
\
A =
An ,
A1 ⊃ A2 ⊃ A3 ... =⇒ µ(A) = lim µ(An ) .
n→∞
n
A
=
[
n
An ,
(1.4)
A1 ⊂ A2 ⊂ A3 ... =⇒ µ(A) = lim µ(An ) .
n→∞
L’estensione ad insiemi qualsiasi contenuti in tutto IR (IRn ) è ora immediata in quanto l’asse reale può
essere visto come una somma di intervalli disgiunti e l’insieme A diventa la somma di (infiniti) insiemi,
ognuno contenuto in un intervallo. Si osservi che in tal caso la misura può essere infinita.
Usando le proprietà astratte che definiscono una misura, la misura di Lebesgue si può estendere ad
insiemi più generali di IRn .
Esempi
Misura di un punto. – La misura di Lebesgue di un punto isolato A è banalmente nulla. Un punto
infatti è contenuto in un intervallo Iε , con ε arbitrariamente piccolo, per cui µ(A) ≤ µ(Iε ) = ε. Usando
la σ-additività si ricava che anche la misura di un’infinità numerabile di punti è nulla.
1.3
Funzioni misurabili
Sia f (x) definita in un insieme misurabile I e sia Iαβ l’insieme definito dalla (1.1). La funzione f si dirà
misurabile (secondo Lebesgue) se Iαβ è un insieme misurabile.
Equivalentemente si dice che f è misurabile se, per ogni a, l’insieme Eα ≡ {x ∈ I, tali che f (x) > α} è
misurabile.
♣ Se f è misurabile ed è uguale a g q.o. (quasi ovunque, vale a dire a meno di un insieme di misura
nulla), allora anche g è misurabile; somme, prodotti, limiti di funzioni misurabili sono misurabili.
1.4
Integrale di Lebesgue
La definizione di integrale di Lebesgue è ora immediata. Si usa infatti lo stesso procedimento introdotto
sopra, dove anziché richiedere che l’insieme Iαβ in (1.1) sia un multi-intervallo, si richiede la misurabilità
della funzione limitata f . Questo, per definizione, garantisce la misurabilità di Iαβ , che nel caso speciale
sopra, equazione (1.2), era stata usata tacitamente ponendo hi uguale alla lunghezza del generico multiintervallo (si sono usata la somma al posto dell’unione). Allora poniamo
X
X
X
s=
hi = µ(Iαi αi+1 ) ,
hi αi ≤ σ =
hi fi ≤ S =
hi αi+1 .
(1.5)
i
i
i
Il limite delle espressioni precedenti per una suddivisione del co-dominio della funzione con infiniti
intervalli infinitesimi definisce l’integrale di Lebesgue, cioè
Z
∞
X
X
f (x) dx = lim
hi
hi fi .
µ(I) =
I
i→∞
i
i=1
Valgono tutte le proprietà dell’integrale di Riemann. Inoltre se f è limitata in I e integrabile secondo
Riemann, allora è anche integrabile secondo Lebesgue e i due integrali coincidono.
Se f = g q.o., allora
Z
Z
dx f (x) =
dx g(x) .
I
I
Come si fa con l’integrate di Riemann, anche l’integrale di Lebesgue si estende, a funzioni non limitate.
Per fare questo è sufficiente approssimare la funzione non limitata f mediante un successione di funzioni
limitate (troncate) fn e definire l’integrale di f come limite degli integrali della serie fn usando i teoremi
riportati di seguito. Se il limite è finito, la funzione si dice sommabile secondo Lebesgue.
1.5
Teoremi Classici
• • Teorema I o di Lebesgue – Se {fn } è una successione di funzioni misurabili, uniformemente
limitata (vale a dire che esiste un numero N per cui vale relazione |fn (x)| < N ) e convergente a f
q.o., allora anche f è misurabile e si ha
Z
Z
dx fn (x) →
dx f (x) .
Si osservi che per scambiare il limite con l’integrale basta la limitatezza uniforme e non la convergenza uniforme come per l’integrale di Riemann.
Corollario – Se f (x) è la somma di una serie di funzioni misurabili un e le somme parziali sono
uniformemente limitate, allora
Z
XZ
dx un (x) =
dx f (x) .
n
In queste ipotesi si può integrare termine a termine.
• • Teorema II o di Lebesgue – Se {fn } è una successione di funzioni sommabili convergente a f
q.o. e per ogni n vale la relazione |fn (x)| ≤ φ(x), dove φ(x) è una funzione sommabile, allora anche
f è sommabile e
Z
Z
dx fn (x) →
dx f (x) .
Come sopra, si può scambiare il limite con l’integrale.
Corollario I – Se f (x) è la somma (q.o.) di una serie di funzioni sommabili un e tutte le somme
parziali sono limitate da una funzione sommabile |φ(x)| , allora anche f è sommabile e il suo integrale
è la somma degli integrali di fn . Sotto queste condizioni si può integrare termine a termine.
Corollario II – Se una serie di funzioni sommabili non negative converge q.o. ad una funzione
sommabile f , allora si può integrare termine a termine.
• • Teorema di B. Levi – Se f1 (x) ≤ f2 (x) ≤ ... ≤ fn (x) ≤ ... è una successione di funzioni
integrabili e tutti gli integrali sono maggiorati da un’unica costante, allora la successione converge
a f quasi ovunque e inoltre l’integrale di f è il limite degli integrali.
• • Teorema di Fatou – Se {fn } è una successione di funzioni sommabili non negative convergente
a f e tutti gli integrali di fn sono maggiorati da una costante comune, allora l’integrale di f esiste
ed è maggiorato dalla stessa costante.
2
Spazi Metrici
• Definizione (spazio metrico) – Uno spazio metrico è un qualunque insieme X munito di un’applicazione ρ(x, y) che ad ogni coppia di elementi x, y ∈ X associa un numero reale, con le proprietà
1. ρ(x, y) ≥ 0 e ρ(x, y) = 0 se e solo se x = y,
2. ρ(x, y) = ρ(y, x) — simmetria,
3. ρ(x, z) ≤ ρ(x, y) + ρ(y, z) — disuguaglianza triangolare.
Un’applicazione con le proprietà precedenti è detta distanza.
Esempi
1. La retta reale IR con la distanza ρ(x, y) = |x − y|; si verifica banalmente che le tutte le proprietà
sono soddisfatte.
2. L’insieme delle n − uple ordinate di numeri reali (x1 , x2 , ..., xn ) con la distanza
v
u n
uX
ρ(x, y) = t
(xk − yk )2 .
k=1
Questo spazio metrico è detto spazio Euclideo n−dimensionale e si indica con IRn . Le prime due proprietà sono banalmente verificate, mentre la disuguaglianza triangolare deriva dalla disuguaglianza
di Cauchy-Bunjakowskij-Schwartz
n
X
ak bk
k=1
!2
≤
n
X
a2i
i=1
n
X
b2j
(2.1)
j=1
che a sua volta è una banale conseguenza dell’identità
n
X
ak bk
k=1
!2
=
n
X
i=1
a2i
n
X
j=1
b2j −
n
n
1 XX
(ai bj − aj bi )2
2 i=1 j=1
che si verifica direttamente. Per ricavare la disuguaglianza triangolare, presi tre punti x, y, z in IRn
conviene prima porre
ak = xk − yk ,
bk = yk − zk
=⇒ xk − zk = ak + bk .
In questo modo si ha
[ρ(x, z)]
2
=
n
X
(ak + bk )2 =
a2k +
≤
n
X
a2k +
n
X
k=1
k=1
2
n
X
b2k + 2
[ρ(x, y) + ρ(y, z)] .
n
X
ak bk
k=1
k=1
k=1
k=1
=
n
X
v
v
v
2
v
u n
u n
u n
u n
X uX
X
X
u
u
u
b2k + 2t
ai t
bj =  t
ak + t
bk 
i=1
b=1
k=1
3. L’insieme IRn1 delle n − uple ordinate di numeri reali (x1 , x2 , ..., xn ) con la distanza
ρ1 (x, y) =
n
X
k=1
|xk − yk | .
Tutte le proprietà si verificano banalmente.
k=1
(2.2)
4. L’insieme IRn∞ delle n − uple ordinate di numeri reali (x1 , x2 , ..., xn ) con la distanza
ρ∞ (x, y) = max |xk − yk | .
1≤k≤n
La disuguaglianza triangolare deriva dal fatto che, per ogni k
|xk − zk | ≤ |xk − yk | + |yk − zk | ≤ max |xk − yk | + max |yk − zk | .
1≤k≤n
1≤k≤n
5. Lo spazio ℓ2 costituito dalle successioni {xk } di numeri reali tali che
v
u∞
uX
ρ(x, y) = t
(xk − yk )2 .
P
k
x2k < ∞ con la distanza
k=1
Se x, y ∈ ℓ2 allora la serie precedente converge come conseguenza delle disuguaglianze
(xk ± yk )2 ≤ 2(x2k + yk2 )
e la disuguaglianza triangolare è il limite della (2.2).
6. Lo spazio C[a, b] delle funzioni continue nell’intervallo [a, b] con la metrica
ρ(f, g) = max |f (t) − g(t)| .
(2.3)
a≤t≤b
Le proprietà si verificano facilmente.
7. Lo spazio C2 [a, b] delle funzioni continue nell’intervallo [a, b] con la metrica
s
Z b
ρ2 (f, g) =
dt [f (t) − g(t)]2 .
a
La disuguaglianza triangolare si ricava usando la disuguaglianza di Cauchy-Bunjakowskij-Schwartz
integrata. Rispetto a tutti quelli precedenti, questo spazio metrico non è completo. Questo
significa che esistono successioni fondamentali di funzioni appartenenti a C2 [a, b] che però non
convergono a funzioni di C2 [a, b].
2.1
Isometria fra spazi metrici
• Definizione (continuità) – Siano dati due spazi metrici X e Y con distanze ρ e ρ1 rispettivamente
e un’applicazione f : X → Y . Si dirà che f è continua in x0 ∈ X se, comunque scelto ε > 0, esiste δ > 0
tale che, per ogni x ∈ X per cui ρ(x, x0 ) < δ si abbia
ρ1 (f (x), f (x0 )) < ε .
Questa definizione di continuità coincide con quella nota se X e Y sono insiemi numerici.
• Definizione (omeomorfismo) – Se f : X → Y è un’applicazione biunivoca e bicontiuna, vale a
dire continua, invertibile e con inversa continua allora si dice omeomorfismo fra spazi metrici (la stessa
terminologia si usa anche per gli spazi topologici), e i due spazi si dicono omeomorfi.
• Definizione (isometria) – Un omeomorfismo che conserva le distanze si dice isometria. L’isometria
è quindi un’applicazione f : X → Y biunivoca e bicontiuna tale che
ρ(x1 , x2 ) = ρ1 (f (x1 ), f (x2 )) ,
x1 , x2 ∈ X .
Se fra due spazi metrici esiste un’isometria, i due spazi si dicono isometrici e, a tutti gli effetti, si possono
considerare identici.
• Definizione (convergenza) – Una successione di punti {xn } in uno spazio metrico X si dice
convergente a x ∈ X se
lim ρ(x, xn ) = 0 .
n→∞
• Definizione (completezza) – Uno spazio X si dice completo se ogni successione fondamentale converge ad un elemento di X. Si dimostra che ogni spazio metrico ha un completamento unico a meno di
isometrie.
2.2
Contrazioni
• Definizione (contrazione) – Un’applicazione A da uno spazio metrico in sè stesso è detta contrazione
se esiste un numero reale α < 1 tale che, per ogni coppia di punti x, y ∈ X si abbia
ρ(Ax, Ay) ≤ αρ(x, y) ,
α < 1.
• Teorema – Ogni contrazione è un’applicazione continua.
• Dimostrazione – Data infatti una successione {xn } convergente a x ∈ X si ha
ρ(Ax, Axn ) ≤ αρ(xn , x) ≤ ρ(xn , x) → 0 .
• Teorema (principio delle contrazioni) – Ogni contrazione in uno spazio metrico completo ha un
solo punto fisso, vale a dire che l’equazione
Ax = x ,
ha sempre una e una sola soluzione.
• Dimostrazione – Per la dimostrazione si usano le proprietà della distanza, la continuità di A e la
completezza di X. Dato un punto qualunque x0 , si costruisce la successione
x1 = Ax0 ,
x2 = Ax1 = A2 x0 ,
x3 = Ax2 = A3 x0 ,
...
xn = An x0 .
Questa è una successione fondamentale in quanto, per ogni m ≥ n si ha
ρ(xn , xm ) = ρ(An x0 , An Am−n x0 ) ≤ αn ρ(x0 , xm−n ) ≤ αn [ρ(x0 , x1 ) + ρ(x1 , xm−n )]
≤ αn [ρ(x0 , x1 ) + ρ(x1 , x2 ) + ρ(x2 , x3 ) + ... + ρ(xm−n−1 , xm−n )]
αn ρ(x0 , x1 )
≤ αn ρ(x0 , x1 )(1 + α + α2 + ... + αm−n ) ≤
.
1−α
Poiché α < 1, l’ultimo termine è piccolo a piacere per n abbastanza grande. Data la completezza, la
successione {xn } converge ad un punto x ∈ X. Usando la continuità si ha anche
Ax = A lim xn = lim Axn = lim xn+1 = x
n→∞
n→∞
n→∞
e quindi x è effettivamente un punto fisso, qualunque sia x0 . L’unicità si dimostra per assurdo. Infatti,
se x, y sono entrambi punti fissi, con x 6= y, allora ρ(x, y) 6= 0 e
ρ(x, y) = ρ(Ax, Ay) ≤ αρ(x, y) =⇒ α ≥ 0 ,
in contrasto con l’assunzione che A sia una contrazione.
♣ Per l’esistenza del punto fisso non è strettamente necessario che A sia una contrazione, ma è sufficiente
che una qualche potenza B = An lo sia. Se B è una contrazione e x = Bx è un punto fisso per B
allora x è un punto fisso anche per A. Infatti, preso x0 = Ax come punto iniziale si ha
x = Bx = B k x =⇒ Ax = AB k x = B k Ax = B k x0
(2.4)
e poiché B è una contrazione, per k → ∞, B k x0 converge a x qualunque sia x0 .
3
Spazi Normati
Sia X uno spazio lineare (vettoriale) e p : X → IR un funzionale (omogeneo e convesso) con le proprietà
1. p(x) ≥ 0 e p(x) = 0 se e solo se x = 0;
2. p(αx) = |α| p(x) per ogni α ∈ C
I (omogeneo);
3. p(x + y) ≤ p(x) + p(y) (disuguaglianza triangolare).
Lo spazio (X, p) è detto spazio normato e p(x) è detta norma di x e si indica con kxk.
Uno spazio normato completo si chiama spazio di Banach. In questo caso ovviamente la topologia è quella
che segue dalla norma.
Ogni spazio (reale) normato è anche metrico con la distanza data da ρ(x, y) = kx − yk.
3.1
Esempi di spazi normati
1. IR con la norma kxk = |x|;
pPn
2
2. IRn con la norma kxk =
k=1 xk ;
Pn
3. IRn1 con la norma kxk1 = k=1 |xk |;
4. IRn∞ con la norma kxk∞ = max1≤k≤n |xk |;
pPn
2
5. C
I n con la norma kxk =
k=1 |xk | ;
6. C[a, b] con la norma kf k = maxa≤t≤b |f (t)|;
pP∞
2
7. ℓ2 con la norma kxk =
k=1 |xk | ;
La verifica del fatto che quelle definite negli esempi sopra siano effettivamente delle norme si effettua
come per gli esempi dati nella sezione precedente.
4
Spazi Euclidei
♣ Se non specificato diversamente, in questa sezione x, y, z, ... sono arbitrari elementi (vettori) di uno
spazio lineare X, mentre α, β, ... sono numeri complessi arbitrari.
• Definizione (spazio euclideo) – Si chiama spazio euclideo (complesso) uno spazio lineare (complesso)
X in cui è definito un prodotto scalare. Questo è un funzionale (x, y) che ad ogni coppia di elementi
x, y ∈ X associa un numero (complesso) e gode delle seguenti proprietà:
1. (x, x) ≥ 0
e inoltre
2. (x, y) = (y, x)
3. (x, α y) = α (x, y) ,
(x, x) = 0
se e solo se
x = 0;
(la barra rappresenta la coniugazione complessa);
(α x, y) = ᾱ (x, y);
4. (x, y + z) = (x, y) + (x, z) ,
(x + z, y) = (x, y) + (z, y).
Per la coniugazione complessa usiamo indifferentemente la barra sopra il simbolo o l’asterisco ∗ .
♣ Se lo spazio euclideo è complesso bisogna fare attenzione all’ordine degli elementi che formano il
prodotto scalare, che in questo caso non è simmetrico a causa della proprietà 2.
Ogni spazio euclideo è anche normato e di conseguenza metrico (se è reale). Infatti, mediante il
prodotto scalare si può definire la norma kxk del generico elemento x ∈ X, vale a dire
p
(4.1)
kxk = (x, x) ,
che gode delle proprietà richieste
1) kxk ≥ 0
e
kxk = 0
se e solo se
x = 0;
2) kα xk = |α| · kxk;
3) kx + yk ≤ kxk + kyk
(disuguaglianza triangolare).
Le proprietà 1) e 2) seguono direttamente dalle proprietà del prodotto scalare, mentre la 3) segue
dalla disuguaglianza di Cauchy-Bunjakowskij-Schwartz. Nel paragrafo precedente questa disuguaglianza
(vedi 2.1) si è dimostrata in un caso particolare, ma vale in generale e negli spazi euclidei si scrive nella
forma compatta2
|(x, y)| ≤ kxk kyk .
(4.2)
2 Si ricordi che il modulo del prodotto di due vettori è uguale al prodotto dei moduli per il coseno del’angolo compreso,
che è sempre minore di 1.
Questa si dimostra facilmente considerando la disuguaglianza
0 ≤ (λx + y, λx + y) = |λ|2 (x, x) + λ̄(x, y) + λ(y, x) + (y, y) = ||x||2 |λ|2 + 2 Re [λ(y, x)] + ||y||2 .
Poiché λ è un un numero complesso arbitrario si può scegliere
λ=
(x, y)
t,
|(x, y)|
t ∈ IR =⇒ Re [λ(y, x)] = |(x, y)| t .
Con questa scelta si ricava la disequazione
||x||2 t2 + 2|(x, y)|t + ||y||2 ≥ 0 ,
che è sempre verificata se il discriminante è negativo o nullo. Imponendo tale condizione si ottiene
direttamente la (4.2).
Mediante la norma si può definire la “distanza” ρ(x, y) fra due punti arbitrari x, y ∈ X, ossia
ρ(x, y) = kx − yk .
Questa gode delle proprietà richieste:
1) ρ(x, y) ≥ 0
e
ρ(x, y) = 0
se e solo se
x = y;
2) ρ(x, y) = ρ(y, x);
3) ρ(x, y) ≤ ρ(x, z) + ρ(y, z)
(disuguaglianza triangolare).
Se lo spazio euclideo è reale allora ρ è un vera distanza.
In ogni spazio euclideo la somma, il prodotto per un numero e il prodotto scalare sono continui.
Questo significa che se {xn } e {yn } sono due successioni che convergono a x e y rispettivamente e αn è
una successione numerica che converge ad α, allora si ha
xn + yn → x + y ,
αn xn → αx ,
(xn , yn ) → (x, y) .
La convergenza nello spazio X va intesa rispetto alla norma, vale a dire:
xn → x significa che kxn − xk → 0.
Per la dimostrazione si usano le proprietà della norma e del prodotto scalare. Quindi
k(xn + yn ) − (x + y)k
= k(xn − x) + (yn − y)k ≤ kxn − xk + kyn − yk → 0 ,
kαn xn − αxk = k(αn − α + α)(xn − x + x) − αxk
≤ |αn − α| kxn − xk + |αn − α| kxk + |α| kxn − xk → 0 ,
|(xn , yn ) − (x, y)|
= |(xn − x + x, yn − y + y) − (x, y)|
= |(xn − x, yn − y) + (xn − x, y) + (x, yn − y)|
≤ kxn − xk kyn − yk + kxn − xk kyk + kxk kyn − yk → 0 .
In uno spazio euclideo reale, la norma rappresenta la “lunghezza del vettore” e il prodotto scalare
permette di definire l’angolo φ formato da due vettori x, y (non nulli) mediante la relazione
cos φ =
(x, y)
,
kxkkyk
0 ≤ φ ≤ π,
(spazio reale).
(4.3)
Se φ = π/2 i due vettori si dicono ortogonali. Se lo spazio in questione è complesso, la relazione (4.3)
perde in generale il suo significato geometrico in quanto il prodotto scalare può essere complesso (φ non
è più un angolo, tuttavia rimane valido il concetto di ortogonalità fra vettori. In uno spazio euclideo
(complesso) un sistema di vettori non nulli {xi } si dice ortonormale se
0 per i 6= j
,
(xi , xj ) = δij ,
δij =
1 per i = j
e semplicemente ortogonale se tutti i vettori in questione non hanno norma uguale a 1.
Si verifica facilmente che i vettori ortogonali sono fra loro linearmente indipendenti. Infatti si ha
(basta moltiplicare scalarmente per xi generico)
α1 x1 + α2 x2 + ... + αn xn = 0 =⇒ αi = 0 ,
i = 1, 2, ..., n .
Un sistema (ortogonale) si dice completo se il più piccolo sottospazio (chiuso) di X che contiene lo
spazio generato dal sistema è X stesso. In tal caso il sistema (ortogonale/ortonormale) forma una base
(ortogonale/ortonormale) e ogni elemento di X si può scrivere (in un solo modo) come combinazione
lineare dei vettori di base.
In ogni spazio euclideo X separabile esiste sempre un sistema ortonormale completo e ogni sistema
ortonormale è numerabile (o finito). L’esistena di una base f1 , f2 , ...fn ... deriva direttamente dall’ipotesi
di separabilità. Infatti, se lo spazio è separabile, esiste un sottoinsieme G numerabile ovunque denso
in X. Da questo sottoinsieme basta quindi estrarre un insieme di vettori linearmente indipendenti e
poiché G è denso in X, il sistema estratto sarà completo. A questo punto, usando la ‘procedura di
ortonormalizzazione (vedi sotto) si potrà costruire una base ortonormale.
• Teorema (ortonormalizzazione) – Dato un insieme di vettori f1 , f2 , ..., fn , ... linearmente indipendenti, è possibile
Pn costruire un insieme di vettori ortonormali ϕ1 , ϕ2 , ..., ϕn , ... tali che
1) ϕnP= k=1 ank fk , con ann 6= 0;
n
2) fn = k=1 bnk ϕk , con bnn 6= 0.
• Dimostrazione – La dimostrazione è costruttiva nel senso che permette effettivamente di costruire
l’insieme cercato. Per cominciare si pone
ϕ1 = a11 f1 ,
|a11 | =
1
,
kf1 k
b11 =
1
.
a11
I coefficienti a11 , b11 sono determinati a meno di un fattore di fase. Una volta costruito ϕ1 si costruisce
ϕ2 mediante
ϕ2 =
h2
,
kh2 k
f2 = b21 ϕ1 + h2 .
Il coefficiente b21 si determina imponendo che h2 sia ortogonale a ϕ1 . In tal modo si ha
(ϕ1 , f2 ) − b21 = 0 =⇒ b21 = (ϕ1 , f2 ) ,
h2 = f2 − (ϕ1 , f2 ) ϕ1 .
Ora si procede allo stesso modo e si costruisce ϕ3 , ϕ4 , .... Dati ϕ1 , ϕ2 , ..., ϕn−1 si costruisce ϕn mediante
hn
,
ϕn =
khn k
fn =
n−1
X
bnk ϕk + hn
k=1
e i coefficienti si ricavano imponendo che hn sia ortogonale a tutti i ϕk per k < n. In tal modo si ottiene
bnk = (ϕk , fn ) ,
In conclusione si ha
hn
ϕn =
,
khn k
k = 1, 2, ..., n − 1 .
hn = fn −
X
k = 1n−1 (ϕk , fn )ϕk ,
che permette di ricavare i vettori ortonormali in modo ricorsivo.
4.1
Esempi di spazi euclidei
IR – La retta reale è uno spazio euclideo (reale) di dimensione 1. Il prodotto scalare è banalmente il
prodotto fra numeri reali e la norma coincide con il modulo. La distanza è il modulo della differenza.
IRn – Le n-uple ordinate x ≡ (x1 , x2 , ..., xn ) di numeri reali formano uno spazio euclideo (reale) di
dimensione n con il prodotto scalare dato da (x, y) = x1 y1 +x2 y2 +...+xn yn . Una base ortonormale
è data dai versori
e1 = (1, 0, 0, ..., 0) ,
e2 = (0, 1, 0, ..., 0) ,
...
en = (0, 0, 0, ..., 1) .
ℓ2 – P
Lo spazio i cui elementi sono della forma x ≡ (x1 , x2 , ..., xn , ...) (xk ∈ C)
I P
con la condizione
∞
∞
2
∗
k=1 |xk | < ∞. Questo spazio, munito del prodotto scalare (x, y) =
k=1 xk yk , è uno spazio
euclideo (complesso) infinito-dimensionale. Una base è data dal sistema di infiniti vettori
e1 = (1, 0, 0, ...) ,
e2 = (0, 1, 0, ...) ,
e3 = (0, 0, 1, ...) ,
....
C2 [a, b] – Lo spazio delle funzioni complesse, continue nell’intervallo [a, b] munito del prodotto scalare
Rb
(f, g) = a f ∗ (t)g(t) dt
è uno spazio euclideo complesso infinito-dimensionale. Una base
{ϕn , ψn } per questo spazio è data dalle funzioni trigonometriche
2πn t
2πn t
ϕ0 (t) = 1 ,
ϕn (t) = cos
,
ψn (t) = sin
,
n = 1, 2, 3, ...
b−a
b−a
L’ortogonalità di questo sistema si verifica direttamente, mentre la completezza è una diretta conseguenza del teorema di Weierstrass (La completezza di un sistema in genere è assai difficile da
dimostrare).
♣ Si faccia attenzione a non confondere la completezza del sistema ortonormale con la completezza
dello spazio su cui si lavora. In questo caso infatti il sistema trigonometrico è completo, mentre lo
spazio C2 [a, b] non lo è, in quanto esistono successioni di funzioni continue che convergono a a funzioni
discontinue (si veda la sezione (5.4)),
4.2
Sistemi ortonormali chiusi
♣ Da ora in avanti si assumerà che tutti gli spazi in esame siano separabili.
Dato un vettore x in IRn e una base ortonormale {ek } si ha
x=
n
X
ck ek ,
ck = (ek , x) ,
k=1
dove i coefficienti ck rappresentano le coordinate del vettore rispetto alla base data (se la base è quella
dell’esempio precedente allora ck sono le coordinate cartesiane, che sopra abbiamo indicato con xk ).
Il concetto di “coordinata” si può generalizzare anche al caso in cui lo spazio sia infinito-dimensionale.
Sia infatti X uno spazio euclideo infinito-dimensionale (separabile) e ϕn un sistema ortonormale. Dato
un arbitrario elemento f ∈ X, che chiameremo ancora vettore, definiamo le sue “coordinate” ck , dette in
questo caso coefficienti di Fourier (in senso generalizzato-vedi sezione (5.4)), mediante la relazione
ck = (ϕk , f ) ,
c∗k = (ϕk , f ) = (f, ϕk ) ,
k = 1, 2, 3, ...
e consideriamo la serie formale
∞
X
ck ϕk ,
(serie di Fourier).
(4.4)
k=1
La serie precedente sarà detta serie di Fourier (in senso generalizzato-vedi sezione (5.4), del vettore f
rispetto al sistema {ϕk }. E’ chiaro che tutto questo è sensato se la serie è convergente e se questa converge
al vettore f .
Per prima cosa dimostriamo che effettivamente la serie precedente è convergente per qualunque f ∈ X.
Abbiamo
n
X
ck ϕk ,
kf − Sn k ≥ 0 .
Sn =
k=1
Usando le proprietà della norma e la definizione di ck si ha


n
n
n
X
X
X
cj ϕj ]
ci ϕi ] , [f −
ck ϕk k2 = [f −
0 ≤ kf −
k=1
j=1
i=1
= kf k2 −
= kf k2 −
n
X
k=1
n
X
k=1
c∗k (ϕk , f ) −
|ck |2 .
n
X
k=1
ck (f, ϕk ) +
n
n X
X
c∗i cj (ϕi , ϕj )
i=1 j=1
(4.5)
Dalla disuguaglianza precedente segue (per ogni n)
n
X
k=1
|ck |2 ≤ kf k2 =⇒
∞
X
k=1
|ck |2 ≤ kf k2 ,
(disuguaglianza di Bessel)
e di conseguenza la serie di partenza è convergente (qualunque sia n, la (4.5) è inferiore a kf k2 ). Come si vede, la serie (4.4) converge al vettore f (in norma) quando nell’ultima espressione sopra vale
l’uguaglianza.
Pn
♣ E’ interessante verificare che fra tutti i possibili vettori g = k=1 αk ϕk (dove n e αk sono arbitrari)
costruiti mediante combinazioni lineari delle {ϕk }, quello che dà la migliore approssimazione per f si
ottiene con αk = ck . Infatti, procedendo come sopra si ha
kf − gk2
= kf −
n
X
αk ϕk k2 = kf k2 −
k=1
n
X
= kf k2 −
k=1
|ck |2 +
n
X
k=1
n
X
(αk∗ ck + αk c∗k ) +
k=1
n
X
k=1
|αk |2
|αk − ck |2 .
Questa espressione è chiaramente minima per αk = ck .
Come detto sopra, la serie (4.4) converge al vettore f quando la relazione di Bessel diventa un’uguaglianza, ossia quando il sistema ortonormale è chiuso.
• Definizione (sistema chiuso) – Il sistema ortonormale {ϕk } si dice chiuso se vale la relazione di
Parseval
∞
X
k=1
|ck |2 = kf k2 ,
(uguaglianza di Parseval).
Si è detto precedentemente che in ogni spazio euclideo separabile esiste sempre un sistema ortonormale
(numerabile) completo. Ora dimostriamo che ogni sistema ortonormale completo è anche chiuso e quindi
completezza e chiusura del sistema diventano concetti “equivalenti”.
• Teorema – In ogni spazio euclideo separabile X, ogni sistema ortonormale chiuso {ϕk } è completo e
viceversa.
• Dimostrazione – Sia {ϕk } chiuso. Allora ogni elemento f ∈ X si può sviluppare in serie di Fourier,
ossia si può approssimare, con precisione a piacere, mediante una combinazione di vettori {ϕk }. Questo
significa che lo spazio generato da {ϕk } è denso in X e quindi il sistema è completo per definizione di
completezza.
– Sia {ϕk } completo. Allora ogni elemento f ∈ X si può approssimare, con precisione a piacere, mediante
una combinazione di vettori di base. In particolare, per quanto visto nell’osservazione sopra, fra tutte
le possibili combinazioni che approssimano f , la somma costruita con i coefficienti di Fourier ck è la più
precisa. Questo significa che fissato ε > 0 piccolo a piacere si ha
ε > kf −
n
X
k=1
αk ϕk k ≥ kf −
n
X
k=1
ck ϕk k
(4.6)
e questo implica che la serie di Fourier converge a f e di conseguenza vale la relazione di Parseval. Quindi
il sistema è chiuso.
♣ Questo teorema ci assicura che ogni vettore in uno spazio euclideo separabile e completo ha uno
sviluppo rispetto ad una base ortonormale. Questo sviluppo è unico e i coefficienti sono quelli di
Fourier.
4.3
Teorema di Riesz-Fischer
Siano dati un sistema ortonormale (non necessariamente completo) e una successione di numeri c1 , c2 , c3 ....
Ci si può chiedere sotto quali condizioni questi numeri sono i coefficienti di Fourier di qualche vettore
f ∈P
X rispetto al sistema dato. Come segue dalla disuguaglianza di Bessel, una condizione necessaria è
∞
che k=1 |ck |2 < ∞. Se lo spazio è completo, questa condizione è anche sufficiente.
• Teorema di Riesz-Fischer – Sia {ϕk } un sistema
in uno spazio euclideo X separabile
Portonormale
∞
e completo e {ck } una successione numerica tale che k=1 |ck |2 < ∞. Allora esiste un elemento f ∈ X
per cui
∞
X
ck = (ϕk , f ) ,
k=1
|ck |2 = kf k2 .
• Dimostrazione – Poniamo fn =
n abbastanza grande si ha
kfn+p − fn k2 = k
n+p
X
k=n+1
Pn
ck ϕk k2 =
k=1 ck ϕk .
n+p
X
k=n+1
Questa è una successione fondamentale in quanto, per
|ck |2 < ε .
L’ultima espressione segue dall’ipotesi di convergenza. Inoltre, per l’ipotesi di completezza di X, deve
esistere un vettore f ∈ X tale che
fn → f ,
vale a dire
kf − fn k → 0 .
Ora osserviamo che, per n ≥ k si ha
(ϕk , f ) = (ϕk , fn ) + (ϕk , f − fn ) = ck + (ϕk , f − fn ) .
Passando al limite per n → ∞ e usando la continuità del prodotto scalare si ottiene la prima tesi
(ϕk , f ) = ck .
Per ricavare la seconda basta sviluppare la norma


n
n
n
X
X
X
|ck |2
cj ϕj ] = kf k2 −
ci ϕi ] , [f −
kf − fn k2 = [f −
i=1
j=1
k=1
e passare al limite per n → ∞.
• Teorema – In uno spazio euclideo separabile e completo, un sistema {ϕn } ortonormale è completo se
o solo se l’unico vettore ortogonale a tutti i ϕn è il vettore nullo.
• Dimostrazione – La condizione è necessaria. Infatti se {ϕn } è completo, allora è anche chiuso e per
ogni f vale l’uguaglianza di Parseval. In particolare, se f è ortogonale a tutti i {ϕn }, i suoi coefficienti
di Fourier sono tutti nulli e dunque
X
kf k2 =
|ck |2 = 0 =⇒ f = 0 .
k
La condizione è sufficiente. Infatti, se {ϕn } non è completo si può trovare un elemento g 6= 0 per cui vale
la disuguaglianza di Bessel
X
kgk2 >
|ck |2 ,
ck = (ϕk , g) .
k
D’altra parte, per il teorema di Riesz-Fischer, data la successione ck , esiste un elemento f ∈ X per cui
vale l’uguaglianza
X
kf k2 =
|ck |2 ,
ck = (ϕk , f ) .
k
Confrontando le due relazioni precedenti si ottiene
X
(ϕk , f − g) = 0 ,
kf k2 =
|ck |2 > kgk2 .
k
Dall’ultima uguaglianza segue che f − g è ortogonale a tutti i ϕk , mentre dalla disuguaglianza si ha che
f − g 6= 0 .
5
Spazi di Hilbert
• Definizione – Due spazi euclidei X e X̃ si dicono isomorfi se fra di essi esiste una corrispondenza
biunivoca che ad ogni elemento di x ∈ X associa un elemento x̃ ∈ X̃ che conserva la linearità e il prodotto
scalare, vale a dire
x ↔ x̃ ,
y ↔ ỹ =⇒ x + y ↔ x̃ + ỹ ,
αx ↔ αx̃ ,
(x, y) ↔ (x̃, ỹ) .
♣ Tutti gli spazi euclidei (reali) di dimensione n finita sono isomorfi a IRn . Quindi IRn si può usare come
modello per qualunque spazio euclideo (reale) n-dimensionale. Questo deriva dal fatto che il generico
elemento x dello spazio euclideo X di dimensione n si può sviluppare rispetto ad una base di n vettori
ortonormali. Le componenti (c1 , ..., cn ) di x formano un elemento di IRn (se X è reale, altrimenti di
C
I n ) e quindi ad ogni vettore in X corrisponde un elemento di IRn . Vale anche il viceversa. Questa
corrispondenza biunivoca conserva la linearità e il prodotto scalare.
La stessa cosa non vale per gli spazi euclidei di dimensione infinita. A tale scopo basta ricordare che
lo spazio C2 [a, b] delle funzioni continue in [a, b] con il prodotto scalare
Z b
dt f¯(t)g(t) ,
(f, g) =
a
non è completo (successioni di funzioni continue possono convergere a funzioni discontinue) e quindi
non può essere isomormfo ad uno spazio euclideo completo.
• Definizione – Uno spazio euclideo completo, infinito-dimensionale è detto spazio di Hilbert.
Un esempio importante di spazio di Hilbert separabile è lo spazio ℓ2 i cui elementi sono della forma
x ≡ (x1 , x2 , ..., xn , ...) (xk ∈ C)
I con la condizione
P
P∞
∞
2
∗
k=1 |xk | < ∞, munito del prodotto scalare (x, y) =
k=1 xk yk .
• Teorema – Tutti gli spazi di Hilbert separabili sono isomorfi fra loro.
• Dimostrazione – E’ sufficiente dimostrare che ogni spazio di Hilbert H separabile è isomorfo a ℓ2 .
A tal scopo si consideri un generico vettore f ∈ H, una base ortonormale ϕn e i coefficienti di Fourier
ak = (ϕk , f ). Per la disuguaglianza di Bessel, la successione a ≡ (a1 , a2 , a3 , ...) è un elemento di ℓ2 .
Quindi ad ogni f ∈ H corrisponde un elemento di ℓ2 .
Viceversa, dato un vettore {ak } ∈ ℓ2 , per il teorema di Riesz-Fischer si trova un vettore f ∈ H avente ak
come coefficienti di Fourier. Dunque esiste una corrispondenza biunivoca fra H e ℓ2 .
Usando la continuità del prodotto scalare si verifica facilmente che tale corrispondenza conserva la linearità
e il prodotto scalare e quindi è un isomorfismo fra spazi di Hilbert. Infatti, dati f, g ∈ H e i corrispondenti
a, b ∈ ℓ2 , cioè
f ↔ a ≡ (a1 , a2 , a3 , ...) ,
g ↔ b ≡ (b1 , b2 , b3 , ...) ,
si ha
αf ↔ αa,
(f + g) ↔ (a + b) ,
(f, g) ↔ (a, b) ,
per ogni α ∈ C.
I Le prime due implicazioni si verificano immediatamente, mentre per la terza abbiamo


∞
∞
∞
∞
X
X
X
X
b j ϕj  =
ai ϕi ,
a∗k bk = (a, b) .
(f, g) = 
a∗i bj (ϕi , ϕj ) =
i=1
j=1
i,j=1
k=1
Da questo teorema segue che ogni spazio euclideo infinito-dimensionale, separabile e completo è isomorfo
a ℓ2 , il quale è quindi un modello per qualunque spazio di Hilbert separabile. Un altro modello importante
è dato da L2 , vale a dire dalle funzioni a quadrato sommabile (secondo Lebesgue).
Lo spazio di Hilbert L2 [a, b] è il completamento di C2 [a, b].
5.1
Lo spazio L2
Per i nostri scopi sarà sufficiente considerare funzioni f : IRn → C,
I con la misura solita, ma IRn può
essere sostituito da qualunque spazio misurabile X con misura di Lebesgue µ.
Sia quindi
Z
2
L2 (X, µ) ≡ f : X → C
I
tali che
dµ |f (x)| < ∞ ,
dove x ∈ X, dµ è la misura (di Lebesgue) di X e l’integrale è fatto su tutto X (nelle applicazioni fisiche
X ≡ IRn (o un sottospazio) e dµ ≡ dx = dx1 dx2 · · · dxn ). Si dimostra che lo spazio L2 (X, µ) (brevemente
L2 (X) o L2 ) con il prodotto scalare
Z
(f, g) =
dµ f¯(x)g(x) ,
(5.1)
è uno spazio di Hilbert separabile (euclideo, completo, infinito-dimensionale e separabile).
♣ Queste due ultime affermazioni dipendono dalla misura di Lebesgue definita in X. Ci sono infatti
spazi L2 (X, µ) che non sono separabili e anche casi degeneri di dimensione finita.
Tutte le proprietà del prodotto scalare in (5.1) seguono banalamente dalle proprietà dell’integrale,
dopo essersi accertati che tutti i passaggi formali sono effettivamente leciti. A questo scopo si deve
osservare che, se f, g ∈ L2 e α ∈ C
I allora
f g ∈ L1 ,
αf ∈ L2 ,
f + g ∈ L2 .
(5.2)
Queste proprietà sono una diretta conseguenza di
1
|f (x)|2 + |g(x)|2 ,
2
|αf (x)|2 = |α|2 |f (x)|2 ,
|f (x) + g(x)|2 = |f (x)|2 + 2|f (x)g(x)| + |g(x)|2 ≤ 2 |f (x)|2 + 2 |g(x)2 ] .
|f (x)g(x)| ≤
La prima delle proprietà in (5.2) assicura l’esistenza dell’integrale che definisce il prodotto scalare per
ogni coppia di funzioni appartenenti a L2 .
Dato il prodotto scalare si ha la norma
Z
1/2
kf k ≡ kf k2 =
|f (x)|2 dx
e si dirà che la successione di funzioni fn ∈ L2 converge in media (quadratica) a f ∈ L2 se
Z
1/2
2
kfn − f k =
|fn (x) − f (x)| dx
→ 0.
Questa è la convergenza di f come vettore in uno spazio di Hilbert e non va confusa con la convergenza
puntuale delle funzioni fn (x), che, fissato x è una convergenza in C.
I
♣ Una funzione f a quadrato sommabile in X non è necessariamente integrabile, vale a dire che f ∈
L2 (X) non implica f ∈ L1 (X). Allo stesso modo f ∈ L1 (X) non implica f ∈ L2 (X). A titolo di
esempio si considerino le due funzioni
f1 (x) =
1
,
(x2/3 + 1) x2/3
f2 (x) =
1
,
x2/3 + 1
x ∈ IR .
Come si verifica rapidamente, f1 ∈ L1 (IR, dx) ma f1 ∈
/ L2 (IR, dx) (|f1 |2 non è integrabile nell’origine),
mentre f2 ∈ L2 (IR, dx) ma f2 ∈
/ L1 (IR, dx) (|f2 | non è integrabile all’infinito). Questo si verifica
in uno spazio con misura infinita. Se X ha misura finita, allora L2 (X) ⊂ L1 (X). Infatti, se X ha
misura finita, le costanti appartengono a L2 (anche a L1 ovviamente). Usando la prima delle proprietà
riportate sopra allora si ha che f = 1 · f ∈ L1 (X) per ogni f ∈ L2 .
5.2
Completezza di L1 e L2
L1 (X) è uno spazio di Banach, vale a dire normato e completo, ma non è uno spazio euclideo. In L1
infatti si può definire una norma (anche se X ha misura infinita) mediante
Z
dx |f (x)| ,
kf k1 =
X
ma non un prodotto scalare. Ogni successione di Cauchy converge a un elemento di L1 e quindi lo spazio
è completo.
Dimostriamo ora la completezza di L1 perché servirà in seguito per dimostrare la completezza di L2 ,
che è lo spazio di Hilbert che ci interessa. Consideriamo allora una generica successione fondamentale
fn ∈ L1 e mostriamo che questa converge, nella norma di L1 , sempre ad un elemento di L1 . Poiché {fn }
soddisfa il criterio di convergenza di Cauchy, da essa si può estrarre un sottosuccessione {gk }, anch’essa
fondamentale e tale che
Z
1
kgk+1 − gk k1 =
dx |gk+1 (x) − gk (x)| < k .
2
X
Con gk (x) costruiamo ora la successione di funzioni positive
Gk (x) = |g1 (x)| + |g2 (x) − g1 (x)| + ... + |gk (x) − gk−1 (x)| ,
che per costruzione gode delle proprietà
Z
G1 (x) ≤ G2 (x) ≤ G3 (x) ≤ ...
X
dx Gk (x) <
k−1
X
j=0
1
< 2.
2j
La successione soddisfa tutte le ipotesi del teorema di Levi e questo ci assicura che Gk (x) converge quasi
ovunque ad una funzione G(x) (convergenza puntuale) il cui integrale è il limite degli integrali di Gk (x).
La convergenza e l’integrabilità di Gk (x) implica la convergenza (quasi ovunque) e l’integrabilità di
gk (x) in quanto si ha
|gk (x)| = |g1 (x) + g2 (x) − g1 (x) + ... + gk (x) − gk−1 (x)| ≤ Gk (x) .
Poniamo g(x) = limk→∞ gk (x). Questa è una convergenza puntuale, mentre per la completezza è necessaria la convergenza nella norma di L1 . Questa si ottiene ricordando che gk (x) è una successione
fondamentale in L1 . Questo significa che comunque fissato ε > 0, per i, j abbastanza grandi si ha
Z
kgi (x) − gj (x)k1 =
dx |gi (x) − gj (x)| < ε .
X
Vediamo che fissato i, hj (x) = |gi (x) − gj (x)| è una successione di funzioni che soddisfa tutte le ipotesi
del teorema di Fatou. E’ quindi lecito passare al limite j → ∞ sotto il segno di integrale. Prendendo
questo limite nell’equazione precedente si ricava
Z
dµ |gi (x) − g(x)| < ε =⇒ lim kgk (x) − g(x)k1 = 0 ,
X
k→∞
ottenendo in tal modo che la successione di funzioni gk converge a g anche in norma L1 .
Per completare la dimostrazione si deve verificare che anche la successione originale {fn } converge a
f ∈ L1 . A tale scopo osserviamo che per ogni ε > 0, per n, j abbastanza grandi si ha
kfn − gk k1 < ε ,
kgk − gk1 < ε ,
da cui segue
kfn − gk1 = kfn − gk + gk − gk1 ≤ kfn − gk k1 + kgk − gk1 < 2ε .
Questo significa che la successione originale converge a f = g ∈ L1 e lo spazio è quindi completo.
• Teorema – Lo spazio L2 (X, µ) è completo.
• Dimostrazione – Consideriamo per semplicità il caso in cui la misura di X è finita, vale a dire
µ(X) < ∞. Si deve dimostrare che ogni successione fondamentale {fn } di funzioni in L2 converge ad un
elemento di L2 . In uno spazio di misura finita L2 ⊂ L1 e questo implica che una successione fondamentale
in L2 sia anche fondamentale in L1 . Infatti dalla (4.2) si ottiene
Z
kfn (x) − fm (x)k1 ≡
dx |fn (x) − fm (x)| = (1, |fn − fm |)
X
p
≤ k1k kfn − fm k = µ(X) kfn (x) − fm (x)k < ε µ(X) .
Qui kf k ≡ kf k2 rappresenta la norma in L2 . Per quanto si è visto sopra nel dimostrare la completezza
di L1 , da ogni successione fondamenale {fn } si può estrarre una sottosuccesione fondamentale {gk }
convergente quasi ovunque ad una funzione g(x) ∈ L1 . Poiché {gk } è fondamentale anche in L2 , per ogni
ε > 0 e i, j abbastanza grandi si ha
Z
kgi − gj k2 =
dx |gi (x) − gj (x)|2 < ε2 .
X
Fissato i, la successione di funzioni hj (x) = |gi (x) − gj (x)|2 soddisfa le ipotesi del teorema di Fatou e
quindi si può passare al limite j → ∞ sotto il segno di integrale ottenendo
Z
dx |gi (x) − g(x)|2 < ε =⇒ lim kgi − gk = 0 ,
g(x) ∈ L2 .
i→∞
X
Il fatto che g ∈ L2 è dovuto alla linearità dello spazio. Infatti sappiamo che il vettore gi ∈ L2 e il teorema
di Fatou ci assicura che anche il vettore (g − gi ) ∈ L2 . Quindi anche la loro somma deve appartenere a
L2 .
Come sopra ora verifichiamo che g è anche il limite della successione originale {fn }. Per ogni ε > 0 e
n, k abbastanza grandi abbiamo
kfn − gk = kfn − gk + gk − gk ≤ kfn − gk k + kgk − gk < 2ε ,
da cui segue che fn → f = g ∈ L2 e quindi lo spazio è completo.
♣ La dimostrazione si estende al caso in cui X è un insieme misurabile di misura infinita, usando il
fatto che X è unione numerabile di insiemi disgiunti di misura finita e la σ-additività della misura di
Lebesgue.
5.3
Basi ortonormali in L2
Come segue dalle considerazioni di carattere generale, in L2 (spazio euclideo infinito-dimensionale, separabile e completo)
esiste un sistema ortonormale completo ϕk per cui ogni f ∈ L2 si può scrivere nella
P∞
forma f = k=1 ck ϕk , dove i coefficienti di Fourier {ck } formano un elemento di ℓ2 . Valgono le relazioni
Z
∞
X
|ck |2 ,
ck = (ϕk , f ) .
kf k2 = (f, f ) =
|f (x)|2 dx =
k=1
5.4
Sistema trigonometrico
Si consideri lo spazio delle funzioni a quadrato sommabile nell’intervallo [−π, π]. E’ immediato verificare
che le funzioni trigonometriche
1
ϕ0 = √ ,
2π
ϕn (x) =
cos nx
√
,
π
sin nx
ψn (x) = √
π
(5.3)
appartengono a L2 ([−π, π]) e sono fra loro ortonormali. Inoltre formano un sistema completo come
conseguenza di un teorema di Weierstrass (vedi dimostrazione sotto). Ogni funzione f ∈ L2 ([−π, π]) avrà
quindi uno sviluppo della forma
f = c0 ϕ0 +
∞
X
n=1
cn ϕn +
∞
X
n=1
c̃n ψn =
∞
∞
X
a0 X
bn sin nx ,
an cos nx +
+
2
n=1
n=1
(5.4)
dove i coefficienti di Fourier sono dati da
Z
1 π
an =
f (x) cos nx dx ,
π −π
Z
1 π
bn =
f (x) sin nx dx ,
π −π
n = 0, 1, 2, ...
n = 1, 2, 3, ...
(5.5)
Non si deve dimenticare che la convergenza è in media quadratica. Questo significa che
!2
Z π ∞
∞
X
a0 X
bn sin nx dx → 0 .
an cos nx +
+
f (x) −
2
−π
n=1
n=1
In generale non vale la convergenza puntuale, vale a dire che la serie calcolata in un punto può differire
dal valore della funzione calcolata nello stesso punto.
Anziché [−π, π] si può considerare un intervallo arbitrario [−a, a] di lunghezza 2a. In tal caso per ogni
f ∈ L2 ([−a, a]) si ha (basta fare il cambio di variabile x → πx/a)
f=
5.5
∞
∞
nπx X
nπx
a0 X
an cos
bn sin
+
+
,
2
a
a
n=1
n=1
an
=
bn
=
Z
1 a
nπx
f (x) cos
dx ,
a −a
a
Z
nπx
1 a
f (x) sin
dx ,
a −a
a
n = 0, 1, 2, ...
n = 1, 2, 3, ...
Forma complessa della serie di Fourier
Si ottiene come conseguenza diretta delle formule di Eulero
eix + e−ix
eix − e−ix
,
sin x =
.
2
2i
Usando queste espressioni e ponendo
cos x =
an ∓ ibn
a0
,
α±n =
,
n = 1, 2, 3, ...
2
2
per ogni f ∈ L2 ([−π, π]) si ha
Z π
1
αn =
f (x)e−inx dx ,
n = 0, ±1, ±2, ...
2π −π
∞
X
αn einx .
f =
α0 =
(5.6)
n=−∞
♣ Il sistema {einx } non è normalizzato. Si ha infatti
Z π
imx inx
ei(n−m) dx = 2π δmn .
e ,e
=
−π
Il sistema ortonormale corrispondente a quello in (5.3) è pertanto
einx
ϕn = √ ,
2π
n = 0, ±1, ±2, ...
(5.7)
e la serie di Fourier diventa
f=
∞
X
n=−∞
cn ϕn ,
1
cn = (ϕn , f ) = √
2π
Z
π
−π
f (x)e−inx dx ,
n = 0, ±1, ±2, ...
5.6
Completezza del sistema trigonometrico
La completezza del sistema trigonometrico è una diretta conseguenza di un teorema di Weierstrass, che,
in questo contesto, è una conseguenza del teorema di Fejer che ora dimostreremo.
Consideriamo dapprima una funzione continua di periodo 2π sulla retta reale. Si deve osservare che
la sua serie di Fourier potrebbe divergere in qualche punto. Quindi non basta la continuità per avere la
convergenza delle somme parziali della serie di Fourier. Esistono tuttavia altre maniere di sommare la
serie in modo da avere la convergenza. A tale scopo poniamo
S0 (x) =
a0
,
2
Sn (x) =
n
X
[ak cos kx + bk sin kx]
k=1
e consideramo la media aritmetica (somme di Fejer)
S0 + S1 + S2 + ... + Sn−1
.
n
Introduciamo anche alcune utili funzioni che useremo nella dimostrazione del teorema di Fejer.
σn =
Nucleo di Dirichlet. Questo è definito dalla funzione
"
#
n
1 1 X
sin(n + 1/2)y
cos ky .
=
+
Dn (y) ≡
2π sin(y/2)
π 2
(5.8)
k=1
L’ultima espressione deriva dall’identità trigonometrica
!
n
n 1 X
1
y
1
y 1 X
1
y − sin k −
y
cos ky sin
+
=
sin +
sin k +
2
2
2
2 2
2
2
k=1
k=1
1
y
1
3y
y
1
=
sin + sin
y − sin n −
y
− sin + ... + sin n +
2
2
2
2
2
2
1
1
=
y.
sin n +
2
2
Nucleo di Fejer. Questo è definito mediante la funzione
Φn (y) =
2
n−1
sin ny/2
1 X sin(k + 1/2)y
1
=
.
2πn sin y/2
2πn
sin y/2
(5.9)
k=0
e gode delle proprietà (si verificano direttamente)
Z π
dy Φn (y) = 1 ,
Φn (y) ≥ 0 ,
−π
Z
−δ
dy Φn (y) =
−π
Z
π
dy Φn (y) ,
δ
per ogni n e δ > 0 fissati. Inoltre si ha
Z π
Z −δ
dy Φn (y) = 0 .
dy Φn (y) = lim
lim
n→∞
n→∞
−π
δ
L’uguaglianza trigonometrica in (5.9) si ottiene dall’identità seguente:
2 sin y sin(2k + 1)y
=
2 sin y[cos y sin(2ky) + sin y cos(2ky)]
=
=
sin 2y sin(2ky) + [1 − cos 2y] cos(2ky)
cos 2ky − cos 2(k + 1)y .
(5.10)
Sommando si ha infatti
n−1
X
2 sin y sin(2k + 1)y
=
n−1
X
k=0
k=0
=
=
[cos 2ky − cos 2(k + 1)y]
1 − cos 2y + cos 2y − cos4y + ... + cos(2n − 1)y − cos(2ny)
1 − cos(2ny) = 2 sin2 (ny) .
(5.11)
• Teorema di Fejer – Se f è una funzione periodica e continua, allora la successione {σn } delle somme
di Fejer converge uniformemente a f in ogni punto.
• Dimostrazione – Dalla definizione dei coefficienti si ha
#
Z "
n
1 π 1 X
Sn (x) =
(cos kt cos kx + sin kt sin kx) f (t) dt
+
π −π 2
k=1
#
Z "
n
1 π 1 X
=
cos k(t − x) f (t) dt
+
π −π 2
k=1
Z π
Dn (t − x) f (t) dt .
=
−π
Usando questa espressione nella definizione delle somme di Fejer e la forma del nucleo di Dirichlet si
ottiene
Z π
Z π
n−1
X sin(k + 1/2)z
1
σn (x) =
dz Φn (z) f (x + z) ,
(5.12)
dz
f (x + z) =
2πn −π
sin z/2
−π
k=0
Tenendo conto della continuità e della periodicità di f si ha
|f (x)| ≤ M ,
|f (x) − f (y)| < ε , per |x − y| < 2δ .
Quindi
|f (x) − σn (x)|
Z π
dz [f (x) − f (x + z)] Φn (z)
= −π
Z δ
Z −δ
dz |f (x) − f (x + z)| Φn (z)
dz |f (x) − f (x + z)| Φn (z) +
≤
−δ
−π
Z π
dz |f (x) − f (x + z)| Φn (z)
+
δ
≤ 2M
Z
−δ
−π
dz Φn (z) + ε
Z
δ
dz Φn (z) + 2M
−δ
Z
π
dz Φn (z) .
δ
Come conseguenza delle proprietà di Φ(z), l’espressione precedente si può rendere piccola a piacere
indipendentemente da x ∈ IR e questo implica la convergenza uniforme delle somme di Fejer.
Per dimostrare la completezza del sistema trigonometrico in L2 [−π, π] ora basta osservare che
• La convergenza uniforme implica la convergenza in media quadratica. Infatti, se fissato ε > 0, per
n abbastanza grande si ha |f (x) − fn (x)| < ε, qualunque sia x, allora
kf − fn k2 =
Z
X
|f (x) − fn (x)|2 dx ≤ µ(X) ε2 .
In questo caso particolare X = [−π, π], µ(X) = 2π e fn (x) = σn (x).
• Lo spazio delle funzioni continue in [−π, π] è denso in L2 [−π, π], vale a dire che ogni funzione a quadrato sommabile si può approssimare, con approssimazione arbitraria, mediante funzioni continue.
Nel caso in esame, data un’arbitraria funzione g ∈ L2 [−π, π] e ε > 0, si può trovare una funzione
continua f (x) per cui kg − f k < ε e per l’osservazione precedente kf − σn k < ε per n abbastanza
grande. Si ha allora
kg − σn k = kg − f + f − σn k ≤ kg − f k + kf − σn k < 2ε ,
da cui segue che qualunque funzione g ∈ L2 [−π, π] si può sviluppare usando il sistema trigonometrico
(5.3) o equivalentemente il sistema (5.7). Il sistema trigonometrico (5.3) costituisce dunque un
sistema ortonormale completo (chiuso) in L2 [−π, π].
• Teorema I o di Weierstrass – Ogni funzione continua e periodica è il limite uniforme di una
successione di polinomi trigonometrici.
• Dimostrazione – Il teorema di Fejer dimostrato sopra afferma la stessa cosa e in più fornisce la
successione di polinomi trigonometrici che converge uniformemente alla funzione.
• Teorema II o di Weierstrass – Ogni funzione continua in un intervallo chiuso è il limite uniforme di
una successione di polinomi algebrici.
• Dimostrazione – Poiché la funzione data è continua in un intervallo chiuso, si può estendere ad
una funzione continua e periodica di periodo T . Mediante un cambiamento di variabile il periodo può
trasformare 2π e l’intervalle in [−π, π]. Per il teorema di Fejer la funzione ora si può approssimare
mediante polinomi trigonometrici. A koro volta, questi si possono sviluppare in serie di Taylor che
converge uniformemente in ogni intervallo finito. Mediante la trasformazione inversa si ottiene la tesi del
teorema.
5.7
Polinomi di Legendre
Le funzioni 1, x, x2 , ... permettono di costruire tutti i polinomi e quindi, come conseguenza del II o
teorema di Weierstrass, formano una base per L2 [a, b]. Ortogonalizzando (con il metodo descritto
precedentemente) questa base nell’intervallo [−1, 1] rispetto al prodotto scalare
Z 1
dx f ∗ (x)g(x) ,
(f, g) =
−1
si ottengono i polinomi di Legendre Pn (x), che sono polinomi di grado n per costruzione e, a meno di un
fattore costante, coincidono con i polinomi
Rn (x) = Cn
dn
(x2 − 1)n ,
dxn
dove Cn è un fattore di normalizzazione. Questi sono infatti polinomi di grado n e si verifica direttamente
che sono ortogonali. Quindi sia Pn che Rn appartengono al sottospazio generato da 1, x, ..., xn e sono
ortogonali. Sono quindi proporzionali.
Il fattore di normalizzazione si ricava direttamente e vale
√
2n + 1
√ .
Cn =
n!2n 2
I polinomi di Legendre non sono normalizzati. Sono dati dalla formula di Rogrigues
Pn (x) =
1 dn
(x2 − 1)n .
n!2n dxn
♣ In L2 [a, b] si possono introdurre altre basi polinomiali, rispetto ad una misura diversa da quella usata
sopra, vale a dire che il prodotto scalare è dato da
Z b
dµ f ∗ (x)g(x) ,
dµ = p(x) dx ,
(f, g) =
a
dove la funzione p(x) è una funzione data, sommabile e non negativa (funzione peso).
5.8
Polinomi di Hermite
Volendo usare basi polinomiali in L2 [−∞, ∞] si è costretti ad usare una funzione peso in quanto i polinomi
non sono a quadrato sommabile rispetto alla misura naturale sulla retta, ma lo diventano con la misura
di Lebesgue dµ = exp(−x2 ) dx. Ortogonalizzando 1, x, x2 , ... in L2 [−∞, ∞] rispetto al prodotto scalare
Z ∞
2
dx e−x f ∗ (x)g(x) ,
(f, g) =
−∞
si ottengono i Polinomi di Hermite
2
Hn (x) = (−1)n ex
dn −x2
e
.
dxn
I polinomi di Laguerre si ottengono in modo analogo ortogonalizzando 1, x, x2 , ... in L2 [0, ∞] con il
prodotto scalare
Z ∞
dx e−x f ∗ (x)g(x) .
(f, g) =
0
6
Funzionali lineari continui
• Definizione (funzionale) – Un funzionale è un’applicazione da uno spazio lineare X in C.
I Il funzionale F : X → C
I si dice lineare (anti-lineare) se è additivo e omogeneo, vale a dire se per ogni coppia di
elementi x, y ∈ X e ogni numero complesso α si ha
F (x + y) = F (x) + F (y) ,
F (α x) = α F (x) , lineare ,
( F (α x) = ᾱ F (x) , anti-lineare ) .
♣ Si osservi che come conseguenza dell’omogeneità si ha F (0) = 0. Questo perché
F (0) = F (0 x) = 0 F (x) = 0.
Il prodotto scalare e l’integrale sono esempi importanti di funzionali lineari.
• Definizione (continuità) – Un funzionale lineare F definito in uno spazio topologico si dice continuo
nel punto x0 se, fissato ε > 0, esiste un intorno Ux0 di x0 per cui
∀ x ∈ Ux0 .
|F (x) − F (x0 )| = |F (x − x0 )| < ε ,
• Teorema – Se un funzionale lineare è continuo in un punto allora è continuo in ogni punto.
• Dimostrazione – Il teorema è una diretta conseguenza della linearità. Infatti, sia F un funzionale
lineare continuo nel punto x0 , con intorno Ux0 . La trasformazione (traslazione) x → y = x + y0 − x0
manda il punto x0 con intorno Ux0 ∋ x nel punto y0 con intorno Vy0 ∋ y e per la linearità segue
|F (y) − F (y0 )| = |F (y − y0 )| = |F (x) − F (x0 )| < ε .
Per avere la continuità in X è quindi sufficiente che il funzionale sia continuo in un punto qualunque, ad
esempio nell’origine.
• Teorema – Affinché il funzionale lineare F sia continuo in X è necessario e sufficiente che F sia limitato
in un intorno dell’origine, vale a dire |F (x)| < C per ogni x ∈ U0 .
• Dimostrazione – La condizione è necessaria. Se F è continuo, allora, fissato ε > 0 esiste un intorno
dell’origine U0 per cui
|F (x)| = |F (x − 0)| < ε ,
x ∈ U0
e quindi il funzionale è limitato in un intorno dell’origine.
– La condizione è sufficiente. Se F è limitato in un intorno dell’origine U0 , allora |F (x)| < C. Fissiamo
ε > 0 e un intorno dell’origine V0 ottenuto mediante la trasformazione y = εx/C, per ogni x ∈ U0 . Per
ogni y ∈ V0 otteniamo
|F (y) − F (0)| = |F (y)| = |F (εx/C)| =
ε
|F (x)| < ε ,
C
y ∈ V0 ,
x ∈ U0 .
Vediamo dumque che il funzionale è continuo nell’origine e quindi in tutto X.
• Teorema – In ogni spazio normato, un funzionale lineare è continuo se e soltanto se i suoi valori
all’interno della sfera unitaria sono limitati.
• Dimostrazione – E’ una diretta conseguenza del teorema precedente. Infatti negli spazi normati, ogni
intorno dell’origine contiene una sfera e per la linearità si può considerare la sfera di raggio arbitrario, in
particolare quella unitaria.
• Definizione (norma) – In uno spazio normato si definisce la norma di un funzionale lineare mediante
la relazione
kF k = sup |F (x)| .
(6.1)
kxk=1
Valgono le relazioni
kF k = sup
x6=0
|F (x)|
,
kxk
kF k = sup |F (x)| .
kxk≤1
L’equivalenza fra la prima relazione e la (6.1) segue direttamente dall’omogeneità. Infatti si ha
|F (x)| x = |F (y)| ,
x 6= 0 ,
kyk = 1 .
= F
kxk
kxk Si vede dunque che l’estremo superiore della relazione precedente porta a (6.1). Per mostrare che anche
la seconda è equivalente a (6.1), osserviamo che per ogni x ∈ X con x 6= 0 si ha
|F (x)| ≤ kxk kF k =⇒ |F (x)| ≤ kF k , if kxk < 1 .
Prendendo l’estremo superiore dell’ultima disuguaglianza abbiamo
sup |F (x)| ≤ kF k =⇒
kxk<1
sup |F (x)| = kF k
kxk≤1
e questo implica che |F (x)| raggiunge il suo massimo sulla sfera unitaria (al variare di x con kxk ≤ 1).
Le tre espressioni date per la norma del funzionale lineare sono dunque equivalenti.
♣ Dalle definizioni di norma segue l’utile disuguaglianza
|F (x)| ≤ kxk kF k ,
∀x ∈ X .
Esempi
• Fissato un vettore a ∈ IRn , per ogni x ∈ IRn definiamo il funzionale
F (x) = (a, x) .
Dalle proprietà del prodotto scalare si verifica che questo è un funzionale lineare e inoltre è limitato
(continuo). Infatti si ha
|F (x)| = |(a, x)| ≤ kak · kxk =⇒
|F (x)|
≤ kak .
kxk
Dalla prima disuguaglianza si vede che |F (x)| ≤ kak all’interno della sfera unitaria kxk ≤ 1 e
quindi è continuo. Prendendo l’estremo superiore nell’ultima equazione e osservando inoltre che
F (a) = kak2 , si ottiene
|F (a)|
= kak =⇒ kF k = kak .
kak
kF k ≤ kak ,
• L’integrale
F (g) =
Z
b
dt g(t) ,
a
con g(t) ∈ C[a, b] definisce un funzionale lineare limitato. La norma vale kF k = b − a. Infatti
|F (g)| ≤
Z
a
b
dt |g(t)| ≤ max |g(t)|(b − a) = kgk(b − a) .
t∈[a,b]
Come per l’esercizio precedente il funzionale è limitato all’interno della sfera unitaria e quindi è
continuo. La relazione precedente vale per ogni g ∈ C[a, b]. In particolare, per g costante diventa
un’uguaglianza, da cui segue il risultato cercato.
6.1
Spazio duale
Dati due funzionali lineari F1 , F2 in uno spazio lineare X si definiscono le operazioni di somma F = F1 +F2
e prodotto per un numero complesso G = αF1 mediante
F (x) = F1 (x) + F2 (x) ,
G(x) = α F1 (x) = F1 (αx) ,
∀x ∈ X .
E’ evidente che F e G cosı̀ definiti sono funzionali lineari e, se F1 e F2 sono continui, allora lo sono anche
F, G.
L’insieme dei funzionali lineari (continui) su X con le operazioni definite sopra costituisce uno spazio
lineare, che viene detto spazio duale (o coniugato) di X e si indica con X ∗ (o X ′ ). In particolare, se X è
normato, allora anche X ∗ è normato. Infatti, la norma introdotta sopra gode di tutte le proprietà della
norma. La topologia corrispondente alla norma data viene detta topologia forte.
• Teorema – Lo spazio duale X ∗ di uno spazio normato è completo (nella topologia forte).
• Dimostrazione – Sia {Fn } una successione fondamentale di funzionali lineari (continui) in X ∗ . Allora
si ha
|Fn (x) − Fm (x)| ≤ kFn − Fm k kxk ≤ ε kxk .
Questo significa che per ogni x ∈ X, la successione di numeri complessi {Fn (x)} è fondamentale e quindi
Fn (x) → F (x), poiché C
I è completo. Basta quindi verificare che F (x) definisce un funzionale F lineare
e continuo.
– La linearità si verifica banalmente;
– per dimostrare la continutà basta effettuare il limite m → ∞ nell’espressione sopra. In tal modo si ha
|Fn (x) − F (x)| ≤ ε kxk =⇒ kFn − F k ≤ ε =⇒ kF k ≤ ε + kFn k .
Il funzionale F è quindi limitato (continuo) ed è il limite della successione {Fn }.
♣ Si noti che non è richiesta la completezza di X. Se X non è completo e X̄ è il suo completamento,
allora X ∗ e X̄ ∗ sono isomorfi.
6.2
Base duale
Sia X uno spazio lineare di dimensione n e {ek } una base. Allora ogni vettore x ∈ X e ogni funzionale
lineare F si potranno scrivere nella forma
x=
n
X
xk ek ,
F (x) =
n
X
F (xk ek ) =
xk F (ek ) .
k=1
k=1
k=1
n
X
I valori sui vettori di base defininiscono univocamente il funzionale lineare.
Si definiscano ora i funzionali
hi (ej ) = δij
=⇒ hi (x) =
n
X
hi (xk ek ) = xi ,
i, j = 1, 2, ..., n
k=1
In tal modo si ha
F (x) =
n
X
xk F (ek ) =
k=1
n
X
F (ek ) hk (x) =⇒ F =
k=1
n
X
F (ek )hk
k=1
e quindi i funzionali hk costituiscono una base nello spazio duale. Questa è detta base duale di ek .
• Teorema di Riesz – Sia H uno spazio di Hilbert e F : H → C
I un funzionale lineare continuo. Allora
esiste sempre un unico elemento a ∈ H tale che
F (x) = (a, x) ,
∀x ∈ H ,
kF k = kak .
(6.2)
Vale anche il viceversa, ossia, un arbitrario elemento a ∈ H, definisce univocamente un funzionale lineare
continuo mediante l’equazione (6.2), la quale determina quindi un isomorfismo fra H e H ∗ .
• Dimostrazione – La dimostrazione del teorema è alquanto elaborata. Qui ci limitiamo a dimostrare
soltanto la seconda parte, che è relativamente semplice.
Sia allora a ∈ H un generico vettore. L’equazione (6.2) definisce centamente un funzionale lineare
continuo come diretta conseguenza della linearità e continuità del prodotto scalare. Inoltre, sempre per
le proprietà del prodottto scalare si ha
|F (x)|
|F (x)| = |(a, x)| ≤ kak kxk ,
=⇒ kF k = sup
= kak .
|F (a)| = |(a, a)| = kak2 ,
x6=0 kxk
♣ Questo teorema afferma di fatto che in uno spazio di Hilbert, il prodotto scalare rappresenta il più
generale funzionale lineare continuo.
7
Distribuzioni
Furono introdotte da Dirac (1930) in maniera puramente formale e successivamente trattate in maniera
rigorosa da Sobolev (1936) e Schwartz (1950) e infine da Gelfand che ne completò l’opera.
La necessità di generalizzare il concetto di funzione si incontra nella fisica ad esempio quando si vuole
introdurre la densità (di massa, di carica, ...) per un corpo estremamente piccolo (puntiforme). Infatti,
se ρε (x) è la densità di massa per un corpo omogeneo, sferico di raggio ε e massa unitaria m = 1, allora
si ha
3
Z
per kxk < ε ,
4πε3 ,
dx ρε (x) = 1 ,
ρε (x) =
0,
per kxk > ε ,
IR3
dove x ≡ (x1 , x2 , x3 ) e dx = dx1 dx2 dx3 è la misura di Lebesgue di IR3 . La densità di un punto materiale
di massa unitaria sarà data formalmente da
∞ , per kxk = 0 ,
δ(x) = lim ρε (x) =
(7.1)
0,
per kxk 6= 0 ,
ε→0
e il suo integrale su tutto IR3 dovrà essere uguale a 1 (la massa del corpo). E’ chiaro che questo non ha
significato nell’ambito delle funzioni. Per dare senso all’integrale di δ(x) si deve estendere il concetto di
funzione. Ad esempio, presa un’arbitraria funzione continua ϕ(x), si ha
Z
Z
3 dxρ
(x)ϕ(x)
−
ϕ(0)
dx
[ϕ(x)
−
ϕ(0)]
=
ε
3
4πε3 kxk<ε
IR
Z
3
dx |ϕ(x) − ϕ(0)| ≤ η ,
(7.2)
≤
4πε3 kxk<ε
dove, per la continuità della funzione, si è posto |f (x) − f (0)| ≤ η per kxk < ε. Dalla (7.2) si deduce
Z
lim
dx ρε (x)ϕ(x) = ϕ(0) ,
ε→0 IR3
per ogni funzione continua. La quantità δ introdotta sopra si può quindi vedere come limite di una
successione di funzionali ρε che operano nello spazio delle funzioni continue e dunque δ = limε→0 ρε va
inteso come
(δ, ϕ) = lim (ρε , ϕ) = ϕ(0) ,
ε→0
∀φ ∈ C(IR3 ) .
δ ha un significato matematicamente preciso come funzionale lineare, continuo. Questo è detto funzione
generalizzata o più comunemente distribuzione. Per definire in modo matematicamente rigoroso il limite
dell’integrale della densità ρε si è fatto ricorso all’uso di una funzione test ϕ(x) continua, ma arbitraria.
Le distribuzioni sono dunque funzionali lineari, continui su uno spazio di funzioni test. E’ chiaro che “più
grosso” è lo spazio delle funzioni test e “più piccolo” risulterà lo spazio delle distribuzioni.
♣ L’azione del funzionale F sulla funzione test ϕ si indica cumunemente con la notazione F (ϕ) ≡ (F, ϕ),
che non va confusa con un prodotto scalare (si ricordi che ϕ e F appartengono a spazi differenti).
7.1
Funzioni test
Si usano principalmente due spazi di funzioni test, ossia
• D ≡ {ϕ : IRn → C}
I funzioni continue, indefinitamente derivabili e a supporto compatto, vale a dire
ϕ(x) ∈ C ∞ (IRn ) e ϕ(x) = 0 per kxk > Rϕ ;
• S ≡ {ϕ : IRn → C}
I funzioni continue, indefinitamente derivabili e a decrescenza rapida, vale a
dire che ϕ(x), come pure tutte le sue derivate, si annulla all’infinito più rapidamente di qualunque
potenza.
Le proprietà delle distribuzioni dipendono dallo spazio a cui appartengono le funzioni test, in quanto,
essendo funzionali lineari, vivono nello spazio duale D′ o S ′ . Le prime, agenti sullo spazio D, si dicono
distribuzioni di Schwartz, mentre le seconde, agenti sullo spazio S, si dicono distribuzioni temperate.
♣ Ogni funzione indefinitamente derivabile e a supporto compatto appartiene banalmente anche a S
e quindi D ⊂ S (lo spazio S è “più grosso” di D). Questo implica che S ′ ⊂ D′ e quindi tutte le
distribuzioni temperate sono anche distribuzioni di Schwartz (lo spazio S ′ è più “piccolo” di D′ ).
Si dimostra che D è denso in S. Questo significa che ogni funzione C ∞ e a decrescenza rapida si può
approssimare, con precisione a piacere, mediante funzioni C ∞ e a supporto compatto.
Notazioni. – Per semplificare la scrittura, conviene introdurre le seguenti notazioni:
" n
#1/2
X
n
2
x ≡ (x1 , x2 , ..., xn ) ∈ IR ,
kxk =
xk
,
k=1
α ≡ (α1 , α2 , ..., αn ) ∈ INn ,
αn
1 α2
xα = xα
1 x2 ... xn ,
|α| = α1 + α2 + ... + αn ,
Dα ϕ(x) =
∂ α1 +α2 +...+αn
ϕ(x1 , x2 , ..., xn )
∂xα11 ∂xα22 ... ∂xαnn
dove IN è l’insieme dei numeri naturali compreso lo zero e α è un multi-indice (ogni αk è intero o nullo).
7.2
Lo spazio D
E’ costituito dalle funzioni ϕ : IRn → C,
I C ∞ e a supporto compatto. Questo significa che ogni funzione
in D si annulla all’esterno di una sfera di raggio Rϕ ,
ϕ(x) = 0 ,
∀x : kxk > Rϕ .
La topologia dello spazio D è alquanto restrittiva.
• Definizione (convergenza di funzioni test) – Si dirà che la successione {ϕk } ∈ D converge a ϕ ∈ D
se esiste U che contiene il supporto di ϕ e tutti i supporti di ϕk e Dα ϕk (x) → Dα ϕ(x), per ogni x ∈ U e
ogni α ∈ INn
• Teorema – Dato un operatore A : D → X (X spazio topologico) le affermazioni seguenti sono
equivalenti: A è continuo; A è limitato; Aϕk → 0, ∀ϕk : ϕk → 0.
Esempi
• Le funzioni (“campane”)
ωε (x) =
(
1
Nε
0,
ε2
,
exp − ε2 −kxk
2
per kxk < ε ,
per kxk ≥ ε ,
(7.3)
sono elementi di D qualunque sia ε. Nε è una costante di normalizzazione inessenziale per i nostri
scopi.
• Ogni operatore differenziale della forma
P (x, ∂x ) ≡
X
aα (x) Dα ,
|α|≤p
è continuo e quindi limitato.
aα (x) ∈ C ∞ ,
p ≥ 0,
7.3
Lo spazio S
E’ costituito dalle funzioni ϕ : IRn → C,
I C ∞ e a decrescenza rapida, più precisamente tali che
h
i
∀p ∈ IN , α ∈ INn .
σp,α (ϕ) ≡ sup (1 + kxk2 )p/2 |Dα ϕ(x)| < ∞ ,
n
x∈IR
Le quantità σp,α (ϕ) o equivalentemente le quantità
h
i
σp (ϕ) = sup σp,α (ϕ) = sup sup (1 + kxk2 )p/2 |Dα ϕ(x)| ,
|α|≤p
|α|≤p x∈IRn
costituiscono una famiglia di seminorme (possono annullarsi anche se ϕ 6= 0) con la proprietà
σ0 (ϕ) ≤ σ1 (ϕ) ≤ σ2 (ϕ) ≤ ... ,
∀ϕ ∈ S(IRn ) .
Mediante questa famiglia di seminorme si definisce la topokogia di S.
• Definizione (convergenza di funzioni test) – Si dirà che una successione di funzioni test {ϕk ∈ S}
converge a 0 se e solo se σp,α (ϕk ) → 0 uniformemente per ogni p ∈ N e ogni α ∈ N n .
• Definizione – L’operatore A : S → X (X è uno spazio lineare topologico), si dirà continuo se per ogni
ϕk → 0 si ha Aϕk → 0.
Esempi
• E’ immediato verificare che le funzioni di Hermite
√
2
ϕn (x) = (2n n! π)−1/2 Hn (x) e−x /2 ,
2
Hn (x) = (−1)n ex
dn −x2
e
,
dxn
appartengono a S(IR).
• L’operatore Dα : S → S è continuo ∀α ∈ INn .
♣ Si dimostra che S(IRn ) è denso in Lp (IRn ) e in particolare in L2 (IRn ). Ciò significa che ogni funzione
a quadrato sommabile si può approssimare mediante funzioni di S.
7.4
Distribuzioni di Schwartz
Sono funzionali lineari e continui f : D → C.
I Le distribuzioni di Schwartz sono dunque elementi dello
spazio duale D′ (o D∗ ).
Per ogni f ∈ D′ , ϕ, ϕn , ψ ∈ D e α, β ∈ C
I si ha
• (f, ϕ) ∈ C;
I
• (f, αϕ + βψ) = α(f, ϕ) + β(f, ψ), (linearità);
• (f, ϕn ) → (f, ϕ), (continuità).
Per quanto detto precedentemente riguardo agli spazi duali, D′ è uno spazio lineare, vale a dire
(αf + βg, ϕ) = α(f, ϕ) + β(g, ϕ) ,
f, g ∈ D′ ,
ϕ ∈ D,
α, β ∈ C
I.
• Definizione (convergenza di distribuzioni) – Si dice che {fn } ∈ D′ converge debolmente a f ∈ D′
se per ogni ϕ ∈ D si ha
(fn , ϕ) → (f, ϕ) .
• Teorema – D′ è uno spazio completo (nella topologia debole). Questo significa che se (fn , ϕ) → cϕ ,
allora esiste f per cui cϕ = (f, ϕ). In effetti, dato il numero complesso cϕ , il funzionale f definito dalla
seguente equazione:
(f, ϕ) = cϕ
è lineare e continuo e quindi è una distribuzione di Schwartz. Infatti, usando la linearità di fn si ha
(fn , ϕ + ψ) → cϕ+ψ ≡ (f, ϕ + ψ) ,
(fn , ϕ) → cϕ ,
=⇒
(fn , ϕ + ψ) → cϕ + cψ ≡ (f, ϕ) + (f, ψ) ,
(fn , ψ) → cψ ,
(fn , αϕ) → cαϕ ≡ (f, αϕ) ,
(fn , αϕ) → α cϕ ≡ α(f, ϕ) ,
e il funzionale è dunque lineare. Supponendo ϕk → ϕ in D, usando la continuità di fn e facendo i limiti
n, k → ∞ si ottiene
(fn , ϕk ) → (fn , ϕ) → (f, ϕ) ,
(fn , ϕk ) → (f, ϕk ) .
Questo significa che fissato ε > 0 esistono n, k abbastanza grandi per cui
|(f, ϕk ) − (fn , ϕk )| < ε ,
|(f, ϕ) − (fn , ϕk )| < ε ,
da cui segue
|(f, ϕ) − (f, ϕk )|
= |(f, ϕ) − (fn , ϕk ) + (fn , ϕk ) − (f, ϕk )|
≤
|(f, ϕ) − (fn , ϕk )| + |(fn , ϕk ) − (f, ϕk )| < 2ε
e quindi il funzionale è anche continuo.
• Definizione (supporto di una distribuzione) – Si indichi con D(G) l’insieme delle funzioni test
con supporto in G Tutte queste funzioni sono nulle nel complementare di G (IRn − G).
Se (f, ϕ) = 0 per ogni ϕ ∈ D(G) allora f ≡ 0 per ogni x ∈ G e si dirà che f ha supporto nel
complementare di G.
Si dirà inoltre che f = g in G, se (f − g, ϕ) = 0 per ogni ϕ ∈ D(G).
7.5
Distribuzioni regolari
Sono quelle che si possono rappresentare mediante funzioni localmente sommabili. Quindi se f è regolare,
allora esiste f (x) : IRn → IRn (o definita su qualche sottospazio di IRn ), tale che, per ogni G ⊂ IRn
Z
Z
dx |f (x)| < ∞ =⇒ (f, ϕ) =
dx f (x) ϕ(x) .
G
IRn
L’ultima espressione definisce un funzionale lineare e continuo. La continuità deriva da
Z
Z
|(f, ϕn − ϕ)| = dx f (x) [ϕn (x) − ϕ(x)] ≤ max |ϕn (x) − ϕ(x)|
dx |f (x)| → 0 ,
x∈U
U
U
dove U è l’insieme che contiene il supporto di ϕ e tutti i supporti delle ϕk .
• Definizione (distribuzioni singolari) – Sono tutte quelle non rappresentabili mediante funzioni localmente sommabili. Tutte le proprietà valide per le distribuzioni regolari saranno estese per definizione
anche a quelle singolari (vedi più avanti).
Esempi
• Un esempio classico di distribuzione singolare è dato dalla δ di Dirac, definita mediante
(δ, ϕ) = ϕ(0) ,
supp δ ≡ {0} .
E’ evidente dalla definizione che il supporto di tale distribuzione è dato dall’origine. Infatti il valore
del funzionale è nullo se calcolato su qualunque funzione test il cui supporto non contenga l’origine.
Si dimostra per assurdo che questa deve essere una distribuzione singolare. Infatti se fosse rappresentabile mediante una funzione localmente integrabile, questa dovrebbe avere supporto nell’origine.
Sarebbe quindi una funzione nulla quasi ovunque.
Si osservi che il limite di una distribuzione regolare può essere una distribuzione singolare, come si
è visto nell’esempio iniziale (7.1).
Un altro esempio di successione di distribuzioni regolari convergente a δ è dato dalle funzioni a
campana ωε in (7.3) (normalizzate). Infatti si ha
Z
Z ε
dx ωε (x) ϕ(x) − ϕ(0) ≤
dx ωε (x) |ϕ(x) − ϕ(0)| ≤ sup |ϕ(x) − ϕ(0)| → 0 .
x∈[−ε,ε]
IR
−ε
Quindi
(ωε , ϕ) → ϕ(0) =⇒ ωε (x) → δ(x) .
Questo appena visto è un caso particolare di un teorema che verrà dimostrato più avanti (vedi 12.1).
• Un altro importante esempio di distribuzione singolare è dato dalla parte principale di 1/x in D′ (IR).
Questa si indica con P(1/x) ed è definita nel seguente modo:
P
1
, ϕ(x)
x
Z −ε
Z ∞
Z ∞
ϕ(x)
ϕ(x)
ϕ(x)
dx
dx
dx
≡ v.p.
≡ lim
+
ε→0+
x
x
x
−∞
ε
−∞
Z ∞
ϕ(x) − ϕ(0)
.
dx
=
x
−∞
• Importanti per la fisica sono le due distribuzioni 1/(x ± i0) in D′ (IR) definite mediante
Z ∞
1
ϕ(x)
dx
, ϕ(x) ≡ lim
.
ε→0+ −∞
x ± i0
x ± iε
Valgono le formule di Sokhotski:
1
1
= P ∓ iπδ(x) .
x ± i0
x
La dimostrazione si ricava direttamente dalla definizione. Infatti per qualunque funzione test con
supporto in (−R, R) si ha
Z
∞
−∞
dx
ϕ(x)
x + iε
=
Z
R
−R
R
=
Z
−R
R
=
Z
−R
dx
ϕ(x)
=
x + iε
R
ϕ(x) − ϕ(0)
+ ϕ(0)
x + iε
−R
Z R
ϕ(x) − ϕ(0)
dx
dx
+ −2iε ϕ(0)
2 + ε2
x + iε
x
0
dx
Z
dx
Z
R
dx
−R
x − iε
x2 + ε2
ϕ(x) − ϕ(0)
R
− 2i ϕ(0) arctan
.
x + iε
ε
Prendendo il limite per ε → 0+ si ottiene il risultato cercato, vale a dire
7.6
Z R
ϕ(x) − ϕ(0)
1
1
dx
, ϕ(x) =
− iπ ϕ(0) = P − iπδ, ϕ(x) .
x ± i0
x
x
−R
Prodotto di una distribuzione per una funzione C ∞
Una distribuzione qualsiasi f ∈ D′ (IRn ) può essere moltiplicata per un’arbitraria funzione
y(x) ∈ C ∞ (IRn ). Con queste ipotesi, y(x)ϕ(x) è una funzione test (se lo è ϕ(x)) e quindi si può definire
(y f, ϕ) ≡ (f, y ϕ) ,
che è certamente vera per ogni distribuzione regolare. Per definizione si estende a tutte le distribuzioni.
Esempi
Data una funzione y(x) ∈ C ∞ (IR) si ha
(y(x)δ(x), ϕ(x)) = (δ(x), y(x)ϕ(x)) = y(0)ϕ(0) = (y(0)δ(x), ϕ(x)) ,
da cui segue che y(x)δ(x) = y(0)δ(x). In modo del tutto analogo si verifica che x P(1/x) = 1. Quindi
y(x)δ(x) = y(0)δ(x) ,
xδ(x) = 0 ,
xP
1
= 1.
x
♣ E’ immediato verificare che in generale non è possibile definire un prodotto fra distribuzioni, che sia
commutativo e associativo. Infatti, se esistesse un tale prodotto, per assurdo si avrebbe
1
1
1
= δ(x) .
0=0P
= [x δ(x)] P
= δ(x) x P
x
x
x
7.7
Cambiamento di variabile
Sia f una distribuzione regolare in D(IRn ). Allora, per ogni matrice A di ordine n, invertibile e ogni
vettore b ∈ IRn si ha
Z
Z
1
dx
f
(Ax
+
b)
ϕ(x)
=
dy f (y) ϕ(A−1 (y − b)) .
| det A| IRn
IRn
Più in generale, data una funzione y(x) ∈ C ∞ (IRn ) si ha
Z
Z
dx f (y(x)) ϕ(x) =
dy J(y) f (y) ϕ(x(y)) ,
IRn
IRn
dove J(y) è lo Jacobiano della trasformazione.
Per ogni distribuzione regolare valgono allora le relazioni
(f (Ax + b), ϕ(x)) =
∂x J(y) = ,
∂y
(7.4)
1
f (x), ϕ(A−1 (x − b) ,
| det A|
(f (y(x)), ϕ(x)) = (f (y), J(y)ϕ(x(y))) ,
e per definizione queste regole si estendono a qualunque distribuzione.
Esempi
Si consideri la distribuzione δ in D′ (IR).
1
ϕ(−b/a)
x−b
(δ(ax + b), ϕ(x)) =
δ(x), ϕ
=
|a|
a
|a|
(δ(y(x)), ϕ(x)) =
ϕ(x(y))
δ(y),
|y ′ |
=
=⇒ δ(ax + b) =
δ(x + b/a)
.
|a|
X ϕ(xk )
,
|y ′ (xk )|
k
dove y(xk ) = 0 e la somma è fatta su tutti gli zeri (semplici) della funzione. In tal modo si ha
δ(y(k)) =
X δ(x − xk )
.
|y ′ (xk )|
k
Come esempio esplicito si consideri la distribuzione δ(x2 − 1). In questo caso y(x) = x2 − 1 e y ′ (x) = 2x.
L’equazione y(x) = 0 ha due soluzioni x± = ±1 e pertanto
δ(x2 − 1) =
δ(x − x+ ) δ(x − x− )
1
+
= [δ(x − 1) + δ(x + 1)] .
|y ′ (x+ )|
|y ′ (x− )|
2
7.8
Derivazione
Sia data una funzione f (x) ∈ C p (IR) con p ≥ 1. Questa è localmente sommabile e quindi definisce una
distribuzione regolare. Allora, per ogni funzione test si ha
Z ∞
Z ∞
dx f (x) ϕ′ (x) .
dx f ′ (x) ϕ(x) = −
(f ′ , ϕ) =
−∞
−∞
Più in generale, per ogni k ≤ p si ottiene
Z
Z ∞
dx f (k) (x) ϕ(x) = (−1)k
(f (k) , ϕ) =
∞
dx f (x) ϕ(k) (x) .
−∞
−∞
Per una funzione f (x) ∈ C p (IRn ) con p ≥ 1 si ottiene un risultato simile, vale a dire
Z ∞
Z ∞
n
X
αk ≤ p .
dx f (x) Dα ϕ(x) ,
|α| =
dx Dα f (x) ϕ(x) = (−1)|α|
(Dα f, ϕ) =
−∞
−∞
k=1
Quest’ultima espressione si usa come definizione di derivata di una distribuzione qualunque, quindi, per
ogni f ∈ D′ (IRn ) si definisce
(Dα f, ϕ) ≡ (−1)|α| (f, Dα ϕ) .
Si verifica direttamente che Dα f cosı̀ definito è un funzionale lineare e continuo, ossia una distribuzione in
D′ (IRn ). Dalle proprietà delle funzioni test segue che le distribuzioni hanno derivate di ordine qualunque.
Valgono inoltre le proprietà seguenti, che si dimostrano applicando direttamente la definizione:
• Dα Dβ f = Dβ Dα f = Dα+β f ,
(α, β ∈ INn );
• ∂k [y(x)f ] = f ∂k y(x) + y(x)∂k f ,
• Dα fk → Dα f ,
(y(x) ∈ C ∞ );
(α ∈ INn , fk → f );
• supp Dα f ⊂ supp f .
P∞
• Ogni serie f = k=1 uk (x) di funzioni localmente sommabili e uniformemente convergente
su ogni
P∞
compatto di IRn , in D′ (IRn ) si può differenziare quanto si vuole e si ha Dα f = k=1 Dα uk (x).
Quest’ultima proprietà deriva dallePproprietà della derivata e dalla continuità delle distribuzioni.
N
Per le ipotesi fatte, posto fN (x) = k=1 uk (x) si ha
Z
Z
Z
dx
f
(x)ϕ(x)
=
lim
dx
lim
f
(x)ϕ(x)
=
dx f (x)ϕ(x) ,
N
N
N →∞ IRn
N →∞
IRn
IRn
qualunque sia ϕ(x) ∈ D(IRn ). Allora
lim (Dα fN , ϕ) = lim (−1)|α| (fN , Dα ϕ) = (−1)|α| (f, Dα ϕ) = (Dα f, ϕ) .
N →∞
7.9
N →∞
Prodotto diretto
Date due funzioni localmente integrabili f (x) : IRn → C
I e g(y) : IRm → C,
I la funzione f (x)g(y) è
n+m
localmente integrabile in IR
e quindi definisce una distribuzione regolare in D′ (IRn+m ). Usando il
teorema di Fubini, per ogni ϕ(x, y) ∈ D(IRn+m ) si ha
Z
(f · g, ϕ) =
dx dy f (x)g(y)ϕ(x, y)
n+m
IR
Z
Z
=
dx
f
(x)
dy g(y)ϕ(x, y) = (f, (g, ϕ))
n
m
ZIR
ZIR
=
dy g(y)
dx f (x)ϕ(x, y) = (g, (f, ϕ)) .
IRm
IRn
Per ogni coppia di distribuzioni f, g si definisce il prodotto diretto mediante
(f · g, ϕ) = (f, (g, ϕ)) = (g, (f, ϕ)) .
E’ immediato verificare che f · g ∈ D′ (IRn+m ), ossia è un funzionale lineare e continuo. Inoltre gode delle
seguenti proprietà:
• f ·g =g·f,
(proprietà commutativa);
• f ·g·h = g·h·f = h·f ·g,
• Dxα f · g = [Dxα f ] · g ,
(proprietà associativa – h(z) ∈ IRp );
(α ∈ INn );
• α(x) f · g = [α(x)f ] · g ,
(α(x) ∈ C ∞ );
R
• (f (x) · 1, ϕ) = IRm dy (f (x), ϕ(x, y)).
7.10
Prodotto di convoluzione
Siano f (x) e g(x) due funzioni localmente sommabili su IRn e sia inoltre
Z
Z
dy |f (y)g(x − y)|
dy
|g(y)f
(x
−
y)|
=
h(x) =
IRn
IRn
anch’essa una funzione sommabile in IRn . Allora si definisce prodotto di convoluzione la funzione
Z
Z
[f ∗ g](x) =
dy g(y)f (x − y) =
dy f (y)g(x − y) = [g ∗ f ](x).
IRn
IRn
Se f e g si pensano come distribuzioni in D′ (IRn ), per ogni ϕ ∈ D(IRn ) si ottiene
Z
Z
Z
(f ∗ g, ϕ) =
dξ
[f
∗
g](ξ)ϕ(ξ)
=
dξ
ϕ(ξ)
dy g(y)f (ξ − y)
n
n
n
IR
IR
IR
Z
Z
Z
=
dy
g(y)
dξ
ϕ(ξ)f
(ξ
−
y)
=
dx dy f (x)g(y)ϕ(x + y)
IRn
IRn
IR2n
= (f · g, ϕ(x + y)) .
(7.5)
Si osservi che l’uguaglianza precedente non si può usare per definire il prodotto di convoluzione fra due
distribuzioni qualsiasi, in quanto ϕ ∈ D(IRn ), ma in generale non appartiene a D(IR2n ), perché non ha
supporto compatto in IR2n .
Per estendere la definizione di prodotto di convoluzione, si fa uso di una successione di funzioni test
ηk (x) convergente a 1 in IRn . Per definizione si dice che una successione di unzioi test ηk converge a 1 in
IRn se, fissata una sfera (palla) di raggio arbitrario UR ≡ {x : kxk ≤ R}, esiste K per cui si ha
ηk (x) = 1 ,
∀k > K ,
∀x ∈ UR .
Quindi, per k abbastanza grande ηk è costante all’interno di qualunque regione fissata e questo implica
anche tutte che le sue derivate si annullano in tale regione. Si richiede inoltre che ηk (x) e tutte le sue
derivate siano uniformemente limitate in tutto IRn , cioè
|Dα ηk (x)| < Cα ,
∀x ∈ IRn ,
∀α ∈ INn .
Si faccia attenzione al fatto che questa appena definita non è la convergenza in D(IRn ) (1 ∈
/ D(IRn )).
Ora osseviamo che la (7.5) si può scrivere nella forma
(f ∗ g, ϕ) = lim (f · g, ηk (x, y)ϕ(x + y)) ,
k→∞
lim ηk (x, y) = 1 ,
k→∞
(7.6)
dove ηk (x, y) è una qualunque funzione test convergente a 1 in IR2n . Poiché ηk (x, y)ϕ(x + y) ∈ D(IR2n ),
l’espressione precedente esiste per qualunque coppia di distribuzioni se k è finito. Quando il limite esiste,
il prodotto di convoluzione fra due distribuzioni qualunque si definisce mediante l’equazione (7.6). Si
verifica che se il limite esiste non dipende dalla scelta di ηk .
Se f ∗ g esiste, allora valgono le proprietà seguenti
• f ∗ g = g ∗ f . Deriva banalmente dal fatto che il prodotto diretto è commutativo.
• [Dα f ] ∗ g = Dα [f ∗ g] = f ∗ [Dα g].
Per la dimostrazione di questa utile proprietà basta osservare che per k abbastanza grande, le
derivate di ηk (x, y) sono nulle nel supporto di ϕ(x), dove ηk (x, y) = 1. Qualunque sia y si ha quindi
∂xj [ηk (x, y)ϕ(x + y)] = ηk (x, y) ∂xj ϕ(x + y)
k >K.
Qui y è visto come un parametro fissato. Ovviamente quando si deriva rispetto a qualche componente y j di y, allora x diventa un parametro dato. Derivando la distribuzione rispetto a xj
abbiamo
= −(f ∗ g, ∂xj ϕ) = − lim (f (x) · g(y), ηk (x, y)∂xj ϕ(x + y))
(∂xj [f ∗ g], ϕ)
k→∞
= − lim (f (x) · g(y), ∂xj [ηk (x, y)ϕ(x + y)])
k→∞
=
lim (∂xj f (x) · g(y), ηk (x, y)ϕ(x + y)) = ([∂xj f ] ∗ g, ϕ) .
k→∞
Si noti tuttavia che l’esistenza di [Dα f ] ∗ g non garantisce quella di f ∗ [Dα g]. Infatti, procedendo
formalmente si arriva alla seguente contraddizione:
ϑ′ ∗ 1 = δ ∗ 1 = 1 6= ϑ ∗ 1′ = ϑ ∗ 0 = 0 .
Questo succede perchè ϑ ∗ 1 non esiste!
• Se fj → f e gj → g allora
fj ∗ g → f ∗ g ,
f ∗ gj → f ∗ g .
La dimostrazione segue direttamente dalla definizione di prodotto.
7.11
Condizioni sufficienti per l’esistenza del prodotto di convoluzione
Qui deriviamo alcune condizioni che ci assicurano l’esistenza del prodotto di convoluzione e ci forniscono
anche il modo per calcolarlo.
• f e g sono distribuzioni regolari e una delle due (diciamo g) ha supporto compatto contenuto nella
sfera Ur di raggio r. Allora, per ogni R si ha
Z
Z
Z
dx h(x) =
dx
dy |g(y)f (x − y)|
UR
UR
Ur
Z
Z
Z
Z
=
dy |g(y)|
dx |f (x − y)| =
dy |g(y)|
dz |f (z)| < ∞ .
Ur
UR
Ur
UR+r
La funzione h(x) è localmente sommabile e dunque il prodotto di convoluzione delle due distribuzioni
esiste ed è dato direttamente dalla (7.5).
• f e g sono funzioni con supporto entrambe in IR+ , contenuto nell’intervallo [0, R]. In tal caso si ha
Z
R
dx h(x) =
Z
R
dx
0
0
−R
=
Z
0
Z
R
x
dy |g(y)f (x − y)|
dy |g(y)|
Z
y
R
dz |f (z)| ≤
Z
0
R
dy |g(y)|
Z
0
R
dz |f (z)| < ∞ .
Anche in questo caso h(x) è localmente sommabile e quindi il prodotto di convoluzione è dato dalla
(7.5).
• f e g sono funzioni sommabili in IRn . Allora banalmente segue
Z
Z
Z
Z
Z
dx
h(x)
=
dx
dy
|g(y)f
(x
−
y)|
=
dy
|g(y)
dz |f (z)| < ∞ .
IRn
IRn
IRn
IRn
IRn
Anche in questo caso il prodotto di convoluzione è dato dalla (7.5).
• f è una distribuzione qualsiasi e g è una distribuzione con supporto compatto. In tal caso il prodotto
di convoluzione è dato da
(f ∗ g, ϕ) = (f (x) · g(y), η(y)ϕ(x + y)) ,
η(y)g(y) = g(y) ,
dove η è una qualunque funzione test che vale 1 nel supporto di g. Per la dimostrazione basta
osservare che
(f ∗ g, ϕ)
=
=
(f ∗ gη, ϕ) = lim (f (x) · g(y)η(y), ηk (x, y)ϕ(x + y))
k→∞
lim (f (x) · g(y), η(y)ηk (x, y)ϕ(x + y)) = (f (x) · g(y), η(y))ϕ(x + y)) .
k→∞
L’ultimo passaggio al limite è lecito in quanto η(y)ϕ(x + y) ∈ D(IR2n ).
• f qualunque e ψ ∈ D(IRn ). In questo caso
(f ∗ ψ)(x) = (f (y), ψ(x − y)) ∈ C ∞ (IRn ) ,
è una distribuzione regolare. Il prodotto esiste perché ψ ha supporto compatto. Allora
(f ∗ ψ, ϕ)
=
Z
dy ψ(y)ϕ(x + y)
(f (x), (ψ(y), η(y)ϕ(x + y))) = f (x),
IRn
Z
Z
=
f (x),
dz ψ(z − x)ϕ(z) =
dzϕ(z) (f (x), ψ(z − x)) .
IRn
IRn
Esempi
• La δ di Dirac è l’unità rispetto al prodotto di convoluzione, cioè δ ∗ f = f ∗ δ = f . Questo deriva
direttamente dall’espressione del prodotto di convoluzione per distribuzioni con supporto compatto.
Sia infatti η(x) una funzione test con η(0) = 1. Allora
(f ∗ δ, ϕ) = (f (x) · δ(y), η(y)ϕ(x + y)) = (f (x), (δ(y), η(y)ϕ(x + y))) = (f, ϕ) .
7.12
Regolarizzazione
Sia ωε (x) una funzione test tale che limε→0 ωε (x) = δ(x) e f ∈ D′ (IRn ) una qualunque distribuzione.
Allora, per quanto visto sopra si ha
fε (x) ≡ (f ∗ ωε )(x) = (f (y), ωε (x − y)) ∈ C ∞ (IRn ) .
La distribuzione fε si dice distribuzione regolarizzata (regolarizzazione di f ).
• Teorema – Ogni distribuzione è il limite di funzioni test in D(IRn ), ossia D è denso in D′ .
• Dimostrazione – Sia ηε (x) → 1 nella sfera U1/ε di raggio 1/ε. Allora si ha
(ηε fε , ϕ) = (fε , ηε ϕ) = (fε , ϕ) → (f, ϕ) .
Poiché ηε fε ∈ D ne segue il teorema.
7.13
Distribuzioni temperate
Sono tutti i funzionali lineari e continui f : S → C.
I Le distribuzioni temperate sono dunque elementi
dello spazio duale S ′ . Dal fatto che D ⊂ S segue che S ′ ⊂ D′ . Ciò significa che tutte le distribuzioni
temperate sono anche distribuzioni di Schwartz, ma non è vero il viceversa. La ragione per cui conviene
“restringere” lo spazio delle distribuzioni è dovuta al fatto che in S ′ è possibile definire la trasformata di
Fourier e questa è ancora un elemento di S ′ . Questo in generale non vero in D′ .
Tutto quanto si è definito fin qui per le distribuzioni di Schwartz vale senza limitazioni anche per le
distribuzioni temperate.
• Teorema di Schwartz – Un funzionale lineare f : S → C
I appartiene a S ′ se e solo se per ogni
funzione test ϕ ∈ S esiste una costante C > 0 e un intero p ≥ 0 per cui
|(f, ϕ)| ≤ C σp (ϕ) ,
σp (ϕ) =
sup
n
|α|≤p;x∈IR
(1 + kxkp )|Dα ϕ(x)| .
(7.7)
• Dimostrazione – La condizione è sufficiente. Infatti, se la (7.7) è soddisfatta, per ogni successione
{ϕk } convergente in S si ha
|(f, ϕk − ϕ)| ≤ C σp (ϕk − ϕ) → 0 ,
quindi il funzionale è continuo.
– La condizione è necessaria. Infatti, sia f ∈ S ′ e “per assurdo” la (7.7) non sia soddisfatta per qualche
ϕ ∈ S. Allora, posto
ϕ
|(f, ϕ)| > k σk (ϕ) ,
ψk = √
k σk (ϕ)
si ha
|(f, ψk )| = √
√
1
|(f, ϕ)| > k .
k σk (ϕ)
(7.8)
L’ultima espressione è in contrasto con la continuità del funzionale in quanto si deve avere (f, ψk ) → 0,
poiché ψk → 0 per costruzione.
7.14
Trasformata di Fourier
Data un’arbitraria funzione test ϕ ∈ S(IRn ) si definisce la sua trasformata di Fourier mediante
Z
n
X
−i(ξ,x)
F [ϕ](ξ) ≡ ϕ̃(ξ) =
ξk xk .
dx
e
ϕ(x)
,
(ξ,
x)
=
IRn
k=1
Per le proprietà di ϕ l’integrale converge e ϕ̃(ξ) ∈ C ∞ (IRn ) e si ha
Dξα F [ϕ](ξ) = F [(−ix)α ϕ(x)](ξ) ,
F [Dxα ϕ(x)](ξ) = (iξ)α F [ϕ](ξ) .
Dalle relazioni precedenti segue
ξ β Dξα F [ϕ](ξ) = ξ β F [(−ix)α ϕ(x)](ξ) = (−i)|α|+|β| F [Dxβ (xα ϕ)](ξ) .
Prendendo il modulo di questa equazione si ha
Z
β
α
β
α
|ξ| Dξ F [ϕ](ξ)| = |F [Dx (x ϕ)](ξ)| ≤
dx |Dxβ (xα ϕ(x)| < ∞ .
n
IR
Questo significa che ϕ̃(ξ) ∈ S. La trasformata di Fourier si può quindi vedere come un operatore
F : S → S. E’ un operatore continuo e limitato.
La formula di inversione è data da
Z
1
dξ ei(ξ,x) ϕ̃(ξ)
F −1 [ϕ̃](x) ≡ ϕ(x) =
(2π)n IRn
1
1
F [ϕ̃(ξ)](−x) =
F [ϕ̃(−ξ)](x) .
=
(2π)n
(2π)n
Ora notiamo che la trasformata di Fourier F [f ](ξ) è ben definita per ogni funzione f sommabile in
IRn e inoltre è una funzione continua di ξ e quindi definisce una distribuzione regolare (ogni funzione
continua è localmente sommabile). Dalla definizione segue
Z
Z
−i(ξ,x)
(F [f ], ϕ) =
dξ ϕ(ξ)
dx e
f (x)
n
IRn
ZIR
Z
−i(ξ,x)
=
dx f (x)
dξ e
ϕ(ξ) = (f, F [ϕ]) .
IRn
IRn
Questa proprietà delle funzioni sommabili si estende per definizione a tutte le distribuzioni f ∈ S ′ , vale
a dire
(F [f ], ϕ) ≡ (f, F [ϕ]) .
Per la trasformata di Fourier delle distribuzioni temperate, valgono tutte le proprietà che si hanno
per le funzioni. In particolare
• Dα F [f ] = F [(−ix)α ϕ(x)];
• F [Dα f ](ξ) = (iξ)α F [ϕ](ξ);
• F [f (x − x0 )](ξ) = e−i(ξ,x0 ) F [f (x)](ξ);
• F [f (x)](ξ + ξ0 ) = F [e−i(ξ0 ,x) f (x)](ξ);
• F [f · g] = F [f ] F [g].
• Se il prodotto di convoluzione fra f e g esiste, allora si ha l’importante proprietà F [f ∗g] = F [f ] F [g] .
Esempi
Le seguenti proprietà relative alla trasformata di Fourier della δ di Dirac si ottengono direttamente
dalla definizione:
• F [δ(x − x0 )] = e−i(ξ,x0 ) ;
F [δ] = 1 ;
F [1] = (2π)n δ;
• F [Dα δ](ξ) = (iξ)α F [δ](ξ) = (iξ)α ;
• F [xα ](ξ) = (iξ)α Dα F [1] = (2π)n (iξ)α δ.
7.15
Soluzioni fondamentali di operatori differenziali lineari
Sia g ∈ D′ (IRn ) una distribuzione data e P (D) l’operatore differenziale
X
P (D) =
aα (x) Dα ,
α(x) ∈ C ∞ (IRn ) ,
p ∈ IN ,
α ∈ INn .
|α|≤p
Una distribuzione f ∈ D′ (IRn ) si dirà soluzione generalizzata dell’equazione
P (D)f = g ,
se per ogni ϕ ∈ D(IRn ) soddisfa l’equazione
X
(P (D) f, ϕ) =
(−1)|α| (f, aα Dα ϕ) = (g, ϕ) .
|α|≤p
• Definizione (soluzione fondamentale) – La distribuzione E si dirà soluzione fondamentale o
elementare dell’operatore P (D) se soddisfa l’equazione
P (D) E = δ .
(7.9)
In generale E non è unica. Infatti, se E0 soddisfa l’equazione omogenea, allora E + E0 è ancora soluzione
fondamentale.
Data la soluzione fondamentale, una soluzione dell’equazione non omogenea è data da
P (D) u = g =⇒ u = E ∗ g ,
purché il prodotto di convoluzione abbia senso. In tal caso si ha infatti
P (D)[E ∗ g] = [P (D)E] ∗ g] = δ ∗ g = g .
• Teorema – Tutti gli operatori differenziali lineari a coefficienti costanti (aα (x) = aα =costante)
possiedono una soluzione fondamentale E ∈ S ′ (IRn ), che soddisfa l’equazione
X
P (iξ) F [E] = 1 ,
P (iξ) =
aα (iξ)α .
(7.10)
|α|≤p
• Dimostrazione – L’equazione (7.10) è la trasformata di Fourier della (7.9). P (iξ) è un polinomio
algebrico in ξ ∈ IRn e il suo inverso definisce effettivamente una distribuzione temperata Ẽ(ξ) e quindi
anche E(x) = F −1 [Ẽ(ξ)](x) ∈ S ′ (IRn ) è una distribuzione temperata.
′
• Teorema – In D+
(IR) l’operatore lineare P a coefficienti costanti ak , della forma
p
P = a0 + a1
X
d
dp
dk
+ ... + ap p =
ak k ,
dx
dx
dx
k=0
p ≥ 1,
ha una sola soluzione fondamentale data da E(x) = ϑ(x) Z(x) dove Z(x) ∈ C p (IR) è soluzione dell’equazione differenziale omogenea
P Z(x) = a0 + a1 Z ′ (x) + ... + ap Z (p) (x) = 0 ,
con le condizioni iniziali
Z (p−1) = 1 ,
Z (k) (0) = 0 ,
k = 0, 1, 2, ... p − 2 .
• Dimostrazione – La dimostrazione si ottiene banalmente per verifica diretta. Poiché la funzione Z(x)
soddisfa le condizioni iniziali precedenti, si ha
d
ϑ(x)Z (p−1) (x) = ϑ(x)Z (p) (x) + δ(x)Z (p−1) (0) = ϑ(x)Z (p) (x) + δ(x) ,
dx
d
ϑ(x)Z (k) (x) = ϑ(x)Z (k+1) (x) + δ(x)Z (k) (0) = ϑ(x)Z (k+1) (x) ,
k = 0, 1, 2, ... p − 2 .
dx
da cui segue
P E(x) = ϑ(x) P Z(x) + δ = δ .
′
Quindi E(x) ∈ D+
è una soluzione fondamentale ad è anche unica come conseguenza dell’unicità di Z(x).
8
Operatori Lineari
Qui daremo alcune definizioni e teoremi riguardanti gli operatori lineari in spazi di Banach, vale a dire
normati e completi, ma la definizione e parte dei risultati vale anche in spazi topologigi più generali.
Siano X e Y due spazi di Banach e A : X ∈ Y un’applicazione fra questi due spazi, che a un punto
x ∈ X associa un punto y ∈ Y .
• Definizione (operatore lineare) – L’applicazione A è un operatore lineare se, dati x1 , x2 ∈ X e
α, β ∈ C,
I si ha
A(αx1 + βx2 ) = αAx1 + βAx2 .
♣ I funzionali lineari sono particolari operatori lineari da X in C.
I
• Definizione (dominio) – In generale, gli operatori non sono definiti per ogni punto di X. L’insieme
DA ⊂ X dei punti in cui è definito l’operatore si chiama dominio di A. Si assume che il dominio di un
operatore lineare sia una varietà lineare, vale a dire che, per ogni coppia x1 , x2 ∈ DA e α, β ∈ C,
I si abbia
αx1 + βx2 ∈ DA ,
• Definizione (co-dominio) – L’insieme dei punti Ax = y ∈ Y si chiama co-dominio o immagine
dell’operatore A e si indica con RA .
• Definizione (nucleo) – L’insieme dei punti x ∈ DA tali che Ax = 0 si chiama nucleo dell’operatore e
si indica con KerA.
• Definizione (continuità) – L’operatore lineare A si dice continuo in x0 ∈ DA se, comunque scelto
ε > 0 esiste δ > 0 per cui
kAx − Ax0 k = kA(x − x0 )k < ε ,
∀x ∈ DA tali che kx − x0 | < δ .
A si dice continuo se lo è in ogni punto x ∈ DA . Equivalentemente A è continuo se, data una qualsiasi
successione convergente {xk } ∈ DA , si ha
lim kA(x − xk )k = 0 ,
k→∞
∀{xk } ∈ DA tali che lim xk = x ∈ DA .
k→∞
Esempi
• L’operatore identità I : X → X dato da Ix = x; DI = X; RI = X; KerI = {0}.
• L’operatore nullo O : X → Y dato da Ox = 0; DO = X; RO = {0}; KerO = X.
• L’operatore di derivazione A = D : X → X dato da Dx = x′ ; il dominio e l’immagine dipendono
da X. Se X ≡ C[a, b], allora DA è dato dalle funzioni derivabili con derivata continua. In tal caso
l’operatore non è continuo. Basta considerare la successione sin kx/k che è convergente e la sua
derivata cos kx che non ha limite.
L’operatore di derivazione è continuo in altri spazi, ad esempio D : C ∞ → C ∞ .
• Definizione (limitatezza) – A : X → Y è limitato se è definito in tutto X e trasforma insiemi limitati
in insiemi limitati. Per spazi di Banach questo è equivalente a dire che l’operatore limitato trasforma
ogni sfera in X in un insieme limitato in Y . Per l’omogeneità dell’operatore questo è equivalente a dire
che, esiste una costante CA per cui la disuguaglianza
kAxk ≤ CA kxk ,
kAk ≡ inf CA =⇒ kAxk ≤ kAk kxk ,
(8.1)
è soddisfatta per ogni x ∈ X. L’estremo inferiore delle costanti che soddisfano la (8.1) definisce la norma
di A.
• Teorema – Per ogni operatore limitato fra spazi normati si ha
kAk ≡ inf CA = sup
x6=0
kAxk
= sup kAxk .
kxk
kxk≤1
• Dimostrazione – Posto
α = sup
x6=0
kAxk
,
kxk
si ha
kAxk ≤ αkxk =⇒ kAk ≤ α .
Questo perché per definizione la norma è l’estremo inferiore delle costanti che soddisfano la disuguaglianza
precedente. Osserviamo però che, sempre per definizione di norma, kAxk ≤ kAk kxk e quindi vale anche
la disuguaglianza inversa rispetto a quella sopra in quanto
kAxk
≤ kAk =⇒ α ≤ kAk .
kxk
• Teorema – Ogni operatore limitato è continuo e viceversa.
• Dimostrazione – Sia A limitato. Allora data una qualunque successione {xk } convergente a x si ha
lim kA(xk − x)k ≤ kAk lim kxk − xk = 0 .
k→∞
k→∞
Viceversa, sia A continuo e per assurdo non limitato. Allora si può trovare una successione {xn } in X
per cui
kAxn k > nkxn k ,
yn =
xn
,
nkxn k
kyn k =
1
.
n
Da queste equazioni abbiamo
lim yn = 0 ,
n→∞
kAyn k =
kAxn k
> 1,
nkxn k
in contraddizione con l’ipotesi di continutà dell’operatore.
• Definizione (somma di operatori) – Dati due operatori lineari A e B fra due spazi X e Y si definisce
la somma S : X → Y che ad ogni x ∈ DS associa il punto y ∈ Y mediante l’equazione
\
Sx = Ax + Bx ,
DS = DA DB .
Si definisce anche l’operazione di prodotto per un arbitrario numero α ∈ C
I mediante
P = αA ,
P x = αAx ,
x ∈ DA ≡ DP .
E’ immediato verificare che S e P sono operatori lineari e se A e B sono limitati, anche S e P lo sono e
si ha
kSxk = kAx + Bxk ≤ (kAxk + kBxk) ≤ (kAk + kBk)kxk) =⇒ kSk ≤ kAk + kBk ,
kP xk = kαAxk = |αk|Axk =⇒ kP k = |αk|Ak .
• Definizione (prodotto di operatori) – Se A : X → Y e B : Y → Z, allora si può definire l’operatore
prodotto C : X → Z, mediante
C ≡ BA ,
Cx = B(Ax) ,
Dc ≡ {x ∈ DA per cui y = Ax ∈ DB } .
E’ immediato verificare che questa equazione definisce un operatore lineare. Inoltre se A e B sono
operatori limitati allora anche il loro prodotto è limitato. Infatti
kCxk = kBAxk ≤ kBkkAxk ≤ kBkkAkkxk =⇒ kCk ≤ kBkkAk .
Il prodotto di operatori è associativo, cioè, dati A : X → Y , B : Y → Z, C : Z → W si ha
C(BA) = (CB)A ≡ CBA ,
CBA : X → W .
Se Y ≡ X allora C = BA : X → X. In questo caso si può definire anche l’operatore AB : X → X per
ogni x ∈ DB e tale che Bx ∈ DA . In generale AB 6= BA anche per operatori limitati che hanno dominio
in tutto X.
• Definizione (commutatore) – Dati due operatori A e B da X in sè stesso, si definisce il commutatore
di A, B mediante
[A, B] ≡ AB − BA .
Se [A, B] = 0 si dice che gli operatori commutano fra loro.
• Definizione (potenza) – Per un operatore A : X → X si può definire la potenza ricorsivamente, cioè
An = AAn−1 . Se A è limitato si ottiene
kAn k = kAAn−1 k ≤ kAkkAn−1 k =⇒ kAn k ≤ kAkn .
• Definizione (inverso) – Si dice che A : X → Y è invertibile se per ogni y ∈ RA l’equazione Ax = y
ha una sola soluzione x. In tal caso ad ogni y ∈ RA corrisponde un solo x = By ∈ DA e viceversa.
L’operatore B ≡ A−1 si dice inverso dell’operatore A.
Si verifica direttamente che A−1 è un operatore lineare. Infatti, posto
y1 = Ax1 ,
x1 = A−1 y1 ,
z = αx1 + βx2 ,
y2 = Ax2 ,
x2 = A−1 y2 ,
α, β ∈ C
I.
(8.2)
(8.3)
si ha
z = (αx1 + βx2 ) = αA−1 y1 + βA−1 y2 ,
(8.4)
Per la linearità di A si ha anche
Az = A(αx1 + βx2 ) = αAx1 + βAx2 = αy1 + βy2 =⇒ z = A−1 (αy1 + βy2 ) .
(8.5)
Confrontando le due espressioni (8.4) e (8.5) per z si ottiene
A−1 (αy1 + βy2 ) = αA−1 y1 + βA−1 y2 .
(8.6)
• Teorema Condizione necessaria e sufficiente affinché A sia invertibile è che Ker A ≡ {0}.
• Dimostrazione – La condizione è necessaria. Infatti, se A è invertibile la corrispondenza fra DA e
RA è biunivoca e quindi solo x = 0 appartiene al nucleo,
– La condizione è sufficiente. Sia infatti Ker A ≡ {0} e per assurdo Ax1 = Ax2 con x1 6= x2 . Allora
abbiamo la contraddizione A(x1 − x2 ) = 0.
8.1
Operatoti Limitati
L’insieme L(X, Y ) degli operatori lineari limitati (continui) con le operazioni di somma e prodotto per
un numero complesso forma uno spazio lineare completo se Y è completo e normato se X e Y lo sono.
• Teorema – Se Y è completo allora L(X, Y ) è completo nella (topologia uniforme o della norma), vale
a dire che ogni successione fondamentale {Ak } di operatori limitati converge in norma ad un operatore
limitato A, cioè
lim kA − Ak k = 0 .
(8.7)
k→∞
• Dimostrazione – Sia {Ak } una qualunque successione di Cauchy in L(X, Y ). Per ogni x ∈ X si ha
kyi − yj k ≡ kAi x − Aj xk ≤ kAi − Aj k kxk < ε ,
∀i, j > Nε .
Questo significa che {yk = Ak x} è una successione fondamentale in Y . Se Y è completo, questa converge
ad un elemento y ∈ Y che è l’immagine di x tramite l’operatore A. Quindi definiamo A mediante
y = lim yk = lim Ak x ≡ Ax ,
k→∞
k→∞
∀x ∈ X .
L’operatore A cosı̀ definito è lineare e limitato. La linearità è banale da verificare. Per dimostrare la
continutà (limitatezza) poniamo x = x1 − x2 e y = Ax, dove x1 , x2 sono punti “vicini”. Questo significa
che, fissato ε, per k > K abbastanza grande e per kxk < ε/kAk k, possiamo porre kAx − Ak xk < ε e
kAk xk < ε. Abbiamo allora
kyk = kAxk = k(A − Ak + Ak )xk ≤ kAx − Ak xk + kAk xk < 2ε .
k > K , kxk <
ε
.
kAk k
Quindi A è continuo (limitato).
• Teorema – Sia {Ak } una successione di operatori lineari e limitati fra spazi di Banach e tale che
∞
X
k=0
kAk k < ∞ .
(8.8)
Allora si ha
∞
X
Ak = A ,
kAk ≤
k=0
• Dimostrazione – Posto Bn =
kBn − Bm k = k
n
X
∞
X
k=0
Pn
Ak k ≤
k=m+1
kAk k .
k=0
(8.9)
Ak e fissato ε > 0 si ha, per n > m > Nε
n
X
k=m+1
kAk k ≤ ε .
La successione {Bn } è fondamentale e per il teorema precedente converge ad un operatore lineare e
limitato
A = lim Bn =
n→∞
∞
X
Ak
k=0
=⇒ kAk ≤
∞
X
k=0
kAk k .
• Teorema di Banach – Un operatore lineare limitato che trasforma biunivocamente uno spazio di
Banach X in uno spazio di Banach Y ha un inverso limitato.
La dimostrazione è alquanto laboriosa e la tralasciamo.
• Teorema – Sia A : X → X un operatore limitato con kAk < 1. Allora l’operatore I − A è invertibile
e limitato e si ha
(I − A)−1 =
∞
X
Ak ,
k(I − A)−1 k ≤
k=0
1
.
1 − kAk
• Dimostrazione – Poiché la norma di A è minore di 1 si ha
lim kAn k = 0 =⇒
n→∞
lim An = 0 ,
n→∞
∞
X
k=0
kAk k ≤
∞
X
k=0
kAkk =
1
1 − kAk
(8.10)
e quindi (vedi (8.9)) esiste un operatore limitato dato da
B=
∞
X
Ak ,
B ∈ L(X, X) .
k=0
(8.11)
Allora
(I − A)
n
X
Ak =
n
X
k=0
k=0
Ak − Ak+1 = I − An+1 .
(8.12)
Prendendo il limite per n → ∞ e tenendo conto che An → 0 si ottiene il risultato cercato, ossia
(I − A)−1 =
∞
X
k=0
Ak ,
k(I − A)−1 k ≤
∞
X
k=0
kAkk =
1
.
1 − kAk
(8.13)
• Definizione (aggiunto) – L’aggiunto di un operatore limitato A : X → Y è un operatore limitato
A† : Y ∗ → X ∗ fra gli spazi duali. Qui diamo la definizione solo per operatori in spazi di Hilbert.
Sia A : H → H un operatore limitato in uno spazio di Hilbert H. Come conseguenza del teorema di
Riesz, il duale di H, H ∗ , è isomorfo ad H stesso e quindi l’aggiunto di A sarà di fatto un’applicazione di
H in sè stesso.
Fissato un arbitrario elemento g ∈ H si consideri il funzionale Fg [x] = (g, Ax). Questo è un funzionale
lineare, limitato e quindi continuo. La linearità è una diretta conseguenza della linearità del prodotto
scalare, mentre la limitatezza segue da
|Fg [x]| = |(g, Ax)| ≤ kgkkAxk ≤ kgkkAkkxk =⇒ kFg k ≤ kgkkAk .
Ogni funzionale lineare in uno spazio di Hilbert si può rappresentare sotto forma di prodotto scalare
(teorema di Riesz). Questo significa che esiste un vettore h ∈ H tale che Fg [x] = (g, Ax) = (h, x). Posto
allora h = Bg si ha
(g, Ax) = (h, f ) ≡ (Bg, x) =⇒ (g, Ax) = (Bg, x) .
L’operatore B è detto aggiunto e si indica con A† . Poiché A è limitato, DA ≡ H e per come è definito
l’aggiunto anche DA† ≡ H.
Se lo spazio ha dimensione finita (IRn o C
I n ), in una base qualunque l’operatore A è rappresentato da
una matrice quadrata Aij . In tal caso l’operatore aggiunto sarà rappresentato dalla matrice coniugatatrasposta, cioè A†ij = A∗ji .
8.1.1
Proprietà dell’operatore aggiunto
• [A† ]† = A.
Infatti, ricordando le proprietà del prodotto scalare si ha
([A† ]† g, f ) = (g, A† f ) = (A† f, g) = (f, Ag) = (Ag, f ) .
• kA† k = kAk.
Dato un qualunque vettore f ∈ H si ha
kA† f k2
2
kAf k
= |(A† f, A† f )| = |(f, AA† f )| ≤ kf kkAkkA† f k =⇒ kA† f k ≤ kAkkf k ,
= |(Af, Af )| = |(A† Af, f )| ≤ kf kkA† kkAf k =⇒ kAf k ≤ kA† kkf k .
Dal confronto si ottiene il risultato cercato.
• (αA + βB)† = ᾱA† + β̄B † .
Per arbitrari α, β ∈ C
I si ha infatti
(g, (αA + βB)f ) = α(g, Af ) + β(g, Bf ) = α(A† g, f ) + β(B † g, f ) = (αA + βB)† g, f .
• (AB)† = B † A† .
Gli operatori A a B sono entrambi limitati e quindi il prodotto è limitato. Per ogni coppia di vettori
in H si ha
(g, ABf ) = (A† g, Bf ) = (B † A† , f ) .
• [A−1 ]† = [A† ]−1 .
Infatti, se l’operatore A è invertibile si ha
I = I † = [AA−1 ]† = [A−1 ]† A† =⇒ [A−1 ]† = [A† ]−1 .
• Definizione (normale) – Un operatore si dice normale se A† A = AA† .
• Definizione (autoaggiunto) – Un operatore che coincide con il suo aggiunto è detto autoaggiunto (o
hermitiano). In tal caso
A = A† =⇒ (g, Af ) = (Ag, f ) ,
∀g, f ∈ H .
(8.14)
L’aggiunto di un operatore si può definire anche per operatori non limitati per i quali il dominio non
coincide con tutto H. In tal caso l’operatore si dice autoaggiunto se vale la (8.14) e se inoltre DA† ≡ DA .
Se i domini dei due operatori sono diversi allora l’operatore A si dice simmetrico.
8.1.2
Proprietà dell’operatore autoaggiunto
• (f, Af ) ∈ IR.
Infatti si ha banalmente
(f, Af ) = (Af, f ) = (f, Af ) .
• Se esiste un autovalore λ per cui Af = λf , allora λ ∈ IR.
Questa è una banale conseguenza della proprietà precedente, infatti
(f, Af ) = (f, λf ) = λ (f, f ) = λ kf k2 ∈ IR =⇒ λ ∈ IR .
• Se λ1 , λ2 sono due autovalori distinti allora i corrispondenti autovettori f1 , f2 sono ortogonali.
Si ha infatti
λ1 (f2 , f1 ) = (f2 , Af1 ) = (Af2 , f1 ) = λ2 (f2 , f1 ) =⇒ (f2 , f1 ) = 0 .
• Definizione (proiettore) – Un operatore P ∈ L(H) è detto operatore di proiezione se è idempotente,
cioè P 2 = P e hermitiano, cioè P = P † .
Esempi
Sia {ϕk } una base ortonormale di H e Pk il proiettore sul sottospazio di H generato da ϕk , ossia
P k ϕk = ϕk ,
Pi ϕj = δij
=⇒ Pi Pj = δij Pj .
Dato un generico vettore ψ ∈ H si ha allora
ψ=
∞
X
cj ϕj ,
Pk ψ =
∞
X
cj Pk ϕj = ck ϕk ,
Pk2 ψ = ck Pk ϕk = ck ϕk = Pk ψ .
j=1
j=1
• Definizione (positivo) – Sia A ∈ L(H) un operatore limitato in uno spazio di Hilbert. A è detto
positivo se per ogni x ∈ H si ha (x, Ax) ≥ 0. Si scriverà A ≥ 0 e più in generale A ≥ B se A − B è un
operatore positivo.
♣ Per ogni B ∈ L(H), l’operatore A = B † B è positivo. Infatti, dalla definizone di operatore aggiunto
segue
(x, Ax) = (Bx, Bx) = kBxk2 ≥ 0.
• Per ogni operatore positivo vale la disuguaglianza |(x, Ay)|2 ≤ (x, Ax)(y, Ay).
Questa segue dalla disuguaglianza di Cauchy-Bunjakowskij-Schwartz ponendo A = B † B. Infatti
|(x, Ay)|2 = |(Bx, By)|2 ≤ kBxk2 kBy 2 k = (Bx, Bx) (By, By) = (x, Ax)(y, Ay) .
• Ogni operatore positivo A ∈ L(H) con H complesso è autoaggiunto. Questa condizione è conseguenza del fatto che in uno spazio di Hilbert complesso, la condizione (x, Ax) ∈ IR per ogni x implica
(x, Ay) = (Ax, y) ∀x, y ∈ H. Infatti da (x, Ax) = (Ax, x) si ha
(x + y, A(x + y)) =
(x + iy, A(x + iy))
=
(A(x + y), x + y) =⇒ (x, Ay) + (y, Ax) = (Ax, y) + (Ay, x) ,
(A(x + iy), x + iy) =⇒ (x, Ay) − (y, Ax) = (Ax, y) − (Ay, x) .
Dal confronto si ricava il risultato richiesto. Si noti che è necessario che H sia complesso.
• Definizione (unitario) – Un operatore Ω ∈ L(H) è detto isometrico se (x, Ωy) = (x, y) per ogni
coppia di vettori x, y ∈ H. Un operatore isometrico U per cui RU ≡ H è detto unitario.
• Teorema – Ogni operatore unitario U è invertibile e l’inverso U −1 coincide con l’aggiunto U † .
• Dimostrazione – Notiamo dapprima che U è invertibile poiché il suo nucleo è costituito dal solo
vettore nullo. Infatti se x ∈ Ker U , per le proprietà di U si ottiene
Ux = 0 ,
kU xk = kxk = 0 =⇒ x = 0 .
Per ogni coppia di vettori x, y ∈ H si ha inoltre
(U x, U y) = (x, y) = (x, U † U y) =⇒ U † U = I
=⇒ U † = U −1 .
• Teorema – Gli autovalori di un operatore unitario sono numeri complessi λ di modulo uguale a 1
e quindi si possono scrivere nella forma λ = eiα (α ∈ IR). Inoltre gli autovettori corrispondenti ad
autovalori distinti sono ortogonali.
• Dimostrazione – Sia U x = λx con x 6= 0. Allora
kU xk2 = kxk2 = |λ|2 kxk2 =⇒ |λ| = 1 .
Se λ1 , λ2 sono due autovalori distinti con autovettori x1 , x2 si ha
(U x1 , U x2 ) = (x1 , x2 ) = λ̄1 λ2 (x1 , x2 ) =⇒ (x1 , x2 ) = 0 .
♣ Ogni operatore unitario U si può rappresentare nella forma
U = eiA ,
8.2
U † = U −1 = e−iA ,
A = A† .
Spettro
Sia data una trasformazione lineare in IRn o C
I n rappresentata da una matrice quadrata A. Gli autovalori
λ della matrice si ottengono risolvendo l’equazione algebrica (equazione secolare)
det(λI − A) = 0 .
Questa è un’equazione di grado n che ha al più n radici distinte λ1 , λ2 , ..., λn , che costituiscono lo spettro
di A. Il numero di autovalori indipendenti è ovviamente uguale al rango della matrice r ≤ n. Se λ non
appartiene allo spettro, allora l’operatore λI − A è invertibile.
In uno spazio con infinite dimensioni lo spettro di un operatore è assai più ricco e complicato.
• Definizione (risolvente) – Si consideri un operatore limitato in X. Si dice che λ è un punto regolare o
che appartiene all’insieme risolvente ρ(A) se l’operatore λI −A è bi-iettivo in tutto X. Quindi è invertibile
e limitato per il teorema di Banach. In tal caso l’inverso
Rλ (A) = (λI − A)−1
(8.15)
si chiama risolvente di A in λ. Dall’equazione (8.13) si ricavano le rappresentazioni
Rλ (A)
Rλ (A)
=
=
∞
X
k=0
∞
X
k=0
λ−k−1 Ak ,
λk A−k−1 ,
kRλ (A)k ≤
kRλ (A)k ≤
∞
X
k=0
∞
X
k=0
|λ|−k−1 kAkk ,
kAk < |λ| ,
|λ|k kAk−k−1 ,
kAk > |λ| .
Nella seconda espressione per il risolvente si deve assumere che A sia invertibile.
♣ Dalla prima espressione, detta serie di Neumann, si deduce che tutti i λ che soddisfano la
disuguaglianza λ > kAk sono punti regolari.
Se λ 6∈ ρ(A) allora appartiene allo spettro di A. Contrariamente a quanto si ha negli spazi finitodimensionali dove lo spettro è sempre dato da un numero finito di autovalori, nel caso infinito-dimensionale
si possono incontrare due casi distinti:
• spettro puntuale: è costituito dai numeri complessi λ per cui Ax = λx, con X ∋ x 6= 0. In tal caso
λ e x sono detti rispettivamente autovalore e autovettore di A.
• spettro continuo o residuo: è costituito da tutti i λ per i quali l’operatore (λI − A)−1 esiste ma non
è definito per tutti gli x ∈ X, ossia λI − A non è bi-iettivo.
♣ Se λ è un punto regolare, allora anche λ+ε, per ε sufficientemente piccolo, è un punto regolare. Questo
significa che ρ(λ) è un insieme aperto e di conseguenza lo spettro, che è l’insieme complementare di
ρ(λ), è un insieme chiuso.
8.3
Operatori Compatti
Questi hanno proprietà molto simili agli operatori limitati in spazi a dimensione finita e il loro studio
è relativamente semplice rispetto allo studio degli operatori limitati. Si incontrano inoltre in molte
applicazioni fisiche.
• Definizione (spazio compatto) – Sia X uno spazio di Banach e G ⊂ X un sottospazio. G si
dice relativamente compatto o precompatto se da ogni successione {xk } in G è possibile estrarre una
sottosuccessione convergente ad un punto x ∈ X. Se x ∈ G allora G si dice compatto.
Evidentemente se G è relativamente compatto allora la sua chiusura Ḡ è compatta.
♣ Un operatore continuo B trasforma insiemi relativamente compatti in insiemi relativamente compatti.
Infatti, se da {xk } si può estrarre una sottosuccessione convergente {xkj }, allora anche {Bxkj } è una
successione convergente. Infatti, fissato ε > 0, per ki , kj > Nε si ha
kBxki − Bxkj k ≤ kBkkxki − xkj k < ε .
Quindi anche {Bxkj } è una sccessione fondamentale e poiché lo spazio X è completo questa converge
a un punto di X. L’immagine attraverso B di un insieme relativamente compatto è quindi ancora un
insieme relativamente compatto.
• In uno spazio di dimensione finita, uno spazio compatto è chiuso e limitato e viceversa, ma in uno
spazio a dimensione infinita il concetto di compattezza è più generale, nel senso che esistono spazi
chiusi e limitati, ma non compatti.
Esempi
In ℓ2 si consideri la sfera unitaria G ≡ {x : kxk ≤ 1} ⊂ ℓ2 . Questo spazio è chiaramente chiuso e
limitato, ma non compatto. Per verificare questo basta osservare che la successione {ek } costituita dalla
base ortonormale appartiene a G, ma da essa non è possibile estrarre una sottosuccessione convergente.
Infatti {ek } non contiene nessuna sottosuccessione fondamentale in quanto
kei − ej k2 = (ei − ej , ei − ej ) = 2 .
• Definizione (operatore compatto) – Un operatore A : X → X si dice compatto o completamente
continuo se trasforma insiemi limitati in insiemi relativamente compatti o equivalentemente se dalla
trasformata di ogni successione limitata è possibile estrarre una sottosuccessione convergente, cioè, se
kxk k < C, allora {Axkj } converge.
Il concetto di compattezza per gli operatori è più “restrittivo” di quello di limitatezza o continuità
nel senso che lo spazio degli operatori compatti è contenuto in quello degli operatori limitati. Infatti
esistono operatori limitati ma non compatti. Un esempio semplice è costituito dall’operatore identità,
che è chiaramente limitato, ma non compatto in quanto trasforma la sfera unitaria in sè stessa. Per
quanto visto nell’esempio precedente, questa è chiusa e limitata ma non compatta.
Si vede facilmente che l’insieme degli operatori compatti forma una spazio lineare e quindi è un
sottospazio chiuso di L(X, X).
• Teorema – Ogni operatore compatto è limitato.
• Dimostrazione – Sia per assurdo A compatto, ma non limitato. Allora esiste xn con kAxn k > nkxn k.
Posto
kAxn k
xn
, =⇒ kyn k = 1 ,
kAyn k =
> n.
yn =
kxn k
kxn k
Dalla successione limitata {yn } non è possibile estrarre una sottosuccessione convergente in contrasto con
l’ipotesi di compattezza.
• Teorema – Sia Ak → A una successione convergente di operatori compatti in uno spazio di Banach
X; allora il limite è anch’esso un operatore compatto.
• Dimostrazione – Sia {xn } una successione limitata in X. Poiché A1 è compatto da {A1 xn } è
possibile estrarre una sottosuccessione convergente {A1 xn1 }. Per la stessa ragione, da {A2 xn1 } è possibile
estrarre una sottosuccessione convergente {A2 xn2 }. Procedendo in questo modo ricorsivo si ha che la
sottosuccessione {Ak xnj } è convergente se k ≤ j. Allora, fissato ε > 0, per k ≤ i ≤ j abbastanza grandi
si ha
kAxni − Axnj k = k(A − Ak )xni + Ak xni − Ak xnj ) − (A − Ak )xnj k
≤
k(A − Ak )xni k + k(A − Ak )xnj k + kAk xni − Ak xnj )k < ε .
Questo deriva dal fatto che {Ak } converge in norma ad A e {Ak xni } è fondamentale perché convergente.
In questo modo abbiamo verificato che {Axnj } è una sottosuccessione fondamentale e quindi convergente
poiché X è completo.
• Teorema – Sia A : X → X compatto e B : X → X limitato. Allora BA e AB sono entrambi operatori
compatti.
• Dimostrazione – Sia G ⊂ X limitato e G1 ≡ A(G) l’immagine, relativamente compatta, di G
attraverso A. Poiché B è continuo, G2 ≡ B(G1 ) è anch’esso relativamente compatto. Quindi G2 ≡ BA(G)
è un insieme relativamente compatto e quindi l’operatore BA è compatto.
In modo analogo si ha che B(G) è un insieme limitato poiché B è limitato e quindi AB(G) è relativamente
compatto.
Corollario. – L’inverso A−1 di un operatore compatto A non può essere limitato. Per il teorema
appena dimostrato, se A−1 fosse limitato, allora AA−1 = I sarebbe compatto, ma per quanto detto
sopra, l’identità non è un operatore compatto.
• Teorema – L’aggiunto di un operatore compatto è anch’esso compatto.
La dimostrazione è alquanto laboriosa e qui la tralasciamo.
• Definizione (convergenze in uno spazio di Hilbert) – Per una successione {xk } in uno spazio di
Hilbert si hanno due tipi di convergenza:
• Convergenza forte: si dice che {xk } converge fortemente a x se kxk − xk → 0.
• Convergenza debole: si dice che {xk } converge debolmente a x se |(y, xk − x)| → 0 per ogni y in H.
Per una successione di operatori limitati {Ak } in uno spazio di Hilbert si possono avere tre tipi di
convergenza:
• Convergenza in norma: si dice che {Ak } converge in norma (o uniformemente) a A se kA−Ak k → 0.
• Convergenza forte: si dice che {Ak } converge fortemente a A se k(A − Ak )xk → 0 per ogni x ∈ H.
• Convergenza debole: si dice che {Ak } converge debolmente a A se |(x, (Ak − A)y)| → 0 per tutti gli
x, y ∈ H.
E’ immediato verificare che la convergenza uniforme implica quella forte che a sua volta implica quella
debole.
Criterio di compattezza. – In uno spazio di Hilbert un operatore compatto trasforma una successione
debolmente convergente in una fortemente convergente, Quindi se {xk } è una successione debolmente
convergente a x e A è un operatore compatto, allora
|(y, xk − x)| → 0 ,
∀y ∈ H
=⇒ kAxk − Axk → 0 .
Questa proprietà può essere usata anche come definizione di operatore compatto.
Lemma. Sia A ∈ L(H) un operatore autoaggiunto e compatto e {xn } una successione debolmente
convergente a x; allora si ha
(xn , Axn ) → (x, Ax) .
• Dimostrazione – La successione {Axn } è fortemente convergente poiché A è compatto e kxn k < C
poiché la successione è convergente. Allora si ha
|(xn , Axn ) − (x, Ax)|
= |(xn − x + x, Axn ) − (x, Ax)| = |x, A(xn − x)) + (xn − x, Axn )|
≤
≤
|x, (A(xn − x))| + |(xn − x, Axn )|
kAxn − Axkkxk + kAxn − Axkkxn k → 0 .
Lemma. Sia A ∈ L(H) un operatore autoaggiunto e compatto; allora si ha
kAk = sup kAxk = sup |(x, Ax)| .
kxk=1
kxk=1
• Dimostrazione – Posto C = supkxk=1 |(x, Ax)|, dalla disuguaglianza di Cauchy-Bunjakowskij-Schwartz
si ricava
|(x, Ax)| ≤ kAxkkxk ≤ kAk kxk2 =⇒ C ≤ kAk .
Per ricavare la√disuguaglianza opposta scegliamo due arbitrari vettori x, y ∈ H e poniamo
z± = (x ± y)/ 2. Allora
|(x, Ay) + (y, Ax)|
= |(z+ , Az+ ) − (z− , Az− )|
z− Az−
z+ Az+
kz+ k2 + kz− k2 ,
,
≤ kz+ k kz+ k
kz− k kz− k
≤ C(kz+ k2 + kz− k2 ) = C(kxk2 + kyk2 ) .
Posto ora y = (kxk/kAxk) Ax si ottiene
|(x, Ay) + (y, Ax)| = 2kAxkkxk ≤ 2Ckxk2 =⇒ kAk ≤ C .
• Teorema (di esistenza) – Sia A ∈ L(H) un operatore autoaggiunto e compatto; allora esistono
IR ∋ λ 6= 0 e ϕ ∈ H con
Aϕ = λϕ ,
kAk = |λ| .
• Dimostrazione – Poniamo |λ| = kAk e mostriamo che λ ∈ IR è un autovalore di A e costruiamo il
corrispondente autovettore. Per i due lemma precedenti, esiste una successione xn con kxn k = 1 per cui
lim |(xn , Axn )| = kAk = |λ| .
n→∞
Poiché A è compatto, da {Axn } si può estrarre una successione {Axnk } convergente a y ∈ H e che
ovviamente soddisfa la disuguaglianza
kAxnk k ≤ |λ| =⇒ kyk ≤ |la| .
Vale anche la disuguaglianza inversa, infatti
0 ≤ kAxnk − λ xnk k2 = kAxnk k2 + λ2 kxnk k2 − 2λ(xnk , Axnk ) .
Prendendo il limite si ottiene
lim kAxnk − λ xnk k2 = kyk2 − λ2 ≥ 0 =⇒ kyk ≥ |λ| .
nk →∞
Confrontando i due risultati si ricava kyk = |λ| e di conseguenza (A − λ)xnk → 0. Ora osserviamo che
kλxnk − yk = kλxnk − Axnk + Axnk − yk
≤ kλxnk − Axnk k + kAxnk − yk → 0 =⇒ xnk →
y
≡ ϕ.
λ
Quindi anche {xnk } è una successione convergente. Finalmente si ha
kAϕ − λϕk = kAϕ − Axnk + Axnk − λϕk ≤ kA(ϕ − xnk )k + kAxnk − yk
≤ kAkkϕ − xnk )k + kAxnk − yk → 0 =⇒ Aϕ = λϕ .
• Teorema di Hilbert-Schmidt (convoluzione spettrale) – Per ogni operatore lineare, autoaggiunto
e compatto in uno spazio di Hilbert esiste un sistema ortonormale {ϕk } di autovettori corrispondenti agli
autovalori λk e ogni elemento ψ ∈ H si scrive univocamente nella forma
X
ψ=
ck ϕk + ψ0 ,
Aψ0 = 0 ,
(8.16)
k
Aψ =
X
ck λk ϕk =
k
X
λ k Pk ψ ,
ck = (ϕk , ψ) ,
Pk ψ = (ϕk , ψ)ϕk .
k
Pk sono proiettori e ψ0 ∈ Ker A. Se il sistema è infinito, allora limk→∞ λk = 0 e ogni autovalore ha
molteplicità finita.
• Dimostrazione – La dimostrazione si fa in maniera costruttiva. Posto A1 ≡ A e H1 ≡ H, per il
teorema precedente esistono un autovalore λ1 e un autovettore ϕ1 con
|λ1 | = kA1 k =
sup
x1 ∈H1 ;kx1 k=1
kAx1 k .
Il vettore ϕ1 genera un sottospazio di H1 e H2 sarà il sottospazio ortogonale, vale a dire
H = {ϕ1 } ⊕ H2 ,
(ϕ1 , x2 ) = 0 ,
∀x2 ∈ H2 .
Ora osserviamo che l’operatore A ristretto ad H2 è invariante, vale a dire che A : H2 → H2 , infatti,
∀x2 ∈ H2 si ha
(Ax2 , ϕ1 ) = (x2 , Aϕ1 ) = λ1 (x2 , ϕ1 ) = 0 =⇒ Ax2 ∈ H2 .
Indichiamo con A2 la restrizione di A al sottospazio invariante H2 . A2 è ancora un operatore limitato,
autoaggiunto e compatto in quanto è la restrizione ad un sottospazio invariante di un operatore limitato,
autoaggiunto e compatto. Se A2 non è nullo, per il teorema di esistenza ci sono allora λ2 , ϕ2 tali che
|λ2 | = kA2 k =
sup
x2 ∈H2 ;kx2 k=1
kAx2 k ≤
sup
x1 ∈H1 ;kx1 k=1
kAx1 k = kA1 k = |λ1 | .
Ora introduciamo il sottospazio H3 ⊂ H ortogonale allo spazio generato da ϕ1 , ϕ2 , ossia
H = {ϕ1 } ⊕ {ϕ2 } ⊕ H3 ,
(αϕ1 + βϕ2 , x3 ) = 0 ,
∀x3 ∈ H3 .
H3 è un sottospazio invariante e quindi la restrizione A3 di A ad H3 è un operatore limitato, autoaggiunto
e compatto. Se non è nullo si può procedere come sopra. In tal modo si costruiscono tutti gli autovalori
e gli autovettori ortonormali dell’operatore A e si ottiene
An ϕn = λn ϕn ,
|λ1 | ≥ |λ2 | ≥ |λ3 | ≥ ...
Se l’operatore ha rango finito n, il processo si arresta dopo n passi (An+1 = 0), altrimenti si ottiene una
successione infinita di autovalori (serie spettrale).
Per vedere che λn → 0 si procede per assurdo. Sia infatti limn→∞ λn = a 6= 0. Allora la successione
{1/λn } è limitata e quindi lo è anche la successione di vettori
gn =
ϕn
,
λn
kgn k ≤ C .
Poiché A è compatto, dalla successione {Agn = ϕn } dovrebbe essere possibile estrarre una successione
convergente, ma questo è chiaramente assurdo, perché kϕn k = 1. Quindi λn → 0. Questo indirettamente
dimostra anche che la molteplicità è finita, vale a dire che il numero di vettori distinti corrispondenti allo
stesso autovalore è finito. Se cosı̀ non fosse, ci sarebbe almeno un autovalore λk ripetuto infinite volte e
quindi la successione degli autovalori non potrebbe convergere a zero.
Per completare la dimostrazione prendiamo un qualunque vettore ψ ∈ H e definiamo
xn ≡ ψ −
n−1
X
k=1
ck ϕk ,
ck = (ϕk , ψ) ,
xn ∈ Hn .
Per verificare l’ultima affermazione, basta moltiplicare scalarmente per un qualunque vettore ϕj con
j < n. Si ha inoltre
kxn k2 = k ψ −
n−1
X
k=1
ck ϕk k2 = kψk2 −
n−1
X
k=1
|ck |2 ≤ kψk2 =⇒ kxn k ≤ kψk .
Infine
k Aψ −
n−1
X
k=1
ck λk ϕk k = kAxn k = kAn xn k ≤ |λn | kxn k ≤ |λn | kψk → 0 ,
da cui segue
X
Aψ =
ck λk ϕk ,
ψ=
k
X
ck ϕk + ψ0 .
(8.17)
k
Corollario. – Un operatore lineare, autoaggiunto, compatto e invertibile ha un sistema di autovettori
completo. Infatti se l’operatore è invertibile KerA ≡ {0} e quindi ogni ψ si può sviluppare in autofunzioni
di A (ψ0 = 0). L’invertibilità è una condizione necessaria. Infatti sia ϕk (k ≥ 1) una base per H e si
consideri l’operatore
A2 =
∞
X
k=2
λ k Pk ,
∞
X
k=2
|λk |2 < ∞ .
Questo è lineare, autoaggiunto e compatto. I suoi autovalori e i suoi autovettori sono λk , ϕk (k ≥ 2), i
quali formano un insieme completo in H2 ma non in H. L’operatore A2 è infatti invertibile in H2 man
non è invertibile in H in quanto ϕ1 ∈ Ker A2 e quindi A2 , visto come operatore in H, ha un autovalore
nullo.
9
Equazioni Integrali
Sono equazioni in cui la funzione che si deve determinare compare anche sotto il segno di integrale. Lo
studio sistematico e approfondito fu fatto a cavallo dei secoli XIX e XX principalmente ad opera di
Volterra, Fredholm e Hilbert.
Tutte le trasformate integrali possono essere viste come equazioni integrali. Ad esempio, la trasformata
di Fourier
Z ∞
dx e−ixξ φ(x) ,
φ̃(ξ) = g(ξ) =
−∞
diventa un’equazione integrale se si suppone nota la funzione g(ξ) e incognita la funzione φ(x) che
è integrata. Come è ben noto, la soluzione di questa equazione integrale si determina mediante la
trasformata inversa
Z ∞
1
dξ eixξ g(ξ) .
φ(x) =
2π ∞
Questo rappresenta un esempio di equazione integrale di Fredholm di I a specie.
Qui si studieranno due classi di equazioni integrali lineari, ossia
Rb
• Equazioni di Fredholm di I a specie:
g(x) = a dt K(x, t) φ(t).
Rb
• Equazioni di Fredholm di II a specie:
φ(x) = g(x) + a dt K(x, t) φ(t).
Rx
• Equazioni di Volterra di I a specie:
g(x) = a dt K(x, t) φ(t).
Rx
• Equazioni di Volterra di II a specie:
φ(x) = g(x) + a dt K(x, t) φ(t).
La funzione K(x, t) è detta nucleo integrale. Questo determina tutte le caratteristiche della soluzione.
♣ Le equazioni integrali di Volterra si possono vedere come casi particolari di quelle di Fredholm in
cui K(x, t) = 0 per x ≥ t ≥ b. Tuttavia è bene studiarle separatamente in quanto presentano
caratteristiche assai diverse.
9.1
Applicazioni
Riportiamo alcuni storici problemi la cui formulazione conduce in modo naturale ad equazioni integrali.
9.1.1
Problema di Cauchy
Un’equazione differenziale φ′ (t) = F (t, φ(t)) con la condizione iniziale φ(0) = φ0 si può trasformare in
un’equazione integrale. Se F (t, φ(t)) è lineare in φ, allora si ottiene un’equazione di Volterra di II a specie.
Integrando l’equazione sull’intervallo [0, x] si ha infatti
′
Z x
φ (t) = F (t, φ(t)) ,
dt F (t, φ(t)) ⇐⇒
φ(x) = φ0 +
φ(0)
= φ0 .
0
Più in generale, un’equazione differenziale lineare della forma
F (t) = α0 (t)φ(t) + α1 (t)φ′ (t) + φ′′ (t) ,
φ(0) = φ0 ,
φ′ (0) = φ1 ,
è equivalente all’equazione integrale di Volterra
Z x
dt K(x, t)ψ(t) ,
ψ(x) = g(x) +
0
dove
ψ(x) = φ′′ (x) ,
K(x, t) = −α1 − α0 (x − t) ,
g(x) = F (x) − α0 φ0 − (α1 + α0 x)φ1 ,
0
zi =x
x
l
y(x)
z(y)
α
zf =0
ξ
0
α
y
l
β
δ
β
y(x)
y
F
Figura 1: problema di Abel (a sinistra) – problema della corda (a destra)
Questo deriva dal fatto che
Z tn−1
Z t1
Z x
dtn f (tn ) =
dt1
dt2 ...
0
0
0
1
(n − 1)!
Z
0
x
dt (x − t)n−1 f (t) ,
e quindi
′
φ (x) = φ1 +
Z
x
dtψ(t) ,
φ(x) = φ0 + φ1 x +
Z
0
0
x
dt (x − t)ψ(t) .
E’ interessante notare che se i coefficienti sono costanti, cioè αk (t) = ck , allora il nucleo dipende solo dalla
differenza degli argomenti. In questo caso l’integrale può essere visto come il prodotto di convoluzione
fra K(x) e ψ(x).
Trovata la funzione φ(x), la soluzione del problema si trova integrando due volte ψ(x) rispetto a x,
vale a dire
Z x
dt (x − t)ψ(t) .
φ(x) = φ(0) + φ1 x +
0
Questa tecnica si può estendere senza difficoltà ad equazioni differenziali di ordine qualunque.
Se la funzione differenziale originale ha coefficienti costanti, integrando direttamente si ricava l’equazione integrale per φ(x) nella forma
Z x
dt K(x − t)φ(t) ,
φ(x) = g(x) +
0
K(x, t) = −α1 − α0 (x − t) ,
g(x) = φ0 + (φ1 + α1 φ0 )x +
Z
0
x
dt (x − t)F (t) .
Questo significa che le equazioni integrali di Volterra di II specie con nucleo della forma K(x, t) =
Pn (x − t), dove Pn è un polinomio di grado n, sono equivalenti ad equazioni integrali di ordine n + 1, con
le condizioni iniziali φ(k) (0) = g (k) (0) per k = 0, 1, ..., n.
9.1.2
Problema di Abel (1823)
E’ uno dei primi problemi in cui si incontrano equazioni integrali. Questo consiste nel determinare la
forma della guida, contenuta in un piano verticale, lungo la quale una particella cade in un tempo fissato
(vedi figura 9.1.2). Si orienti l’asse z lungo la verticale e sia (y, z) il piano contenente la guida, la cui
forma è determinata da un’equazione z = z(y) che si deve determinare. Sia z = x la quota iniziale della
particella, inizialmente ferma e z = 0 la quota di arrivo al tempo t. In un istante generico la particella si
troverà in un punto P sulla guida ad una quota 0 < z < x e la tangente alla guida passante per P formerà
due angoli α = π p
− β ≤ β con l’asse orizzontale y. Trascurando gli attriti, il modulo della velocità nel
punto P è v(z) = 2g(x − z) e la componente verticale (negativa)
vz (z) =
p
dz(t)
φ(z)
= −v(z) sin α = −v(z) sin β =⇒
2g dt = − √
dz ,
dt
x−z
φ(z) =
1
.
sin β
L’angolo β = β(z) determina indirettamente la forma della guida, ossia l’equazione z = z(y). Integranto
l’ultima equazione fra 0 e t e quindi in z fra z(0) = x e z(t) = 0 si ha
Z x
p
φ(z) dz
√
g(x) ≡ 2g t =
.
x−z
0
√
dove per maggior generalità, al posto della costante 2g t si può mettere un’arbitraria funzione di x.
L’equazione di Abel è dunque un’equazione di Volterra di I a specie.
9.1.3
Problema della corda
Consiste nel determinare la densità di una corda di lunghezza l vincolata nei due punti estremi
(x, y) = (0, 0) e (x, y) = (l, 0), nota la sua forma y = y(x). Si suppone che la deformazione dovuta al peso
sia piccola in modo che la forma si discosti di poco dalla retta orizzontale y = 0. Conviene orientare l’asse
y verso il basso. In tal modo lo spostamento y(x) dovuto al peso è positivo e ovviamente y(0) = y(l) = 0.
Prima di affrontare il problema posto, si consideri un filo di massa trascurabile, vincolato agli estremi
come la corda sopra e soggetto ad un forza F diretta verso il basso e applicata nel punto P ≡ (ξ, δ),
dove y(ξ) = δ è lo spostamento verticale (piccolo) dovuto all’applicazione della forza. La tensione
del filo T ∼ T0 si assume costante, che è un’ipotesi ragionevole se l’estensione è trascurabile (piccole
deformazioni). Per l’equilibrio delle forze di avrà
ξ(l − ξ)F
δ
δ
=⇒ δ =
+
,
(9.1)
F = T (sin α + sin β) ∼ T0
ξ
l−ξ
lT0
dove α, β sono gli angoli che il filo forma con la retta orizzontale (in x = 0 e x = l rispettivamente). Lo spostamento y(x) in un generico punto si ricava dalla similitudine dei triangoli rattangoli ed è
proporzionale a F . Lo si può scrivere nella forma
(
x(l−ξ)
xδ
0 ≤ x ≤ ξ,
F ξ = lT0 ,
y(x) = G(x, ξ) F ,
G(x, ξ) =
ξ(l−x)
(l−x)δ
F (l−ξ) = lT0 , ξ ≤ x ≤ l .
Torniamo ora al problema originale della corda pesante con densità di massa ρ(x). Se l’unica forza
presente è la forza peso, nel punto x = ξ sarà applicata una forza infinitesima dF (ξ) = gρ(ξ) dξ dovuta
all’elemento infinitesimo di corda di lunghezza dξ (g è l’accelerazione di gravità). Questa forza produce
una deformazione infinitesima
dy(x) = G(x, ξ) dF (ξ) = gG(x, ξ) ρ(ξ) dξ ,
nel generico punto x. La deformazione totale della corda nel punto x sarà la somma dei contributi dovuti
a tutti gli elementi infinitesimi di corda, ossia
Z l
G(x, ξ) ρ(ξ) dξ .
y(x) = g
0
Si vede quindi che, data la forma della corda y = y(x), la densità di massa ρ(x) è determinata da
un’equazione integrale di Fredholm di I a specie.
9.2
Equazioni di Fredholm
Con opportune ipotesi sul nucleo e sul termine noto, lo studio di queste equazioni diventa equivalente
allo studio delle proprietà di un operatore in uno spazio di Hilbert.
Definiamo l’operatore di Fredholm A mediante
Z b
dt K(x, t) φ(t) .
(9.2)
(Aφ)(x) = ψ(x) =
a
Con questa definizione l’equazione di Fredholm di II a specie assume la forma Aφ + g = φ. In particolare,
per le equazioni omogenee (g = 0), la soluzione φ è autofunzione dell’operatore A. Ovviamente affinchè
tutto questo abbia matematicamente senso, si deve specificare in modo preciso lo spazio in cui si lavora.
9.2.1
Nuclei di Hilbert-Schmidt
Costituiscono una classe importante di nuclei integrali a cui corrispondono operatori compatti, detti di
Hilbert-Schmid. Per semplicità consideriamo l’intervallo reale I = [a, b] con misura di Lebesgue dx e il
quadrato Q = I × I con misura di Lebesgue dµ = dx dt, ma in tutta la trattazione che segue I può essere
sostituito da uno spazio qualsiasi munito di misura, come ad esempio l’intera retta reale.
• Definizione – Il nucleo K(x, t) si dice nucleo di Hilbert-Schmidt se è a quadrato sommabile in Q, vale
a dire
Z
dx dt |K(x, t)|2 < ∞ .
Q
• Teorema – Ad ogni nucleo di Hilbert-Schmidt K(x, t) corrisponde un operatore lineare compatto
A : L2 (I) → L2 (I) definito dalla (9.2) e la sua norma soddisfa la disuguaglianza
Z
1/2
kAk ≤
= kK(x, t)kL2 (Q) .
dx dt |K(x, t)|2
Q
• Dimostrazione – Dimostriamo dapprima che effettivamente A è un operatore in L2 (I). A tale scopo
osserviamo che, come conseguenza del teorema di Fubini, dalla (9.3) segue
Z b
Z b
2
dx |K(x, t)|2 < ∞ .
dt |K(x, t)| < ∞ ,
a
a
Le ultime due disuguaglianze sono vere a meno di insiemi di misura nulla, vale a dire per quasi tutti gli
x e per quasi tutti i t rispettivamente. Quindi la funzione K(x, t), pensata come funzione di una sola
variabile (l’altra è un parametro), appartiene a L2 (I). Data un’arbitraria funzione φ(t) ∈ L2 (I) si ha
allora
2
Z
Z b
b
2
2
dt |K(x, t)|2 .
dt K(x, t) φ(t) = φ̄(t), K(x, t) ≤ kφk2
|ψ(x)| = a
a
Integrando ora rispetto a x si ottiene
Z
Z b
2
2
2
dx |ψ(x)| ≤ kφk
kψk ≡
a
Q
dt dx |K(x, t)|2 < ∞ .
In questo modo abbiamo dimostrato che ψ ∈ L2 (I). Inoltre si ha
kψk = kAφk ≤ kφk kK(x, t)kL2 (Q) =⇒ kAk ≤ kkK(x, t)kL2 (Q)
Quindi A è un operatore limitato in L2 (I).
Per dimostrare che è anche compatto facciamo vedere che è il limite di una successione {AN } di
operatori compatti. Sia {ϕn } una base in L2 (I). Allora tutti i possibili prodotti ϕi (I)ϕj (I) formano una
base per L2 (Q) e quindi qualunque funzione in L2 (Q) si può sviluppare in serie di Fourier. In particolare
si ha
K(x, t) =
∞
X
aij ϕi (x)ϕj (t) ,
KN (x, t) =
ij=1
N
X
aij ϕi (x)ϕj (t) .
ij=1
La successione di funzioni converge in norma a K(x, t), cioè
lim kK(x, t) − KN (x, t)kL2 (Q) = 0 .
N →∞
Al nucleo KN (x, t) corrisponde un operatore AN definito dalla (9.2). Per quanto visto sopra si ha
kA − AN k ≤ kK(x, t) − KN (x, t)kL2 (Q) → 0 .
Quindi la successione di operatori {AN } è uniformemente convergente all’operatore A. Se gli AN sono
operatori compatti, allora anche A è compatto. Gli operatori AN sono banalmente compatti perché di
rango finito, vale a dire che il loro co-dominio è uno spazio di dimensione finita. Questo si vede facilmente
in quanto
AN φ(x) =
N
X
aij ϕi (x)
ij=1
Z
b
dt ϕj (t)φ(t) =
a
N
X
ci ϕi (x) ,
i
dove si è posto
ci =
N
X
aij
b
Z
dt ϕj (t)φ(t) .
a
j=1
Si vede dunque che per ogni φ ∈ L2 (I), AN φ appartiene al sottospazio di dimensione N generato dai
vettori ϕ1 , ϕ2 , ..., ϕN . AN è quindi compatto.
♣ Dalla dimostrazione segue direttamente che ogni operatore di Hilbert-Schmidt è il limite uniforme di
una successione di operatori integrali a rango finito.
• La corrispondenza fra operatori e nuclei di Hilbert-Schmidt è biunivoca, nel senso che, se A1 φ = A2 φ
per ogni φ ∈ L2 (I), allora i nuclei corrispondenti coincidono quasi ovunque in L2 (Q). Infatti se
Z b
dt [K1 (x, t) − K2 (x, t)] φ(t) = 0 ,
∀φ(t) ∈ L2 (I) ,
a
allora si ha anche
Z b
dt |K1 (x, t) − K2 (x, t)|2 = 0 ,
a
questo perché K1 (x, t) − K2 (x, t) = f (t) ∈ L2 (I). Integrando l’ultima equazione rispetto a x si ottiene
il risultato.
• Teorema – Se A è l’operatore corrispondente al nucleo di Hilbert-Schmidt K(x, t), allora A† corrisponde
al nucleo coniugato K̄(t, x) (si noti lo scambio delle variabili), vale a dire
Z b
†
dt K̄(t, x) φ(t) .
(A φ)(x) =
a
• Dimostrazione – Per ogni coppia di funzioni f, g ∈ L2 (I), usando il teorema di Fubini si ha
#
"Z
# Z
"Z
Z b
b
b
b
¯
¯
dx K(x, t) f (x)
dt g(t)
dt K(x, t) g(t) =
dx f (x)
(f, Ag) =
a
a
=
Z
a
b
dt g(t)
"Z
a
b
dx K̄(x, t) f (x)
#
=
a
a
Z
"Z
a
b
dx g(x)
a
b
dt K̄(t, x) f (t)
#
= (A† f, g) .
♣ In uno spazio finito dimensionale un operatore è rappresentato da una matrice A ≡ {Aij } e l’operatore
aggiunto dalla matrice coniugata-trasposta, cioè A† ≡ {Āji }. Come dimostrato sopra i nuclei integrali
godono di una proprietà simile, dove però gli indici discreti sono sostituiti da variabili continue. In
particolare, se l’operatore è autoaggiunto, allora il nucleo corrispondente soddisfa l’equazione K(x, t) =
K̄(t, x), che in uno spazio reale, diventa una semplice condizione di simmetria rispetto allo scambio
delle variabili.
9.3
Soluzione delle equazioni integrali di II a specie
Per le equazioni integrali di II a specie esistono dei teoremi che stabiliscono sotto quali condizioni esiste la
soluzione e permettono inoltre di studiarne le proprietà. Al contrario, per le equazioni di I a non esistono
teoremi di carattere cosı̀ generale e ognuna di esse richiede dunque uno studio particolareggiato.
9.3.1
Equazioni a nucleo simmetrico
Sono equazioni di Fredholm di II a specie definite da un nucleo integrale di Hilbert-Schmidt soddisfacente
la condizione di simmetria K(x, t) = K̄(t, x). Per i teoremi dimostrati sopra, queste equazioni sono
equivalenti ad equazioni della forma
φ = g + Aφ ,
(9.3)
dove A è un operatore compatto e autoaggiunto in uno spazio di Hilbert astratto.
Sotto queste condizioni, per l’operatore A vale il teorema di Hilbert-Schmidt. Questo ci assicura che
in H esiste un insieme di autovettori ϕn con autovalori λn di molteplicità finita e ogni vettore ψ ∈ H si
può scrivere nella forma
X
ψ=
ck ϕk + ψ0 ,
Aψ0 = 0 ,
ck = (ϕk , ψ) .
k
In particolare si possono sviluppare in questo modo la soluzione φ e il termine noto g. Poniamo quindi
X
φ =
ak ϕk + φ0 ,
Aφ0 = 0 ,
k
g
=
X
bk ϕk + g0 ,
Ag0 = 0 ,
bk = (g, ϕk ) .
k
Sostituendo questi sviluppi nell’equazione (9.3) e tenendo conto del fatto che Aϕk = λk ϕk si ottiene
X
[bk − (1 − λk )ak ] ϕk + g0 − φ0 = 0 .
k
Tenendo conto dell’indipendenza dei vettori ϕk si ricava
bk − (1 − λk )ak = 0 ,
g0 − φ0 = 0 .
Si vede dunque che condizione necessaria e sufficiente per l’esistenza della soluzione è che bk = 0 se
λk = 1. In tal caso la soluzione è data da
φ0 = g0 ,
an =
bn
.
1 − λn
Queste equazioni determinano tutti i coefficienti di Fourier an della soluzione, tranne i termini corrispondenti all’autovalore λn̂ = 1. Esistono quindi m coefficienti arbitrari corrispondenti alle autofunzioni
ϕn̂1 , ϕn̂2 , ..., ϕn̂m con autovalore λn̂ = 1 (m è la molteplicità di tale autovalore).
Questi risultati sono di fatto il contenuto del teorema dell’alternativa di Fredholm nel caso simmetrico e
sono formulati normalmente nel seguente modo:
• Teorema di Fredholm (alternativa) –
a) Se λ = 1 non è autovalore dell’operatore A, allora l’equazione di Fredholm di II a specie ha una ed
una sola soluzione per qualunque scelta di g.
b) Se λ = 1 è autovalore dell’operatore A, allora l’equazione di Fredholm di II a specie ha soluzione se e solo
se il termine noto g è ortogonale al sottospazio generato dalle autofunzioni corrispondenti all’autovalore
λ = 1. In tal caso esistono infinite soluzioni (la soluzione dipende da un numero di parametri pari alla
molteplicità di tale autovalore).
♣ A volte può essere conveniente considerare l’equazione di Fredholm dipendente da un parametro
µ ∈ C,
I mediante la sostituzione K(x, t) → µK(x, t). In tal caso l’equazione operatoriale diventa
φ = g + µ Aφ e il teorema dell’alternativa vale con la banale sostituzione λ = 1 → µλ = 1. Quindi si
hanno i due casi seguenti (per semplicità di scrittura supponiamo KerA ≡ {0}):
a) µλk 6= 1 per qualunque k; allora esiste una sola soluzione data da
φ = (1 − µA)−1 g =
X (ϕk , g)
ϕk .
1 − µλk
k
b) µλn̂ = 1 e (g, ϕn̂j ) = 0 ∀j = 1, ..., m, dove m è la molteplicità dell’autovalore λn̂ ; allora la soluzione
dipende da m coefficienti arbitrari cj e ha la forma
X
φ=
k6={n̂1 ,...,n̂m }
m
X
(ϕk , g)
cj ϕn̂j .
ϕk +
1 − µλk
j=1
• Esistono teoremi di Fredholm simili al precedente anche per equazioni con nuclei non simmetrici o
arbitrari (non di Hilbert-Schmidt).
9.3.2
Equazioni a nucleo degenere
Consideriamo ancora equazioni di Fredholm di II a specie
Z b
dy K(x, y)φ(x) ,
kK(x, y)kL2 (Q) < ∞ ,
φ(x) = g(x) +
a
definite da un nucleo di Hilbert-Schmidt, non necessariamente simmetrico, ma degenere. Questo significa
che può essere scritto come prodotto di funzioni dipendenti da una sola variabile. Più precisamente si
assume
K(x, y) =
N
X
Pk (x)Qk (y) ,
Pk (x) ∈ L2 [I] ,
k=1
Qk (x) ∈ L2 [I] ,
dove Pk sono funzioni (vettori) linearmente indipendenti. Sotto queste ipotesi, l’operatore A associato
al nucleo è un operatore di rango N in quanto trasforma ogni funzione φ ∈ L2 in una funzione Aφ che
appartiene al sottospazio generato dai vettori Pk . Infatti si ha
Z b
Z b
N
N
X
X
qk Pk (x) ,
dy Qk (y)φ(y) =
Pk (x)
dyK(x, y)φ(y) =
Aφ(x) =
a
a
k=1
k=1
dove si è posto
Z b
dy Qk (y)φ(y) .
qk =
a
Dopo questa osservazione, l’equazione di Fredholm si può scrivere nella forma
φ(x) = g(x) +
N
X
qk Pk (x) .
k=1
Usando questo sviluppo di φ nell’equazione originale (9.4) e tenendo conto che Pk sono vettori linermente
indipendenti (non necessariamente ortogonali), si ricava un sistema di equazioni algebriche che permette
di ricavare i coefficienti qj dello sviluppo. Per vedere questo poniamo
Z b
Z b
dx Qk (x)g(x) .
dx Qi (x)Pj (x) ,
bk =
aij =
a
a
Usando queste notazioni e (9.4) in (9.4) si ottiene
#
"
N
N
N
X
X
X
ajk qk .
P j bj +
qj Pj =
j=1
j=1
k=1
Poiché i vettori Pj sono linearmente indipendenti si ottiene un sistema di N equazioni algebriche nelle
incognite qj , cioè
q j = bj +
N
X
ajk qk ,
j = 1, 2, ... N
k=1
Ricavate le incognite qj , la soluzione dell’equazione (9.4) è data dalla (9.4). La soluzione esiste ed è unica
se la matrice δij − aij è invertibile.
9.3.3
Equazioni di Volterra
Si consideri un’equazione di Volterra della forma
Z x
dt K(x, t) φ(t) ,
|K(x, t)| ≤ C .
φ(x) = g(x) +
a
Come detto sopra, questa equazione si può vedere come un’equazione di Fredholm di II a specie ponendo
K(x, t) , a ≤ t ≤ x ,
KF (x, t) =
0,
x ≤ t ≤ b.
Per l’ipotesi fatta, KF (x, t) è sommabile ed anche a quadrato sommabile in Q e dunque è un nucleo di
Hilbert-Schmidt. Valgono allora tutte le considerazioni fatte precedentemente. In questo caso tuttavia,
la soluzione esiste sempre ed è unica per ogni g ∈ L2 ([0, x]). Questo è dovuto al fatto che una qualche
potenza dell’operatore
Z x
dt K(x, t) φ(t) ,
(Aφ)(x) =
a
è una contrazione e questo per la (2.4) è sufficiente per affermare che esiste un’unica soluzione.
Per vedere che, per n sufficientemente grande An è una contrazione, lavoriamo in C[a, b] con la norma
data da kφk = maxa≤t≤b |φ(t)|. Dapprima osserviamo che
Z x1
dt K(x1 , t)φ(t) ≤ Ckφk (x1 − a) .
|Aφ(x1 )| = a
Procedendo ulteriormente si ha
Z x2
Z
2
2
dx1 K(x2 , x1 )[Aφ(x1 )] ≤ C kφk
|A φ(x2 )| = a
a
x2
dx1 (x1 − a) ≤ C 2 kφk
(x2 − a)2
.
2
Ora si può procedere in questo modo indefinitamente. Dopo n passi si ottiene
|An φ(x)| =≤ C n kφk
(x − a)n
(b − a)n
≤ C n kφk
,
n!
n!
da cui segue
kAn φk = max |An φ(x)| ≤ C n kφk
x∈[a,b]
(b − a)n
n!
=⇒ kAn k ≤ α ,
dove α < 1 per n abbastanza grande. L’equazione iniziale è della forma φ = Aφ + g = Bφ e se B n è una
contrazione, allora l’equazione ha un solo punto fisso. Per quanto visto sopra si ha
kB n φ1 − B n φ2 k = kAn (φ1 − φ2 k ≤ α kφ1 − φ2 k ,
α = Cn
(b − a)n
n!
e per n abbastanza grande α è certamente minore di 1, quindi B n è una contrazione. Si faccia attenzione
al fatto che B non è un operatore lineare.
9.3.4
Soluzioni sotto forma di serie di potenze
Sia data l’equazione
φ = g + µAφ ,
kµAk < 1 ,
dove A è un operatore lineare limitato in uno spazio di Hilbert H e g ∈ H. Per l’ipotesi fatta, I − µA è
un operatore invertibile e quindi si ha
−1
φ = (I − µA)
g=
∞
X
(µA)k g = g + µAg + µ2 A2 g + ...
(9.4)
k=0
Per la (8.13) la serie converge uniformemente e può essere vista come una serie di potenze in µ. La serie
troncata fornisce quindi una soluzione approssimata all’ordine desiderato nel parametro µ.
Le soluzioni delle equazioni integrali di Fredholm con nucleo di Hilbert-Schmidt si possono sempre rappresentare sotto forma di serie di potenze per valori sufficientemente piccoli del parametro µ. L’operatore
I − µA corrispondente all’equazione integrale è infatti invertibile per piccoli valori di µ.
Per prima cosa verifichiamo che il “prodotto” di due nuclei di Hilbert-Schmidt è ancora un nucleo di
Hilbert-Schmidt. Infatti, dati due arbitrari nuclei di Hilbert-Schmidt K(x, t) e H(x, t) e posto
Z b
dy K(x, y)H(y, t) ,
G(x, t) =
a
per la disuguadlianza di Cauchy-Bunjakowskij-Schwartz si ottiene
"Z
# "Z
#
b
b
2
2
2
|G(x, t)| ≤
dy |K(x, y)|
dy |H(y, t)| ,
a
a
da cui segue
kG(x, t)kL2 (Q) ≤ kK(x, t)kL2 (Q) kH(x, t)kL2 (Q) .
(9.5)
Da questa considerazione segue che il “prodotto” di un numero arbitrario di nuclei di Hilbert-Schmidt è
ancora di Hilbert-Schmidt e in particolare lo sono tutti i nuclei iterati
Z b
dy K(x, y) Kn−1 (y, t) ,
n = 2, 3, ...
K1 (x, t) = K(x, t) ,
Kn (x, t) =
a
Posto kK(x, t)kL2 (Q) = k, dalla (9.5) segue direttamente
kK2 (x, t)kL2 (Q) ≤ k 2 ,
kKn (x, t)kL2 (Q) ≤ k n .
Questo significa che per |kµ| < 1 la serie di funzioni
∞
X
µn Kn (x, t) = µR(x, t; µ) ,
|kµ| < 1 ,
n=1
è convergente. Ai nuclei iterati Kn (x, t) corrispondono le potenze An dell’operatore. Questo significa che
l’operatore I − µA è invertibile per |kµ| < 1, cioè
−1
(I − µA)
=
∞
X
n=0
n
n
µ A =I+
∞
X
n=1
µn An ≡ I + µR(µ) ,
|kµ| < 1 ,
dove R(µ) è un operatore compatto il cui nucleo integrale di Hilbert-Schmidt è R(x, t; µ), detto risolvente
del nucleo K(x, t). La soluzione può essere scritta nella forma
Z b
−1
dt R(x, t; µ) g(t) .
φ(x) = ((I − µA) g(x) = g(x) + µ
a
♣ La condizione |kµ| < 1 è sufficiente ma non necessaria per l’esistenza della soluzione. Ad esempio,
come si è mostrato sopra, le equazioni di Volterra con nucleo limitato hanno soluzione sotto forma di
serie di potenze per qualunque valore di µ.
• Per il teorema dell’alternativa, se µ è diverso dall’inverso di uno degli autovalori di A allora l’equazione ha sempre una sola soluzione, mentre la serie di potenze (9.4) fornisce una soluzione solo
per valori di µ < 1/k. Esiste però una complicata espansione in serie di potenze che converge per
qualunque valore del parametro diverso dall’inverso di uno degli autovalori.
• Si deve fare attenzione che l’unicità della soluzione è strettamente legata alla classe di funzioni scelta.
Nei teoremi precedenti si è dimostrata l’unicità in L2 (I), ma le equazioni integrali possono avere una
sola soluzione in L2 (I) e allo stesso tempo altre soluzioni più generali (ad esempio non integrabili).
9.3.5
Nuclei Ortogonali
Due nuclei K(x, t) e H(x, t) si dicono ortogonali se
Z
Z b
dy K(x, y)H(y, t) = 0 ,
G2 (x, t) =
G1 (x, t) =
b
dy H(x, y)K(y, t) = 0 .
a
a
Nel caso in cui valga solo una delle due equazioni precedenti i nuclei si dicono semi-ortogonali.
Se il nucleo K(x, t) corrispondente ad una equazione di Fredholm è ortogonale a sè stesso, allora
R(x, t; µ) = K(x, t) in quanto Kn (x, t) = 0 per n > 1. In tal caso la soluzione è data da
Z b
dt K(x, t) g(t)
φ(x) = g(x) + µ
a
e ovviamente esiste per ogni valore del parametro.
Metodi Matematici della Fisica — Esercizi
10
Contrazioni: metodo delle approssimazioni successive
E’ un utile metodo per dimostrare l’esistenza e l’unicità della soluzione e per trovare soluzioni approssimate in molte situazioni sia matematiche che fisiche.
Esercizio 1. (Equazioni – Trovare le radici dell’equazione F (x) = 0 nell’intervallo [a, b].
Soluzione – La soluzione cercata è equivalente a trovare il punto fisso della funzione
f (x) = x − λF (x) ,
λ 6= 0 .
Se questa è una contrazione per qualche valore di λ, allora l’equazione originale ha una sola radice che si
può trovare per approssimazioni successive, cioè
x1 = x0 − λF (x0 ) ,
x2 = x1 − λF (x1 ) ,
...
xn = xn−1 − λF (xn−1 ) .
♣ Se F (x) è un polinomio in x questo esercizio diventa banale perché è noto che ogni polinomio di
grado n ha n radici e quindi f (x) non può essere una contrazione per n > 1. Se invece n = 1,
F (x) = ax e f (x) = (1 − a)x è una contrazione per α = |1 − a| < 1. Ovviamente la soluzione esiste per
qualunque valore di α, ma il metodo delle contrazioni ci assicura l’esistenza solo per α < 1. Questo
significa semplicemente che l’essere f una contrazione è una condizione sufficiente, ma non necessaria
per l’esistenza di un’unica soluzione. Questo appena discusso è un caso assolutamente banale, ma si
possono incontrare casi complicati in cui la soluzione trovata vale anche per valori dei parametri per
cui l’operatore in questione non è una contrazione. Questo si vede generalmente dopo avere trovato
la soluzione esatta. Se però ci si ferma ad una soluzione approssimata, bisogna considerare solo quei
valori dei parametri per cui l’oeratore è una contrazione.
Esercizio 2. (Funzioni Liftsitziane) – Trovare la soluzione dell’equazione f (x) = x per una funzione
continua nell’intervallo [a, b] e che soddisfa la condizione di Lifsitz
|f (x) − f (y)| ≤ K|x − y| ,
x, y ∈ [a, b] ,
K < 1.
Soluzione – La funzione f è una contrazione in uno spazio metrico (l’intervallo [a, b] dotato della distanza
di IR, esempio 1 sopra) e quindi la soluzione esiste, è unica e si ottiene come limite della successione {xn },
dove
x1 = f (x0 ) ,
x2 = f (x1 ) ,
...
xn = f (xn−1 ) ,
con x0 arbitrario. xn rappresenta un valore approssimato della soluzione esatta x = limn→∞ xn .
Esercizio 3. (Equazioni di Fredholm) – Trovare la soluzione dell’equazione integrale non omogenea,
lineare, di II-specie
Z b
dy K(x, y) f (y) ,
f (x) = ϕ(x) + λ
a
dove λ è un parametro arbitrario, mentre ϕ(x) e K(x, y) sono funzioni date, continue nell’intervallo [a, b].
K(x, y) è detto nucleo dell’equazione e, per l’ipotesi di continuità, |K(x, y| ≤ M .
Soluzione – Nello spazio C[a, b] si consideri l’applicazione
Z b
dy K(x, y) f (y) .
g(x) = (Af )(x) = ϕ(x) + λ
a
Dalla definizione di distanza in C[a, b] si ha
ρ(g1 , g2 ) = max |g1 − g2 | ≤ |λ|(b − a) M ρ(f1 , f2 ) =⇒ ρ(Af1 , Af2 ) ≤ |λ|(b − a) M ρ(f1 , f2 ) .
Se λ (b − a)M < 1, l’applicazione A è una contrazione nello spazio C[a, b], che è completo. Per λ
sufficientemente piccolo l’equazione di Fredholm ha quindi un’unica soluzione che può essere ottenuta per
approssimazioni successive a partire da una funzione arbiraria f0 . Si ha
Z b
dy K(x, y) fn−1 (y) ,
n = 1, 2, 3, ...
fn (x) = ϕ(x) + λ
a
11
Spazi di Hilbert
Esercizio 4. (Funzioni di Hermite) – Si veda la trasformata di Fourier come un operatore lineare
F : L2 → L2 e si cerchino le funzioni (autofunzioni) che rimangono invarianti (a meno di un fattore) per
questo tipo di trasformazione.
Soluzione – Se ψ è una funzione di L2 invariante per trasformazioni di Fourier, allora
F [ψ(x)](k) = ψ̃(k) = λψ(k) ,
(11.1)
dove λ è un numero complesso. Applicando tuttavia 4-volte di seguito la trasformata di Fourier si deve
ottenere la funzione di partenza, dunque
ψ = F 4 [ψ] = F 3 [λψ] = F 2 [λ2 ψ] = F [λ3 ψ] = λ4 ψ =⇒ λ = ±1, ±i .
La trasformata di Fourier, vista come operatore F : L2 → L2 ha autovalori ±1, ±i.
Alcune autofunzioni si possono ricavare ricordando la proprietà della trasformata di Fourier
F [(−ix)n f (x)](k) =
d
F [f ](k)
dk n
e il fatto che la gaussiana ψ0 (x) = e−
2
− k2
F [ψ0 ](k) = e
x2
2
è autofunzione, come si verifica direttamente. Infatti
= ψ0 (k) =⇒ λ0 = 1 .
Consideriamo ora la funzione ψ1 (x) = −ixψ0 (x). Per questa si ha
F [ψ1 (x)](k) = F [−ixψ0 (x)](k) = ψ0′ (k) = −iψ1 (k) =⇒ λ1 = −i .
Analogamente per ψ2 (x) = [(−ix)2 + (1/2)]ψ0 (x) si ha
1
F [ψ2 (x)](k) = ψ0′′ (k) + ψ0 = −ψ2 (k) =⇒ λ2 = −1 .
2
Per procedere oltre osserviamo che, se ψ(x) è autofunzione con autovalore λ, allora xψ(x) − ψ ′ (x) è
autofunzione con autovalore −iλ. Infatti
F [xψ(x) − ψ ′ (x)] (k) = iψ̃ ′ (k) − ik ψ̃(k) = −iλψ(k) .
Per ottenere le autofunzioni di F basta quindi agire con l’operatore x − d/dx, partendo da ψ0 . In questo
modo abbiamo
ψ0 = e−
x2
2
,
ψ1 = 2xψ0 ,
ψ2 = (4x2 − 2)ψ0 ,
...
Evidentemente esistono infinite autofunzioni che sono tutte della forma
ψn (x) = Hn (x) e−
x2
2
,
funzioni di Hermite,
(11.2)
dove Hn sono polinomi di grado n con parità definita, detti polinomi di Hermite e coincidono con quelli
visti sopra.
Esercizio 5. (Oscillatore armonico) – Trovare autofunzioni e autovalori dell’operatore differenziale
d2
2 2
H : IR → IR dato da H = − dx
2 + α x .
Soluzione – Si consideri l’equazione differenziale
d2
− 2 + α2 x2 ψ(x) = −ψ ′′ (x) + α2 x2 ψ(x) = µαψ(x) ,
dx
(11.3)
che, con un’opportuna scelta del parametro α diventa quella che descrive l’oscillatore armonico in meccanica quantistica. α è un parametro dimensionale e per quanto concerne l’interesse matematico, si può
porre uguale a 1 senza perdere in generalità. Questo equivale a scegliere variabili a-dimensionali mediante
la trasformazione x → x/α. Le dimensioni corrette si potranno ristabilire a fine calcolo mediante l’analisi
dimensionale.
Si osservi che, per α = 1, l’equazione (11.3) è invariante rispetto a trasformazioni di Fourier. Infatti
si ottiene
−(ik)2 ψ̃(k) − α2 ψ̃ ′′ (k) = µψ̃(k) =⇒ −ψ̃ ′′ (k) +
k2
µ
ψ̃(k) = ψ̃(k) .
2
α
α
(11.4)
Questo significa che se ψ(x) = f (x) è soluzione della (11.3), allora ψ̃(k) = f (k) è soluzione della (11.4).
In altre parole, le soluzioni dell’equazione (11.3) (autofunzioni dell’oscillatore armonico) sono anche autofunzioni dell’operatore F . Le autofunzioni di F sono le funzioni di Hermite (11.2). Sostituendo ψ(x)
con ψn (x) nell’equazione differenziale (11.3) (con α = 1) si ottiene
−ψn′′ (x) + x2 ψ(x) = − [Hn′′ (x) − (2x + 1)Hn′ (x)] e−
x2
2
= µn Hn e−
x2
2
,
da cui segue
Hn′′ (x) − (2x + 1)Hn′ (x) + µn Hn (x) = 0 ,
Hn (x) =
n
X
aj xj .
(11.5)
j=0
Usando nell’equazione (11.5) l’espressione esplicita per i polinomi Hn (x) si ottengono le formule di
ricorrenza
n
X
j=0
[(j + 1)(j + 2)aj+2 − (2j + 1 − µn )aj ] xj = 0 =⇒
aj+2 =
2j + 1 − µn
,
(j + 1)(j + 2)
j = 0, 1, ..., n − 2 ,
an+2 = 0 =
2n + 1 − µn
.
(n + 1)(n + 2)
Dall’ultima espressione si ricava µn = 2n + 1 che è l’autovalore corrispondente all’autofunzione ψn . In
conclusione si ha
Hn′′ (x) − 2xHn′ (x) + (2n + 1)Hn (x) = 0 ,
aj+2 =
2(j + 1 − n)
,
(j + 1)(j + 2)
j ≤ n − 2.
L’ultima espressione permette di ricavare esplicitamente i coefficienti dei polinomi di Hermite.
Le funzioni di Hermite costituiscono un sistema ortogonale completo in L2 (−∞, ∞). Di norma la
completezza è di difficile dimostrazione, mentre invece è immediato verificare l’ortogonalità. Usando la
(11.3) si ha
−ψn′′ + x2 ψn = µn ψn ,
′′
−ψm
+ x2 ψm = µm ψm .
Moltiplicando la prima per ψm e la seconda per ψn e sottraendo si ottiene
′′
ψn′′ ψm − ψn ψm
=
d
′
(ψ ′ ψm − ψn ψm
) = (µm − µn )ψn ψm .
dx n
Assumendo n 6= m e integrando si ricava il risultato desiderato, cioè
Z ∞
Z ∞
1
d
′
ψn ψm dx =
(ψ ′ ψm − ψn ψm
) dx = 0 .
µm − µn −∞ dx n
−∞
(11.6)
12
Distribuzioni
Esercizio 6. (Proprietà di δ) – Verificare che per ogni a, y ∈ C
I e α(x) ∈ C ∞ , per la distribuzione
′
δ ∈ D (IR) valgono le seguenti proprietà,:
1)
δ(x) = δ(−x) ,
2)
3)
5)
δ(ax) = δ(x)
|a| ,
xδ(x) = 0 ,
4)
6)
,
δ(x2 − a2 ) = δ(x−a)+δ(x+a)
2|a|
1
1
2
δ x − y = x δ(x − y) = y 2 δ(x − y) ,
α(x) δ(x − a) = α(a) δ(x − a) .
Soluzione – Le prime quattro sono una diretta conseguenza delle regole sul cambiamento di variabile,
mentre le altre due seguono dalla definizione usando il fatto che x e α(x) sono funzioni C ∞ . A titolo di
esempio verifichiamo la 4) e la 6).
4) Soluzione – poniamo g(x) = 1/x − 1/y, g ′ (x) = −1/x2 . L’equazione g(x) = 0 ha come unica
soluzione x1 = y, per cui si ha
δ(x − x1 )
1
1
δ
=
−
= y 2 δ(x − y) = x2 δ(x − y) .
x y
|g ′ (x1 )|
6) Soluzione – osserviamo che
(α(x)δ(x − a), ϕ(x)) = (δ(x − a), α(x)ϕ(x)) = α(a) ϕ(a) = α(a) (δ(x − a), ϕ(x)) ,
da cui segue la 6).
Esercizio 7. (Funzione ϑ di Heaviside) – Verificare che la derivata della funzione ϑ(x) (funzione a
gradino, che vale 1 per x positivo e 0 per x negativo), vista come distribuzione in D′ (IR) coincide con
δ(x), mentre la sua primitiva è la distribuzione f = xϑ(x) + c (c costante arbitraria).
Soluzione – ϑ(x) è una funzione localmente sommabile e dunque definisce una distribuzione regolare.
Si ha
Z ∞
Z ∞
dx ϕ(x) ,
dx ϑ(x)ϕ(x) =
(ϑ, ϕ) =
0
−∞
da cui segue
′
′
(ϑ , ϕ) = −(ϑ, ϕ ) = −
Z
∞
dx ϕ′ (x) = ϕ(0) = (δ, ϕ) =⇒ ϑ′ = δ .
0
Derivando f otteniamo
f′ =
d
[xϑ(x) + c] = ϑ(x) + xδ(x) = ϑ(x) ,
dx
e quindi f è la primitiva di ϑ.
Esercizio 8. (Derivate successive di δ) – Verificare che le derivate successive δ (k) di δ in D′ (IR) sono
distribuzioni linearmente indipendenti. Questo significa che, qualunque sia n
fn =
n
X
ak δ (k) = 0 =⇒ ak = 0 ,
k = 0, 1, 2, ..., n
k=0
Soluzione – Applicando fn ad un’arbitraria funzione test, usando la linearità del funzionale e la
definizione di derivata, si ha
0 = (fn , ϕ) =
n
X
(−1)k ak (δ, ϕ(k) ) =
k=0
n
X
(−1)k ak ϕ(k) (0) .
k=0
Poiché ϕ è arbitraria, tutti i coefficienti ak devono annullarsi.
Esercizio 9. (Rappresentazioni di δ) – Verificare che data una qualunque funzione f sommabile in
IR e tale che
Z
dx f (x) = 1 ,
IR
si ha
δ(x) = lim kf (kx) = lim
ε→0
k→∞
1
f (x/ε) .
ε
Soluzione – La dimostrazione si ottiene banalmente derivando la primitiva della funzione kf (kx). Si
ha
Z kx
Z x
dt f (t) → ϑ(x) ,
(12.1)
dt k f (kt) =
Fk (x) =
−∞
−∞
da cui
Fk′ (x) = kf (kx) → ϑ′ (x) = δ(x) .
Esercizio 10. (Derivate in D′ (IR)) – Calcolare esplicitamente le derivate delle seguenti distribuzioni:
1) |x| ,
2) log |x| ,
3) P
1
.
x
1) Soluzione – La distribuzione è regolare. Dalla definizione di derivata si ha
Z 0
Z ∞
Z ∞
d|x|
′
′
′
dx xϕ′ (x)
dx xϕ (x) +
dx |x|ϕ (x) = −
,ϕ
= −(|x|, ϕ ) = −
dx
−∞
0
−∞
Z 0
Z ∞
0
∞
dx ϕ′ (x)
dx ϕ′ (x) + [xϕ(x)]−∞ −
= − [xϕ(x)]0 +
−∞
0
Z ∞
Z ∞
dx ϑ(−x) ϕ′ (x)
dx ϑ(x) ϕ′ (x) −
=
−∞
−∞
Z ∞
dx [ϑ(x) − ϑ(−x)] ϕ′ (x) = (ϑ(x) − ϑ(−x), ϕ) .
=
−∞
Di qui segue
d|x|
dx
= ϑ(x) − ϑ(−x).
2) Soluzione – La distribuzione è regolare. Come sopra si ha
Z ∞
d log |x|
dx log |x|ϕ′ (x)
,ϕ
= −(log |x|, ϕ′ ) = −
dx
−∞
Z 0
Z ∞
′
dx log(−x)ϕ′ (x)
dx log xϕ (x) −
= −
0
= − lim
ε→0
Z
∞
−∞
dx log xϕ′ (x) +
ε
∞
Z
−ε
−∞
dx log(−x)ϕ′ (x)
Z −ε
ϕ(x)
ϕ(x)
−ε
dx
+ [log(−x)ϕ(x)]−∞ −
ε→0
x
x
ε
−∞
Z ∞
Z −ε
ϕ(x)
ϕ(x)
dx
+
dx
= lim log ε [ϕ(ε) − ϕ(−ε)] + lim
ε→0
ε→0
x
x
−∞
ε
Z ∞
ϕ(x)
1
dx
= lim log ε [2εϕ′ (0) + o(ε2 )] + v.p.
= P ,ϕ .
ε→0
x
x
−∞
Z
∞
= − lim [log xϕ(x)]ε −
Quindi si ha
d log |x|
dx
=P
1
x
.
dx
3) Soluzione – La distribuzione è singolare. Usando la definizione si ha
Z ∞
Z −ε
d
ϕ′ (x)
ϕ′ (x)
1
1 ′
dx
dx
P ,ϕ
= − P , ϕ = − lim
+
ε→0
dx x
x
x
x
ε
−∞
(
)
∞ Z ∞
−ε
Z −ε
ϕ(x)
ϕ(x)
ϕ(x)
ϕ(x)
= − lim
dx 2 +
dx 2
+
+
ε→0
x ε
x
x −∞
x
ε
−∞
Z −ε Z ∞ Z ∞
ϕ(0)
ϕ(x) − ϕ(0)
2ϕ(0)
dx 2 − v.p.
dx
+
+ o(ε) − lim
= lim
ε→0
ε→0
ε
x
x2
−∞
ε
−∞
Z ∞
1
ϕ(x) − ϕ(0)
= − P 2,ϕ .
dx
= −v.p.
2
x
x
−∞
Si vede dunque che
d
1
1
P
= −P 2 ,
dx x
x
P
Z ∞
ϕ(x) − ϕ(0)
1
dx
,
ϕ
≡
v.p.
.
2
x
x2
−∞
Esercizio 11. (Limiti in D′ (IR)) – In D′ (IR) calcolare i limiti per ε → 0 delle seguenti distibuzioni:
1)
x
,
x2 + ε2
2)
ε
,
x2 + ε2
3)
sin(x/ε)
,
x
4) eix/ε P
1
,
x
5) cos(x/ε) P
1) Soluzione – Osserviamo che
1
1
1
1
1
x
1
1
→
=P .
=
lim
lim 2
+
+
ε→0 2
ε→0 x + ε2
x + iε x − iε
2 x + i0 x − i0
x
Nell’ultima espressione si sono usate le formule di Sokhotski.
2) Soluzione – La funzione si può scrivere nella forma (1/ε) f (x/ε) dove
Z ∞
1
dx f (x) = [arctan(x)]∞
,
f (x) = 2
−∞ = π .
x +1
−∞
Per quanto visto sopra la funzione è quindi una rappresentazione della δ e pertanto
ε
lim
= πδ(x) .
ε→0 x2 + ε2
3) Soluzione – La funzione data si può scrivere nella forma (1/ε) f (x/ε) dove ora
Z R
sin x
sin x
dx
,
lim
= π,
f (x) =
R→∞ −R
x
x
e pertanto
lim
ε→0
1
x
sin = πδ(x) .
x
ε
L’integrale di f (x) si calcola facilmente usando il metodo dei residui.
4) Soluzione – Data un’arbitraria funzione test con supporto in [−R, R] si ha
Z R
Z R/ε
eix/ε ϕ(x)
eiy ϕ(εy)
1
dx
dy
= v.p.
.
(eix/ε P , ϕ) = v.p.
x
x
y
−R
−R/ε
Prendendo il limite ε → 0 otteniamo
Z ∞
1
eiy
lim (eix/ε P , ϕ) = v.p.ϕ(0)
dy
= iπ ϕ(0) = iπ (δ, ϕ) .
ε→0
x
y
−∞
In conclusione
lim eix/ε P
ε→0
1
= iπ δ(x) .
x
1
.
x
Anche l’ultimo integrale si calcola usando il metodo dei residui.
5) Soluzione – Anziché applicare la distribuzione ad una funzione test osserviamo che
x 1
x 1
1
x 1
lim cos P
= lim eix/ε − i sin P
= lim eix/ε P
− lim i sin P
= 0.
ε→0
ε→0
ε→0
ε→0
ε x
ε x
x
ε x
Esercizio 12. (Limiti in D′ (IR)) – In D′ (IR) calcolare i limiti per t → ∞ delle seguenti distibuzioni:
1)
eixt
,
x ± i0
2)
e−ixt
,
x ± i0
3) tm e−ixt (m ≥ 0) .
1) Soluzione – Usando le formule do Sokhotski e i risultati dell’esercizio precedente otteniamo
eixt
1
lim
= lim eixt P + iπδ
= 2πiδ(x) ,
t→∞ x − i0
t→∞
x
eixt
1
lim
= 0.
= lim eixt P − iπδ
t→∞ x + i0
t→∞
x
2) Soluzione – Volendo usare i risultati appena ottenuti poniamo x = −y, pertanto
e−ixt
= − lim
t→∞
t→∞ x + i0
−ixt
e
lim
= − lim
t→∞ x − i0
t→∞
lim
eiyt
= −2πiδ(y) = −2πiδ(x) ,
y − i0
eiyt
= 0.
y + i0
3) Soluzione – La distribuzione è regolare. Applicandola ad una generica funzione test si ha
Z ∞
m −itx
m
dx e−itx ϕ(x) = tm ϕ̃(t) ,
(t e
, ϕ) = t
−∞
dove ϕ̃(t) è la trasformata di Fouriesr di ϕ(x). Poiché ϕ(x) ∈ C ∞ , ϕ̃(t) decresce all’infinito più rapidamente di qualsiasi potenza e pertanto il limite della distribuzione data è nullo per qualunque valore di
m.
P∞
Esercizio 13. (Serie trigonometrica) – Verificare che la serie trigonometrica k=−∞ ak eikx converge
in D′ (IR) se |ak | ≤ A|k|m +B, con A, B, m arbitrari, m ≥ 0. ak è quindi un polinomio di grado qualunque.
Soluzione – Per quanto visto nella sezione sulla derivazione in D′ (IRn ), le serie di funzioni localmente sommabili e uniformemente convergenti su ogni compatto si possono derivare quanto si vuole. Per
dimostrare che la serie trigonometrica converge, basta mostrare che, sotto le ipotesi fatte, è ottenibile
derivando una serie uniformemente convergente. A tale scopo costruiamo la serie di funzioni localmente
sommabili
∞
X
ak
a0 xm+2
+
eikx
(m + 2)!
(ik)m+2
(12.2)
k=−∞
che converge uniformente in tutto IR, in quanto è maggiorata da una serie numerica convergente. Infatti
si ha
∞
∞
∞
X
X
X
ak
B
A
|ak |
ikx .
e
≤
+
≤
(ik)m+2
|k|m+2
k2
k m+2
k=−∞
k=−∞
k=−∞
Derivando m + 2 volte la serie in (12.2) si ottiene esattamente la serie del problema.
Esercizio 14. (Serie di δ) – Mostrare che le serie seguenti convergono in D′ (IR) qualunque sia ak ∈ C:
I
1)
∞
X
k=−∞
ak δ(x − k) ,
2)
∞
X
k=−∞
ak δ (k) (x − k) .
1) Soluzione – Applicando la serie ad un’arbitraria funzione test con supporto in [−R, R] si ha
!
R
∞
∞
∞
X
X
X
X
ak ϕ(k) < ∞ .
ak ϕ(k) =
ak (δ(x − k), ϕ(x)) =
ak δ(x − k), ϕ(x) =
k=−R
k=−∞
k=−∞
k=−∞
La serie si tronca perché ϕ(k) = 0 per k > R.
2) Soluzione – Le derivate delle funzioni test sono ancora funzioni test e quindi
!
R
∞
∞
X
X
X
(k)
(−1)k ak ϕ(k) < ∞ .
(−1)k ak ϕ(k) (k) =
ak δ (x − k), ϕ(x) =
k=−R
k=−∞
k=−∞
Esercizio 15. (Formula di Poisson) – Dimostrare che in D′ (IR) valgono le identità
∞
X
1)
2)
k=−∞
∞
X
k=−∞
δ(x − 2πk) =
∞
1
1 X
1
+
cos(kx) =
2π π
2π
k=1
∞
2 X
cos(2k + 1)x .
(−1)k δ(x − πk) =
π
∞
X
k=−∞
eikx =
1
2π
∞
X
e−ikx ,
k=−∞
k=0
1) Soluzione – Ricordiamo che per x ∈ (0, 2π) vale lo sviluppo di Fourier
x−π =
X
n∈Z
Z;n6=0
ieinx
,
n
∀x ∈ (0, 2π) .
Per x ∈ IR, la serie precedente produce una funzione periodica f (x) (dente di sega), che può essere scritta
nella forma
f (x) = π +
X
n∈Z
Z;n6=0
∞
X
ieinx
(x − 2πn) χn (x) ,
=
n
n=−∞
x ∈ IR ,
(12.3)
dove χn (x) è la funzione caratteristica dell’intervallo (2πn, 2π(n + 1)), che vale 1 dentro l’intervallo e zero
altrimenti. Quindi
χn (x) = ϑ(x − 2πn) − ϑ(x − 2π(n + 1)) =⇒ χ′ (x) = δ(x − 2πn) − δ(x − 2π(n + 1)) .
P∞
Derivando la distribuzione f , tenendo conto che n=−∞ χn (x) = 1 e xδ(x) = 0 si ottiene
−
X
einx = f ′ (x)
∞
X
=
{χn (x) + (x − 2πn) [δ(x − 2πn) − δ(x − 2π(n + 1))]}
n=−∞
n∈Z
Z;n6=0
=
1 − 2π
∞
X
n=−∞
δ(x − 2π(n + 1)) = 1 − 2π
∞
X
n=−∞
δ(x − 2πn) ,
da cui segue direttamente la 1). Si deve osservare che in D′ (IR) è lecito derivare termine a termine la
(12.3) perché il membro di destra dell’equazione è la derivata di una serie uniformemente convergente.
2) Soluzione – In questo caso si può procedere in modo opposto a quello precedente. Chiamando f ′ (x)
la primitiva del primo membro della 2) e ricordando che δ(x) è la derivata della funzione ϑ(x) si ha
f (x) =
∞
X
k=−∞
(−1)k ϑ(x − πk) ,
a meno di una costante inessenziale. Notiamo che
f (x) =
∞
X
k=−∞
(−1)k ϑ(x − πk) = ... + [ϑ(x + 2π) − ϑ(x + π)] + [ϑ(x) − ϑ(x − π)]
+[ϑ(x − 2π) − ϑ(x − 3π)] + [ϑ(x − 4π) − ϑ(x − 5π)] + ...
è la funzione ottenuta mediante il prolungamento periodico dell’impulso quadrato seguente:
1 , x ∈ (0, π) ,
ε(x) =
0 , x ∈ (−π, 0) .
La serie di Fourier di tale funzione è data da
ε(x) =
∞
∞
1 X 1 − (−1)n
2 X sin(2k + 1)x
sin(nx) =
,
π n=1
n
π
2k + 1
x ∈ (−π, π) .
k=1
Per ogni x ∈ IR abbiamo dunque
f (x) =
∞
2 X sin(2k + 1)x
,
π
2k + 1
k=1
da cui derivando si ottiene la 2) come richiesto. E’ lecito derivare termine a termine per lo stesso motivo
dell’esercizio precedente.
♣ Applicando il risultato ottenuto in 1) ad una funzione test si ottiene la formula di somma di Poisson.
Si ha
!
∞
∞
X
X
ϕ(2πk) ,
δ(k − 2π), ϕ =
k=−∞
k=−∞
∞
X
k=−∞
1
2π
Z
dx e−ikx ϕ(x) =
1
2π
∞
X
ϕ̃(k) ,
k=−∞
da cui segue
∞
X
ϕ(2πk) =
k=−∞
1
2π
∞
X
ϕ̃(k) ,
formula di somma di Poisson.
k=−∞
Come per le distribuzioni temperate, la trasformata di Fourier è definita in maniera ‘asimmetrica‘
mediante
Z ∞
Z ∞
1
dk eikx ϕ̃(k) .
dx e−ikx ϕ(x) ,
ϕ(x) =
ϕ̃(k) =
2π
−∞
−∞
Si noti che se φ(x) ∈ D allora il primo membro della formula di Poisson è costituito da una somma
finita. Se invece ϕ(x) ∈ S allora si ha un’identità fra due serie.
A titolo di esempio prendiamo ϕ(x) = exp(−αx2 ) con α > 0. Allora abbiamo
r
Z ∞
Z ∞
π −k2 /4α
−α(x+ikx/α)2
−ikx −αx2
−k2 /4α
dx e
=
dx e
e
=e
φ̃(k) =
e
.
α
−∞
∞
Si ottiene in tal modo l’indentità di Jacobi
∞
X
n=−∞
∞
X
2
2
1
e−n /4α .
e−2παn = √
2 πα n=−∞
Esercizio 16. (Equazioni algebriche) – Siano y = y(x) ∈ D′ (IR), ϕ ∈ D(IR), α(x) ∈ C ∞ e n ∈ IN.
Si assuma inoltre che α(x) si annulli soltanto in x0 e si indichino con a, b, c, ak delle costanti arbitrarie.
Risolvere le seguenti equazioni algebriche:
1) xy = 0 ,
6) α(x)y = 0 ,
2) xy = 1 ,
3) xy = P
7) x(x − 1)y = 0 ,
1
,
x
4) x2 y = 2 ,
8) y cos x = 0 ,
5) xn y = 0 ,
9) x(x + 1)2 y = 0 .
1) Soluzione – Vista come funzione, y(x) = 0 per x 6= 0 e l’equazione perde di signifcato per x = 0.
Nell’ambito delle distribuzioni l’equazione ha soluzioni per ogni valore di x. E’ evidente che la soluzione
avrà supporto in {0}. Applicando la distribuzione alla generica funzione test si ha
(xy, ϕ) = (y, xϕ) = 0 =⇒ y = a δ .
2) Soluzione – Una soluzione particolare è data da P
y = aδ + P
1
x
e pertanto la soluzione generale è
1
.
x
3) Soluzione – Una soluzione particolare è data da P x12 e quindi
y = aδ + P
1
.
x2
4) Soluzione – Una soluzione particolare è data da 2 P x12 . Per trovare la soluzione generale dell’equazione omogenea ricordiamo che
(xm δ (n) , ϕ) = (δ (n) , xm ϕ) = (−1)n
dn m
[x ϕ(x)]|x=0 .
dxn
L’espressione precedente è nulla per ogni n < m. In particolare si ha
2
1
(x δ, ϕ) = 0 ,
=⇒ y = aδ + bδ ′ + 2 P 2 .
(x2 δ ′ , ϕ) = 0 ,
x
5) Soluzione – Per quanto visto nell’esercizio precedente si ha y =
Pn−1
k=0
ak δ (k) .
6) Soluzione – E’ chiaro che y è una distribuzione che ha supporto su tutti gli zeri di α(x). In questo
caso c’e’ un’unico zero semplice e pertanto y = aδ(x − x0 ).
7) Soluzione – La funzione x(x − 1) ha due zeri semplici e quindi y = aδ(x) + bδ(x − 1).
8) Soluzione – In questo caso ci sono infiniti zeri semplici nei punti xk e pertanto si ottiene
∞
X
1
ak δ(x − xk ) ,
xk = k +
y=
π.
2
k=−∞
9) Soluzione – La funzione x(x + 1)2 ha uno zero semplice in x = 0 e uno zero doppio in x = −1. Per
quanto visto negli esercizi precedenti si avrà
y = aδ(x) + bδ(x + 1) + cδ ′ (x + 1) .
Esercizio 17. (Equazioni differenziali) – In D′ (IR) risolvere le equazioni differenziali seguenti (n, m =
0, 1, 2, ..., a, b, c, ak , bk , ck costanti arbitrarie):
1) y (m) = 0 ,
2) xn y (m) = 0 , (n > m) ,
5) x2 y ′ = 0 ,
6) x2 y ′ = 1 ,
7) y ′′ = δ ,
3) xy ′ = 1 ,
4) xy ′ = P
8) (x + 1)y ′′ = 0 ,
1
,
x
9) (x + 1)2 y ′′ = 0 .
1) Soluzione – E’ chiaro che se non ci sono punti singolari (zeri/infiniti), allora la soluzione ottenuta
per le funzioni vale anche nell’ambito delle distribuzioni. Nel caso specifico la soluzione classica y =
P
m−1
k
k=0 ak x è valida per ogni x e definisce una distribuzione regolare.
2) Soluzione – In questo caso si deve tenere conto degli zeri della funzione xn . Per quanto visto
precedentemente (vedi equazione algebriche) si ha
y (m) = a0 δ + a1 δ ′ + ... + an−1 δ (n−1) .
Integrando questa distribuzione 2 volte si ottiene
y (m−1)
y (m−2)
= bm + a0 ϑ + a1 δ + ... + an−1 δ (n−2) ,
= bm−1 + bm x + a0 ϑx + a1 ϑ + ... + an−1 δ (n−3) ,
′
Si vede dunque che integrando m volte si otterrà il polinomio classico, più una distribuzione in D+
(IR)
data dalle ϑ e una distribuzione con supporto in {0} dovuta alle δ. Il risultato finale ha la forma
y=
m−1
X
ak xk +
m−1
X
bk ϑ xm−k−1 +
ck δ (k−m) ,
k=m
k=0
k=0
n−1
X
dove ak , bk , ck sono costanti arbitrarie.
3) Soluzione – Basta trovare una soluzione particolare e sommarla alla soluzione dell’equazione
omogenea scritta sopra. Per trovare la soluzione particolare y0 osserviamo che
y0′ = P
1
x
=⇒ y0 = log |x| =⇒ y = a + bϑ + log |x| .
4) Soluzione – Procedendo come nell’esercizio precedente si ha
y0′ = P
1
x2
=⇒ y0 = −P
1
x
=⇒ y = a + bϑ − P
1
.
x
5) Soluzione – E’ un caso particolare del caso generale trattato sopra. Si ha y = a + bϑ + cδ.
6) Soluzione – Una soluzione particolare è data da
y0′ = P
1
x2
=⇒ y0 = −P
1
x
=⇒ y = a + bϑ + cδ − P
1
.
x
7) Soluzione – La soluzione si ottiene integrando direttamente, cioè
y ′′ = δ =⇒ y ′ = a + bϑ =⇒ y = ax + bϑx + c .
8) Soluzione – La funzione x + 1 ha uno zero semplice in x = −1 e pertanto
y ′′ = δ(x + 1) =⇒ y ′ = a + bϑ(x + 1) =⇒ y = ax + b(x + 1)ϑ(x + 1) + c
9) Soluzione – In questo caso c’e’ uno zero doppio in x = −1, pertanto si ha
y ′′ = aδ(x + 1) + bδ ′ (x + 1) =⇒ y ′ = aδ(x + 1) + bδ(x + 1) + c ,
da cui y = a(x + 1)ϑ(x + 1) + bϑ(x + 1) + cx + d .
Esercizio 18. (Prodotto di convoluzione) – Ricordiamo alcune proprietà del prodotto diretto e del
prodotto di convoluzione, supponendo che questo esista. In tal caso si ha
f ∗g =g∗f,
f (x + y) ∗ g(x) = (f ∗ g)(x + y) ,
Dα (f ∗ g) = f ∗ Dα g = g ∗ Dα f .
Il prodotto di convoluzione di una qualunque distribuzione con δ esiste e si ha
δ∗f =f,
δ (m) ∗ f = f (m) .
Per δ ∈ D′ (IRn ) vale la relazione
δ(x1 , x2 , ... , xn ) = δ(x1 ) · δ(x2 ) · ... · δ(xn ) .
Questo segue direttamente dalla definizione di prodotto diretto. Infatti
(δ(x1 ) · δ(x2 ) · ... · δ(xn ), ϕ(x1 , x2 , ... , xn ))
=
=
(δ(x2 ) · ... · δ(xn ), (δ(x2 ), ϕ(x1 , x2 , ... , xn )))
(δ(x2 ) · ... · δ(xn ), ϕ(0, x2 , ... , xn )) .
Procedendo in questo modo si ottiene
(δ(x1 ) · δ(x2 ) · ... · δ(xn ), ϕ(x1 , x2 , ... , xn )) = ϕ(0, 0, ... , 0) = (δ(x1 , x2 , ... , xn ), ϕ(x1 , x2 , ... , xn )) .
Prima di procedere definiamo anche una distribuzione δS che rappresenta la “restrizione” della δ ad una
superficie S ⊂ IRn . Data una qualunque funzione µ(x) continua sulla superficie regolare S ⊂ IRn , si
definisce la distribuzione µδS mediante
Z
(µδS , ϕ) =
dx µ(x)ϕ(x) .
(12.4)
S
Quando la superficie è una iper-sfera di raggio R, cioè IRn ⊃ Sn ≡ {x : |x| = R}, si usa anchela notazione
δSn = δ(R − |x|). Riportiamo esplicitamente i tre casi n = 1, 2, 3 che si incontrano spesso nella fisica. Per
n = 1, 2, 3 si ottiene rispettivamente
(δS1 , ϕ) = ϕ(R) + ϕ(−R) =⇒ δS1 ≡ δ(R − |x|) = δ(x − R) + δ(x + R) ,
(δS2 , ϕ) =
Z
dx ϕ(x) = R
Z
dx ϕ(x) = R2
2π
dϑ ϕ(R, ϑ) ,
0
|x|=R
(δS3 , ϕ) =
Z
|x|=R
Z
dΩ ϕ(R, Ω) ,
Ω
dove l’ultimo integrale è fatto sulla sfera unitaria e dΩ = sin ϑ dϑ dϕ è l’elemento infinitesimo di angolo
solido.
In D′ (IR) calcolare i prodotti di convoluzione seguenti:
1) f = ϑ ∗ ϑ ,
4) f = e−|x| ∗ e−|x| ,
2) f = ϑ ∗ x2 ϑ ,
3) f = xϑ ∗ xϑ ,
2
2
5) f = e−ax ∗ x e−ax ,
a > 0.
1) Soluzione – Poiché entrambi i fattori hanno supporto in IR+ f esiste ed ha supporto in IR+
′
(f ∈ D+
(IR)) . Derivando si ha
f ′ = δ ∗ ϑ = ϑ =⇒ f = xϑ .
Si noti che la costante di integrazione è nulla perché f deve avere supporto in IR+ .
′
2) Soluzione – Anche in questo caso f ∈ D+
(IR). Derivando otteniamo
f ′ = δ ∗ x2 ϑ = x2 ϑ =⇒ f =
1 3
x ϑ.
3
3) Soluzione – Derivando e tenendo conto che f ha supporto in IR+ si ottiene
f ′ = (xδ + ϑ) ∗ xϑ = ϑ ∗ xϑ =⇒ f ′′ = δ ∗ xϑ = xϑ =⇒ f =
1 2
x ϑ.
6
4) Soluzione – Il prodotto di convoluzione è definito perché entrambi i fattori sono sommabili in IR.
In tal caso si ha
Z ∞
Z ∞
Z ∞
dy e−y e−|x+y| .
dy e−y e−|x−y| +
dy e−|y| e−|x−y| =
f (x) =
−∞
0
0
Si deve distinguere fra valori di x positivi e negativi. Allora
R∞
R∞
Rx
dy e−x + x dy ex e−2y + 0 dy e−x e−2y = (1 + x)e−x ,
0
R −x
R∞
R∞
f (x) =
dy ex + −x dy e−x e−2y + 0 dy ex e−2y = (1 − x)ex ,
0
Il risultato finale si può scrivere nella forma compatta
f = ϑ(x)(1 + x)e−x + ϑ(−x)(1 − x)ex = (1 + |x|)e|x| .
x ≥ 0,
x ≤ 0.
5) Soluzione – Anche in questo caso entrambi i fattori sono assolutamente integrabili in IR. Per
semplificare l’integrazione notiamo che f = g ′ , dove
√
Z ∞
2
2
2
e−ax ∗ e−ax
π
1
−ay 2 −a(x−y)2
g(x) = −
dy e
e
= − √ e−ax /2 .
=−
2a
2a −∞
2a 2a
Derivando si ha infine
r
π x −ax2 /2
′
f =g =
e
.
2a a
′
′
Esercizio 19. (Derivazione in D+
(IR)) – In D+
(IR) si consideri la distribuzione
(
ϑ(x)xα−1
, α > 0,
Γ(α)
α ∈ IR ,
fα (x) =
′
,
α ≤ 0,
fα+1
dove Γ(x) è la funzione Gamma di Eulero (integrale del II tipo).
′
Mostrare che per ogni g ∈ D+
(IR) e ogni n ∈ IN si ha
dn
g,
dxn
4) fn ∗ g = ϑ ∗ ϑ ∗ ϑ ∗ ... ∗ g .
1) fα ∗ fβ = fα+β ,
3) f−n ∗ g =
2) f0 ∗ g = δ ∗ g ,
Nell’ultima espressione ci sono n fattori ϑ. Tutti i prodotti di convoluzione sopra esistono perché le
′
distribuzioni appartengono a D+
(IR).
1) Soluzione – Dalla definizione si ha
Z x
ϑ(x)xα+β−1
ϑ(x)
ϑ(x)xα+β−1
fα ∗ fβ =
=
= fα+β .
dy y α−1 (x − y)β−1 = B(α, β)
Γ(α)Γ(β) 0
Γ(α)Γ(β)
Γ(α + β)
La funzione Beta (integrale di Eulero del I tipo) è data da
Z 1
Γ(x)Γ(y)
tx−1
=
= B(y, x) ,
dt
B(x, y) =
y−1
(1
−
t)
Γ(x + y)
0
Re x > 0 , Re y > 0 .
(12.5)
2) Soluzione – Dalla definizione per α = 0 abbiamo
f0 (x) = f1′ (x) = ϑ′ (x) = δ(x) =⇒ f0 ∗ g = δ ∗ g = g .
3) Soluzione – Usando la definizione per α ≤ 0 si ha
(n)
′
′′
f−n = f−n+1
= f−n+2
= ... f0
= δ (n) =⇒ f−n ∗ g = δ (n) ∗ g = δ ∗ g (n) = g (n) .
′
vale anche per α > 0, infatti
4) Soluzione – Notiamo che la relazione fα = fα+1
′
fα+1
=
ϑ(x)xα−1
αϑ(x)xα−1
=
= fα .
Γ(α + 1)
Γ(α)
Allora otteniamo
ϑ = f1 = f2′ = f3′′ = ... fn(n−1) =⇒ fn = ϑ ∗ ϑ ∗ ... ∗ ϑ ,
n fattori.
′
(IR) di ϑ si è scritta nella forma ϑ ∗ ϑ = xϑ.
Si noti che la primitiva in D+
Esercizio 20. (Derivate di ordine qualunque) – La distribuzione introdotta nell’esercizo precedente
′
permette di definire “derivate” e “primitive” di ordine qualunque in D+
(IR) (anche non intero).
+
Se g(x) è una funzione con supporto in IR , per quanto visto sopra si ha
Z x
dg(x)
f−1 ∗ g =
dy g(y) .
,
f1 ∗ g = ϑ ∗ g =
dx
0
Sostituendo 1 con n ∈ IN si ottengono la derivata e la primitiva di ordine n (purché esistano).
′
(IR) non ci sono problemi di esistenza qualunque sia n. Più in generale si definisce
Se g ∈ D+
(α)
g
= f−α ∗ g , derivata di ordine α ,
α ∈ IR .
g(α) = fα ∗ g ,
primitiva di ordine α ,
Queste effettivamente generalizzano il concetto di derivata e integrale.
Usando la definizione data, calcolare
2) δ (1/2) ,
1) δ(1/2) ,
4) ϑ(3/2) .
3) ϑ(3/2) ,
1) Soluzione – Le primitive si calcolano applicando direttamente fα , cioè
ϑ(x)
δ(1/2) = f1/2 ∗ δ = f1/2 = √ .
πx
2) Soluzione – Per calcolare le derivate bisogna prima “spostarsi” verso gli α positivi usando la relazione
di ricorrenza per fα e usare poi la sua espressione in termini della funzione localmente sommabile. Quindi
′
δ (1/2) = f−1/2 ∗ δ = f1/2
=
d ϑ(x)
√ .
dx πx
3) Soluzione – Come in 1) si ottiene
ϑ(3/2)
′
= f5/2
∗ ϑ = f5/2 =
4ϑ(x) x3/2
√
.
3 π
4) Soluzione – Procedendo come in 2) si ricava
′
′′
′
ϑ(3/2) = f−3/2 ∗ ϑ = f−1/2
∗ ϑ = f1/2
∗ ϑ = f1/2
∗δ =
♣ Si osservi che
δ(1/2) =
d2
ϑ(3/2) ,
dx2
δ (1/2) = ϑ(3/2) =
d ϑ(x)
√ .
dx πx
d
δ(1/2) .
dx
Attenzione! Nelle espressioni delle derivate in 2) e 4) non è lecito effettuare esplicitamente la derivazione della funzione perché derivando si otterrebbe una funzione non localmente sommabile. Ad esempio,
g(x) = 2x−1/2 è una funzione localmente sommabile in IR e quindi rappresenta una distribuzione g
regolare in D′ (IR). La sua derivata g ′ è ben definita, ma va calcolata applicando la distribuzione
ad una funzione test. Derivandola direttamente come fuinzione si ottiene −x−3/2 che non rapprenta
nessuna distribuzione.
′
(IR), risolvere l’equazione integrale
Esercizio 21. (Equazione di Abel) – In D+
Z x
u(t)
dt
= g(x) ,
g(x) ∈ C 1 (IR+ ) , g(0) = 0 ,
0 < α < 1.
(x − t)α
0
Soluzione – Si deve trovare la distribuzione u(x) in termini della funzione g(x) data. Mediante la
distribuzione fα introdotta negli esercizi precedenti, l’equazione di Abel si può scrivere nella forma
compatta
Γ(β) fβ ∗ u = g(x) ,
0 < β = 1 − α < 1.
Ricordando le proprietà di fα , in particolare fα ∗ fβ = fα+β e f0 = δ, moltiplicando (convoluzione)
l’equazione precedente per f−β otteniamo
Γ(β) f−β ∗ fβ ∗ u = f−β ∗ g =⇒ Γ(1 − α) u = fα−1 ∗ g = fα ∗ f−1 ∗ g = fα ∗ g ′ .
Usando l’espressione esplicita per fα abbiamo infine
Z x
Z
1
g ′ (t)
g ′ (t)
sin πx x
u(x) =
dt
dt
=
.
1−α
Γ(α)Γ(1 − α) 0
(x − t)
π
(x − t)1−α
0
Esercizio 22. (Trasformate di Fourier) – Ricordiamo che in S ′ (IRn ) la trasformata di Fourier è
definita in maniera “asimmetrica” in quanto, data un’arbitraria funzione test ϕ ∈ S(IRn ), si ha
R
F [ϕ](x) = ϕ̃(x) = IRn dk eR−i(k,x) ϕ(k) ,
=⇒ F [ϕ](x) = (2π)n F −1 [ϕ](−x) .
1
i(k,x)
ϕ̃(k) ,
F −1 [ϕ̃](x) = ϕ(x) = (2π)
n
IRn dk e
Per ogni f ∈ S ′ valgono le proprietà seguenti:
1.
2.
F [(−ix)α f ] = Dα F [f ] ,
F [Dα f ] = (ik)α F [f ] ,
3.
F [f ∗ g] = F [f ]F [g] , quando ha significato.
In S ′ (IR) calcolare le trasformate di Fourier delle seguenti distribuzioni:
1) δ ,
2) 1 ,
4) ϑ ∗ δ ′ ,
3) ϑ ,
5) xϑ(x) ,
6) f (x − x0 ) ,
7) eixk0 f (x) .
In S ′ (IR), S ′ (IR2 ) calcolare le trasformate di Fourier delle seguenti distribuzioni:
8) P
1
,
|x|
9) P
1
,
|x|2
(|x|2 = x21 + x22 ) .
dove
Z
Z
1
ϕ(x) − ϕ(0)
ϕ(x)
P n , ϕ(x) =
+
,
dx
dx
n
|x|
|x|
|x|n
|x|<1
|x|>1
dx = dx1 dx2 ... dxn
e gli integrali precedenti sono fatti su IRn .
1) Soluzione – Dalla terza proprietà, per qualunque distribuzione f ∈ S si ha F [f ] = F [δ∗f ] = F [δ]F [f ]
e quindi F [δ] = 1.
2) Soluzione – Osserviamo che F [1](x) = (2π)n F −1 [1](−x) = (2π)n δ(−x) = (2π)n δ(x). In questo
caso n = 1 e quindi F [1] = 2πδ.
3) Soluzione – Applicando la definizione si ha
Z
Z ∞
Z ∞
dk
dk ϕ̃(k) =
(ϑ̃, ϕ) = (ϑ, ϕ̃) =
0
=
lim
R→∞
Z
R
dk
0
Z
Z
0
∞
−∞
∞
∞
dx e−ikx ϕ(x)
−∞
dx e−ikx ϕ(x) = i lim
R→∞
−iRx
e
−1
Z
∞
dx
−∞
e−iRx − 1
ϕ(x)
x
dx
= i lim v.p.
ϕ(x)
R→∞
x
−∞
1
1
−iRx
P , ϕ(x) − i P , ϕ(x) .
= i lim e
R→∞
x
x
Per quanto visto negli esercizi precedenti (vedi limiti) si ha finalmente
F [ϑ](x) = πδ(x) − iP
1
i
=−
,
x
x − i0
F [ϑ](−x) = πδ(x) + iP
1
i
=
.
x
x + i0
4) Soluzione – Usando le proprietà del prodotto di convoluzione si ha
ϑ ∗ δ ′ = ϑ′ ∗ δ = δ ∗ δ − δ =⇒ F [ϑ ∗ δ ′ ] = F [δ] = 1 .
5) Soluzione – Dalla proprietà 1. scritta per α = 1 si ricava
d
1
1
d
F [xϑ(x)](k) = i F [ϑ(x)](k) = i
πδ(k) − iP
= iπδ ′ (k) − P 2 .
dk
dk
k
k
6) Soluzione – E’ sufficiente dimostrarlo per una distribuzione regolare. Dalla definizione di trasformata
segue
Z ∞
Z ∞
dk e−ikx ϕ(k)
dx f (x − x0 )
(F [f (x − x0 )](k), ϕ(k)) = (f (x − x0 ), F [ϕ](x)) =
−∞
−∞
Z ∞
Z ∞
dk e−ikx e−ikx0 ϕ(k)
dx f (x)
=
=
−∞
−ikx0
(f (x), F [e
−∞
ϕ](x)) = (F [f ](k), e−ikx0 ϕ(k)) = (e−ikx0 F [f ](k), ϕ(k)) ,
da cui segue F [f (x − x0 )](k) = e−ik0 F [f (x)](k).
7) Soluzione – Anche qui assumiamo una distribuzione regolare, quindi
Z
Z ∞
Z ∞
Z ∞
−ikx
ixk0
ixk0
dx f (x)
dk e
ϕ(k) =
f (x)
dx e
f (x)], ϕ) =
(F [e
=
dk e−ixk ϕ(k + k0 )
−∞
−∞
−∞
−∞
∞
(f (x), F [ϕ(k + k0 )](x)) = (F [f (x)](k), ϕ(k + k0 )) = (F [f (x)](k − k0 ), ϕ(k)) ,
da cui segue F [eixk0 f (x)](k) = F [f (x)](k − k0 ).
8) Soluzione – Applicando la definizione per n = 1 si ha
Z
Z
1
ϕ̃(x) − ϕ̃(0)
ϕ̃(x)
F P
dx
(k), ϕ(k)
=
dx
+
|x|
|x|
|x|
|x|<1
|x|>1
(Z
)
Z ∞
Z
[e−ikx − 1]
e−ikx
dk ϕ(k)
=
dx
+
dx
|x|
|x|
k=−∞
|x|<1
|x|>1
Z 1
Z ∞
Z ∞
[cos kx − 1]
cos kx
dx
dk ϕ(k)
=2
dx
+
x
x
x=0
k=−∞
x=1
)
(Z
Z ∞
Z ∞
k
cos y
[cos y − 1]
dy
+
dk ϕ(k)
dy
=2
y
y
y=k
k=−∞
y=0
(Z
)
Z ∞
Z
Z k
1
∞
[cos y − 1]
cos y
dy
dy
dk ϕ(k)
=2
dy
+
−
y
y
y=0
k=−∞
y=1
y=1 y
= (−2 log |k| − 2c1 , ϕ(k)) .
Si ha dunque
1
F P
(k) = −2 log |k| − 2c1 ,
|x|
c1 =
Z
1
dy
0
1 − cos y
−
y
Z
∞
dy
1
cos y
.
y
9) Soluzione – In due dimensioni conviene usare coordinate polari x ≡ (r, ϑ), dx = r drdϑ. In questo
modo si ha
Z 1
Z 2π
Z ∞
ϕ̃(r, ϑ) − ϕ̃(0)
ϕ̃(r, ϑ)
1
dr
dϑ
dr
=
+
F P 2 (k), ϕ(k)
|x|
r
r
0
0
1
Z 1
Z
Z 2π
Z
∞
−i|k|r cos ϑ
[e
− 1]
e−i|k|r cos ϑ
dr
dϑ
=
dr
dk ϕ(k)
+
r
r
0
0
1
IR2
(
)
Z
Z 1
Z 2π
Z ∞
Z |k|
−iy cos ϑ
−iy cos ϑ
[e
− 1]
dy
e
=
dy
dϑ
dk ϕ(k)
dy
+
−
y
y
y
0
0
IR2
1
1
=
(−2π log |k| − 2πc2 , ϕ(k)) ,
da cui segue
1
F P 2 (k) = −2π log |k| − 2πc2 ,
|x|
c2 =
Qui J0 è la funzione di Bessel
Z 2π
Z 2π
1
1
−iz cos ϑ
dϑ e
=
dϑ eiz cos ϑ .
J0 (z) =
2π 0
2π 0
Z
0
1
dy
1 − J0 (y)
−
y
Z
1
∞
dy
J0 (y)
.
y
(12.6)
Esercizio 23. (Trasformate di Fourier di δS – In S ′ (IRn ), per n = 1, 2, 3, calcolare le trasformate di
Fourier della distribuzione δS definita in (12.4), dove S è la superficie |x| = R.
(n=1) Soluzione – In questo caso si ha δS1 = δ(x − R) + δ(x + R) e pertanto
F [δS1 ](k) = F [δ(x − R)](k) + F [δ(x + R)](k) = e−ikR F [δ(x)](k) + eikR F [δ(x)](k) = 2 cos kR .
(n=2) Soluzione – Dalla definizione otteniamo
(F [δ(|x| − R)](k), ϕ(k))
=
(δ(|x| − R), ϕ̃(x)) =
= R
Z
2π
Z
dϑϕ̃(R, ϑ) = R
0
Z
dx ϕ̃(x)
|x|=R
Z
IR
2
dk
Z
2π
dϑ e−i|k|R cos ϑ ϕ(k)
0
dk J0 (R|k|ϕ(k) = (2πRJ0 (R|k|), ϕ(k)) .
IR2
Vediamo dunque che F [δ(R − |x|)](k) = 2πRJ0 (R|k|), dove J0 (z) è la funzione di Bessel in (12.6).
=
2πR
(n=3) Soluzione – Anche qui usiamo la definizione. Allora
Z
dx ϕ̃(x)
(F [δ(|x| − R)](k), ϕ(k)) = (δ(|x| − R), ϕ̃(x)) =
= R2
Z
2π
dπ
2πR2
da cui segue
F [δ(R − |x|)](k) = 4πR
|x|=R
π
dϑ sin ϑϕ̃(R, ϑ, ϕ)
0
0
=
Z
Z
3
IR
dk
Z
1
du e−i|k|Ru ϕ(k) = 4πR
−1
Z
3
IR
dk
sin |k|R
ϕ(k) ,
|k|
sin |k|R
.
|k|
Esercizio 24. – In S ′ (IRn ), per n = 1, 2, 3, verificare le identità seguenti
 ϑ(R−|x|)

,
x ∈ IR ,

2
sin |k|R
ϑ(R−|x|)
√
,
x
∈ IR2 ,
F −1
(x) =
2π R2 −r 2

|k|
 δ(R−|x|)
,
x ∈ IR3 .
4πR
(12.7)
Nel calcolo per n = 2 si consideri noto il risultato
Z R
sin |k|R
rJ0 (r|k|)
,
=
dr √
2 − r2
|k|
R
0
dove J0 (z) è la funzione di Bessel in (12.6).
(n=1) Soluzione – Usando la definizione, facciamo le trasformate di Fourier del secondo membro in
(12.7). Per x ∈ IR si ha
Z R
Z ∞
Z R
dx e−ikx ϕ(k)
dk
dx ϕ̃(x) =
(F [ϑ(R − |x|)](k), ϕ(k)) = (ϑ(R − |x|), ϕ̃(x)) =
−R
−∞
−R
Z ∞
sin kR
sin kR
dk
= 2
ϕ(k) = 2
, ϕ(k) .
k
k
−∞
Poiché la funzione è pari, si può sostituire k con il suo modulo ottenendo cosı̀ il risultato richiesto.
(n=2) Soluzione – Per x ∈ IR2 si ha
Z R Z 2π
rdrdϑ
ϑ(R − |x|)
ϑ(R − |x|)
√
√
(k), ϕ(k)
=
, ϕ̃(x) =
ϕ̃(r, ϑ)
F √
2
2
2
2
R −r
R −r
R2 − r 2
0
0
Z
Z R Z 2π
rdrdϑ er|k| cos ϑ
√
=
dk
ϕ(k)
2
R2 − r 2
0
0
IR
Z
Z R
rdr J0 (r|k|)
sin |k|R
√
= 2π
= 2π
, ϕ(k) .
dk ϕ(k)
|k|
R2 − r 2
0
IR2
(n=3) Soluzione – Questo è esattamente il terzo problema dell’esercizio precedente.
Esercizio 25. (Soluzioni fondamentali di operatori differenziali lineari) – Ricordiamo che ogni
operatore differenziale lineare a coefficienti costanti possiede una soluzione fondamentale E, la quale è
una distribuzione temperata e soddisfa le equazioni
X
P (D)E = δ ,
P (ik) F [E](k) = P (ik)Ẽ(k) = 1 ,
P (D) =
aα Dα .
(12.8)
α
′
′
D+
(IR),
In S (IR) e
costante, n ∈ IN):
d
± a,
1)
dx
trovare la soluzione fondamentale dei seguenti operatori lineari (x ∈ IR, a > 0
2)
n+1
d
±a
,
dx
3)
d2
− a2 ,
dx2
4)
d2
+ a2 ,
dx2
5)
d2
d
+2
+ 1.
2
dx
dx
1) Soluzione – In S ′ si ha
P (ik) = ik ± a =⇒ Ẽ(k) =
1
ik ± a
=⇒ E(x) = F −1 [E(k)](x) .
Calcolando la trasformata inversa otteniamo infine
Z ∞
1
eikx
E(x) =
= ±ϑ(±x) e∓ax .
dk
2πi −∞
k ∓ ia
L’ultimo integrale si calcola rapidamente usando il metodo dei residui. E’ immediato verificare che
l’espressione trovata soddisfa la (12.8).
′
la soluzione è della forma E(x) = ϑ(x)Z(x) dove
1*) Soluzione – In D+
′
Z (x) ± aZ(x) = 0 ,
=⇒ Z(x) = e∓ax =⇒ E(x) = ϑ(x) e∓ax .
Z(0) = 1 ,
♣ Notiamo che la soluzione coincide con quella ottenuta sopra nel primo caso in cui P (d/dx) = d/dx + a.
In tal caso infatti la distribuzione è temperata. Nel secondo caso in cui P (d/dx) = d/dx−a la soluzione
non è temperata e quindi dufferisce rispetto a quella ottenuta sopra.
2) Soluzione – In S ′ , procedendo come sopra abbiamo Ẽ(k) = (ik ± a)−(n+1) da cui segue
Z ∞
Z ∞
eikx
xn
xn ∓ax
eikx
1
dk
=
= ±ϑ(±x)
e
.
dk
E(x) =
n+1
n+1
2π(i)
(k ∓ ia)
2πin! −∞
k ∓ ia
n!
−∞
Per ottenere il risultato precedente si è integrato n volte per parti.
′
si ottiene risolvendo l’equazione differenziale di ordine n + 1
2*) Soluzione – La soluzione in D+
 d
n
 dx ± a Z(x) = 0 ,
xn ∓ax
=⇒ Z(x) =
e
.
Z (n) (0) = 1 ,

n!
′
(n−1)
Z(0) = Z (0) = ... = Z
= 0,
da cui segue E(x) = ϑ(x) xn e∓ax /n!.
3) Soluzione – In S ′ abbiamo
1
1
1
1
,
=
−
Ẽ(k) = − 2
k + a2
2i|a| k + ia k − ia
da cui segue
E(x)
1
= −
2π
= −
Z
∞
−∞
−a|x|
e
2a
.
1
eikx
=
dk 2
2
k +a
4πia
Z
∞
−∞
dk
eikx
eikx
−
k + ia k − ia
Gli integrali precedenti si calcolano usando il metodo dei residui.
′
si ha facilmente
3*) Soluzione – In D+
′′
eax − e−ax
sinh ax
Z (x) − a2 Z(x) = 0 ,
=⇒
Z(x)
=
=
,
′
Z (0) = 1 ,
Z(0) = 0 ,
2a
a
da cui E(x) = [ϑ(x) sinh ax]/a.
4) Soluzione – In questo caso si deve fare attenzione al fatto che il polinomio corrispondente all’operatore non è invertibile (come funzione). Senza perdere in generalità possiamo assumere a > 0 e porre
a = |a|. Otteniamo allora
[(ik)2 + a2 ]Ẽ(k) = −(k − a)(k + a)Ẽ(k) = 1 .
Come si verifica direttamente, una soluzione particolare di questa equazione algebrica è data da
1
1
1
1
1
E(k) = −P
P
.
P
=
−P
k+a k−a
2a
k+a
k−a
Si noti che il prodotto delle due distribuzioni sopra è ben definito perché sono “singolari” in punti distinti.
Mediante l’antitrasformata otteniamo
Z ∞
Z ∞
1
eikx
eikx
E(x) =
dk
v.p.
dk
− v.p.
4πa
k+a
k−a
−∞
−∞
1
=
sin a|x| .
2a
′
si ha come sopra
4*) Soluzione – In D+
′′
sin ax
eiax − e−iax
Z (x) + a2 Z(x) = 0 ,
=
,
=⇒
Z(x)
=
Z ′ (0) = 1 ,
Z(0) = 0 ,
2ai
a
e infine E(x) = [ϑ(x) sin ax]/a.
♣ Si noti che con la sostituzione a → ia quest’ultima espressione diventa
1
1
sin iax = sinh ax ,
ia
a
′
dell’esercizio precedente.
che coincide con la soluzione in D+
5) Soluzione – In questo caso si ha Ẽ(k) = [−k 2 + 2ki + 1]−1 = −(k − i)−2 da cui segue
Z ∞
eikx
1
dk
= ϑ(x) x e−x .
E(x) = −
2π −∞
(k − i)2
′
5*) Soluzione – In D+
si ha
′′
Z (x) + 2Z ′ (x) + 1 = 0 ,
Z ′ (0) = 1 ,
Z(0) = 0 ,
=⇒ Z(x) = x e−x =⇒ E(x) = ϑ(x) x e−x .
′
In questo caso la soluzione in D+
è temperata e coincide con quella in S ′ .
Esercizio 26. (Soluzioni fondamentali del laplaciano) – In S ′ (IRn ) trovare le soluzioni fondamentali
dell’operatore di laplace ∆ per n = 1, 2, 3, vale a dire:
1) ∆ =
d2
,
dx2
2) ∆ =
∂2
∂2
+ 2,
2
∂x1
∂x2
3) ∆ =
1) Soluzione – In S ′ (IR) si ha
F [∆ E(x)](k) = −k 2 Ẽ(k) = 1 =⇒ Ẽ(k) = −P
1
,
k2
∂2
∂2
∂2
+
+
.
2
2
∂x1
∂x2
∂x23
e quindi
E(x)
1
1
1
= F −1 −P 2 (x) =
(x)
F −P
k
2π
(−k)2
ix
1
1
1
d
(x) =
(x)
=
F
P
F P
2π
dk k
2π
k
Z ∞
ix
e−ikx
|x|
=
dk
v.p.
=
.
2π
x
2
∞
2) Soluzione – In S ′ (IR2 ) abbiamo
F [∆ E(x)](k) = −|k|2 Ẽ(k) = 1 =⇒ Ẽ(k) = −P
1
,
|k|2
|k|2 = k12 + k22 .
Allora si ha
1
1
1
1
1
(x) =
E(x) = F −1 −P 2 (x) =
F
−P
log |x| =
log r ,
2
2
|k|
(2π)
| − k|
2π
2π
dove si è tralasciata la costante inessenziale e si è posto x ≡ (r, ϑ).
3) Soluzione – In S ′ (IR3 ), 1/|k|2 è una funzione localmente sommabile e quindi definisce una distribuzione regolare. Si ha
F [∆ E(x)](k) = −|k|2 Ẽ(k) = 1 =⇒ Ẽ(k) = −
1
,
|k|2
|k|2 = k12 + k22 + k32 .
La trasformata inversa si può calcolare direttamente come funzione. Usando coordinate polari
k ≡ (p, ϑ, ϕ), dk = p2 sin ϑ dp dϑ dϕ si ha
Z π
Z 2π
Z 1
Z ∞
Z ∞
1
1
ipr cos ϑ
sin
ϑ
dϑ
e
=
−
dϕ
du eipru
dp
dp
E(x) = −
(2π)3 0
(2π)2 0
0
0
−1
Z ∞
Z ∞
2
sin pr
sin y
1
1
= −
dp
dy
=
−
=−
,
2
2
r(2π) 0
p
r(2π) −∞
y
4πr
dove r = |x| (si noti che la soluzione è il potenziale newtoniano).
Esercizio 27. (Opetarore di Helmholtz) – In S ′ (IR3 ) trovare la soluzione fondamentale degli operatori
1) ∆ + m2 ,
2) ∆ − m2 ,
m > 0.
1) Soluzione – Posto come sopra k ≡ (p, ϑ, ϕ) otteniamo
(−p2 + m2 ) Ẽ(k) = 1 =⇒ Ẽ(k) = −
1
,
p2 − m2 − i0
dove si è introdotta la distribuzione singolare
Z
ϕ(x)
1
, ϕ(x) = lim
dx 2
.
ε→0 IR3
|x|2 − m2 + i0
|x| − m2 − iε
La trasformata di Fourier della funzione (p2 − m2 − iε)−1 in IR3 si può calcolare direttamente. Infatti
Z π
Z 2π
Z ∞
1
p2 eipr cos ϑ
1
F −1 − 2
sin ϑ dϑ 2
dϕ
dp
(x)
=
−
2
3
p − m − i0
(2π) 0
p − m2 − iε
0
0
√
Z ∞
2
p sin pr
eir m +iε
1
dp
=
−
.
= −
r(2π)2 −∞
p2 − m2 − iε
4πr
Facendo il limite ε → 0 abbiamo le due soluzioni
E(x) = −
eimr
,
4πr
Ē(x) = −
e−imr
.
4πr
2) Soluzione – In questo caso la Ẽ(k) = −1/(p2 + m2 ) è una distribuzione regolare. Facendo la
trasformata otteniamo
Z π
Z 2π
Z ∞
1
p2 eipr cos ϑ
E(x) = −
sin ϑ dϑ 2
dϕ
dp
3
(2π) 0
p + m2
0
0
Z ∞
e−mr
p sin pr
1
=−
.
dp 2
= −
2
2
r(2π) −∞
p +m
4πr
Questa soluzione corrisponde al potenziale di Yukawa.
Esercizio 28. (Equazione del calore) – La propagazione del calore attraverso un mezzo omogeneo è
governata dall’operatore
∂
− α∆ ,
∂t
dove α > 0 è una costante che dipende dal mezzo, t ≥ 0 è il tempo e ∆ il laplaciano in n dimensioni
spaziali x ∈ IRn .
′
(IR) × S ′ (IRn ).
1) Determinare la soluzione fondamentale in D+
1) Soluzione – Facciamo la trasformata di Fourier dell’equazione rispetto a x ∈ IRn , considerando il
tempo come un parametro esterno. Allora otteniamo
F [δ(t, x)] = F [δ(t) · δ(x)] = δ(t) · F [δ(x)] = δ(t) ,
∂
+ α |k|2 Ẽ(t, k) = δ(t) .
∂t
Poiché t ≥ 0, la soluzione dell’equazione precedente è della forma Ẽ(t, k) = ϑ(t) Z̃(t, k) con Z̃(0, k) = 1 e
2
∂
+ α |k|2 Z̃(t, k) =⇒ Z̃(t, k) = e−α|k| t ,
|k|2 = k12 + ... + kn2 .
∂t
La soluzione cercata è data da
E(t, x)
= F −1 [Ẽ(t, k)](x) = ϑ(t) F −1 [Z̃(t, k)](x)
Z
2
ϑ(t)
=
dx e−α|k| t ei(k,x) .
n
n
(2π)
IR
L’integrale si fa facilmente perché è il prodotto di n integrali della forma
Z ∞
q2
2
1
1
e− 4αt ,
dp e−αp t eipq = √
2π −∞
2 παt
con q = xi (i = 1, 2, ... n. Si ha finalmente
E(t, x) =
|x|2
ϑ(t)
√
n e− 4αt ,
2 παt
Esercizio 29. (Laplaciano in dimensione qualunque – Metodo della discesa) – Sotto certe
condizioni, il metodo della discesa permette di trovare la soluzione fondamentale di un operatore A
in IRn , partendo dalla soluzione fondamentale dell’operatore P = ∂t + A in IR1+n ( per analogia con
l’equazione del calore, P si chiama operatore del calore).
A tale scopo si supponga di avere una funzione K(t, x), integrabile rispetto a t in IR+ e tale che
∂
+ A K(t, x) = 0 ,
lim K(t, x) = δ(x) ,
lim K(t, x) = 0 .
t→∞
t→0
∂t
Integrando l’equazione precedente rispetto a t si ottiene
Z
Z ∞
i
h
dt K̇(t, x) + A K(t, x) = K(∞, x) − K(0, x) + A
0=
0
0
∞
dt K(t, x) ,
da cui segue
Z ∞
dt K(t, x) = δ(x) .
A
0
Si vede dunque che l’integrale di K(t, x) è soluzione fondamentale dell’operatore A.
Osserviamo ora che la soluzione fondamentale E(t, x) dell’operatore del calore P tende sempre a δ(x)
per t → 0 poiché è della forma ϑ(t) Z(t, x), dove Z(t, x) soddisfa l’equazione del calore omogenea. Infatti
h
i
∂
δ(t)δ(x) =
+ A ϑ(t) Z(t, x) = δ(t) Z(0, x) + ϑ(t) Ż(t, x) + AZ(t, x) = δ(t) Z(0, x) ,
∂t
e quindi Z(0, x) = δ(x). Questo significa che se E(t, x) è integrabile in t allora la soluzione fondamentale
dell’operatore A è data da
Z ∞
dt E(t, x) .
E(x) =
0
♣ Il metodo descritto sopra ha validità più generale come si evince dal seguente
• Teorema (metodo della discesa) – Sia u(t, x) ∈ D′ (R1+n ) la soluzione dell’equazione differenziale
X
P (∂t , Dx )u(t, x) = δ(t)g(x) ,
P (∂t , Dx ) = P0 (Dx ) +
Pq (Dx ) ∂tq ,
q>0
dove P0 , Pq sono polinomi arbitrari. Se u(t, x) è integrabile in t, allora
Z ∞
dt u(t, x) = u(t, x) ∗ 1 .
P0 (Dx ) u0 (x) = g(x) ,
u0 (x) =
(12.9)
0
Nell’ultimo termine, ′′ 1′′ è pensato come funzione di t soltanto e quindi come distribuzione appartiene
a D′ (IR). Dalla (12.9) segue che la soluzione fondamentale dell’operatore P0 (Dx ) si può ottenere
integrando la soluzione fondamentale dell’operatore P (∂t , Dx ) (quando l’integrale esiste).
• Dimostrazione – Qui diamo soltanto una semplice dimostrazione formale usando le proprietà
delle distribuzioni. Indichiamo con E(t, x) e E0 (x) le soluzioni fondamentali degli operatori P e P0
rispettivamente, quindi
P (∂t , Dx )E(t, x) = δ(t) · δ(x) ,
P0 (Dx )E(x) = δ(x) .
Dalle proprietà del prodotto diretto e di convoluzione si ha anche
E(t, x) ∗ [1 · δ(x)] = 1 · [E0 (x) ∗ δ(x)] = 1 · E0 (x) ,
[δ(t) · δ(x)] ∗ [1 · δ(x)] = 1 · δ(x) .
Nella formula precedente si conserva la distribuzione ′′ 1′′ , anche se inessenziale, perché siamo in
D′ (IR1+n ). Applicando ora l’operatore P otteniamo finalmente
P (∂t , Dx )[1 · E0 (x)] = 1 · P0 (Dx )E0 (x) ,
[P (∂t , Dx )E(t, x)] ∗ [1 · δ(x)] =
[δ(t) · δ(x)] ∗ [1 · δ(x)] = 1 · δ(x) .
1) Usando il metodo della discesa, trovare le soluzioni fondamentali dell’operatore di laplace in IRn
(n ≥ 3), ossia
∆ =
n
X
∂2
,
∂x2k
k=1
x ≡ (x1 , x2 , .. , xn ) .
1) Soluzione – La soluzione fondamentale dell’equazione del calore ricavata precedentemente è una
gaussiana della forma
|x|2
1
∂
− 4αt
E(t, x) = √
,
− α∆ E(t, x) = δ(t, x) .
n e
∂t
2 παt
Vediamo che E(t, x) è integrabile in t. Posto α = 1 abbiamo
Z ∞
Z ∞
|x|2
n
1
dt E(t, x) = − √ n
E(x) = −
dt e− 4t t− 2
(2
π)
0
0
n2 −1 Z ∞
n
1
1
Γ(n/2 − 1)
4
= − √ n
dτ e−τ τ 2 −2 = −
.
2
n/2
|x| )
|x|n−2
(2 π)
4π
0
Questa vale per n ≥ 3, ma “accidentalmente” dà il risultato corretto anche per n = 1.
′
Esercizio 30. (Equazione di Schrödinger) – In D+
(IR) × S ′ (IRn ) trovare la soluzione fondamentale
dell’operatore
ih̄
h̄2
∂
+
∆,
∂t 2m
∆ =
n
X
∂2
,
∂x2j
j=1
h̄ > 0 ,
m > 0.
Soluzione – Come per l’equazione del calore, facciamo la trasformata di Fourier rispetto a x ≡
(x1 , ... , xn ). In tal modo
∂
h̄2 |k|2
Ẽ(t, k) = δ(t) =⇒ Ẽ(t, k) = ϑ(t) Z(t, k) ,
ih̄
−
∂t
2m
dove Z(t, k) è soluzione dell’equazione omogenea
ih̄ ∂t Z(t, k) −
h̄2 |k|2
Z(t, k) = 0 ,
2m
Z(0, k) = 1 .
La soluzione con la condizione iniziale fissata è
2
Z(t, k) = e−iαt|k| ,
α=
h̄
,
2m
da cui segue
E(t, x)
Z ∞
Z
n Y
1
1
−iαt p2 ipxj
−iαt|k|2 i(k,x)
dp e
e
dk e
e
=
=
(2π)n IRn
2π −∞
j=1
" 2
#
Z ∞
n
Y
2
2
eixj /4αt
einπ/4
=
du e−iαt u = √
ei|x| /4αt .
n
2π
(2
παt)
−∞
j=1
Finalmente si ha
m n2
im|x|2
iπn
exp
E(t, x) = ϑ(t)
.
+
2πh̄t
2h̄t
4
Esercizio 31. (Equazione delle onde) – Trovare le soluzioni fondamentali dell’operatore delle onde
′
′
′
(IR) × S ′ (IR3 ).
(IR) × S ′ (IR2 ) e D+
(IR) × S ′ (IR), D+
2 = ∂t2 − α2 ∆ (α > 0, costante) in D+
1) ∆ =
∂2
,
∂x2
2) ∆ =
∂2
∂2
+ 2,
2
∂x1
∂x2
3) ∆ =
∂2
∂2
∂2
+
+
.
2
2
∂x1
∂x2
∂x23
1) Soluzione – Come per l’equazione del calore, facciamo la trasformata di Fourier solo rispetto alla
variabile x e risolviamo l’equazione ottenuta rispetto a t. In questo modo si ottiene
∂t2 Ẽ(t, k) + α2 k 2 Ẽ(t, k) = δ(t) ,
Ẽ(t, k) = ϑ(t)Z̃(t, k) ,
dove Z̃(t, k) è soluzione del problema
∂t2 Z̃(t, k) + α2 k 2 Z̃(t, k) = 0 ,
Z̃ ′ (0, k) = 1 ,
Z̃(0, k) = 0 .
Integrando con le condizioni iniziali date si ha
Ẽ(t, k) =
ϑ(t) sin αkt
αk
=⇒ E(t, x) =
ϑ(t)
2πα
Z
∞
−∞
dk
eikx sin αkt
.
k
Risolvendo l’integrale con il metodo dei residui si ottiene finalmente
E(t, x) =
1
ϑ(αt − |x|) .
2α
Quest’ultima trasformata si poteva scrivere direttamente usando i risultati dell’esercizio (12.7).
2) Soluzione – Procedendo come sopra si ottiene
q
ϑ(t) sin α|k|t
Ẽ(t, k) =
,
|k| = k12 + k22 .
α|k|
La trasformata inversa di questa distribuzione è già stata calcolata nell’esercizio (12.7). Usando quel
risultato si ha direttamente
E(t, x) =
ϑ(αt − |x|)
p
.
2α α2 t2 − |x|2
3) Soluzione – Anche in questo caso si ha
Ẽ(t, k) =
ϑ(t) sin α|k|t
,
α|k|
|k| =
q
k12 + k22 + k32 ,
e la trasformata inversa è stata calcolata in (12.7). Quindi
E(t, x) =
ϑ(t) δ(α2 t2 − |x|2 )
ϑ(t) δ(αt − |x|)
=
.
4πα2 t
2πα
13
Equazioni integrali
Esercizio 32. – Usando il metodo del risolvente trovare la soluzione dell’equazione
Z π
dt sin x cos t φ(t) ,
g(x) ∈ C[0, π] .
φ(x) = g(x) + µ
0
Soluzione – Osserviamo che il primo nucleo iterato K2 (x, t) è nullo. Infatti
Z π
Z π
1
dy sin x cos y sin y cos t = sin x cos t
K2 (x, t) =
dy sin 2y = 0 ,
2
0
0
e quindi il nucleo dell’equazione è ortogonale a sè stesso. La soluzione esiste per qualunque valore di µ
ed è data da
Z π
dt sin x cos t g(t) .
φ(x) = g(x) + µ
0
Esercizio 33. – Usando il metodo delle contrazioni, risolvere l’equazione di Fredholm
Z 1
dt x2 t φ(t) .
φ(x) = Bφ(x) = 1 + 2
0
Soluzione – E’ immediato verificare che la funzione φ(x) = 1 + 2x2 è un punto fisso dell’operatore B e
quindi è una soluzione. Volendo applicare il principio delle contrazioni si può procedere in questo modo.
Prima si verifica che B, o una sua qualche potenza, è una contrazione. A questo scopo osserviamo che
Z 1
Z
2 1
2
dt t ≤ x2 kφk ,
dt tφ(t) ≤ 2x max |φ(t)|
|Aφ(x)| = 2x
t∈[0,1]
0
|A2 φ(x)| ≤ 2x2
Z
1
dt t |Aφ(t)| ≤ 2x2 kφk
0
0
Z
0
1
dt t3 ≤
x2 kφk
kφk
≤
.
2
2
Prendendo ora il massimo dell’espressione precedente per x ∈ [0, 1] abbiamo
kA2 φk ≤
kφk
2
=⇒ kB 2 φ1 − B 2 φ2 k = kA2 (φ1 − φ2 )k ≤
kφ1 − φ2 k
.
2
L’operatore B 2 : C[a, b] → C[a, b] è dunque una contrazione. Scelto allora un punto arbitrario in C[a, b]
la soluzione si può determinare per approssimazioni successive. Posto φ0 (x) = 1 si ha banalmente
φ1 = Bφ0 = 1 + x2 ,
φn+1 = B n+1 φ0 = 1 +
φ2 = B 2 φ0 = 1 +
3 2
x ,
2
φ3 = B 3 φ0 = 1 +
7 2
x , ...
4
2n − 1 2
x =⇒ φ(x) = φ∞ = 1 + 2x2 .
2n−1
Esercizio 34. – Usando il metodo del risolvente trovare la soluzione dell’equazione di Fredholm
Z 1
dt xt φ(t) ,
g(x) ∈ C[0, 1] .
φ(x) = g(x) + µ
0
Soluzione – Posto K1 (x, t) = K(x, t) = xt osserviamo che
k=
Z
0
1
Z
0
1
2
dx dt |K(x, t)|
1/2
=
1
.
3
Il metodo del risolvente si può dunque applicare per |µ| < 3. Si ha
K2 (x, y) =
xt
,
3
K3 (x, t) =
xt
, ...
9
Kn (x, y) =
xt
3n−1
e per |µ| < 3
R(x, t; µ) =
∞
X
µn−1 Kn (x, t) = xt
n=1
∞ h in−1
X
µ
3xt
=
.
3
3−µ
n=1
La soluzione è quindi
φ(x) = g(x) +
3µ
3−µ
Z
1
dt xt g(t) .
0
E’ interessante notare che la soluzione precedente esiste per qualunque µ 6= 3. Infatti, dopo la risommazione, il risolvente è definito per qualunque valore di µ 6= 3.
Esercizio 35. – Trovare la soluzione dell’equazione di Volterra
Z x
dt ex−y φ(y) .
φ(x) = ex +
0
1) usando il metodo delle contrazioni;
2) usando il metodo del risolvente.
1 Soluzione – Prendiamo come funzione iniziale φ0 (x) = ex . Allora si ha
Z x
x
dy e−y φ0 (y)] = ex (1 + x) ,
φ1 (x) = e [1 +
0
Z x
x2
−y
x
x
dy e φ1 (y)] = e 1 + x +
,
φ2 (x) = e [1 +
2
0
Z x
x2
x3
−y
x
x
dy e φ2 (y)] = e 1 + x +
φ3 (x) = e [1 +
,
+
2
3!
0
...
...
n
X
xk
=⇒ φ(x) = φ∞ (x) = e2x .
φn (x) = ex
k!
k=1
2) Soluzione – Per usare il metodo del risolvente dobbiamo considerare il nucleo di Fredholm troncato
x−t
t−y
e
, t ≤ x,
e
, t ≥ y,
KF (x, t) =
=⇒ KF (t, y) =
0,
t > x,
0,
t < y.
Calcoliamo ora i nuclei iterati di KF (x, t). Si ha
K1 (x, y)
K2 (x, t)
= KF (x, y) ,
Z
Z x
dt KF (x, t)K1 (t, y) = KF (x, y)
=
Z
=
Kn (x, y)
x
dt KF (x, t)K2 (t, y) = KF (x, y)
0
...
...
(x − y)n−1
KF (x, y) .
(n − 1)!
=
dt = (x − y) KF (x, y) ,
y
0
K3 (x, t)
x
Z
y
x
(x − t) dt =
(x − y)2
KF (x, y) ,
2
Di qui segue
R(x, y; 1) = KF (x, y)
∞
X
(x − y)n−1
= e2(x−y) ,
n
−
1!
n=1
x > y.
La soluzione ora si ricava senza difficoltà e si ha
Z x
x
dt e2(x−y) ey = e2y .
φ(x) = e +
0
Esercizio 36. (Autovalori e autofunzioni delle equazioni integrali). – Ricavare autovalori e
autofunzioni delle equazioni integrali equivale a risolvere un problema agli autovalori per un operatore in
uno spazio di Hilbert. Se il nucleo dell’equazione è di Hilbert-Schmidt e simmetrico, allora l’operatore
corrispondente A è autoaggiunto e compatto e di conseguenza il suo inverso A−1 è non limitato. A e A−1
hanno le stesse autofunzioni, mentre gli autovalori di A−1 sono l’inverso degli autovalori di A. Per certe
classi di nuclei integrali è relativamente semplice ricavare gli autovalori dell’inverso e quindi di A. Questo
succede quando l’inverso è un operatore differenziale a coefficienti costanti.
A titolo di esempio si consideri l’operatore integrale
Z b
dy K(x, y)φ(y) ,
K(x, y) = K̄(y, x) ,
kK(x, y)kL2 < ∞ ,
Aφ(x) =
a
con K(x, y) che soddisfa le condizioni
∂2
K(x, y) = αδ(x − y) ,
K(a, y) = 0 ,
K ′ (a, y) = 0 ,
∂x2
o due condizioni al cortorno equivalenti. Nell’ambito delle distribuzioni otteniamo
Kx′′ (x, y) ≡
d2
1 d2
−1
Aφ(x)
=
αφ(x)
=⇒
A
=
.
dx2
α dx2
In questo caso gli autovalori λ = 1/µ e le autofunzioni ϕ di A si ottengono risolvendo il problema

1 ′′

 α ϕ (x)R= µϕ(x) ,
b
ϕ(a) = a dy K(a, y)ϕ(y) = 0 ,
Aϕ(x) = λϕ(x) =⇒ A−1 ϕ(x) = µϕ(x) =⇒
R

 ϕ′ (a) = b dy K ′ (a, y)ϕ(y) = 0 .
a
Il numero delle condizioni al contorno indipendenti deve essere uguale all’ordine dell’equazione differenziale. Si osservi che condizioni al contorno della forma ϕ(a) = cost da sole non danno nessuna informazione
in quanto le autofunzioni sono sempre definite a meno di una costante arbitaria (vedi esempi sotto).
Trovati gli autovalori e le autofunzioni, la soluzione dell’equazine integrale si scrive come sviluppo in
serie usando il teorema dell’alternativa.
Usando la tecnica descritta sopra, calcolare autovalori e autofunzioni dell’equazione integrale
Z 1
dy K(x, y)φ(y) = µAφ(x) .
φ(x) = µ
0
nei seguenti casi:
1) K(x, y) =
x, x ≤ y,
y, x ≥ y,
3) K(x, y) =
x(1 − y) ,
y(1 − x) ,
5) K(x, y) =
sin x sin(1 − y) ,
sin y sin(1 − x) ,
2) K(x, y) =
x ≤ y,
x ≥ y,
i,
−i ,
4) K(x, y) =
x ≤ y,
x ≥ y.
x ≤ y,
x ≥ y,
(x + 1)y ,
(y + 1)x ,
6) K(x, y) =
x ≤ y,
x ≥ y,
sinh x sinh(1 − y) ,
sinh y sinh(1 − x) ,
x ≤ y,
x ≥ y.
1) Soluzione – Il nucleo è di Hilbert-Sschmidt in quanto è definito da una funzione limitata e quindi è
a quadrato sommabile in [0, 1] × [0, 1]. Inoltre è simmetrico e può essere scritto nella forma compatta
 ′′
K (x, y) = −δ(x − y) ,


 x
K(0, y) = 0 ,
K(x, y) = ϑ(y − x)x + ϑ(x − y)y = K(y, x) =⇒
′
K
(1, y) = 0 ,


 ′
K (0, y) = 1 .
Per quanto visto sopra, gli autovalori e le autofunzioni dell’equazione sono dati da
ϕ′′ (x) + µϕ(x) = 0 ,
ϕ(0) = 0 ,
ϕ′ (1) = 0 ,
ϕ′ (0) = cost .
Si ricordi che le autofunzioni sono sempre definite a meno di una costante e per questo motivo il valore
di ϕ′ (0) (se non è nullo) può essere arbitrario. Di fatto questa condizione è ridondante e non dà nessuna
informazione.
Si vede facilmente che per µ ≤ 0 non ci sono soluzioni, mentre per µ > 0 si hanno le infinite soluzioni
(normalizzate)
2
√
1
1
ϕn (x) = 2 sin n +
πx ,
µn = n +
π2 ,
n = 0, 1, 2, ...
2
2
2) Soluzione – Il nucleo è di Hilbert-Schmidt, simmetrico e può essere scritto nella forma
′
Kx (x, y) = −2iδ(x − y) ,
K(x, y) = iϑ(y − x) − iϑ(x − y) = K̄(y, x) , =⇒
K(0, y) = −K(1, y) = i .
In questo caso l’operatore inverso è un operatore differenziale del primo ordine che soddisfa l’equazione
agli autovalori
ϕ′ (x) − 2iµϕ(x) = 0 ,
ϕ(0) + ϕ(1) = 0 .
Le due condizioni al contorno prese separatamente non danno alcuna informazione, perhé le autofunzioni
sono definite a meno di una costante arbitraria.
La soluzione dell’equazione differenziale è ϕ(x) = cost e2iµx e affinché siano soddisfatte le condizioni
al contorno 2µ deve essere un multiplo dispari di π. Le autofunzioni normalizzate sono dunque
1
π,
n ∈ ZZ .
ϕn (x) = e2iµn x ,
µn = n +
2
3) Soluzione – Il nucleo è simmetrico e di Hilbert-Schmidt e si può scrivere nella forma
 ′′
 Kx (x, y) = −δ(x − y) ,
K(0, y) = 0 ,
K(x, y) = ϑ(y − x)x(1 − y) + ϑ(x − y)y(1 − x) =⇒

K(1, y) = 0 .
Si vede che il problema è simile a quello precedente, a parte le condizioni al contorno. Infatti
ϕ′′ (x) + µϕ(x) = 0 ,
ϕ(0) = 0 ,
ϕ(1) = 0 .
Anche in questo caso si hanno soluzioni solo per µ > 0 date da
√
µn = n2 π 2 ,
n = 1, 2, 3, ...
ϕn (x) = 2 sin nπx ,
4) Soluzione – Qui abbiamo
 ′′
Kx (x, y) = δ(x − y) ,




 K(0, y) = y ,
K(1, y) = y + 1 ,
K(x, y) = xy + ϑ(y − x)y + ϑ(x − y)x =⇒


K ′ (0, y) = y ,


 ′
K (1, y) = y + 1 ,
da cui segue
ϕ′′ − µϕ = 0 ,
ϕ(0) − ϕ′ (0) = 0 ,
ϕ(1) − ϕ′ (1) = 0 .
Per µ > 0 esiste un’unica soluzione data da
ϕ0 (x) = ex ,
µ0 = 1 ,
mentre per µ < 0 si hanno le infinite soluzioni (non normalizzate)
ϕn (x) = sin nπx + nπ cos nπx ,
µn = −n2 π 2 ,
n = 1, 2, 3, ...
5) Soluzione – Scriviamo il nucleo simmetrico e di Hilbert-Schmidt nella forma
K(0, y) = 0 ,
K(x, y) = ϑ(y − x) sin x sin(1 − y) + ϑ(x − y) sin y sin(1 − x) =⇒
K(1, y) = 0 ,
e derivando K ′′ (x, y) = − sin 1 δ(x − y) − K(x, y). Questo problema è un po’ diverso rispetto a quelli
precedenti in quanto si ha
d2
1 d2
−1
Aφ(x)
+
Aφ(x)
=
−αφ(x)
=⇒
A
=
−
+
1
,
dx2
α dx2
dove α = sin 1. L’equazione agli autovalori coorispondente è perciò
ϕ′′ (x) + [µα + 1]ϕ(x) = 0 ,
ϕ(0) = ϕ(1) = 0 ,
α = sin 1 .
Per µα + 1 ≤ 0 non ci sono soluzioni, mentre per µα + 1 > 0 si ottiene
ϕn (x) = sin nπx ,
µn =
n2 π 2 − 1
,
sin 1
n = 1, 2, 3, ...
6) Soluzione – Questo problema è simile al precedente in quanto
K(x, y) = ϑ(y − x) sinh x sinh(1 − y) + ϑ(x − y) sinh y sinh(1 − x) =⇒
K(0, y) = 0 ,
K(1, y) = 0 ,
e K ′′ (x, y) = K(x, y) − sinh 1 δ(x − y). La corrispondente equazione agli autovalori è
ϕ′′ (x) + [µα − 1]ϕ(x) = 0 ,
ϕ(0) = ϕ(1) = 0 ,
α = sinh 1 .
Per µα − 1 ≤ 0 non ci sono soluzioni, mentre per µα − 1 > 0 si ottiene
ϕn (x) = sin nπx ,
µn =
n2 π 2 + 1
,
sinh 1
n = 1, 2, 3, ...
Esercizio 37. (Alternativa di Fredholm Usando il teorema dell’alternativa risolvere l’equazione di
Fredholm
Z π
dy K(x, y)φ(y) ,
φ(x) = g(x) +
0
nei due casi sequenti:
3x
1) g(x) = sin
,
2
2) g(x) = 0 ,
K(x, y) =
K(x, y) =
sin x cos y , x < y ,
sin y cos x , x > y ,
sin y cos x , x < y ,
sin x cos y , x > y .
1) Soluzione – Si verifica che il nucleo è simmetrico e di Hilbert-Schmidt. Lo scriviamo nella forma
 ′′
 K (x, y) = −K(x, y) − δ(x − y) ,
K(0, y) = 0 ,
K(x, y) = ϑ(y − x) sin x cos y + ϑ(x − y) cos x sin y =⇒
 ′
K (π, y) = 0 .
L’equazione agli autovalori per A−1 è
ϕ′′ (x) + [µ + 1]ϕ(x) = 0 ,
ϕ(0) = ϕ′ (π) = 0 ,
che ha soluzioni solo per µ + 1 > 0. Si ottiene
r
2
2
1
1
x,
µn = n +
sin n +
− 1,
ϕn (x) =
π
2
2
n = 0, 1, 2, ...
Vediamo che µn 6= 1 qualunque sia n e di conseguenza anche λn = 1/µn 6= 1. Questo significa che esiste
una soluzione, ed una sola, qualunque sia g(x). Nel caso particolare g(x) è proporzionale a ϕ1 (x) e quindi
tutti i coefficienti dello sviluppo sono nulli, tranne b1 . Si ha infatti
r
r
∞
X
π
π
bn ϕn (x) =
g(x) =
ϕ1 (x) =⇒ b1 =
,
bn = 0 ,
∀n 6= 1 .
2
2
n=0
La soluzione allora è data da
φ(x) =
b1 ϕ1 (x)
µ1 b1 ϕ1 (x)
3x
=
= 5 sin
.
1 − λ1
µ1 − 1
2
2) Soluzione – Procedendo come sopra si ha
 ′′
 K (x, y) = −K(x, y) + δ(x − y) ,
K(π, y) = 0 ,
K(x, y) = ϑ(y − x) cos x sin y + ϑ(x − y) sin x cos y =⇒
 ′
K (0, y) = 0 .
L’equazione che determina gli autovalori è
ϕ′′ (x) + [1 − µ]ϕ(x) = 0 ,
ϕ(π) = ϕ′ (0) = 0 ,
che ha soluzioni solo per 1 − µ > 0. Si ottiene
r
2
2
1
1
ϕn (x) =
x,
µn = 1 − n +
,
cos n +
π
2
2
n = 0, 1, 2, ...
Anche in questo caso tutti gli autovalori sono diversi da 1 e pertanto la soluzione è unica per qualunque
g(x). Nel caso particolare g(x) = 0 e pertanto la soluzione è φ(x) = 0.
Esercizio 38. (Nuclei degeneri) – Ricordiamo che questi sono della forma
K(x, y) =
N
X
Pk (x)Qk (y) ,
k=1
dove Pk (x) ∈ L2 sono vettori linearmente indipendenti. La soluzione dell’equazione definita da un nucleo
di questo tipo si può scrivere nella forma
(
Rb
N
N
X
X
bk = a dx Qk (x)g(x) ,
Rb
[δjk − ajk ]qk = bj ,
qk Pk (x) ,
φ(x) = g(x) +
aij = a dx Qi (x)Pj (x) .
j=1
k=1
Si deve fare attenzione all’ordine perché in generale la matrice {aij } non è simmetrica. E’ evidente che la
soluzione è unica se la matrice δij − aij è invertibile. In tal caso, in assenza del termine noto la soluzione
è identicamente nulla.
Usando la tecnica appena descritta si risolvano le seguenti equazioni:
Z π
Z 1
dy sin x cos yφ(y) ,
dy x(x + y)φ(y) ,
2) φ(x) = x +
1) φ(x) = x +
0
0
3) φ(x) = x +
Z
π/2
dy sin x cos yφ(y) ,
4) φ(x) = 1 +
Z
π
dy (x sin y + y sin x)φ(y) .
0
0
1) Soluzione – Il nucleo è della forma
P1 = x , P2 = x2 ,
K(x, y) = P1 Q1 + P2 Q2 ,
Q1 = y , Q2 = 1 .
Integrando si ottiene
b1 =
1
,
3
b2 =
1
,
2
a11 =
1
,
3
a12 =
1
,
4
a21 =
1
,
2
a22 =
Il sistema che determina i coefficienti dello sviluppo della soluzione è quindi
2
1
1
36
3 q1 − 4 q2 = 3
q1 = 25
=⇒
1
2
1
23 , q2 = 23 .
− 2 q1 + 3 q2 = 2
La soluzione dell’equazione è finalmente
ϕ(x) = x +
36 2
48
36 2
25
x+
x =
x+
x .
23
23
23
23
1
.
3
2) Soluzione – In questo caso abbiamo K(x, y) = P1 (x)Q1 (y), P1 (x) = sin x , Q1 (y) = cos y. Dalla
definizione otteniamo banalmente
b1 = −2
=⇒ q1 = −2 =⇒ φ(x) = x − 2 sin x .
a11 = 0 ,
3) Soluzione – Rispetto al problema precedente cambia solo l’intervallo di integrazione. Si ottiene
b1 = π2 − 1
=⇒ q1 = π − 2 =⇒ φ(x) = x + (π − 2) sin x .
a11 = 21 ,
4) Soluzione – Qui abbiamo K(x, y) = P1 (x)Q1 (y) + P2 (x)Q2 (y) dove
P1 (x) = x ,
P2 (x) = sin x ,
Q1 (y) = sin y ,
Q2 (y) = y .
Allora otteniamo
b1 = 2 ,
b2 =
π2
,
2
a11 = π ,
a12 =
π
,
2
a21 =
La soluzione dell’equazione è data da
3 8 − 8π + π 3 x
3π 2 + π 3 sin(x)
φ(x) = 1 −
−
.
2 (−6 + 12π − 6π 2 + π 4 ) −6 + 12π − 6π 2 + π 4
π3
,
3
a22 = π .

Documenti analoghi