Onde non lineari e solitoni - Dipartimento di Fisica

Transcript

Onde non lineari e solitoni - Dipartimento di Fisica
Università degli Studi di Roma “La Sapienza”
Facoltà di Scienze Matematiche, Fisiche e Naturali
Dipartimento di Fisica
Laurea Specialistica in Fisica
Corso di Fisica Teorica: Onde Nonlineari e Solitoni
Prof. Antonio Degasperis
Dispense del Corso
A cura di
Giorgio Ferrari, Dario Dell’Arciprete
last update:
1 marzo 2008
Anno Accademico
2006-2007
2
3
“ Lo scienziato non studia la natura perché sia utile farlo.
La studia perché ne ricava piacere; e ne ricava piacere perché è bella.
Se la natura non fosse bella, non varrebbe la pena di conoscerla
e la vita non sarebbe degna di essere vissuta.”
Jules Henri Poincaré
4
Sommario
Questo lavoro è la rielaborazione degli appunti del corso di Fisica Teorica:
Onde Nonlineari e Solitoni tenuto dal prof. Antonio Degasperis nell’A.A.
2006/2007.
Nella prima parte, si è affrontato lo studio di sistemi iperbolici e dispersivi
nonlineari. Il metodo delle caratteristiche ci ha permesso di trattare il problema di Cauchy associato ad equazioni iperboliche nonlineari, mentre quello perturbativo del multiscala di ricavare delle equazioni d’onda dispersive
nonlineari integrabili di generale interesse applicativo.
Nella seconda parte, abbiamo studiato il metodo della trasformata spettrale, generalizzazione nonlineare della trasformata di Fourier e quello della
trasformazione di Darboux. Questi due metodi permettono di investigare
alcune Equazioni Differenziali alle Derivate Parziali Nonlineari Integrabili
(NLPDEs) di notevole interesse fisico, tra le quali l’equazione di Schrödinger
nonlineare (NLS), l’equazione di Korteweg-de Vries (KdV), l’equazione di
sine-Gordon (SG), le equazioni ridotte di Maxwell-Bloch (RMB).
Nelle ultime tre parti, sono raccolti alcuni lavori di approfondimento su
argomenti specifici in forma di tesine prodotte dagli studenti. Tali argomenti riguardano i campi dell’Ottica Nonlineare e della Superconduttività.
Lo studio qui presentato dei fenomeni fisici - ovvero, di alcuni modelli che
li descrivono - sottolinea la potenza e l’utilità dei metodi matematici studiati durante il corso (metodo perturbativo multiscala, trasformata spettrale,
trasformata di Darboux).
Indice
I
Onde Non Lineari
10
1 Propagazione ondosa
1.1 Onde dispersive ed iperboliche: una prima classificazione
1.2 Esempi sulla determinazione della ω(k) . . . . . . . . . .
1.2.1 L’equazione di Schrödinger . . . . . . . . . . . . .
1.2.2 L’equazione di Klein-Gordon (K-G) . . . . . . . .
1.2.3 L’equazione di Korteweg-de Vries (KdV) . . . . .
1.3 L’equazione di continuità . . . . . . . . . . . . . . . . . .
1.4 Equazione delle onde e propagazione iperbolica lineare .
1.4.1 Propagazione iperbolica lineare con dissipazione .
1.5 Flusso quadratico e onde di shock . . . . . . . . . . . . .
1.5.1 Tempo critico . . . . . . . . . . . . . . . . . . . .
2 L’equazione di Burgers
2.1 Verso l’equazione di Burgers
2.1.1 Tempo critico . . . .
2.2 L’equazione di Burgers . . .
2.3 Gerarchia di Burgers . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3 Propagazione ondosa in fluidi e solidi
3.1 Meccanica dei Fluidi e Curve Caratteristiche
3.2 Esempi . . . . . . . . . . . . . . . . . . . . .
3.2.1 L’onda di shock . . . . . . . . . . . .
3.2.2 Un’equazione lineare . . . . . . . . .
3.3 Onde sonore in un fluido . . . . . . . . . . .
3.4 Propagazione del suono in un solido elastico
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
11
11
13
13
13
14
15
16
19
21
22
.
.
.
.
24
24
25
26
29
.
.
.
.
.
.
33
33
35
35
36
37
39
4 Caratteristiche
40
4.1 Caso scalare : N = 1 . . . . . . . . . . . . . . . . . . . . . . . 40
4.1.1 Vantaggi del metodo delle caratteristiche . . . . . . . . 41
4.2 Caso vettoriale . . . . . . . . . . . . . . . . . . . . . . . . . . 42
6
INDICE
4.2.1
4.2.2
4.2.3
A e B matrici N × N diagonali . . . . . . . . . . . . . 42
A e B matrici N × N generiche . . . . . . . . . . . . . 43
Gli Invarianti di Riemann . . . . . . . . . . . . . . . . 45
5 Leggi di conservazione
47
6 Multiscale expansion and integrability of dispersive wave equations
51
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
6.2 Nonlinear Schroedinger type model equations and integrability 62
6.3 Higher order terms and integrability . . . . . . . . . . . . . . . 73
7 Onde elettromagnetiche nei mezzi nonlineari
7.1 Modello classico di dielettrico . . . . . . . . .
7.1.1 Teoria perturbativa e la NLS . . . . . .
7.2 L’equazione VNLS . . . . . . . . . . . . . . .
7.2.1 Caso di un’onda risonante . . . . . . .
7.2.2 Caso di due onde non risonanti . . . .
7.3 Generazione della 2a armonica : 2HG . . . . .
7.4 Caso di due onde risonanti: 3WRI . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
8 Dielettrico quantistico
9 Derivazione dell’equazione di Korteweg-de Vries
II
Solitoni
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
77
77
79
86
86
89
90
91
97
105
109
10 Il Metodo della Trasformata Spettrale
110
10.1 Introduzione alla trasformata spettrale . . . . . . . . . . . . . 110
10.1.1 La trasformata inversa di Fourier come problema RH . 111
10.1.2 Dipendenza parametrica dal tempo . . . . . . . . . . . 114
10.2 La trasformata spettrale . . . . . . . . . . . . . . . . . . . . . 116
10.2.1 Problema spettrale diretto . . . . . . . . . . . . . . . . 120
10.2.2 Problema spettrale inverso . . . . . . . . . . . . . . . . 121
10.2.3 Problema RH corrispondente . . . . . . . . . . . . . . 122
10.2.4 Formulazione alternativa del problema inverso attraverso le equazioni di Fredholm . . . . . . . . . . . . . . . 125
10.2.5 Dipendenza parametrica di u(x) dal tempo t . . . . . . 126
INDICE
7
11 Il Metodo di Darboux
129
11.1 La trasformata di Darboux . . . . . . . . . . . . . . . . . . . . 129
11.2 Alcune equazioni non lineari integrabili di interesse applicativo: loro Coppia di Lax e soluzione solitonica . . . . . . . . . . 132
III SIT & IST
Self-Induced Transparency and Inverse Scattering Transform
136
12 Propagazione di impulsi ultracorti in mezzi risonanti
139
12.1 Effetti nonlineari coerenti di transiente . . . . . . . . . . . . . 139
12.2 Fenomenologia SIT . . . . . . . . . . . . . . . . . . . . . . . . 141
13 Derivazione delle equazioni SIT
144
13.1 Equazioni di Maxwell-Bloch . . . . . . . . . . . . . . . . . . . 144
13.2 Equazioni SIT . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
13.2.1 Sharp line limit: l’equazione di sine-Gordon . . . . . . 149
14 Inverse Scattering Transform
14.1 Introduzione al metodo . . . . . . . . . . . . . . . . . . .
14.1.1 La coppia di Lax . . . . . . . . . . . . . . . . . .
14.1.2 Il problema di Zakharov e Shabat . . . . . . . . .
14.2 Problema Diretto . . . . . . . . . . . . . . . . . . . . . .
14.3 Problema Inverso . . . . . . . . . . . . . . . . . . . . . .
14.4 Dipendenza temporale e soluzione a singolo solitone . . .
14.5 SIT come sistema di Zakharov e Shabat e soluzione finale
14.6 Osservazioni finali . . . . . . . . . . . . . . . . . . . . . .
IV Sull’Equazione di Sine-Gordon
Giunzione Josephson e soluzione ad un solitone
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
150
. 150
. 151
. 152
. 156
. 162
. 167
. 171
. 173
174
15 Lo stato superconduttivo
177
15.1 Proprietà dei superconduttori . . . . . . . . . . . . . . . . . . 177
15.2 Proprietà elettriche : Temperatura critica e conducibilità infinita178
15.3 Proprietà magnetiche : Effetto Meissner e Campo critico . . . . 179
15.4 Teoria BCS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
15.5 La teoria di Landau-Ginzburg . . . . . . . . . . . . . . . . . . 181
15.6 Supercorrente di tunneling :
Gli Effetti Josephson . . . . . . . . . . . . . . . . . . . . . . . 182
8
INDICE
16 Sine-Gordon e Giunzione Josephson
183
16.1 Derivazione fisica della Sine-Gordon [46] . . . . . . . . . . . . 184
17 Equazione di Sine-Gordon e Trasformazione di Darboux
191
17.1 Il Metodo di Darboux . . . . . . . . . . . . . . . . . . . . . . 191
17.2 Soluzione ad un solitone per l’ Equazione di Sine-Gordon . . . 192
A Metodo della fase stazionaria
199
B Osservazioni sull’integrazione numerica: la discretizzazione
delle PDE
201
C Coefficienti di Trasmissione e Riflessione di un’onda elettromagnetica
205
D Il Problema RH
209
Elenco delle figure
1.1
1.2
1.3
1.4
Grafico 3D della soluzione u dell’equazione ut + c ux = 0, con
c = 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Curve di livello della soluzione u dell’equazione ut + c ux = 0,
con c = 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Grafico della soluzione u dell’equazione ut + c ux = 0, con c = 2.
Curve di livello della soluzione u dell’equazione ut + c ux = 0,
con c = 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17
18
19
20
12.1 Schema del processo di assorbimento indotto ed emissione
stimolata. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
12.2 Evoluzione di impulsi-2π per diverse intensità. . . . . . . . . 143
16.1 Una giunzione Josephson. . . . . . . . . . . . . . . . . . . . . 184
16.2 La curva chiusa d’ integrazione C. . . . . . . . . . . . . . . . . 185
16.3 Giunzione Josephson come sistema quantistico a due stati. . . 186
17.1 soluzione di kink per la Sine Gordon con parametri :
x1 = 0 , κ001 = 2.5 , λ001 = 1.5 (polo in ζ = 2i). . . . . . . . . . 198
17.2 soluzione di antikink per la Sine Gordon con parametri :
x1 = 0 , κ001 = 2.5 , λ001 = 1.5 (polo in ζ = 2i). . . . . . . . . . 198
Parte I
Onde Non Lineari
Capitolo 1
Propagazione ondosa
1.1
Onde dispersive ed iperboliche: una prima classificazione
Un’onda può essere vista come un segnale che si trasferisce da una parte di
un mezzo ad un altro con una definita velocità di propagazione. Il segnale
è un disturbo di qualsiasi genere che può cambiare le sue caratteristiche
come velocità, ampiezza, pur rimanendo ad ogni istante di tempo facilmente
localizzabile [1]. Sebbene questa definizione possa sembrare un po’ vaga, è
per il momento soddisfacente; in seguito avremo modo di approfondirla e
completarla.
Possiamo già dare una prima classificazione delle onde. Queste si dividono
in due grandi classi [1]: le onde della prima classe sono matematicamente
formulate in termini di equazioni alle derivate parziali di tipo iperbolico e
pertanto ci riferiremo ad esse col nome di onde iperboliche. La forma più
generale di sistema iperbolico quasi lineare 1 è
A(U, x, t) Ut + B(U, x, t) Ux + φ(U, x, t) = 0 ,
(1.1)
dove l’incognita U = U(x, t) è un vettore (genericamente di dimensione N ),
φ è un vettore dato e A e B sono matrici N × N . D’ora in poi adotteremo la
2
, Ux ≡ ∂U
, Uxx ≡ ∂∂tU
notazione Ut ≡ ∂U
2 , etc . . . . Le variabili x e t hanno
∂t
∂x
significato di coordinata spaziale e temporale, rispettivamente.
Delle onde della seconda classe è difficile dare una definizione generale.
Come primo esempio, consideriamo, tuttavia, la generica equazione differen1
Un sistema quasi lineare è un sistema di equazioni alle derivate parziale dove le derivate
più alte del vettore incognito U entrano in modo lineare.
12
Propagazione ondosa
ziale scalare alle derivate parziali
P u = 0,
dove
µ
P =P
(1.2)
∂ ∂
,
∂t ∂x
¶
è un polinomio (formale) a coefficienti costanti nelle derivate spaziotemporali.
Diremo che l’equazione (1.2) è dispersiva [2] se:
1. Essa ammette soluzioni in forma d’onda piana
u(x, t) = A eiθ(x,t)
θ(x, t) = kx − ωt,
dove
k, ω = cost.
In tal caso, le quantità k (numero d’onda =
sono radici dell’equazione implicita
2π
)
λ
(1.3)
(1.4)
ed ω (pulsazione =
P (−iω, ik) = 0
2π
)
T
(1.5)
che localmente definisce la relazione di dispersione
ω = ω(k) .
(1.6)
Ove per tale relazione sia possibile scegliere tra diverse soluzioni dell’equazione (1.5), si parla in tal caso di diversi rami della relazione di
dispersione.
2. La relazione di dispersione è a valori reali, ω(k) ∈ R, ed inoltre
d2 ω(k)
= ω 00 (k) 6= 0,
2
dk
q.o. .
(1.7)
La funzione ω 00 (k) prende il nome di dispersione.
Possiamo anche definire la dispersione come la derivata prima rispetto
a k della velocità di gruppo vg :
vg (k) =
dω(k)
dk
(1.8)
che è la velocità rilevante nella descrizione della dinamica di un ‘gruppo’
di onde con una definita distribuzione di numeri d’onda.
1.2 Esempi sulla determinazione della ω(k)
13
Osservazione. La linearità della (1.2) ci consente di cercarne soluzioni
nella forma di combinazione lineare di esponenziali complessi. Le equazioni
che descrivono la propagazione di onde dispersive in un mezzo nonlineare
possono avere la forma
P u = f (u, ux , ut , . . .)
che differisce dalla (1.2) perchè il termine a destra non è nullo ma è una
funzione nonlineare dell’incognita u e delle sue derivate.
1.2
Esempi sulla determinazione della ω(k)
Vogliamo ora riportare alcuni esempi di equazioni dispersive lineari per le
quali andremo a ricavare l’espressione della relazione di dispersione.
1.2.1
L’equazione di Schrödinger
L’equazione di Schrödinger libera descrive la dinamica di una particella quantistica di massa m non soggettta ad alcuna forza.
Essa ha la forma
~2
i~ ut +
uxx = 0
(1.9)
2m
ed ammette come soluzione esponenziali complessi:
u = A ei(kx−ω(k)t)
(1.10)
con A costante.
Sostituendo la (1.10) nella (1.9), notiamo che questa è soluzione a patto
che valga la relazione di dispersione
ω(k) =
~ 2
k .
2m
(1.11)
Osserviamo che in base alla definizione (1.7), la dispersione è non nulla;
il carattere dispersivo dell’onda è garantito dalla presenza del coefficiente
immaginario.
1.2.2
L’equazione di Klein-Gordon (K-G)
L’equazione di K-G è storicamente la prima generalizzazione dell’equazione
di Schrödinger nell’ambito di una teoria quantistico-relativistica. Essa ha la
forma
utt − c2 uxx + ν 2 u = 0
(1.12)
14
Propagazione ondosa
dove c ha le dimensioni di una velocità, ν quelle di una frequenza e u(x, t) è
un campo scalare.
Ripetendo gli stessi ragionamenti svolti per l’equazione di Schrödinger,
otteniamo la relazione di dispersione:
√
ω(k) = ± c2 k 2 + ν 2
(1.13)
che presenta due rami1 .
1.2.3
L’equazione di Korteweg-de Vries (KdV)
L’equazione di Korteweg-de Vries (KdV) è un valido modello nella descrizione
della dinamica di onde d’acqua con lunghezza d’onda molto maggiore della
profondità del canale. Essa è un’equazione non lineare della forma
ut + uxxx = −uux .
(1.14)
Essendo il termine non lineare uux di ordine quadratico, la dinamica
di piccole perturbazioni v dalla posizione di equilibrio u0 = cost, ovvero
u(x, t) = u0 + v(x, t), può essere descritta dalla KdV linearizzata:
vt + vxxx + u0 vx = 0
(1.15)
che presenta la relazione di dispersione
ω(k) = −k 3 + u0 k .
(1.16)
L’onda è pertanto dispersiva con velocità di gruppo vg = −3k 2 + u0 .
Osservazione. La distinzione sinora condotta fra onde iperboliche ed
onde dispersive non è netta, nè restrittiva, nel senso che vi sono casi in cui
le equazioni di evoluzione possono essere viste contemporaneamente come
iperboliche e dispersive. Questo è il caso dell’equazione di K-G (1.12) che
possiamo riscrivere fattorizzando l’operatore di D’Alembert come
(∂t − c∂x )(∂t + c∂x ) u + ν 2 u = 0 .
(1.17)
Chiamando
v = ut + c u x ,
la (1.17) diventa
vt − c v x + ν 2 u = 0 .
1
La radice negativa della (1.13) è causa nell’ambito della teoria di campo relativistica
di problemi interessanti.
1.3 L’equazione di continuità
15
Le ultime due equazioni definiscono un sistema di due equazioni accoppiate
alle derivate parziali nelle incognite u e v, che possiamo riscrivere nella forma
(1.1) con:
µ ¶
µ
¶
µ
¶
µ
¶
u
1 0
c 0
−v
U=
,
A=
,
B=
,
φ=
.
v
0 1
0 −c
ν2 u
1.3
L’equazione di continuità
Consideriamo nuovamente un generico sistema iperbolico nella forma (1.1).
Ci chiediamo: perchè nella (1.1) compaiono solo le derivate prime del
vettore incognito rispetto al tempo e rispetto allo spazio e non anche derivate
di ordine superiore, come ci si potrebbe aspettare da una generalizzazione
della legge di Newton f = ma?
La risposta a questa domanda la si trova osservando che in fisica parecchi modelli iperbolici derivano direttamente dalla fluidodinamica che molto
spesso si basa su leggi di conservazione o di continuità, ossia su relazioni
differenziali del primo ordine della forma
ρt (x, t) + jx (x, t) = 0
(1.18)
dove i campi ρ(x, t) e j(x, t) sono rispettivamente definiti come densità lineare
e corrente di densità anche nota come flusso.
L’equazione (1.18) prende il nome di equazione di continuità ed esprime la conservazione della densità ρ nel tempo.
Supponiamo difatti che sia assegnato un campo di densità di massa ρ(x, t).
Ciò significa che ρ(x, t)dx è la massa che compete al volume dx attorno
al punto x. Sia (α, β) un intervallo dell’asse reale x. La conservazione della
massa implica che la sua variazione nell’unità di tempo sia esprimibile come
la differenza tra il flusso entrante (in α) e quello uscente (in β):
Z
Z β
d β
ρ(x, t) dx = −j(β, t) + j(α, t) = −
jx (x, t) dx .
(1.19)
dt α
α
che è, non dipendendo gli estremi d’integrazione dal tempo:
Z β
[ ρt + jx ] dx = 0 .
(1.20)
α
Dovendo valere la (1.20) per ogni volume infinitesimo dx, si ottiene l’espressione dell’equazione di continuità (1.18):
ρt + jx = 0
(1.21)
In seguito, partiremo proprio dalla (1.21) per descrivere vari modelli di
fenomeni fisici, semplicemente variando la natura del flusso j.
16
Propagazione ondosa
1.4
Equazione delle onde e propagazione iperbolica lineare
Consideriamo la più nota fra le equazioni iperboliche lineari: l’equazione delle
onde nel caso unidimensionale:
utt − c2 uxx = 0
(1.22)
in cui u è un campo scalare o vettoriale dello spazio-tempo.
Notiamo anzitutto che possiamo riscrivere la (1.22) in termini delle due
nuove variabili
α = x − ct e β = x + ct
in modo che diventi
uαβ = 0 .
di cui la soluzione generale si ricava subito per integrazione:
u = F (α) + G(β) = F (x − c t) + G(x + c t)
(1.23)
dove F e G sono funzioni arbitrarie di classe C 1 delle due nuove variabili α
e β. Osservando la forma della (1.23), si comprende immediatamente che
questa è la combinazione di due onde che viaggiano con velocità c nei due
versi opposti dell’asse x senza modificare nel tempo il proprio profilo.
Se si vuole studiare la propagazione di una sola onda è sufficiente notare
[1] che la (1.22) si fattorizza in
(∂t − c ∂x ) (∂t + c ∂x ) u = 0
(1.24)
(come già mostrato nella (1.17)) e tener conto di uno solo di questi due fattori.
Dunque, il più semplice problema iperbolico lineare è dato da

 ut + c u x = 0
(1.25)

u(x, 0) = f (x)
dove la c è ancora la velocità di propagazione dell’onda. Osserviamo che se
u è soluzione della ((1.25)), data la omogeneità nelle derivate, anche u0 ≡ uξ
con ξ = x − ct sarà soluzione.
La soluzione del problema ((1.25)) è allora
u(x, t) = f (x − c t) .1
1
(1.26)
É ovvio che nel caso in cui scegliessimo nella ((1.25)) il primo fattore per il quale c ha
segno negativo, l’onda traslerebbe verso valori negativi delle x, cioè verso sinistra.
1.4 Equazione delle onde e propagazione iperbolica lineare
17
Difatti se f 0 = fξ con ξ = x − c t, allora:

 ut + c ux = −c f 0 + c f 0 = 0

(1.27)
u(x, 0) = f (x)
Dal momento che la relazione di dispersione associata alla ((1.25)) è
ω(k) = c k ,
l’onda non è dispersiva essendo
d2 ω(k)
= 0.
d2 k
Riportando l’andamento della u(x, t) nello spazio delle fasi Ω ≡ (x, t), si
osserva che le linee di livello sono rette parallele, ognuna delle quali parte da
un diverso punto dell’asse delle x con pendenza data dal valore della velocità
di propagazione c.
Nelle figure 1.1 e 1.3, riportiamo due andamenti delle soluzioni della
((1.25)) insieme alle corrispondenti curve di livello in 1.2 e 1.4: si osservi
il cambiamento di pendenza dovuto ad una differente scelta del valore della
velocità di propagazione c.
20
10
0
-10
-20
-10
10
5
0
-5
-5
0
5
10 -10
Figura 1.1: Grafico 3D della soluzione u dell’equazione ut + c ux = 0, con
c = 1.
18
Propagazione ondosa
10
5
0
-5
-10
-10
-5
0
5
10
Figura 1.2: Curve di livello della soluzione u dell’equazione ut + c ux = 0, con
c = 1.
A volte il problema della ricerca delle giuste condizioni iniziali e delle
corrette condizioni al contorno è di grande importanza e di non semplice
risoluzione: può capitare infatti che una scelta inappropriata porti al contrastare dell’equazione stessa con le condizioni assegnate o a situazioni di
incompatibilità tra le condizioni al contorno e quelle iniziali.
Ritorneremo comunque più avanti su questo punto.
Cercando un’estensione non lineare della ((1.25)), il più semplice esempio
lo si ottiene considerando la velocità c come funzione del disturbo locale u
[1]. In tal caso, la ((1.25)) si modifica in
ut + c(u) ux = 0
(1.28)
e dallo studio di quest’equazione, che sarà oggetto di discussione nel paragrafo
1.5, si possono derivare tutte le idee ed i risultati essenziali riguardo le onde
iperboliche non lineari.
1.4 Equazione delle onde e propagazione iperbolica lineare
10
19
10
0
5
-10
-10
0
-5
-5
0
5
10 -10
Figura 1.3: Grafico della soluzione u dell’equazione ut + c ux = 0, con c = 2.
1.4.1
Propagazione iperbolica lineare con dissipazione
Modifichiamo la ((1.25)) aggiungendovi un termine dissipativo
sorgente o forzante σ(x, t):

 ut + c ux + τ1 u = σ(x, t)

1
τ
u ed una
(1.29)
u(x, 0) = F (x)
Il termine τ1 u(x, t), con [τ ] = [t−1 ], si presenta come un termine dissipativo. Immaginiamo difatti, per il momento, che σ(x, t) = 0. Allora dalla
(1.28) possiamo cercare una soluzione nella forma
Z +∞
u(x, t) =
Ak ei(k−ω(k)t) dk .
−∞
Essenso la relazione di dispersione associata alla (1.28)
ω(k) = ck +
abbiamo
Z
+∞
u(x, t) =
−∞
i
,
τ
t
Ak ei(kx−ckt) e− τ Fb(k) dk ,
20
Propagazione ondosa
10
5
0
-5
-10
-10
-5
0
5
10
Figura 1.4: Curve di livello della soluzione u dell’equazione ut + c ux = 0, con
c = 2.
Ossia un pacchetto di onde che al crescere del tempo diminuiscono esponenzialmente la propria ampiezza. τ è il tempo dopo cui l’ampiezza si è ridotta
di un fattore 1/e.
Dalla sorgente possiamo invece aspettarci la formazione di altre onde dalla
forma che caso per caso dovrà essere specificata.
Il metodo di risoluzione parte da una trasformazione di coordinate capace
di porre l’equazione (1.29) in una forma più semplice e conveniente.
Passiamo allora dalle vecchie variabili (u, x) alle nuove (w, y) definite da:

t
 u(x, t) = e− τ w(y, t)
(1.30)

y
=
x − ct
lasciando invariata la variabile temporale t.
Sostituendo le (1.30) nella (1.29), una volta operate le opportune derivate
nelle variabili t ed x, otteniamo
t
wt = e τ σ(y + c t, t) .
Integriamo la (1.31) per ricavare la w:
Z t
t0
w(y, t) = F (y) +
dt0 e τ σ(y + ct0 , t0 ) .
0
(1.31)
(1.32)
1.5 Flusso quadratico e onde di shock
21
Sfruttando la (1.30) ritorniamo alla u, ottenendo la soluzione generale della
(1.29):
Z
u(x, t) = e
− τt
t
F (x − ct) +
dt0 e−
t−t0
τ
σ(x − c(t − t0 ), t0 ) .
(1.33)
0
1.5
Flusso quadratico e onde di shock
Riprendiamo ora l’equazione di continuità (1.21) 1 e consideriamo il caso in
cui il flusso presenti termini lineari e quadratici in u:
ut + jx = 0,
con j = c u +
a 2
u .
2
Un flusso che dipende dal quadrato della densità u non è una pura complicazione matematica del problema, ma è ciò che realmente accade nella
dinamica dei fluidi.
Esplicitiamo allora la forma dell’equazione di continuità sostituendo a j
la sua espressione polinomiale in u ed otteniamo il problema al valore iniziale

 ut + c ux + au ux = 0
(1.34)

u(x, 0) = u
e(x)
Osserviamo che i primi due termini del membro di sinistra dell’equazione
sono quelli già incontrati nella ((1.25)). Il nostro interesse è dunque capire
l’effetto del terzo termine non lineare u ux .
Prima di procedere coi calcoli, osserviamo che possiamo riscrivere la (1.34)
forma
ut + (c + au) ux = 0, con c > 0 e a > 0 .
(1.35)
La (1.35) può essere vista come l’equazione di evoluzione di un’onda che
viaggia con velocità lineare in u: c(u) = c + au; pertanto grandi valori di
u viaggiano più velocemente di piccoli valori di u e cosı̀ la cresta dell’onda
supera tutti gli altri punti.
Questo fenomeno porta inevitabilmente al frangersi dell’onda - cioè, matematicamente, all’esistenza di un punto di singolarità e ad una conseguente
perdita di univocità nel profilo.
Esiste cosı̀ un tempo finito in cui il gradiente di u assume valore infinito.
Tale tempo è detto tempo minimo di rottura ed il fenomeno associato è
conosciuto come frangersi dell’onda (wave breaking).
1
Qui indicheremo la densità ρ con la lettera u.
22
Propagazione ondosa
Della (1.34), possiamo cosı̀, in analogia con la soluzione della ((1.25)),
dare la soluzione in forma implicita:
u(x, t) = ũ(x − ct − atu) ,
(1.36)
che evidentemente soddisfa alla condizione iniziale. La (1.36) verifica inoltre
la (1.35), infatti sostituendo:
ũ0 (−c − au − at ut ) + (c + a u)ũ0 (1 − at ux ) = −atũ0 (ut + c ux + au ux )
cioè
ut + c ux + au ux = −atũ0 (ut + c ux + au ux ) ⇒
⇒ (1 + at ũ)(ut + c ux + au ux ) = 0 .
Dato che il primo termine è non nullo, otteniamo nuovamente l’espressione
dell’equazione di partenza, e ciò conclude la verifica.
1.5.1
Tempo critico
Vogliamo ora determinare il tempo critico o tempo minimo di rottura dell’onda, Tc , noto come l’istante al quale si verifica lo shock per cui ux = ∞
2
. Matematicamente Tc è l’istante che delimita la regione massimale dello
spaziotempo entro cui la soluzione del problema di Cauchy relativo alla situazione fisica può essere definita, visto che per t = Tc tale soluzione sviluppa
una discontinuità e che per t ≥ Tc il profilo diventa una funzione a molti
valori.
Prendiamo la soluzione (1.36) e deriviamola rispetto ad x:
ux = ũ0 [1 − at ux ]
dalla quale si ricava
ux =
ũ0
,
1 + atũ0
con a > 0 e t > 0 .
(1.37)
Deduciamo che il comportamento futuro dipende in modo completo dalle
condizioni iniziali, ovvero dal profilo iniziale dell’onda u
e.
0
Se la ũ è negativa il denominatore della (1.37) può anche annullarsi.
Definiamo allora
min ũ0 (x) = −m, m > 0
(1.38)
x∈R
2
Nel caso multidimensionale, l’ovvia estensione è ottenuta sostituendo all’operatore ∂x ,
l’operatore ∇.
1.5 Flusso quadratico e onde di shock
23
sostituiamo questa definizione nella (1.37) e ci chiediamo quale sia il tempo
Tc tale che:
1 − aTc m = 0 ,
da cui l’espressione del tempo critico come tempo minimo di rottura dell’
onda:
1
Tc =
.
(1.39)
am
L’interpretazione della (1.39) è semplice: più grande è il valore della costante
di accoppiamento a, quindi più è non trascurabile il contributo nonlineare,
meno tempo si impiega a raggiungere lo shock; anche il profilo iniziale ha un
ruolo importante nel manifestarsi del fenomeno d’urto, a seconda che descriva
una forma iniziale più o meno ripida.
Capitolo 2
L’equazione di Burgers
2.1
Verso l’equazione di Burgers
Continuiamo col modificare l’equazione iperbolica lineare ((1.25)) aggiungendovi altri termini e cercando di capire quali siano gli effetti generati.
Riprendiamo la (1.34) e teniamo conto di un ulteriore termine dissipativo
1
u:
τ

 ut + c ux + au ux + τ1 u = 0
(2.1)

u(x, 0) = u
e(x)
già incontrato nella (1.29). Ricordiamo che per risolvere il problema (1.29)
avevamo impiegato la trasformazione di variabili (1.30) che aveva permesso
di determinarne la soluzione nella forma (1.33).
La difficoltà in questo caso è rappresentata dalla presenza del termine
non lineare che non permette più alla trasformazione (1.30) di semplificare
notevolmente il problema. La (1.30) applicata alla (2.1) restituisce difatti il
problema:

t
 wt + c wx + ae− τ w wx = 0
(2.2)

w(x, 0) = w(x)
e
non più semplice da risolversi del (2.1)
Osservazione. La (2.2) non è un’equazione autonoma, ovvero i coefficienti non sono più costanti, ma dipendono dalle varivabili indipendenti x
e t. Avere un’equazione di tipo autonomo risulta essere molto comodo, infatti da questa proprietà se ne può derivare immediatamente un’altra molto
importante: quella di essere invariante sotto traslazioni spazio-temporali.
Conseguentemente, da questa, sfruttando il teorema di Nöether, si deduce
che energia ed impulso sono conservati.
2.1 Verso l’equazione di Burgers
25
Consideriamo per il momento un’immediata generalizzazione della (2.2)
t
sostituendo al posto di a e− τ una generica funzione del tempo A(t):
wt + c wx + A(t)w wx = 0 .
(2.3)
In analogia con la (1.34), proponiamo la seguente soluzione in forma implicita:
w(x, t) = ũ(x − ct − B(t)w) .
(2.4)
Sostituendo la (2.4) nella (2.3):
ũ0 [−c − Ḃw − Bwt + c (1 + Bwx ) + Aw (1 − Bwx )] = 0 ,
sfruttando la (2.3) ed il fatto che w(x)
e
= u
e(x) , si ricava la condizione cui
deve soddisfare B(t) affinchè la (2.4) sia soluzione del problema (2.3):
Ḃ = A ,
cioè
B(0) = 0.
Z
t
B(t) =
A(t0 )dt0 .
(2.5)
0
t
Riprendiamo il caso specifico in cui A(t) = a e− τ ). Dalla (2.5) segue:
B(t) =
t
a
(1 − e− τ )
τ
e quindi la soluzione generale in forma implicita è
³
´ ´
a³
− τt
w(x, t) = ũ x − ct −
1−e
w .
τ
2.1.1
(2.6)
Tempo critico
Determiniamo il valore del tempo critico per il problema (2.1). Come al solito
siamo interessati a trovare il primo istante di tempo in cui si presenta la singolarità. Quanto ci aspettiamo è che per un’opportuna scelta dei parametri
caratteristici del problema l’effetto dissipativo riesca a frenare la formazione
di un’onda di shock.
Consideriamo la derivata della w rispetto ad x:
t
wx = ũ0 [1 − aτ (1 − e− τ )wx ],
con a > 0
ed esplicitiamo in funzione della wx :
wx =
ũ0
t
1 + aτ (1 − e− τ )ũ0
(2.7)
26
L’equazione di Burgers
Osserviamo che la (2.7) porta alla (1.37) nel limite in cui τ −→ ∞, cioè nel
caso di un tempo di dissipazione infinito.
Definiamo allora il minimo della derivata ricalcando la (1.38) e mast
simizziamo il termine (1 − e− τ ) con 1. La singolarità sarà evitata se
1 − amτ > 0
cioè se
1
.
am
Se quindi la dissipazione diventa rilevante il fenomeno del frangersi dell’onda viene frenato.
τ<
2.2
L’equazione di Burgers
Continuiamo col modificare la forma del flusso j nell’equazione di continuità
ρt + jx = 0.
Aggiungiamo in j un nuovo termine dipendente dal gradiente della densità
che equivale a considerare eventuali effetti diffusivi derivanti da perdite del
sistema 1 . L’espressione di j è quindi
1
j = c ρ + a ρ2 − ν ρx
2
(2.8)
con ν > 0.
Il problema che si ottiene impiegando la (2.8) nell’equazione di continuità,
ha la forma:

 ut + c ux + au ux = ν uxx
(2.9)

u(x, 0) = u0 (x)
La (2.9) può essere vista come il caso unidimensionale delle ben più complesse equazioni di Navier-Stokes in grado di descrivere fenomeni di turbolenza
per un fluido incomprimibile.
L’equazione di Burgers rientra nell’insieme delle equazioni c-integrabili,
cioè quelle equazioni non lineari che possono essere linearizzate attraverso
una trasformazione lineare 2 .
1
Matematicamente, ciò vuol dire che stiamo trattando sistemi di tipo parabolico, e
non più iperbolico. Immaginiamo ad esempio di lavorare con un fluido contenuto in un
recipiente non ermetico.
2
Nel nostro caso la trasformazione che linearizzerà la Burgers sarà nella sola variabile
dipendente u, ma per altre equazioni si possono operare trasformazioni anche sulle più
coordinate.
2.2 L’equazione di Burgers
27
La (2.9) rappresenta inoltre un modello adatto alla descrizione di sistemi
nei quali si combinino effetti legati alla propagazione non lineare e a quella
diffusiva [1].
La ricerca della soluzione per l’equazione di Burgers consiste nell’effettuare una trasformazione linearizzante (dalle variabili di partenza u alle nuove
variabili ψ che specificheremo in seguito) la quale permette di eliminare il
termine non lineare e conduce ad un’equazione del tipo:
ψt + c ψx = ν ψxx .
(2.10)
che, eliminando il termine cψx con una trasformazione di Galileo, possiamo
ricondurre all’equazione del calore.
Osservazione. L’equazione di Riccati.
Consideriamo la seguente equazione ordinaria nella funzione y(x), nota
col nome di equazione di Riccati:
y 0 = c0 (x) + c1 (x) y + c2 (x) y 2
(2.11)
É possibile determinare una trasformazione differenziale (non algebrica) che
linearizza la (2.11) 1 . Poniamo dunque:
y=α
z0
d
= α log(z)
z
dx
(2.12)
e sostituiamo la (2.12) nella ((14.72)), ottenendo:
02
z 00
z02
z0
2z
α + α − α 2 = c0 + c1 α + c2 α 2
z
z
z
z
z
0z
0
(2.13)
02
e scelta α = − c12 , riusciamo ad eliminare il termine quadratico zz2 .
Notiamo che l’ordine dell’equazione differenziale è passato dal primo al
secondo e questo potrebbe farci pensare che il problema è stato solamente
complicato 2 . In realtà abbiamo ottenuto un grande vantaggio: il termine
non lineare, presente nella (2.11), non compare più nella (2.13); abbiamo
dunque linearizzato l’equazione di partenza, ed è questo il grande vantaggio
della trasformazione.
Ritorniamo alla equazione di Burgers. In sostanza, il nostro problema
consiste nel trovare una trasformazione che ci permetta di passare dalla (2.9)
1
La trasformazione prende spunto dalla forma della derivata di un rapporto: il termine
quadratico a denominatore ottenuto dalla derivazione del rapporto, può essere sfruttato
per eliminare il contributo non lineare (anch’esso quadratico) a numeratore.
2
In generale, nel caso in cui i coefficienti dell’equazione sono non costanti, non sappiamo
trovare una soluzione esatta all’equazione.
28
L’equazione di Burgers
alla (2.10). Notiamo innanzitutto che possiamo riscrivere la (2.9) nella forma
di equazione di continuità:
1
ut = (νux − cu − au2 )x ,
2
(2.14)
simile alla forma dell’equazione di Riccati (2.11). Poniamo allora:
u=α
ψx
ψ
(2.15)
ed andiamo a sostituire nella (2.14), ottenendo
Ã
ut =
µ ¶2 !
ψxx
ψx2
ψx 1 2 ψx
να
− να 2 − cα
− α a
.
ψ
ψ
ψ
2
ψ
x
Scegliendo in modo opportuno il coefficiente α:
α=−
2ν
,
a
siamo in grado di eliminare i termini quadratici, arrivando a
µ
¶
2ν
ψxx
ψx
.
ut = −
ν
−c
a
ψ
ψ x
(2.16)
Ricordando la trasformazione (2.15) ed integrando la (2.16) rispetto ad x
otteniamo:
ψxx
ψx
(log(ψ))t = ν
− c + γ(t)
(2.17)
ψ
ψ
dove γ(t) è una funzione che possiamo subito eliminare attraverso una nuova
definizione della variabile.
Dalla (2.17), discende pertanto:
ψt + c ψx = ν ψxx ,
l’equazione del calore.
Osservazione. La trasformazione che linearizza la Burgers (e che ci
porta ad una equazione simile a quella del calore a meno di un termine
di propagazione) è detta trasformazione di Cole-Hopf. I passi svolti per
effettuare la trasformazione sono riportati nel seguente schema:
2.3 Gerarchia di Burgers
u(x, 0)
Cole-Hopf
29
Burgers
−→
u(x, t)
↓
ψ(x, 0)
↑
Eq.Calore
−→
−1
Cole-Hopf
ψ(x, t)
Riassumiamo di seguito le formule di trasformazione:

2ν ψx

 u(x, t) = − a ψ
R

 ψ(x, t) = Γ(t) e− 2νa xx0 u(x0 ,t)dx0
(2.18)
dove Γ(t) è una funzione arbitraria.
Il problema di Cauchy associato all’equazione di Burgers si risolve quindi
nel modo seguente:
1. Dal dato iniziale u(x, 0) = ũ(x), si ricavaRil corrispondente dato iniziale
− a x ũ(x0 )dx0
, dove x0 e Γ(0) sono
della ψ, cioè ψ(x, 0) = ψ̃(x) = Γ(0) e 2ν x0
costanti arbitrarie; ad esempio, si potrebbe scegliere un profilo in cui
x0 = −∞ e si potrebbe porre Γ = 1 dato che tale funzione non entra
nella definizione di u;
2. Si calcola l’evoluzione temporale della ψ:
ψ̃(x) −→ ψ(x, t) ;
attraverso l’equazione del calore;
3. Si ritorna alla u(x, t), nota ψ(x, t), usando la trasformazione di ColeHopf inversa:
2ν ψx (x, t)
.
u(x, t) = −
a ψ(x, t)
2.3
Gerarchia di Burgers
Le proprietà di linearizzabilità non appartengono solo all’equazione di Burgers, ma è possibile individuare una classe di equazioni, o meglio, una gerarchia di equazioni linearizzabili tramite la trasformazione di Cole-Hopf. Lo
30
L’equazione di Burgers
scopo ora è individuare tale gerarchia. Consideriamo nuovamente la forma
dell’equazione di Burgers (2.9) “pulita”dalle costanti 1 :
ut + uux = uxx ,
che possiamo anche riscrivere come equazione di continuità:
ut = (ux + u2 )x .
Come visto, la trasformazione che linearizza la Burgers è la trasformazione
di Cole-Hopf:
ψx
u=
(2.19)
ψ
che porta all’equazione del calore
ψt = ψxx .
Poichè dalla (2.19) si ricava immediatamente
u=
ψx
−→ ψx = uψ ,
ψ
possiamo riscrivere l’equazione del calore come un sistema di due equazioni
differenziali nella sola variabile ψ:

 ψx = u ψ
(2.20)

2
ψt = (ux + u ) ψ
Notiamo però che tale sistema è sovradeterminato essendo il numero
delle equazioni maggiore di quello delle incognite, ed ammette perciò come
soluzione unica la banale, data da ψ = 0.
Per ricercare delle soluzioni non banali, dobbiamo imporre delle condizioni
particolari sulla u affinché il sistema risulti compatibile.
La condizione di compatibilità è data dal teorema di Schwartz sulle derivate
parziali miste 1 ,
ψxt = ψtx .
1
La pulizia, cioè l’opportuna ridefinizione delle costanti del problema, la si può effettuare attraverso dei cambiamenti di sistemi di riferimento ed attraverso adeguati riscalamenti delle variabili. Nel caso specifico della (2.9) abbiamo posto: c = 0 con una
trasformazione di Galileo, e a = −2 e ν = 1.
1
Nel caso a più dimensioni, si considera il gradiente ∇.
2.3 Gerarchia di Burgers
31
Dalla (2.20):

 ψxt = ut ψ + uψt = [ut + u(ux + u2 )]ψ

ψtx = [(ux + u2 )x + (ux + u2 )u]ψ
e dal Lemma di Schwartz:
ut = (ux + u2 )x
che è proprio la Burgers.
L’equazione di Burgers può essere quindi interpretata come condizione
di compatibilità del sistema sovradeterminato e quindi come condizione di
integrabilità della (2.20).
Estendiamo tale ragionamento ad altre equazioni modificando l’equazione
del calore in
ψt = ψxxx ,
(2.21)
sempre con la condizione ψx = uψ.
Calcoliamo l’espressione del termine dispersivo sfruttando la trasformazione
di Cole-Hopf:
ψxxx = [(ux + u2 )x + (ux + u2 )u]ψ = (uxx + 3u ux + u3 )ψ
In questo caso 1 , la condizione di compatibilità è
ut = uxxx + 3u2x + 3u uxx + 3u2 ux .
n
Si può generalizzare in ψt = ∂∂xψn , trovando per ogni ordine n una nuova
equazione di compatibilità del tipo
µ
¶
∂ nu
ut = Fn u, ux , . . . , n .
∂x
Cerchiamo ora di determinare una formulazione più compatta della gerarchia di Burgers.
Esplicitiamo la trasformazione di Cole-Hopf attraverso una trasformazione
di gauge sull’operatore differenziale. Partendo da
u=
1
ψx
= (log(ψ))x = φx .
ψ
Quest’equazione non ha evidenti applicazioni in Fisica, ma è speciale perchè linearizzabile con la trasformazione di Cole-Hopf. Contrariamente, la (2.9) può essere un buon
modello per studiare il flusso di acqua in un canale sotto opportuni regimi (ad esempio, di grandi lunghezze d’onda, come già anticipato per la KdV, nel caso di assenza di
dispersione.)
32
L’equazione di Burgers
Definiamo l’operatore
D = e−φ ∂x eφ ,
tale che
D1 = φx = u
D2 1 = Du = ux + u2
D3 1 = uxx + 3ux u + u3
..
.
¡
¢n
n
D = e−φ ∂x eφ = e−φ ∂xn eφ
L’ equazione che si ottiene all’ n-esimo ordine possiamo riscriverla di conseguenza come:
ut = (Dn 1)x .
L’equazione di Burgers appare pertanto come secondo membro di una gerarchia di equazioni di evoluzione, tutte linearizzabili ed integrabili, tramite
una trasformazione di Cole-Hopf, e tutte caratterizzabili come condizioni di
compatibilità di sistemi sovradeterminati quale il (2.20).
Capitolo 3
Propagazione ondosa in fluidi e
solidi
3.1
Meccanica dei Fluidi e Curve Caratteristiche
Abbiamo visto come la diversa scelta della corrente j nell’equazione di continuità ci abbia portato ad equazioni ogni volta sempre differenti. A partire
da
ρt + jx = 0
(3.1)
e scegliendo:

cρ





cρ +
j(x) =





cρ +
, equazione di propagazione lineare
a
2
ρ2
a
2
ρ2 + νρx , equazione di Burgers
, equazione dell’ onda di shock
siamo giunti a tre equazioni differenti, ognuna in grado di modellizzare sistemi
fisici diversi.
Nell’ambito della Fluidodinamica, è naturale interpretare la densità ρ
come la densità di massa del fluido , e la corrente j come il flusso :
j = ρv
con v velocità delle particelle costituenti il sistema.
La relazione di continuità ci permette cosı̀ di legare i due campi di densità
e di velocità del fluido:
ρt + (ρ v )x = 0
(3.2)
34
Propagazione ondosa in fluidi e solidi
Tuttavia perchè i due campi possano essere determinati univocamente
occorre introdurre un’altra relazione.
Se il fluido non è soggetto a forze esterne, possiamo pensare che un’altra
grandezza conservata sia la densità di quantità di moto q:
q = ρv
soddisfacente anch’essa ad un’equazione di continuità del tipo:
(ρ v )t + (ρ v 2 )x = 0
(3.3)
Abbiamo cosı̀ un sistema di due equazioni che possiamo sperare di risolvere nei due campi incogniti di densità di massa e di velocità.
Sfruttando le due equazioni a disposizione riscriviamo il sistema nella
forma:

ρ(x, 0) = ρ0 (x)
 ρt + (ρ v )x = 0 ,
(3.4)

vt + v v x = 0 ,
v(x, 0) = v0 (x)
di due equazioni accoppiate.
La seconda equazione è proprio l’equazione dell’onda di shock di cui
conosciamo la soluzione implicita:
v(x, t) = v0 (x − v(x, t) t)
(3.5)
con v0 profilo iniziale dell’onda. Nota la v(x, t) possiamo procedere con
l’integrare la prima delle (3.4):
ρt + ρ v x + v ρx = 0
(3.6)
Cerchiamone una del tipo:
ρ = ρ(x(s), t(s))
tale che la derivata totale della ρ rispetto al parametro caratteristico s sia
data da
dρ dx
dρ dt
dρ
=
+
(3.7)
ds
dx ds
dt ds
Notiamo che la variazione totale di ρ rispetto ad s è uguale a − vx ρ solo
se valgono le:
dx
dt
= v(x(s), t(s)) ,
= 1
(3.8)
ds
ds
Le curve x = x(t) e t = t prendono il nome di curve caratteristiche del
sistema e rappresentano le traiettorie seguite dalle particelle del fluido nel
piano (x, t).
3.2 Esempi
35
Lungo le traiettorie vale cosı̀:
dρ
= − ρ(x(t), t) vx (x(t), t)
dt
(3.9)
che, nota v(x(t), t) dalla (3.5), può essere integrata restituendo la soluzione
della (3.4):
Rt 0
0
0
(3.10)
ρ(x(t), t) = ρ (x(0), 0) e 0 dt vx (x(t ),t )
Se lungo le curve caratteristiche la densità di massa è costante, l’idea è
quella di fissare un punto nel piano (x, t), seguire la caratterisica che vi passa
fino a che questa non si interseca con l’asse delle ascisse t = 0 e determinare
cosı̀ il valore che la ρ assume in (x, t), noto il valore del dato iniziale ρ (x, 0).
3.2
3.2.1
Esempi
L’onda di shock
Esercizio: Ricavare la soluzione implicita 3.5 del problema al valore iniziale:

 vt + v v x = 0

v(x, 0) = f (x)
servendosi del metodo delle caratteristiche.
Soluzione : Parametrizziamo il campo delle velocità come:
v = v(x(s), t(s))
e calcoliamone la derivata totale rispetto al parametro s:
dv
dv dx
dv dt
=
+
ds
dx ds
dt ds
che risulta nulla se e solo se:
dt
= 1,
ds
dx
= v
ds
da cui:
t = s,
x(t) = v t + x0
Sappiamo che il campo presenta un profilo iniziale f (x) = v(x, 0) che calcolato lungo le caratteristiche restituisce:
v(x0 , 0) = f (x0 ) = f (x − v t) = v(x, t)
36
Propagazione ondosa in fluidi e solidi
essendo la velocità costante lungo le curve caratteristiche. Notiamo che la
caratteristica x(t) è una retta nel piano (x, t) con coefficiente angolare dato
dal valore della velocità nel punto dell’ asse delle ascisse (x0 , 0).
Pertanto ogni curva presenterà un proprio coefficiente angolare in generale
diverso da quello dell’altra potendo variare il parametro x0 da −∞ a +∞.
Esisterà cosı̀ un punto in cui due o più curve caratteristiche verranno ad
intersecarsi: al valore dell’ordinata di tale punto diamo il nome di tempo
minimo di rottura dell’onda: Tc .
Da questo istante in poi il profilo dell’onda diventa a molti valori. Questa polidromia non è in generale accettabile da un punto di vista fisico.
L’evoluzione del sistema per t > Tc puo’ essere descritta da un’opportuna
soluzione debole (discontinua), ad un sol valore.
3.2.2
Un’equazione lineare
Esercizio: Ricavare la soluzione del problema al valore iniziale:

 ut + τ1 (x u)x = 0

u(x, 0) = f (x)
servendosi del metodo delle caratteristiche.
Soluzione: Come nell’esempio precedente parametrizziamo la funzione incognita:
u = u(x(s), t(s))
ed eseguiamone la derivata totale rispetto ad s ottenendo il sistema di equazioni
ordinarie:
 dt
= 1
,
t(0) = 0

ds




dx
= xτ
,
x(0) = 0
ds




 du
= − uτ ,
u(x(0), 0) = f (x0 )
ds
da cui
t
x = x0 e τ ,
t
u = f (x0 ) e− τ ,
t = s,
che restituisce immediatamente
t
t
u(x, t) = f (x e− τ ) e− τ .
3.3 Onde sonore in un fluido
3.3
37
Onde sonore in un fluido
Nel paragrafo precedente abbiamo visto come la dinamica di un fluido possa
essere descritta dal sistema (3.4).
Abbiamo però anche notato come l’equazione per il campo delle velocità presenti un problema non banale: la formazione di onde di shock e la
conseguente polidromia del profilo dell’onda.
Possiamo cosı̀ pensare di modificare il modello aggiungendo un termine
forzante che permetta di domare la formazione di singolarità.
Come scegliere però tale forcing? Possiamo ipotizzare che le forze siano
solo di contatto, cioè esercitate da porzioni di fluido su di altre porzioni di
fluido infinitesimamente vicine tra loro.
Se inoltre richiediamo che lo sforzo, cioè l’azione elementare di contatto,
sia puramente normale alla superficie di separazione fra due strati contigui
di fluido, otteniamo il sistema di equazioni 1 [6]:

ρt + (ρ v )x = 0





vt + v vx = − ρ1 px
(3.11)





p = p (ρ)
con p funzione scalare della densità cui diamo il nome di pressione.
L’equazione per il campo delle velocità è la versione unidimensionale
dell’Equazione di Eulero per i fluidi 2 .
Sfruttando l’ultima delle (3.11) possiamo riscrivere:

 ρt + (ρ v )x = 0
(3.12)

dp
vt + v vx = − ρ1 ( dρ
) ρx
Notiamo che la derivata di p rispetto a ρ ha le dimensioni di una velocità al
quadrato e pertanto chiamiamo:
dp
= c2 (ρ)
dρ
1
La richiesta che lo sforzo sia puramente normale si traduce nel richiedere che l’energia del sistema sia una costante del moto. Assumere che la forza di contatto contenga
anche una componente parallela alla superficie di separazione delle due porzioni di fluido,
permette di passare dall’Equazione di Eulero a quella di Navier-Stokes [5].
2
In generale la pressione potrebbe dipendere anche dalla temperatura ma se si ammette
che, a causa di condizioni ambientali stazionarie e di una sufficiente lentezza del moto, la
temperatura rimanga costante, possiamo supporre che la pressione dipenda solamente dalle
densità del fluido.
38
Propagazione ondosa in fluidi e solidi
Introducendo il vettore a 2 componenti
µ ¶
ρ
u=
,
v
possiamo riscrivere il sistema (3.12) nella forma:
µ
¶
v
ρ
ut +
ux = 0 .
1 2
c (ρ) v
ρ
(3.13)
Rispetto al (3.4), il problema è ora ben piu’ complicato essendo le due
equazioni ora accoppiate in maniera non banale. Possiamo però pensare di
estrarre dal problema informazioni comunque interessanti linearizzando le
(3.13) e studiando la dinamica di una piccola perturbazione apportata allo
stato di equilibrio: ρ = ρ0 , v = 0.
Scriviamo cosı̀:

 ρ = ρ0 + r(x, t)
(3.14)

v = 0 + v(x, t)
con r(x, t) e v(x, t) ordine ε.
Trascurando i termini O (ε2 ) otteniamo il sistema:

 rt + ρ0 vx = 0
 v +
t
1
ρ0
(3.15)
c2 (ρ0 ) rx = 0
che restituisce immediatamente l’equazione delle onde per la densità r(x, t):
rtt − c2 (ρ0 ) rxx = 0
(3.16)
Osserviamo subito che la velocità di propagazione del disturbo è la derivata della pressione rispetto alla densità calcolata per ρ = ρ0 ; segue quindi che
in un fluido incomprimibile, come ad esempio l’acqua, la perturbazione si
propaga ad una velocità molto alta.
Se supponiamo la validità di una legge di stato del tipo:
p = A ργ
³
con γ =
è data da:
cP
cV
´
> 1, allora la velocità dell’onda, ad esempio di un’onda sonora,
c =
p
A γ ρ0 γ−1 .
Il punto u = (ρ0 , 0) è quindi un punto di equilibrio stabile essendo la densità
limitata nel tempo superiormente dal valore ρ = ρ0 .
3.4 Propagazione del suono in un solido elastico
3.4
39
Propagazione del suono in un solido elastico
Nei solidi la forza che mantiene gli atomi nelle posizioni cristalline è in prima
approssimazione elastica.
Sia u(x, t) il campo degli spostamenti degli ioni dalla loro posizione di
equilibrio x al tempo t. Se identifichiamo, servendoci della Legge di Hooke:
ut = v
p = −λux
e sostituiamo nella seconda delle (3.11), otteniamo:
utt + ut uxt −
1
uxx = 0
ρ
(3.17)
che linearizzata restituisce:
utt −
λ
uxx = 0 .
ρ0
(3.18)
La dinamica del disturbo u(x, t) della soluzione di equilibrio u = 0 è
pertanto di tipo ondoso con velocità di propagazione legata alla costante
elastica di Lamé λ dalla relazione:
s
λ
c =
ρ0
Capitolo 4
Caratteristiche
Nel paragrafo 3.1 abbiamo introdotto la nozione di curve caratteristiche nell’ambito dello studio della dinamica di un fluido ideale non sottoposto ad alcuna forza, ed abbiamo osservato come le curve caratteristiche rappresentino
la traiettoria delle particelle costituenti il fluido.
Vogliamo ora soffermarci in maniera più dettagliata sul metodo delle
caratteristiche nel caso più generale di un sistema iperbolico quasilineare
mono e pluri dimensionale.
Ci soffermeremo sui vantaggi del metodo ed introdurremo la nozione di
Invarianti di Riemann. [1]
Abbiamo già notato, cfr. § 1.1, che riferirsi ad un sistema iperbolico
quasilineare significa assegnare una legge di evoluzione per il campo u (x, t)
del tipo :
A(u, x, t) ut + B(u, x, t) ux + φ(u, x, t) = 0
(4.1)
con A e B, nel caso piu’ generale, matrici N × N e ϕ ed u vettori ad N
componenti. Il sistema (4.1) è quindi un sistema di N equazioni nelle N
componenti del vettore u.
4.1
Caso scalare : N = 1
Analizziamo come primo caso quello in cui tanto le grandezze A e B, quanto
ϕ ed u sono degli scalari.
La (4.1) diventa cosı̀ una sola equazione quasilineare nel campo scalare
u(x, t) che vogliamo risolvere, in analogia con quanto fatto per la Meccanica
dei Fluidi, servendoci del metodo delle caratteristiche:
A(u, x, t) ut + B(u, x, t) ux + φ(u, x, t) = 0 ,
u (x, 0) = f (x)
(4.2)
4.1 Caso scalare : N = 1
41
Introduciamo la traformazione:
x = ξ(s) ,
t = τ (s) ,
La condizione per cui la (4.2) sia una
è
 dξ
= B(q, ξ, τ )

ds




dτ
= A(q, ξ, τ )
ds




 dq
= −ϕ(q, ξ, τ )
ds
u (ξ(s), τ (s)) = q(s)
(4.3)
derivata totale rispetto al parametro s
,
ξ (0) = x0
,
τ (0) = 0
,
q (0) = f (x0 )
(4.4)
che è un sitema di tre equazioni alle derivate ordinarie nelle tre incognite
ξ (s), τ (s) e q (s). Integrando le (4.4), siamo in grado di risolvere le (4.3).
4.1.1
Vantaggi del metodo delle caratteristiche
Notiamo subito dalle (4.4) uno dei vantaggi introdotti dal metodo delle caratteristiche: siamo passati da un’equazione quasilineare alle derivate parziali
ad un sistema di equazioni alle derivate ordinarie, in genere più conveniente
sebbene il numero di equazioni da integrare sia triplicato 1 .
Il secondo vantaggio apportato dal metodo delle caratteristiche trova applicazione nel campo dell’analisi numerica: la conoscenza delle curve caratteristiche e, di conseguenza, del loro andamento, suggerisce un’utile griglia
in cui suddividere il piano Ω per la risoluzione di equazioni iperboliche con
tecniche di calcolo numerico.
Cerchiamo ora di capire qual è l’altro grande vantaggio apportato al
metodo delle caratteristiche.
Sappiamo che perchè la soluzione di una PDE sia unica occorre assegnare
il problema di Cauchy associato: bisogna cioè definire le condizioni iniziali e
le condizioni al contorno, delle quali queste ultime non sempre semplici da
scegliere.
Il metodo delle carateristiche ci permette di risolvere anche questo problema.
Immaginiamo che la condizione iniziale sia definita nell’intervallo dell’asse
x reale: (a, b) e che le condizioni al contorno corrispondano all’aver assegnato
i valori del campo u agli estremi.
Attraverso il metodo delle caratteristiche siamo in grado di poter conoscere
il valore della soluzione u (x, t) in ogni punto del piano (x, t) a patto che
questo appartenga al dominio d’ influenza, cioè alla regione di piano
1
Chiaramente risolvere il sistema (4.4) non sarà sempre più semplice che risolvere la
PDE di partenza.
42
Caratteristiche
contenuta fra le curve caratteristiche passanti per i due estremi a e b. Ci
chiediamo a questo punto: come posso determinare la soluzione in un punto
P = (x, t) di qualche interesse fisico, se questo non appartiene al dominio
d’influenza?
Con le condizioni al contorno che abbiamo assegnato non c’è modo di
determinare il valore del campo in P . Il metodo delle caratteristiche, però,
ci permette di costruire le giuste condizioni al contorno per trovare risposta
al nostro problema.
Se, ad esempio, x > b e t < 0, noto il grafico delle curve caratteristiche possiamo pensare di assegnare come condizione al contorno il valore
del campo u sulla semiretta verticale x = b sperando sull’esistenza di una
particolare traiettoria che parte da un punto di tale retta e passa per il punto
P.
Studiando il sistema caratteristico riesco quindi ad assegnare le giuste
condizioni al contorno tali da garantire l’esistenza della soluzione inn ogni
punto del piano (x, t).
4.2
4.2.1
Caso vettoriale
A e B matrici N × N diagonali
Iniziamo col considerare il caso in cui il campo reale u non sia un campo
scalare, bensı̀ un campo vettoriale ad N componenti definito nello spazio tempo (x, t).
Il passaggio da uno spazio unidimensionale ad uno N dimensionale complica molto il problema che risulta ora definito da N equazioni alle derivate
parziali accoppiate: la presenza delle matrici A e B fa in generale svanire la
possibilità di riscrivere ciascuna delle PDEs di partenza come una derivata
totale rispetto ad un parametro caratteristico.
Scriviamo il problema nella forma:
N
X
(k)
(j)
= 0
[Ajk ut + Bjk u(k)
x ]+ϕ
(4.5)
j=1
ed assumiamo, per semplicità, che le matrici A e B siano diagonali ad
autovalori reali cosicchè il carattere iperbolico del sistema venga garantito:
Ajk = Aj δjk
Bjk = Bj δjk
(4.6)
dove δjk è l’elemento jk della matrice di Kronecker. Con tale assunzione
l’equazione per la componente j del vettore u diventa
(j)
Aj ut
(j)
+ Bj u(j)
= 0
x + ϕ
(4.7)
4.2 Caso vettoriale
43
Per ogni componente j posso cosı̀ introdurre la curva nel piano Ω:
x = ξj (sj ) ,
t = τj (sj )
(4.8)
che permette di riscrivere l’equazione di partenza nella forma:
du(j)
+ ϕ(j) = 0
dsj
(4.9)
a patto che valgano le
dξj
= Bj ,
dsj
dτj
= Aj
dsj
(4.10)
Sebbene l’assunzione di partenza che le matrici in gioco fossero diagonali ha
facilitato notevolmente i conti portandoci a considerare la dinamica di una
componenete del campo u per volta, non ha tuttavia ancora completamente
risolto il problema.
Notiamo che nell’equazione (4.9) compare come termine forzante la jesima componente del vettore N dimensionale ϕ, in generale dipendente da
tutte le altre N − 1 componenti del vettore incognito u.
La soluzione della (4.9) sarà quindi funzione tanto della j-esima coordinata sj quanto di tutte le altre N − 1 coordinate caratteristiche.
Siamo cosı̀ passati da N equazioni alle derivate parziali a 3N equazioni
ancora alle derivate parziali, in generale non più semplici da risolvere di quelle
di partenza.
É chiaro tuttavia che i vantaggi introdotti dal metodo delle caratteristiche
discussi nel § 4.1.1 restano, sebbene, in questo caso specifico il metodo non
abbia semplificato di molto il problema differenziale originario.
4.2.2
A e B matrici N × N generiche
Consideriamo ora il caso in cui u sia un vettore reale di N componenti e A e
B generiche matrici N × N . Richiediamo ancora una volta che gli autovalori
di A e B siano reali in maniera tale che il carattere iperbolico del sistema
non venga meno.
Il fatto che le matrici in gioco non presentino forma diagonale fa sı̀ che
risulti difficile interpretare i coefficienti delle derivate temporali e spaziali del
campo u come componenti del vettore tangente alla curva caratteristica.
Possiamo però pensare di studiare la dinamica del sistema in un qualche
sottospazio di Rn , cioè di proiettare l’equazione su un vettore non nullo v di
Rn , sperando che il problema si semplifichi notevolmente.
44
Caratteristiche
Se vale
A ut + B ux + ϕ = 0 ,
allora vale anche
hv | A ut + B ux + ϕi = 0 ,
(4.11)
hA† v | ut i + hB † v | ux i + hv | ϕi = 0
(4.12)
cioè
dove l’espressione hv | ui identifica l’operazione di prodotto scalare tra i due
vettori.
Supponiamo di poter determinare un vettore w tale che
 †
 A v = τ0 w
(4.13)
 †
0
B v = ξ w
0
0
con τ e ξ numeri reali. Il sistema (4.13) può essere pertanto riscritto nella
forma:
(ξ 0 A† − τ 0 B † ) v = 0
(4.14)
che ammette soluzione non banale se e solo se
£
¤
det ξ 0 A† − τ 0 B † = 0
Osserviamo che il sistema (4.14) è in realtà un problema agli autovalori
del tipo:
(M − λI ) v = 0
(4.15)
a patto di identificare
−1
M ≡ A† B † ,
−1
I ≡ A† A† ,
λ ≡
τ0
ξ0
che ammette, nel caso in cui le matrici A e B non siano singolari, per il
Teorema fondamentale dell’Algebra, N autovalori.
La richiesta iniziale che gli autovalori siano tutti reali definisce il sistema
originario come completamente iperbolico.
A partire dagli N autovettori v possiamo determinare i vettori w semplicemente invertendo una delle (4.13).
L’equazione (4.11) diventa cosı̀
hw | τ 0 ut + ξ 0 ux i + hv | ϕi = 0
(4.16)
4.2 Caso vettoriale
45
Si potrebbe pensare di costruire curve nel piano (x, t):

 x = ξ(sj )

tali che:
(4.17)
t = τ (sj )
dξ
= ξ 0 j (ξ, τ, u) ,
dsj
dτ
= τ 0 j (ξ, τ, u)
dsj
in cui l’indice j si riferisce all’autovalore j-esimo del problema (4.14).
Notiamo che l’integrazione delle equazioni precedenti non è immediata in
quanto ξ 0 e τ 0 dipendono oltre che da ξ e τ , anche dal campo incognito u;
possiamo difatti riscrivere la (4.16) nella forma
hw(j) |
du
i + hv(j) | φi = 0
dsj
che comporta la derivazione di tutte le componenti non conosciute del campo
u rispetto al j-esimo parametro caratteristico.
Questo approccio del problema iniziale non porta ad alcuna soluzione
significativa; abbandoneremo perciò questa strada per passare al Metodo
degli invarianti di Riemann.
4.2.3
Gli Invarianti di Riemann
Ripartiamo dall’equazione:
hw(j) |
du
i + hv(j) | ϕi = 0
dsj
(4.18)
dove l’indice j si riferisce al j-esimo autovettore del problema (4.14) e quindi
alla j-esima curva caratteristica.
Fissiamo ora il valore dell’indice j o, equivalentemente, osserviamo una
particolare curva caratteristica:
hw |
du
i + hv | ϕi = 0
ds
(4.19)
i assume la forma della potenza
Riemann notò 1 che il termine hw | du
ds
associata ad una forza a patto di identificare : w = f e du
= v, con f forza
ds
agente sul sistema e v velocità delle particelle costituenti il fluido.
1
B. Riemann si interessò del problema delle caratteristiche nel 1858 nella sua tesi di
dottorato studiando un problema bidimensionale di gasdinamica.
46
Caratteristiche
In completa analogia col richiedere che la forza sia conservativa, poniamo:
µ
¶
∂µ
∂µ
∂µ
w = λ ∇µ ≡ λ
,
, . . . , (n)
(4.20)
∂u(1) ∂u(2)
∂u
con u(i) componente i-esima del vettore incognito u. Le funzioni λ e µ saranno
chiaramente funzioni di u e delle coordinate spazio temporali x e t. Tale
assunzione restituisce immediatamente per la (4.19) la forma
h∇u µ |
du
i + hv | ϕi = 0
ds
(4.21)
che, valendo per ognuno degli N autovettori w(j) , è
λj
dµj
+ hv(j) | ϕi = 0
dsj
(4.22)
Con l’ipotesi aggiuntiva che la forzante ϕ sia nulla 2 , otteniamo che le µj
sono costanti lungo le curve di parametro sj e pertanto prendono il nome di
Invarianti di Riemann. In generale le µj sono conosciute come variabili
di Riemann.
Vale il seguente risultato:
1. per N = 2 le variabili di Riemann esistono sempre: il sistema è un
sistema di due equazioni nelle due incognite λ e µ introdotte dalla
trasformazione 4.20;
2. per N > 2 non sempre esistono le variabili di Riemann: il sistema
risulta sovradeterminato.
Note le variabili di Riemann µ(j) si ricostruiscono le u(j) a partire dalla
trasformazione (4.20).
2
Tale ipotesi fu adottata da Riemann nel lavoro del 1858.
Capitolo 5
Leggi di conservazione
Il Teorema di Arnold-Liouville ci dice che se un sistema hamiltoniano
ad n gradi di libertà ammette n integrali primi del moto indipendenti ed in
involuzione (le cui mutue parentesi di Poisson siano nulle), allora è integrabile
[8].
Il problema che vogliamo trattare in questo capitolo è la determinazione
di leggi di conservazione associate a sistemi ad infiniti gradi di libertà.
Per una generica equazione alle derivate parziali:
∆(x, t, u(x, t)) = 0
dove t ∈ R, x ∈ R sono le variabili temporali e spaziali e u(x, t) ∈ R la
variabile dipendente, una legge di conservazione è un’equazione della forma
Dt Ti + Dx Xi = 0
che è soddisfatta da tutte le soluzioni u(x, t) della PDE in esame.
Ti (x, t) è detta densità conservata e Xi (x, t) flusso conservato e sono in
genere funzioni dello spazio-tempo, del campo u e delle sue derivate. [3]
Consideriamo, ad esempio, l’equazione delle onde per il campo scalare
u(x, t) (1.22).
Sappiamo che l’equazione è integrabile ed ammette come soluzione onde
di traslazione:
u(x, t) = F (x − ct) + G(x + ct)
per due generiche funzioni F e G due volte differenziabili.
48
Leggi di conservazione
Ci potremmo aspettare pertanto che, essendo il sistema in considerazione
ad infiniti gradi di libertà, per una generalizzazione del Teorema di ArnoldLiouville, questa possa ammettere infinite leggi di conservazione.
Sappiamo inoltre che l’equazione è invariante per traslazioni temporali e
spaziali, pertanto, per il Teorema di Noether, sia l’energia che la quantità
di moto totale risulteranno conservate.
Come poter determinare però le altre infinite attese leggi di conservazione?
Consideriamo di nuovo il sistema 3.15

 rt + ρ0 vx = 0
 v +
t
1
ρ0
c2 (ρ0 ) rx = 0
che restituisce immediatamente l’equazione delle onde per i campi densità
r(x, t) e velocità v(x, t).
Introducendo il vettore a 2 componenti
µ ¶
r
u=
v
Possiamo riscrivere il sistema nella forma (3.12):
µ
¶
0
ρ0
ut +
ux = 0
1
c2 0
ρ0 0
cioè
ut = M u
con
µ
M = −
0
1
c2
ρ0 0
ρ0
0
¶
∂x
La struttura matematica con cui abbiamo a che fare è quella di un’evoluzione
regolata da un’algebra non commutativa, in generale non commutando la
matrice M con le altra matrici e ∂x con gli operatori moltiplicativi.
Tralasciamo per il momento il caso particolare del sistema (3.15) ed
occupiamoci di una generica dinamica del tipo:
ut = M u
con M generica matrice N × N non singolare ed u(x, t) vettore di L2 (R).
Dati due vettori u1 ed u2 ne definiamo il prodotto scalare come:
Z +∞
hu1 | u2 i ≡
dx u1 (x, t) u2 (x, t)
(5.1)
−∞
49
Vogliamo determinare dei funzionali c(u), definiti come prodotti scalari
(quindi quadratici nell’argomento), tali che ċ(u) = 0.
Costruiamoli cosı̀ nella forma quadratica in u:
c(u) = hu | Γ ui
(5.2)
con Γ operatore lineare costante nel tempo da determinare imponendo la
condizione ċ(u) = 0:
ċ(u) = hut | Γ ui + hu | Γ ut i =
= hM u | Γ ui + hu | Γ M ui =
¡
¢
= hu | M † Γ + Γ M ui = 0
(5.3)
Dal momento che il vettore u è completamente arbitrario, la (5.3) deve
valere per ogni u, da cui l’equazione operatoriale
M† Γ + Γ M = 0 .
(5.4)
Essendo M noto perchè caratterizzante l’equazione di evoluzione in considerazione, la (5.4) si presenta come un’equazione nell’operatore Γ.
Se Γ è soluzione della (5.4) anche
Γ(n) = ΓM n
(5.5)
è soluzione per ogni n ∈ N. Infatti, sostituendo nella 5.4, si ottiene
M † Γ(n) + Γ(n) M = M † Γ(n) M n + Γ(n) M n+1 = 0
che restituisce la (5.4) per ogni matrice non singolare M
¡ † (n)
¢
M Γ + Γ(n) M M n = 0 .
Da tali osservazioni, segue che abbiamo trovato infinite quantità conservate
cn (u) = hu | ΓM n ui
(5.6)
che assumeranno, dipendentemente dal problema in esame, forme diverse.
Riprendiamo come esempio proprio il sistema (3.15) e cerchiamo gli operatori Γ che permettono di definire le quantità conservate (5.6). Essendo
M
¶
µ
0
ρ0
∂x
M = −
1
c2 0
ρ0 0
50
Leggi di conservazione
e data l’antihermitianità dell’operatore di derivazione otteniamo
µ
¶
0 ρ10 c0 2
†
M =
∂x
ρ0
0
La (5.4) prende la forma
µ
¶
µ
0 ρ10 c0 2
∂x Γ − Γ
ρ0
0
0
1
c2
ρ0 0
ρ0
0
¶
∂x = 0
Richiediamo per semplicità che Γ non sia un operatore differenziale, ma
una matrice a coefficienti costanti:
µ
¶
¶
µ
0 ρ10 c0 2
0
ρ0
=0
Γ−Γ
1
c2 0
ρ0
0
ρ0 0
che cerchiamo del tipo
µ
Γ=
γ1 0
0 γ2
¶
da cui, sfruttando la (5.4), si ottiene:
µ 2
¶
c0 0
Γ=
0 ρ20
Le altre infinite quantità conservate deriveranno direttamente dalla (5.5):
µ 2
¶n n
¶µ
∂
0
ρ0
c0 0
(n)
n
Γ = (−)
.
1
2
2
c
0
0 ρ0
∂xn
ρ0 0
Capitolo 6
Multiscale expansion and
integrability of dispersive wave
equations
[Lectures given at the Euro Summer School “What is integrability?”, 13-24
August 2001, Isaac Newton, Cambridge, U. K..]
6.1
Introduction
The propagation of nonlinear dispersive waves is of great interest and relevance in a variety of physical situations for which model equations, as infinitedimensional dynamical systems, have been investigated from various perspectives and to different purposes. In the ideal case in which waves propagate in
a one-dimensional medium (no diffraction) without losses and sources particular progress has been made due to the discovery of integrable models
whose investigation has provided important contributions to such matters
as stability, wave-collisions, long-time asymptotics among others. On the
mathematical side, such progress on integrable models has considerably contributed also to our present (admittedly not concise) answer to the question
in the title of this School. The same question can be found in [9], and a
partial guide to the vaste literature on the theory of Solitons is given in [10].
It is plain that integrable models, though both useful and fascinating,
remain exceptional: nonlinear partial differential equations (PDEs) in 1+1
variables (space+time) are generically not integrable. The aim of these notes
is to show how an algorithmic technique, based on perturbation theory, may
be devised as a tool to establish how far is a given PDE from being integrable. This approach [11] has been known in applicative contexts [12] since
52
Multiscale expansion and integrability of dispersive wave
equations
several decades as it provides approximate solutions when only one, or a few,
monochromatic “carrier waves” propagate in a strongly dispersive and weakly nonlinear medium. More recently [13] it has proved to be also a simple
way to obtain necessary conditions which a given PDE has to satisfy in order
to be integrable, and to discover integrable PDEs as well [14].
The basic philosophy of this approach is to derive from a nonlinear PDE
one or many other PDEs whose integrability properties are either already
known or easily found. In this respect, a general remark on this method of
reduction is the following. Integrability is not a precise notion, and different
degrees of integrability can be attributed to a PDE within a certain class
of solutions and boundary conditions, according to the technique of solving
it. For instance, C-integrable are termed those nonlinear equations which
can be transformed into linear equations via a change of variables [14], and
S-integrable are those equations whose solution requires the method of the
spectral (or scattering) transform (see, f.i., [15]). Examples of C-integrability
are the equations (ut = ∂u/∂t, ux = ∂u/∂x etc.)
ut + a1 ux − a3 uxxx = a3 (3uux + u3 )x ,
u = u(x, t)
ut + a1 ux − a3 uxxx = 3a3 c(u2 uxx + 3uu2x ) + 3a3 c2 u4 ux ,
(6.1)
u = u(x, t) (6.2)
which are both mapped to their linearized version
vt + a1 vx − a3 vxxx = 0 ,
v = v(x, t)
(6.3)
the first one, 6.1, by the (Cole-Hopf) transformation
u = vx /v
(6.4)
and the second one, 6.2, by the transformation [14]
u = v/(1 + 2cw)1/2 ,
wx = v 2
(6.5)
Well-known examples of S-integrable equations are the modified Kortewegde Vries (mKdV) equation
ut + a1 ux − a3 uxxx = 6a3 cu2 ux ,
u = u(x, t)
(6.6)
and the nonlinear Schroedinger (NLS) equation
ut − ia2 uxx = 2a2 ic|u|2 u ,
u = u(x, t)
(6.7)
whose method of solution is based on the eigenvalue problem
ψx + ikσψ = Qψ ,
ψ = ψ(x, k, t)
(6.8)
6.1 Introduction
53
where ψ is a 2-dim vector, σ is the diagonal matrix diag(1, -1) and Q(x, t) is
the off-diagonal matrix
µ
¶
0 u
Q=
(6.9)
−cu 0
for the mKdV equation 6.6 and (the asterisk indicates complex conjugation)
µ
¶
0
u
Q=
(6.10)
−cu∗ 0
for the NLS equation 6.7. Here k is the spectral variable and c is a real
constant. In any case, whatever type of integrability is involved, we adopt
in our treatment the “first principle” (axiom) that integrability is preserved
by the reduction method. Though in some specific cases, where integrability can be formulated as a precise mathematical property, one can give this
principle a rigorous status, we prefer to mantain it throughout our treatment
as a robust assumption. Its use, according to contexts, may lead to interesting consequences. One is that the implication that a PDE derived by the
reduction method from an integrable PDE is itself integrable provides a way
to obtain other (possibly new) integrable equations. On the othe hand, if a
PDE, which has been obtained by reduction from a given PDE, is proved to
be nonintegrable, then from our first principle it there follows that that given PDE cannot be integrable, and this implication leads to quite a number
of necessary conditions of integrability. Some of these conditions are found
simple and, therefore, of ready practical use. Others conditions are instead
the results of lengthy algebraic manipulations which require a rather heavy
computer assistance. Finally, this way of reasoning leads to the following observation, which has been clearly pointed out in [14]. Suppose the same PDE
is obtained by reduction from any member of a fairly large family of PDEs; so
we can call it a “model PDE”. Then the principle stated above explains why
a model PDE can be at the same time widely applicable (because it derives
from a large class of different PDEs) and integrable (because it suffices that
just one member equation of that large family of PDEs be integrable). The
most widely known example of such case is the NLS equation 6.7 which is
certainly a model equation (as shown also below) with many applications (f.i.
nonlinear optics and fluid dynamics [12]), and whose integrability has been
discovered in 1971 [16] but it could have been found even earlier by reduction
from the KdV equation ut + uxxx = 6uux (the way to infer the S-integrability
of the NLS equation from the S-integrability of the KdV equation has been
first pointed out in [17]), whose integrability has been unveiled in 1967 [18].
The method of reduction which we now introduce is a perturbation technique based on three main ingredients : i) Fourier expansion in harmonics,
54
Multiscale expansion and integrability of dispersive wave
equations
ii) power expansion in a small parameter ², iii) dependence on a (finite or infinite) number of “slow” space and time variables, which are first introduced
via and ²-dependent rescaling of x and t and are then treated as independent
variables. Because of this last feature this approach is also referred to as
multiscale perturbation method.
In order to briefly illustrate how these basic ingradients naturally come
into play in the simpler context of ordinary differential equations (ODEs),
let us consider the well-known Poincaré-Lindstedt perturbation scheme to
construct small amplitude oscillations of an anharmonic oscillator around a
stable equilibrium position. Thus our one-degree dynamical system is given
by the nonlinear equation (q̇ ≡ dq/dt)
q̈ + ωo2 q = c2 q 2 + c3 q 3 + . . . . ,
q = q(t, ²)
(6.11)
where the small perturbative parameter ² is here introduced as the initial
amplitude,
q(0, ²) = ² ,
q̇(0, ²) = 0
(6.12)
The equation of motion 6.11 is autonomous as all coefficients ω0 , c2 , c3 , . . . . ,
are time-independent, and it has been written with its linear part in the lhs
and its nonlinear (polynomial or, more generally, analytic) part in the rhs.
In this elementary context,the model equation which is associated with this
family of dynamical systems, is of course the harmonic oscillator equation,
q̈ + ω02 q = 0, which obtains when the amplitude ² is so small that all nonlinear terms can be neglected. In fact, the purpose of the Poincaré- Lindstedt
approach is to capture the deviations from the harmonic motion which are
due to the nonlinear terms in the rhs of 6.11. Since, for sufficiently small ²,
the motion is periodic, namely
¶
µ
2π
,² ,
(6.13)
q(t, ²) = q t +
ω(²)
it is natural to change the time variable t into the phase variable θ,
θ = ω(²)t ,
q(t, ²) = f (θ, ²) ,
(6.14)
even if the frequency ω(²) is not known as it is expected to depend on the
initial amplitude ². Then the equations 6.11 and 6.12 now read (f 0 ≡ df /dθ)
ω 2 (²)f 00 + ω02 f = c2 f 2 + c3 f 3 + . . . ,
f (0, ²) = ², f 0 (0, ²) = 0
(6.15)
and we look for approximate solutions via the power expansions
ω 2 (²) = ω02 + γ1 ² + γ2 ²2 + . . . ,
(6.16)
6.1 Introduction
55
f (θ, ²) = ²f1 (θ) + ²2 f2 (θ) + . . . .
(6.17)
We note that the periodicity condition f (θ) = f (θ + 2π) implies that ω(0) =
ω0 ; inserting the expansions 6.16 and 6.17 in the differential equation 6.15
and equating the lhs coefficients with the rhs coefficients of each power of ²,
yields an infinite system of differential equations, the first one, at O(²), is
homogeneous, while all others, at O(²n ) with n > 1, are nonhomogeneous,
i.e.
 00
f1 + f1 = 0





f1 (0) = 1
O(²) :
(6.18)




 0
f1 (0) = 0
O(²n ) :
 00
fn + fn = {−n, −n + 1, . . . , −1, 0, 1, . . . , n − 1, n}





fn (0) = 0




 0
fn (0) = 0
(6.19)
The notation in this last equation refers to harmonic expansion and it has
the following meaning. Since each function fn (θ) is periodic in the interval (0, 2π), one can Fourier-expand it; however, because of the differential
equaions they satisfy, only a finite number of the Fourier basis functions
exp(iαθ), α being an integer, enters in their representation. This is easily
seen by recursion: f1 (θ) = 21 (exp(iθ) + exp(−iθ)), and since fn (θ), for n > 1,
satisfies the forced harmonic oscillator equation where the forcing term in
the rhs of 6.19 is an appropriate polynomial of f1 , f2 , . . . , fn−1 , its expansion
can only contain the harmonics exp(iαθ) with |α| ≤ n. Thus, the integers
in the curly bracket in the rhs of 6.19 indicate the harmonics which enter in
the Fourier expansion of the forcing term, and this implies that fn (θ) itself
has the Fourier expansion
fn (θ) =
n
X
fn(α) exp(iαθ),
n≥1
(6.20)
α=−n
(α)
where the complex numbers fn have to be recursively computed. To this
aim, it is required that also the coefficents γn in the expansion 6.16 be computed, and the way to do it is to use the periodicity condition fn (θ) =
fn (θ + 2π), or, equivalently, the condition that the ²-expansion 6.17 be uniformly asymptotic (note that we do not address here the problem of conver-
56
Multiscale expansion and integrability of dispersive wave
equations
gence of the series 6.17 but we limit ourselves to establish uniform asymptoticity). The point is that, for each n ≥ 2, the forcing term in 6.19 contains
the fundamental harmonics exp(iθ) and exp(−iθ) which are solutions of the
lhs equation (i.e. of the homogeneous equation), and are therefore secular
(or, equivalently, at resonance).
At this point, and for future use, we observe that, in a more general
setting, if
v 0 (θ) − Av(θ) = w(θ) + u(θ)
(6.21)
is the equation of the motion of a vector v(θ) in a linear (finite or infinite
dimensional) space and A is a linear operator, then, if the vector w(θ) solves
the homogeneous equation,
w0 (θ) − Aw(θ) = 0
(6.22)
then the forcing term w(θ) in 6.21 is secular. This is apparent from the
θ-dependence of the general solution of 6.21, which reads
v(θ) = ṽ(θ) + θw(θ)
(6.23)
where ṽ(θ) is the general solution of the equation ṽ 0 (θ) − Aṽ(θ) = u(θ).
In our present case, the occurence of the harmonics exp(iθ) and exp(−iθ)
in the rhs of 6.19 forces the solution fn (θ) to have a nonperiodic dependence
on θ, and therefore the condition that the coefficients of exp(iθ) and exp(−iθ)
must vanish should be added to our computational scheme. In fact, this condition fixes the value of the coefficient γn−1 and this completes the recurrent
procedure of computing, at each order in ², both the frequency
ω(²) = ²0 + ω1 ² + ω2 ²2 + . . . ,
(6.24)
and the solution f (θ, ²), see 6.17. As an instructive exercise, we suggest the
reader to compute the frequency ω(²) up to O(²2 ) (answer: ω1 = 0, ω2 =
−(10c22 + 9ω02 c3 )/24ω03 ).
This approach has been often used in applications with the aim of computing approximate solutions; in that context the properties of the series
6.16 and 6.17 of being convergent, or asymptotic, and also uniformly so in
t, is of crucial importance (see, f.i., [19] and the references quoted there),
particularly when one is interested also in the large time behaviour. Our
emphasis here is instead in the formal use of the double expansion (see 6.17
and 6.20)
n
X X
q(t, ²) =
²n exp (iαθ)fn(α)
(6.25)
n=1 α=−n
6.1 Introduction
57
where θ = ω0 t + ω1 ²t + ω2 ²2 t + . . . and therefore here and in the following we
drop any question related to convergence and approximation.
Let us consider now the propagation of nonlinear waves, and let us apply
the Poincaré-Lindstedt method to PDEs. For the sake of simplicity, here and
also below throughout these notes, we focus our attention on the following
family of first order in time equations
Du = F [u, ux , uxx , . . .] ,
u = u(x, t),
(6.26)
with the assumptions that this equation be real, that the linear differential
operator D in the lhs have the expression
D = ∂/∂t + iω(−i∂/∂x) ,
(6.27)
where ω(k) is a real odd analytic function,
X
ω(k) =
a2m+1 k 2m+1 ,
(6.28)
m=0
and that F in the rhs be a nonlinear real analytic function of u and its x derivates. For instance, the subfamily
ω(k) = a1 k + a3 k 3 ,
F = cu3x + (c2 u2 + c3 u3 + . . .)x ,
(6.29)
contains three S-integrable equations, i.e. the KdV equation (c = 0, cn = 0
for n ≥ 3), the mKdV equation 6.6 and the equation [20]
£
¤
ut + a1 ux − a3 uxxx = −a3 α sinh u + β (cosh u − 1) + u2x /8 ux .
(6.30)
Since the linearized version of the PDE 6.26, Du = 0, has the harmonic
stationary wave solution
u = exp[i(k0 x − ω̃0 t)] ,
ω̃0 = ω(k0 ) ,
(6.31)
one way to extend the Poincaré-Lindstedt approach to the PDE 6.26 is to
look for solutions, if they exist, which are periodic plane waves,
u(x, t) = f (θ, ²), θ = k(²) x − ω̃(²) t, f (θ, ²) = f (θ + 2π, ²) ,
(6.32)
together with the power expansions
f (θ, ²) = ²f1 (θ)) + ²2 f2 (θ) + . . . ,
k(²) = k0 + k1 ² + k2 ²2 + . . . , ω̃(²) = ω̃0 + ω̃1 ²2 + ω̃2 ²2 + . . .
(6.33)
58
Multiscale expansion and integrability of dispersive wave
equations
This approach can be easily carried out as for the anharmonic oscillator since
the function f (θ, ²) does now satisfies the real ODE
£
¤
−ω̃(²)f (1) (θ, ²) + iω(−ikd/dθ)f (θ, ²) = F f, kf (1) , k 2 f (2) , . . . , k = k(²),
(6.34)
(j)
j
j
where f
≡ d f (θ, ²)/dθ . Periodic plane waves in fluid dynamics have
been investigated along these lines and , though exact solutions are known
for instance for water waves models (such as the KdV equation) in terms
of Jacobian elliptic functions (cnoidal waves), approximate expressions have
been found more than a century ago (Stokes’s approximation) [1].
The class of periodic plane-wave solutions (if they exists) is too restrictive
to our purpose. In fact their construction requires going from the PDE 6.26
to the ODE 6.34, a step which implies loss of information about the PDE
itself. Therefore we now turn our attention to the class of solutions of the
wave equation 6.26 whose leading term in the perturbative expansion is a
quasi-monochromatic wave, namely a wave-packet whose Fourier spectrum
is not one point but is well localized in a small interval of the wave number
axis, (k − ∆k, k + ∆k), where k is a fixed real number and ∆k/k is small,
Z +∞
u(x, t) ' ∆k
dηA(η) exp{i[x(k + η∆k) − tω(k + η∆k)]} + c.c.; (6.35)
−∞
here the amplitude A(η) is sharply peaked at η = 0, and the additional
complex conjugated term is required by the condition (which we mantain
here and in the following) that u(x, t) is real, u = u∗ .
The perturbation formalism which is suited to deal with this class of
solutions is still close to the Poincaré-Lindstedt approach to the anharmonic
oscillator. In fact, let us go back to the two-index series 6.25 and substitute
θ with the expansion θ = ω0 t + ω1 t1 + ω2 t2 + . . ., where we have formally
introduced the rescaled ”slow” times tn = ²n t; then the formal expansion
6.25 reads
q(t, ²) =
n
X X
²n E α qn(α) (t1 , t2 , . . .) ,
E ≡ exp(iω0 t) ,
(6.36)
n=1 α=−n
(α)
where the functions qn depend only on the slow-time variables tn . The
scheme of computation based on the expansion 6.36 is equivalent to that
shown above, and it goes with inserting the expansion 6.36 into the equation
6.11, and by treating the time variables tn as independent variables. In
particular the derivative operator d/dt takes the ² - expansion
¡
¢
¡
¢
d E α qn(α) /dt = E α iαω0 + ²∂/∂t1 + ²2 ∂/∂t2 + . . . qn(α) ,
(6.37)
6.1 Introduction
59
and similarly expanding the lhs and rhs of 6.11 in powers of ² and of E finally
yields a system of PDEs whose solution (after eliminating secular terms) gives
the same result as the (much simpler) frequency-renormalization method
based on 6.14 and 6.16. In this case the service of the multiscale technique
is merely to display the three ingredients of the approach we use below for
PDEs, i.e. the power expansion in a small parameter ², the expansion in
harmonics and the dependence on slow variables.
Let us now proceed with applying the multiscale perturbation approach
to solutions of the PDE 6.26 along the line discussed above. As a preliminary
observation, in the case the PDE 6.26 is linear, i.e. F = 0, the expression
6.35 is exact as it yields the Fourier representation of the solution. If we
introduce the harmonic solution
E(x, t) ≡ exp[i(kx − ωt)] ,
ω = ω(k) ,
(6.38)
the small parameter ² ≡ ∆k/k and the slow variables ξ ≡ ²x, tn ≡ ²n t for
n ≥ 1, the Fourier integral takes the expression of a “carrier wave” whose
small amplitude is modulated by a slowly varying envelope
u(x, t) = ²E(x, t)u(1) (ξ, t1 , t2 , . . .) + c.c. .
(6.39)
Since the envelope function is (see 6.35)
Z +∞
£
¤
(1)
u (ξ, t1 , t2 , . . .) = k
dη A(η) exp i(kηξ − kω1 ηt1 − k 2 ω2 η 2 t2 − . . .) ,
−∞
(6.40)
it satisfies the set of PDEs
∂tn u(1) = (−i)n+1 ωn ∂ξn u(1) , n = 1, 2, . . .
(6.41)
In order to write down these equations, we have assumed that the dispersion
function ω(k) is analytic at k, so that its Taylor series
ω(k + ²ηk) =
∞
X
n=0
ωn η n k n ²n ,
ωn (k) =
1 dn
ω(k) ,
n! dk n
(6.42)
is convergent. This shows that one has to ask that u(1) depends on as many
rescaled times tn as the number of nonvanishing coefficients ωn in the expansion 6.42; f.i. if ω(k) is a polynomial of degree N , the multiscale method
requires the introduction of at most N new independent time variables, this
being a rule which holds also in the nonlinear case. More interestingly, we
note that in the linear case, because of the hierarchy of compatible evolution
60
Multiscale expansion and integrability of dispersive wave
equations
equations 6.41 with respect to the slow times, the commutativity property
[∂tn , ∂tm ] = 0 is trivially satisfied, whereas, in the nonlinear case this commutativity condition is of paramount importance and is strictly related to
integrability in more than one way. Indeed, the purpose of section 3 is to
show that the picture we have outlined in the linear case can be extended
to the nonlinear case under appropriate conditions. The main consequence
of nonlinearity is, of course, the generation of higher harmonics in addition
to the fundamental one 6.38, together with the occurrence of undesired secular terms which force the amplitudes to grow with time. Killing the secular
terms to keep the amplitudes bounded for all times is the basic way to derive
a number of evolution equations. An old result in this direction, first derived
in nonlinear optics and in fluid dynamics [12], is the dependence of the lead(1)
ing order amplitude u1 (ξ, t1 , t2 ) of the fundamental harmonic on the first
(1)
two slow times t1 and t2 , namely u1 traslates with respect to t1 with the
group velocity ω1 and evolves in t2 according to the NLS equation. Thus,
at this order, the solution u(x, t) of the PDE 6.26 is approximated by the
expression
where
u(x, t) = ² v(ξ − ω1 t1 , t2 ) E(x, t) + c.c. + O(²2 ) ,
(6.43)
¡
¢
vt2 = iω2 vξξ − 2c|v|2 v ≡ K2 (v) .
(6.44)
Thus the natural point to start from is the harmonic expansion of the
solution u(x, t),
u(x, t) =
+∞
X
u(α) (ξ, t1 , t2 , . . .)E α (x, t) ,
(6.45)
α=−∞
where E(x, t) si defined by 6.38 and, because of the reality of u, the coefficients u(α) satisfy the reality condition
u(α)∗ = u(−α) .
(6.46)
As for the slow variables, and guided by the approximate expression 6.35
where we set ∆k = ²p k, with p > 0, we define
ξ = ²p x , tn = ²np t , p > 0 , n = 1, 2, . . . .
(6.47)
As a consequence, the differential operators ∂t and ∂x , as acting on the
expansion (1.39), are replaced by the power expansions
∂x → ∂x + ²p ∂ξ , ∂t → ∂t + ²p ∂t1 + ²2p ∂t2 + . . . .
(6.48)
6.1 Introduction
61
Inserting these expansions in the linear operator D, see 6.27, yield the formula
£
¤
D u(α) E α = E α D(α) u(α) ,
(6.49)
which defines the differential operator D(α) acting only on the slow variables
6.47. Moreover, like the operators 6.48, also the differential operator D(α)
has a power expansion in ²,
(α)
(α)
(α)
D(α) = D0 + ²p D1 + ²2p D2 + . . . ,
(6.50)
the first term being just the multiplication by the constant
(α)
D0 = i [ ω(αk) − α ω(k)] ,
(6.51)
(α)
since DE α = D0 E α .
Let us consider now the nonlinear part, namely the rhs of the PDE
6.26. Since F is supposed to be an analytic function, its decomposition
in harmonics,
F [u, ux , uxx , . . .] =
+∞
X
h
i
(β)
(β)
F (α) u(β) , uξ , uξξ , . . . E α ,
(6.52)
α=−∞
which is implied by the expansion 6.45, defines the functions F (α) of the
amplitudes u(0) , u(±1) , u(±2) , . . . and their derivatives with respect to ξ. For
future reference, we note that the functions F (α) have the gauge property of
transformation
F (α) → exp(iαθ)F (α)
when the amplitude u(α) in its arguments is replaced by exp(iαθ)u(α) , where
θ is an arbitrary constant.
Combining now the expansion 6.45, and the definition 6.49, with the
expansion 6.52 shows that the PDE 6.26 is equivalent to the (infinite) set of
equations
D(α) u(α) = F (α) ,
(6.53)
which, since also F (α) obviously satisfies the reality condition
F (α)∗ = F (−α) ,
(6.54)
needs to be considered only for nonnegative α, α ≥ 0.
In the following sections, the equations 6.53 will be investigated after
expanding the amplitudes u(α) in power of ². In this respect, it should be
pointed out that the approximate expression 6.35 of the solution u(x, t) clearly shows that the smallness of u may originates in two ways, one from ∆k/k
62
Multiscale expansion and integrability of dispersive wave
equations
and the other from the amplitude A. In fact, we find it convenient to define ²
by requiring that u itself be O(²), and this explains why we have introduced
the so far arbitrary parameter p in the rescaling 6.47 which define the slow
variables.
In section 2, since we will look at the equations 6.53 at the lowest order
in ², only few harmonics will be considered. This analysis, when carried out
in a systematic way, eventually yields a certain number of model PDEs in
the slow variables, whose integrability properties, if known, lead to formulate
necessary conditions of integrability for the original PDE 6.26.
In the third section we tackle instead the problem of pushing the investigation of 6.53 to higher orders in the ²- expansion. This analysis displays
interesting connections with integrability and it gives a way to set up an
entire hierarchy of necessary conditions of integrability.
We end this introduction with few remarks. First, for pedagogical reasons,
we have constrained the family of PDEs considered here to satisfy appropriate
conditions in order to simplify the formalism. These limitations are mainly
technical and do not play an essential role. Fore instance, extensions of the
family of PDEs 6.26 may include differential equations of higher order in t
for complex vector, or matrix, solutions in higher spacial dimensions.
Second, we have confined our interest to the multiscale technique which
yields, by reduction, model equations of nonlinear Schroedinger type. Similar
arguments, however, do apply also to the weakly dispersive regime where the
prototypical model equation is instead the KdV equation [21], or to the
resonant, or nonresonant, interaction of N wavers [14].
Finally, a different approach which similarly yields necessary conditions
for integrability, and has common features with the one described in Section
3, has been introduced by Kodama and Mikhailov [22]. There the perturbation expansion is combined with the property of integrable systems of possessing symmetries, and the order-by-order construction of such symmetries
is the core of the method.
6.2
Nonlinear Schroedinger type model equations and integrability
In this section we investigate the basic equations 6.53 which have been obtained via the harmonic expansion 6.45 of a quasi - monochromatic solution
of the PDE 6.26. Here we consider only the lowest significant order in the
small parameter ², but before illustrating our computational scheme, which
is mainly based on [23], [24] that the interested reader should consult for
6.2 Nonlinear Schroedinger type model equations and
integrability
63
details and generalizations, we point out first the main ideas and aims of our
approach.
Consider first that, once the ²- expansion is introduced into the equation
6.53, the linear operator D(α) takes the expression 6.50 whose coefficients, in
addition to the first one 6.51, are easily found to be
Dn(α) = ∂tn − (−i)n+1 ωn (αk)∂ξn ,
n≥1 ,
(6.55)
where the function ωn (k) is defined by 6.42. Then, at the lowest order in
(α)
², the operator D(α) in 6.53 should be replaced by the coefficient D0 =
(α)
i[ω(αk) − αω(k)]; therefore, if D0 is not vanishing, the equation 6.53 for
u(α) becomes merely an algebraic equation whose solution is readily obtained.
Because of this simple property, we term “slave harmonics” those harmonics
(α)
such that, for their corresponding integer α, the quantity D0 does not
vanishes, i.e.
ω(αk) − α ω(k) 6= 0.
(6.56)
(α)
If instead α is such that D0 = 0, then we say that its corresponding harmonic is at resonance or, shortly, that α is a “resonance”. The important
feature of resonant harmonics is that their amplitude satisfies a differential
equation in the slow variables (see 6.55) rather than an algebraic equation
as for slave harmonics. Of course, the harmonics α = 0, ±1 are always (i.e.
for any wave-number k) at resonance (recall that ω(k) is on odd function,
(α)
ω(−k) = −ω(k)). However it may well happen that D0 = 0 for |α| 6= 0, 1
for a particular value of k; in this case also their corresponding harmonics
are accidently (i.e. not for all values of k) at resonance and their amplitudes
are expected to satisfy differential equations which may be coupled to the
equations for the fundamental harmonics amplitude.
The repeated application of this argument to the next term of the expansion of D(α) will be shown below to lead to the introduction of weak
and strong resonances, and the systematic investigation of all resonant cases
does finally produce a list of ten model PDEs of nonlinear Schroedinger type.
These evolution equations are reported and discussed below in this secion,
together with the implication of these findings with respect to integrability.
The starting ansatz is the ²-dependence at the leading order of the amplitude u(α) in 6.45,
u(α) = ²1+γα ψα , α = 0, ±1, ±2, . . . ,
(6.57)
where the parameters γα are nonnegative, γα ≥ 0, and, of course, even,
γ−α = γα , with the condition
γ1 = 0,
(6.58)
64
Multiscale expansion and integrability of dispersive wave
equations
which fixes the small parameter ².
Looking only at the lowest order in ² greatly simplifies our analysis in two
ways: it restricts our attention only to the first harmonics |α| = 0, 1, 2 and,
secondly, it allows the amplitudes ψα , see 6.57, to be considered as functions
only of the slow variables ξ, t1 and t2 . Moreover, since ξ and t1 are of the
same order in ² (see 6.47), it turns ont convenient to replace the slow space
coordinate ξ with the new coordinate
ξ = ²p (x − V t)
(6.59)
in the frame moving with the group velocity,
V = dω(k)/dk = ω1 (k)
(6.60)
of the fundamental harmonics (|α| = 1), so that the amplitudes ψα depend
throughout this section only on two variables,
ψα = ψα (ξ, τ ) , τ ≡ t2 = ²2p t.
(6.61)
As an additional remark, the following treatment suggests that it is convenient to take advantage of the fact that the nonlinear function in the rhs of
the PDE 6.26 under investigation could be an x-derivative of a (polynomial
or analytic) function, namely that it could be written as ∂xh F (u, ux , uxx , . . .),
where it is advisable to choose for the integer h its highest possible value.
This is only a technical point as the final results can be also derived, though
more painfully, by starting with a lower value of h or by setting tout court
h = 0, as in 6.26. Thus we rewrite the PDE 6.26
Du = (∂/∂x)h F [u, ux , uxx , . . .],
(6.62)
where
F [u, ux , uxx , . . .] =
∞ X
∞ X
∞
X
m=2 j1 =0 j2 =j1
...
∞
X
(m)
cj1 ,...,jm u(j1 ) u(j2 ) . . . u(jm ) , (6.63)
jm =jm−1
with u(j) ≡ (∂/∂x)j u(x, t). Thus the family of PDEs we consider below is
fully characterized by the following parameters: the real coefficients a2m+1
defining the dispersion function ω(k), see 6.27 and 6.28, the integer h (see
(m)
6.62) and the real coefficients cj1 ,...,jm , see 6.63. The method described here
provides necessary conditions which these parameters have to satisfy in order
that the PDE 6.62 be integrable.
By taking into account the x-derivative in the rhs of 6.62 together with
the ansatz 6.57, we first rewrite the equation 6.53 in the form
²1+γα D(α) ψα = (iαk + ²p ∂ξ )h F (α) .
(6.64)
6.2 Nonlinear Schroedinger type model equations and
integrability
65
We obtain thereby nontrivial evolution equations for the quantities ψα (ξ, τ )
by first taking the limit ² → 0 (after having made an appropriate choice for
the exponents γα and p) and then by performing some algebraic calculations and also some “cosmetic rescalings” on the dependent and independent
variables, so as to present the results in neater form.
Let us first treat the linear part, namely the left-hand-side of 6.62. Clearly
we get
M
X
D(α) = ²2p ∂/∂τ + i
²pm Aα(m) (k) (−i∂/∂ξ)m
(6.65)
m=0
and
A(0)
α (k) = ω(αk) − α ω(k) ,
(6.66)
A(1)
α (k) = ω1 (αk) − ω1 (k) ,
1 ds
A(s)
(k)
=
ω(q)|q=αk , s ≥ 2.
α
s! dq s
(6.67)
(6.68)
(s)
Here we evidenced the coefficients Aα (k) with s = 0, 1 because of the special
role they play in the following. Note that by definition
(0)
(1)
A1 = A1 = 0 ;
(6.69)
this corresponds to the pivotal role of the component ψ1 (ξ, τ ) which is the
amplitude of the fundamental harmonic. It is indeed clear from 6.64 and
6.65 that the value of γα which is determined by the requirement to match
the dominant terms as ² → 0 of the quantities in the right-hand-side of 6.64,
(1)
(0)
tends to be smaller if Aα vanishes and even smaller if in addition also Aα
vanishes and so on. Of course the smaller is the value of γα , the larger is the
role that the component ψα (ξ, τ ) plays in the regime of weak nonlinearity
(small ²). This qualitative notion is given quantitative substance below;
but already at this stage it indicates that the different possibilities discussed
below emerge from various different assumptions about the vanishing of some
(s)
of the quantities Aα (k); a vanishing which might occur for all values of k, as
it were for structural reasons, or it might happen only for some special value
of k, on which attention may then be focussed.
For these reasons, in the following the harmonic α is called weak resonance
(0)
(1)
if Aα (k), but not Aα (k), vanishes,
(1)
A(0)
α (k) = 0 , Aα (k) 6= 0,
(6.70)
while we say that the harmonic α is a strong resonance if, in addition to
(0)
(1)
Aα (k), also Aα (k) vanishes,
(1)
A(0)
α (k) = Aα (k) = 0.
(6.71)
Multiscale expansion and integrability of dispersive wave
equations
66
Of course, one could consider also the case of even stronger resonances by
(2)
requiring that, in addition to 6.71, also the condition Aα (k) = 0 be satisfied.
However these cases are obviously less generic, and they will be not treated
here.
Let us now consider the nonlinear rhs of 6.64. Inserting the ansatz 6.57
in the rhs of 6.63 yields the expression
F
(α)
=
µ
X
²m−1 fα(m) + O(²µ ),
(6.72)
m=2
with
fα(m) =
X
{α1 ≤α2 ≤...≤αm ;
Pm
j=1
²Γ {g(α1 , α2 , . . . , αm )ψα1 . . . ψαm + O(²p )} ;
αj =α}
(6.73)
here
Γ ≡ γα 1 + γα 2 + . . . + γα m ,
(6.74)
and for the constants g we get

g(α1 , . . . , αm ) =
X
(m)
(ik)J cj1 ,...,jm 
{0≤j1 ≤...≤jm }
X
m
Y

(αρ )jρ  ,
(6.75)
P (α1 ,...,αm ) ρ=1
P
where J = j1 + j2 + .. + jm , and the notation P (α1 ,...,αm ) indicates the sum
over all permutations of the indices α1 , . . . , αm having different values.
Additional, drastic simplifications occur when further steps are taken towards implementing the ² → 0 limit; indeed in this context we shall generally
need to consider only the quadratic and cubic terms of F in 6.62, because
the contribution of all other terms turn out to be negligible. Hence 6.64 can
now be written, in more explicit form, as follows:
h
i
£
(2)
²2p ψ1,τ − iA1 ψ1,ξξ = (ik)h ²1+γ0 g(0, 1)ψ0 ψ1 +
+ ²1+γ2 g(−1, 2)ψ1∗ ψ2 +
¤
+ ²2 g(1, 1, −1)|ψ1 |2 ψ1
£
(1)
²γ0 +p [A0 ψ0,ξ + ²p ψ0,τ ] = (∂/∂ξ)h ²hp ²1+2γ0 g(0, 0)ψ02 +
+ ²g(−1, 1)|ψ1 |2 +
¤
+ ²1+2γ2 g(−2, 2)|ψ2 |2
(6.76)
(6.77)
6.2 Nonlinear Schroedinger type model equations and
integrability
67
h
i
(0)
(1)
(2)
²γ2 {iA2 ψ2 + ²p A2 ψ2,ξ + ²2p ψ2,τ − iA2 ψ2,ξξ } =
¤
£
= (2ik)h ²g(1, 1)ψ12 + ²1+γ0 +γ2 g(0, 2)ψ0 ψ2 .
(6.78)
The coefficients g which appear in these PDEs are found, via the formula
6.75, to have the expressions
(2)
g(0, 0) = c0,0 ,
(2)
g(0, n) = 2c0,0 +
(6.79)
∞
∞
X
X
(2)
(2)
(−1)j (nk)2j c0,2j + i
(−1)j (nk)2j+1 c0,2j+1 , n 6= 0 ,
j=1
j=0
(6.80)
µ
g(n1 , n2 ) =
1
1 − δn1 n2
2
+i
∞
X
¶ "X
j
∞
³ 0
´
X
0
(2)
2j−j 0 j 0
j 2j
(−1) k
cj 0 ,2j−j 0 nj1 n2j−j
+
n
n
+
2
1
2
j 0 =0
j=0
(−1)j k 2j+1
j
X
(2)
cj 0 ,2j+1−j 0
³
0
0
nj1 n2j+1−j
2
+
0 j0
n2j+1−j
n2
1
´
#
,
j 0 =0
j=0
(6.81)
con
n1 6= 0, n2 6= 0 .
The equations 6.76, 6.77 and 6.78 contain terms of different order in the
small parameter ε, and this requires some explaning.
In the first place, many other terms which might have been present have
been omitted because they are of higher order in ε than terms which are
present. This is for instance the case for cubic terms in the right-handside of 6.76 involving ψ0 , ψ2 , which are of higher order than quadratic terms
which are present. Of course this argument, and analogous ones below, are
applicable only if the relevant dominant terms are indeed present, namely
provided they are not absent. Note that such an absence might happen
for some “accidental reason (possibly only for some special value of k) or
for a “structural reason, for instance if the original equation 6.62 contains
nonlinear terms only of cubic order and higher, but no quadratic terms.
The second point that must be emphasized about 6.76, 6.77 and 6.78
is that these equations generally contain contributions of different orders in
ε, and only those of lowest order are relevant. The identification of these
depends of course on the assignments of specific numerical values to p (of
course p > 0) and to the paramenters γα (of course γα ≥ 0, α = 0, 1, 2).
These assignments are dictated by the structure of these equations 6.76,
6.77, 6.78 and by assumptions which have to be made about the vanishing or
(m)
nonvanishing of the quantities Aα (k), m = 0, 1, 2, α = 0, 1, 2, appearing in
68
Multiscale expansion and integrability of dispersive wave
equations
the left-hand-side of 6.77 and 6.78; hence one must consider many subcases,
according to which resonance are present. Let us reemphasize that, in this
treatment which yields the results reported here, the assumption is made that
all nonlinear terms which might be present at the lowest order in ε are indeed
present, namely that no nonlinear terms are missing due to “accidental”
cancellations or “structural” causes. Whenever this hypothesis turns out
not to hold, the analysis leading to the assignment of the exponents p and
γα must be performed anew by taking into account higher order terms in
ε. This analysis can be based on the equations 6.76, 6.77 and 6.78 only
if all the relevant higher order terms are already present in the r.h.s. of
these equations, otherwise account of additional terms in the ε-expansion is
necessary. Explicit instances of this phenomenon are reported in [23].
i
iϕ,t +νϕ,xx = λ|ϕ|2 ϕ
ii

 iϕ,t +νϕxx = λ(1) ψ0 ϕ

iii
v
(6.84)
(2)
χ,x = λ ϕ
2

iϕ,t +νϕ,xx = λ(1) ψ0 ϕ + λ(2) χϕ∗





ψ0,x = λ(3) |ϕ|2





χ,x = λ(4) ϕ2
(6.85)

 iϕ,t +νϕ,xx = λ(1) ψ0 ϕ

vi
(6.83)
ψ0,x = λ(2) |ϕ|2

 iϕ,t +νϕ,xx = λ(1) χϕ∗

iv
(6.82)
(6.86)
ψ0,t = λ
(2)
ψ02
(3)
+ λ |ϕ|
2

 iϕ,t +νϕ,xx = λ(1) ψ0 ϕ

(6.87)
ψ0,t = λ
(2)
2
(|ϕ| )x
6.2 Nonlinear Schroedinger type model equations and
integrability
vii

 iϕ,t +νϕ,xx = λ(1) |ϕ|2 ϕ + λ(2) ψ0 ϕ

viii
ix
(6.88)
(3)
2
ψ0,t = λ (|ϕ| )xx

iϕ,t +νϕ,xx = λ(1) ψ0 ϕ + λ(2) χϕ∗





ψ0,t = λ(3) (|ϕ|2 )x





χ,x = λ(4) ϕ2
(6.89)

 iϕ,t +ν (1) ϕ,xx = λ(1) χϕ∗

x
69
(6.90)
iχ,t +ν
(2)
(2)
χ,xx = λ ϕ
2

iϕ,t +ν (1) ϕ,xx = λ(1) ψ0 ϕ + λ(2) χϕ∗





ψ0,t = λ(3) ψ02 + λ(4) |ϕ|2 + λ(5) |χ|2





iχ,t +ν (2) χ,xx = λ(6) ψ0 χ + λ(7) ϕ2
(6.91)
Let us emphasize that the coefficients ν and λ appearing in different
equations are different quantities, even if they have the same symbol. Note
moreover that the equations featuring in the left-hand-side the zeroth harmonic ψ0 are real , hence all coefficients (both ν and λ) appearing in them are
real; while for the other equations the coefficients ν are real, the coefficients
λ are generally complex. It should be also clear that the structure of these
equations reflects the existence of structural and/or accidental resonances.
In fact, since the fundamental harmonic α = 1 is, by definition, strongly at
resonance, its amplitude ϕ always satisfies a PDE which is firs-order in time
and second-order in space; on the other hand, the zeroth harmonic is always
weakly resonating and either it does not appear at all when h ≥ 1 (because
the first-order differential equation it satisfies can be explicity integrated) or,
when h = 0, it couples to the other resonating harmonics through a first-order
differential equation which can be either in x or in t depending on whether it
is weakly or, respectively, strongly resonanting. Similarly for the amplitude
χ of the second harmonic: if this harmonic is slave, it does not appear in the
model equation, otherwise it satisfies a coupled differential equation which
is first-order in x if it is only weakly resonanting, and is first-order in t and
second order in x if it is also strongly at resonance.
70
Multiscale expansion and integrability of dispersive wave
equations
The derivation by reduction of these ten nonlinear Schroedinger type
model equations is the starting point to make contact with integrability.
Indeed, from the knowledge that a model equation is not integrable we deduce
that that particular original PDE in the class 6.62, from which the model
equation follows by reduction, cannot be integrable. To the aim of illustrating
the way to convert this general statement in concrete results we select out
of the ten equations (2.22-31) the following four PDEs, whose integrability
properties are already known (for more details and examples, see [24]).
(1)
(2)
Equation (2.22): this is the NLS equation which obains if A0 (k) 6= 0, A1 (k) 6=
(0)
(2)
0 , A2 (k) 6= 0 and h ≥ 1, with ν = A1 (k) and, if h = 1,
h
(2)
(1)
λ = − k A0 (k)g(0, 1)g(−1, 1) + 2kA0 (k)g(−1, 2)g(1, 1)
i
(1)
(2)
(1)
(2)
(6.92)
+ A0 (k)A0 (k)g(−1, 1, 1) /A0 (k)A0 (k)
This equation is known to be S-integrable if
Im(λ) = 0.
(6.93)
(1)
(2)
Equation (2.23): it corresponds to h = 0, and A(0) (k) 6= 0 and A1 (k) 6= 0;
(2)
in this case ν = A1 (k), and
(1)
λ(1) = g(0, 1) , λ(2) = g(−1, 1)/A0 (k);
(6.94)
this system of equations has been found [25] to pass the Painlevé type test
only if
λ(1) λ(2) = 0,
(6.95)
namely, if it effectively linearizes.
Equation (2.24): this obtains if h ≥ 1 and if, for some real nonvanishing value
(0)
(2)
(1)
(2)
k = k̃, A2 (k̃) = 0, A1 (k̃) 6= 0 and A2 (k̃) 6= 0. In this case ν = A1 (k̃)
and, if h = 1,
(1)
λ(1) = −k̃g(−1, 2) , λ(2) = 2ik̃g(1, 1)/A2 (k̃),
(6.96)
where, of course, the coefficients g(−1, 2) and g(1, 1) are valued here at k = k̃.
Also this equation has been found [26] to pass the Painlevé-type test only if
6.95 holds.
Equation (2.27): this is the case if h = 1, and if, for some real nonvanishing
(1)
(2)
(2)
value k = k̃, A0 (k̃) = 0 and A1 (k̃) 6= 0. Then ν = A1 (k̃) and
λ(1) = ik̃g(0, 1), λ(2) = g(−1, 1),
(6.97)
6.2 Nonlinear Schroedinger type model equations and
integrability
71
where g(0, 1) and g(−1, 1) are evaluated at k = k̃. This system has been
proved to be S-integrable [27] only if
Imλ(1) = Imλ(2) = 0.
(6.98)
With this information in our hands we are now in the position to formulate
necessary conditions of integrability. For a systematic exploration of the
various cases in which such conditions arise and apply, the reader is refereed
to [24], while we limit ourselves to give here only few instances of our method,
and of its potentialities.
We first observe that the integrability conditions for the four equations we
have selected, i.e. (4 dei 10 sistemi)(2.22), (2.23), (2.24) and (2.27), involve
(n)
both the linear part (through the coefficients Aα , see 6.66, 6.67 and 6.68)
and the nonlinear part (through the coefficients g, see 6.79, 6.80, 6.81 and
(n)
6.63) of the PDE 6.62 we wish to test, and that both the coefficients Aα and
g are functions of the real parameter k. It is then clear that the integrability
conditions (such as 6.93 and 6.95) which hold for an arbitrary value of k
produce a number of necessary conditions (for the PDE 6.62) which is larger
than the number of necessary conditions which originates from expressions
such as 6.96 and 6.97 since these hold only for special values (if any) of k
(say k̃).
Let us first assume that the PDE 6.62 we are going to test by our method
is in the class with h = 0, namely its nonlinear term is not a derivative.
Then, if the appropriate reduced equation is (2.23), the requirement that
g(0, 1) or g(−1, 1) vanish for all real values of k entails, via 6.80 and 6.81,
quite explicit restrictions only on the nonlinear part of 6.62. This is made
explicit by the following:
Lemma 1. A necessary condition for the integrability of a nonlinear
evolution PDE of type (2.8) with h = 0 is that either
(2)
c0n = 0 , n = 0, 1, 2, . . . ,
or
n
X
(6.99)
(2)
(−1)j cj2n−j = 0, n = 0, 1, 2, . . . ,
(6.100)
j=0
namely
(2)
(2)
(2)
(2)
(2)
(2)
c00 = 0, c02 − c11 = 0, c04 − c13 + c22 = 0,
(6.101)
and so on. Clearly the condition 6.99 comes from the requirement that g(0, 1)
vanish, while 6.58 comes from the requirement that g(−1, 1) vanish, see 6.95
(2)
and 6.94. Since they both require that c00 vanish we obtain the following
remarkably neat result:
72
Multiscale expansion and integrability of dispersive wave
equations
Lemma 2. Every nonlinear PDE of type 6.62 with h = 0 featuring in its
(2)
nonlinear part a term c00 u2 is not integrable.
Consider now the class of PDEs 6.62 with h = 1, and assume that the
appropriate reduced model equation is the NLS equation 6.82. The requirement 6.93 with 6.92 for S-integrability involves both quantities related to the
linear and nonlinear parts of the original equation 6.62, but in many cases
it amounts to the requirements that (i) the quantity g(0, 1) be real (note
that g(−1, 1) is always real, see 6.81); (ii) the quantities g(−1, 2) and g(1, 1)
be both real or both imaginary; (iii) the quantity g(−1, 1, 1) be real. Given
the arbitrariness of k, the first of these three conditions clearly entails the
(2)
vanishing of all the coefficients c0n with n odd; the second condition entails
(2) (2)
(2)
the vanishing of c12 , c14 and c23 and many other relations for the coefficients
(3)
(2)
cnm with n + m odd; the third condition entails the vanishing of c001 and
(3)
many other relations for the coefficients cnmj with n + m + j odd. These are
very stringent, and quite explicit, conditions on the nonlinear part of 6.62
(the case in which h > 1 can be similarly treated [24]).
Assume now that the original PDE 6.62, with h = 1, has passed the test
based on the conditions specified above, namely that all conditions entailed
by the requirement 6.93, with 6.92, are satisfied. Since these conditions are
only necessary, no much information is gained, a part from a definite hint
that our PDE may indeed turn out to be integrable. However, we can still
push our method to look for additional conditions to be satisfied. This is
in fact the case if a special value of k, k = k̃, exists such that either the
(0)
condition A2 (k̃) = 0 holds, this being appropriate to obtain the model
(1)
equation 6.84, or the condition A0 (k̃) = 0 holds, this being the case for
the model equation 6.87. In the first case, a necessary condition for the
integrability of a PDE of type 6.62 with h = 1 is that, for such special value
fo k, k = k̃, at least one of the two quantities g(−1, 2), g(1, 1) vanish, see 6.95
with 6.96. The applicability and potency of this result is of course somewhat
reduced relative to the conditions previously found, due to the requirement
to restrict consideration to only those real values k̃ of k (if any) which satisfy
the appropriate equality and inequalities specified above. Yet there clearly is
a large class of nonlinear evolution PDEs to which these necessary conditions
are applicable [24].
In the second case, namely that in which the model equation is 6.87, a
necessary condition for the integrability of a PDE 6.62 with h = 1 is that, for
the appropriate special value of k, i.e. k = k̃ such that the zeroth harmonic
is strongly resonating, the quantity g(0, 1) be imaginary (or vanish),
Re[g(0, 1)] = 0 , k = k̃.
(6.102)
6.3 Higher order terms and integrability
73
This requirement follows from 6.98, 6.97 and from the property of g(−1, 1)
to be always real. This result is analogous to the previous one inasmuch as
it requires focussing on special values k̃ of k.
Let us state again that we have presented here only some of the necessary
conditions which can be established by the multiscale reduction method and
that more instances and applications are discussed in [24] where a distinction
between necessary conditions for C-integrability and for S-integrability is also
made. We also observe that various extensions are possible and worth of
further research; for examples, different classes of PDEs, other than 6.62 can
be investigated, say for vector or matrix solutions as well as with more spacial
variables; and/or different model equations, other than the four equations
considered here, can be taken as starting points for the derivation of other
necessary conditions for integrability.
6.3
Higher order terms and integrability
In this section our perturbative analysis of the original PDE 6.26 is extended
to terms of higher order in ². This extension is based on the expansion in
powers of ² of the amplitude u(α) in the equation 6.53, with the implication that computations become rather heavy. To the aim of simplifying the
formalism by avoiding unessential complications, we add two assumptions
which we mantain throughout this section. First we ask that the nonlinear
part of our equation 6.26, namely its rhs F , be an odd function of u,
F → −F if u → −u.
(6.103)
As it is easily verified, this parity property allows us to consistenly assume
that the amplitudes of all even harmonics be vanishing,
u(2α) = 0 , |α| ≥ 0.
(6.104)
Therefore, from now on, we will have to deal only with the odd harmonic
amplitudes u(2α+1) . For instance, this condition on F is satisfied by the
mKdV equation 6.6, the C-integrable equation 6.2 and by the class of PDEs
6.26 with 6.29 if c2n = 0.
Our second assumption is that, in contrast with the analysis carried out in
the previous section, no resonance occurs besides the fundamental harmonics
(α)
α = ±1. In other words, the resonance condition D0 = 0, see 6.51, should
hold only in the trivial case |α| = 1.
These assumptions imply that all harmonics ±(2α + 1) with α > 0 are
slave and that the coefficients of their ²-expansion,
X
u(α) =
²n u(α) (n), |α| > 1,
(6.105)
n=1
74
Multiscale expansion and integrability of dispersive wave
equations
are therefore expressed as differential polynomials of the coefficients u(n)
of the expansion of the fundamental harmonics (α = 1)
X
u(1) ≡ u = ²u(1) + ²2 u(2) + . . . =
²n u(n).
(6.106)
n=1
Here, and also in the following, we drop the harmonic upper index in the
coefficients of this expansion because of the very special role played by the
function u(1) in this scheme (it is the only amplitude which satisfies a differential equation). Moreover, as additional implications which can be easily
retrieved from the basic equation 6.53, the leading order of each harmonic
amplitude comes from the rule
u(α) (n) = 0 , for n < |α|,
(6.107)
which is equivalent to setting γ2α+1 = 2α for α ≥ 0 in the notation (2.3); the
slow variables ξ and tn are here defined as in (1.41) with p = 1, i.e.
ξ = ²x, tn = ²n t , n = 1, 2, . . .
(6.108)
In order to perform all operations required by our approach the functions
u(n), n = 1, 2, . . . , are required to be smooth in the real variable ξ, namely
they are differentiable to any order in the whole ξ-axis.
The first step is inserting in the equation 6.53 with α = 1 the appropriate
²-expansions, namely that of the linear opertor D(1) ≡ D, see 6.50 with α = 1
and p = 1,
D = ²D1 + ²2 D2 + . . . ,
(6.109)
that of the amplitude u(1) ≡ u, see 6.106, and finally the expansion of the
nonlinear term,
F (1) ≡ F = ²3 F3 + ²4 F4 + . . . ;
(6.110)
let us reemphasize here that, since the differential operators Dn , see 6.55
with α = 1, have the expression
Dn = ∂tn − (−i)n+1 ωn (k) ∂ξn , n ≥ 1,
(6.111)
there is no need to introduce the slow time tn if it happens that ωn (k) = 0.
Thus, if the dispersion relation ω(k) is a polynomial of degree N > 1, the
expansion 6.109 turns out to be a polynomial in ² of degree N with the
implication that only N slow times enter into play. We also note that, because
of the parity condition 6.103, the expansion 6.110 of the nonlinear term starts
from the third order. In conclusion, the basic equation 6.53 with α = 1, i.e.
D(1) u(1) = F (1) ,
(6.112)
6.3 Higher order terms and integrability
75
obviously yields the triangular system of convolution type
D1 u(n) + D2 u(n − 1) + . . . + Dn u(1) = Fn+1 ,
(6.113)
where each term is, of course, of O(²n+1 ). Here, and in the following treatment, it is convenient to consider Fn as an element of the finite-dimensional
vector space Pn defined as the set of all differential polynomials in the functions u(m) and u∗ (m) of order n and gauge 1. The meaning of this terminology is rather obvious: each monomial appearing in an element of Pn is a
product of some u(m), u∗ (k) and their ξ-derivatives with the understanding
that
order(uj (m)) = order(u∗j (m)) = m + j,
(6.114)
where we use the short-hand definition
uj (m) ≡ ∂ξj u(m).
(6.115)
On the other hand, by requiring that each polynomial in Pn be of gauge
1 we understand that such polynomials, say Fn , possess the transformation
property
Fn → eiθ Fn if u(m) → eiθ u(m),
(6.116)
θ being an arbitrary real constant. By following these rules, the reader may
easily verify that P2 is empty, dim (P3 ) = 1, the basis of P1 being the single
monomial |u(1)|2 u(1), while dim (P4 ) = 4 where its basis may be given by the
following four monomials: |u(1)|2 u(2), u(1)2 u∗ (2), |u(1)|2 u1 (1), u(1)2 u∗1 (1).
Therefore, each nonlinear term Fn+1 in the rhs of 6.113 is a linear combination of the basis vectors (f.i. monomials) of the vector space Pn+1 , where
the complex coefficients of such combination are determined by the nonlinear
function in the rhs of our original PDE 6.26 (see the expansion 6.63 with m
running only on the odd integers).
The next step aims to eliminating all secular terms which may enter in
the system 6.113. Our analysis is briefly described below, and the reader
who is interested in a detailed investigation of this point is referred to [28].
Consider first the equation 6.113 for n = 1, i.e. D1 u(1) = 0 since F2 = 0
(see 6.110); because of the expression 6.111, D1 = ∂t1 + ω1 ∂ξ , the function
u(1) depends on t1 through the variable ξ − ω1 t1 . The next equation, say
6.113 with n = 2, reads (see 6.111)
¤
£¡
¢
(6.117)
D1 u(2) = − ∂t2 − iω2 ∂ξ2 u(1) − F3 ,
where its rhs plays the role of the nonhomogeneous (forcing) term with respect to the t1 -evolution. On the other hand, this term depends on t1 through
76
Multiscale expansion and integrability of dispersive wave
equations
the variable ξ − ω1 t1 (recall that F3 ²P3 ) and it satisfies therefore the homogeneous equation D1 f = 0. This implies that the rhs of 6.117 is secular and
its elimination requires that u(1) satisfies, with respect to t2 , the evolution
equation (∂t2 − iω2 ∂ξ2 )u(1) = F3 , namely just the NLS equation, which has
been derived in the previous section. As a result of killing the secular term
in 6.117, also u(2) as u(1) depends on t1 through the variable ξ − ω1 t1 . This
argument can be easily repeated for each integer n in 6.113 and,together with
taking into accounts the structure of the differential polynomial Fn+1 , it recursively leads to conclude that the coefficients u(n) all satisfy with respect
to the time t1 the same (trivial) equation
D1 u(n) = (∂t1 + ω1 ∂ξ ) u(n) = 0, n ≥ 1.
(6.118)
The time t1 plays no essential role and the system 6.113 reduces to
D2 u(n − 1) + D3 u(n − 2) + . . . + Dn u(1) = Fn+1 , n ≥ 2 ,
whose first equation (i.e. for n = 2) is the NLS equation
¡
¢
∂t2 u(1) = iω2 ∂ξ2 u(1) − 2c|u(1)|2 u(1) ≡ K2 [u(1)] ;
(6.119)
(6.120)
the rhs of this equation defines the nonlinear operator K2 and we have set
F3 = −2iω2 c|u(1)|2 u(1).
Capitolo 7
Onde elettromagnetiche nei
mezzi nonlineari
In questo capitolo vogliamo soffermarci sullo studio di alcuni modelli in grado
di spiegare effetti nonlineari osservati in Ottica Fisica.
Analizzeremo il modello di un dielettrico classico, e nel prossimo capitolo quello di un dielettrico quantistico. Tramite l’applicazione del Metodo
Multiscala saremo poi in grado di ricavare equazioni modello capaci di dare
spiegazione a fenomeni ottici sperimentalmenete verificati.
7.1
Modello classico di dielettrico
Se P(x, t) è la densità di dipolo elettrico nella materia, la densità di
carica elettrica è data da
ρ(x, t) = −∇ · P(x, t)
mentre la densità di corrente è della forma
J(x, t) = Pt (x, t) .
Sfruttando le precedenti, otteniamo le equazioni di Maxwell in presenza
di materia:
∇ · E = − ²10 ∇ · P
∇·B=0
∇ × E = − ∂B
∂t
,
,
∂E
∂t
= c2 ∇ × B −
(7.1)
1
P
²0 t
che restituiscono immediatamente l’equazione per il campo elettrico :
1
Ett − c2 ∇2 E + c2 ∇ · (∇ · E) = − Ptt
²0
(7.2)
78
Onde elettromagnetiche nei mezzi nonlineari
Supponiamo ora che il mezzo dielettrico che stiamo studiando sia un vetro
omogeneo ed isotropo.
Per il principio di causalità, la relazione tra il vettore di polarizzazione P
ed il campo elettrico E sarà della forma
Z
t
P(x, t) = ²0
dt1 χ(1) (t − t1 ) E(x, t1 ) +
(7.3)
−∞
Z
Z
t
+ ²0
Z
t
dt1
−∞
t
dt2
−∞
dt3 χ(3) (t−t1 , t−t2 , t−t3 ) [E(x, t2 )·E(x, t3 )] E(x, t1 )
−∞
L’omogeneità implica che le due funzioni χ(1) , suscettibilità lineare,
e χ(3) , suscettibilità non lineare, non dipendano dal vettore posizione
x; l’isotropia implica invece l’assenza della nonlinearità quadratica e, per
l’invarianza per rotazioni, la dipendenza dalle sole variabili vettoriali E, (E ·
E) E.
In generale le funzioni suscettibilità sono tensori a più indici, a due indici
χ(1) , a tre indici χ(2) e a quattro indici χ(3) . Un materiale generico (non omogeneo e non isotropo) avrebbe cosı̀ 32 + 33 + 34 = 117 funzioni suscettibilità
tutte da determinare sperimentalmente!
Possiamo pensare che la materia sia un insieme di oscillatori di densità δ
e carica q per cui
P(x, t) = δq r(x, t)
(7.4)
dove r(x, t) è lo spostamento al tempo t dell’oscillatore dalla posizione di
equilibrio x.
L’oscillatore è legato al campo elettrico tramite una forza di richiamo
centrale e non lineare:
r(x, t)tt + ω0 2 r(x, t) = α|r(x, t)|2 r(x, t) + q E(x, t)
(7.5)
Vogliamo ora riscrivere la (7.5) in forma integrale; sia
g(t, t0 ) = θ(t − t0 )
1
sin[ω0 (t − t0 )]
ω0
la Funzione di Green Ritardata dell’oscillatore armonico.
La (7.5) assume cosı̀ la forma
Z
+∞
r(x, t) = q
Z
0
0
0
+∞
dt g(t, t ) E(x, t ) + α
−∞
−∞
dt0 g(t, t0 ) |r(x, t0 )|2 r(x, t0 )
(7.6)
7.1 Modello classico di dielettrico
79
Della (7.6) cerchiamo una soluzione approssimata risolvendola perturbativamente rispetto al parametro α proprio di ciascun materiale. Otteniamo
cosı̀

R +∞ 0
r
(x,
t)
=
q
dt g(t, t0 )E(x, t0 )

0

−∞




R +∞
r1 (x, t) = r0 (x, t) + α −∞ dt0 g(t, t0 )|r0 (x, t0 )|2 r0 (x, t)
(7.7)





 ..
.
Sfruttando la (7.7) e la (7.4) abbiamo quindi:
P(x, t) = δ q r1 (x, t) + O(E5 )
che insieme alle (7.7), (7.4) permette di determinare esplicitamente la
forma delle funzioni di suscettibilità in funzione della funzione di Green
dell’oscillatore.
Conviene tuttavia, indipendentemente dal modello meccanico che si è
costruito, considerare χ(1) (t1 ) e χ(3) (t1 , t2 , t3 ) come dati fenomenologici nel
vetro. Ad esempio,
(1)
χ
b (ω) =
3
X
j=1
ω2
Bj
,
− ω2j + γ 2
con Bj ed ωj fissati con un best-fit dei dati sperimentali.
7.1.1
Teoria perturbativa e la NLS
Per evitare complicazioni tecniche dovute al fatto che x ed E sono vettori di
R3 , studiamo il più semplice modello unidimensionale :
Ett − c2 Exx = −
1
Ptt
²0
(7.8)
con
Z
t
dt1 χ(1) (t − t1 ) E(x, t1 ) + ²0 χ(3) E 3 (x, t)
P (x, t) = ²0
−∞
in cui abbiamo posto:
Z
(1)
+∞
χ (t) =
−∞
dω (1)
χ
b (ω)e−iωt ,
2π
χ(3) = cost. .
(7.9)
80
Onde elettromagnetiche nei mezzi nonlineari
Sostituendo la (7.9) nella ((7.8)) otteniamo cosı̀
·
¸
Z t
£
¤
(1)
E(x, t) +
dt1 χ (t − t1 ) E(x, t1 ) − c2 Exx = −χ(3) E 3 (x, t) tt
−∞
tt
(7.10)
Sappiamo che per poter applicare il metodo multiscala occorre che l’equazione di partenza sia un’equazione dispersiva. Vogliamo cosı̀ determinare
la relazione di dispersione associata alla (7.10).
Consideriamo il campo elettrico E(x, t) nella sua rappresentazione di
Fourier e poniamo χ(3) = 0 (studiamo cioè la (7.10) linearizzata). Notando
che
Z t
Z t
(1)
i(kx−ωt1 )
i(kx−ωt)
dt1 χ(1) (t − t1 ) ei[ω(t−t1 )]
dt1 χ (t − t1 ) e
= e
−∞
(1)
= χ
b (ω) e
−∞
i(kx−ωt)
,
nella quale abbiamo sfruttato il Principio di Causalità (χ(1) (t) = 0 per t < 0),
otteniamo la relazione di dispersione
ω2 =
c2 k 2
1+χ
b1 (ω)
(7.11)
che è una funzione polidroma di k definita implicitamente.
Osserviamo che la richiesta che χ(1) non sia costante ma una funzione del
tempo sarà determinante per poter applicare la teoria perturbativa multiscala. Se difatti χ(1) fosse stata costante avremmo ottenuto la relazione di
dispersione ω = ± ck propria delle onde non dispersive di D’Alembert.
Conduciamo ora l’ipotesi di quasi-monocromaticità del campo con l’aggiunta delle altre armoniche generate dal termine cubico non lineare:
E(x, t) = ²
+∞
X
E (α) (ξ, t1 , t2 , t3 , ...) eiα(k0 x−ω0 t)
(7.12)
α = −∞
con ξ = ²x e tn = ²n t variabili lente e ω0 e k0 soddisfacenti la relazione di
dispersione (7.11).
L’equazione che dobbiamo studiare è della forma
L E = −χ(3) (E 3 )tt
in cui L è l’operatore lineare cosı̀ definito
L = ∂t2 (1 + χ(1) ∗) − c2 ∂x2
(7.13)
7.1 Modello classico di dielettrico
81
Notiamo subito che se ci trovassimo in assenza di dielettrico, dunque
nel caso di propagazione dell’onda nel vuoto, riotterremmo direttamente
l’equazione delle onde, divenendo l’operatore L l’operatore D’Alembertiano
2:
χ(1) = 0 −→ ∂tt − c2 ∂x2 ≡ 2 .
Osserviamo inoltre che l’operatore di convoluzione χ(1) ∗ commuta con
l’operatore di derivazione temporale ∂t .
Mostrare tale osservazione risulta assai semplice se ci trasferiamo nello
spazio di Fourier trasformando entrambi gli operatori:
∂t −→ −i ω
,
χ(t) ∗ −→ χ
b(ω) ·
.
e notando che le trasformate sono dei semplici operatori di prodotto chiaramente commutanti.
Svolgendo i calcoli esplicitamente, si ottiene:
Z t
0
iωt
χ∗e
=
dt0 χ(t − t0 )e−iωt =
−∞
Z t
0
−iωt
= e
dt0 χ(t − t0 )e−iωt = , ponendo τ = t0 − t
−∞
Z +∞
= e−iωt
dτ χ(τ )e−iωτ = , con χ(τ ) = 0 , τ < 0 (causalità)
Z0 +∞
= e−iωt
dτ χ(τ )e−iωτ =
−∞
−iωt
= χ
b(ω) · e
Calcoliamo ora l’azione dell’operatore di convoluzione sulla funzione
E (α) (ξ, t1 , t2 , t3 , ...) eiα(k0 x−ω0 t) .
Eseguendo i conti:
Z
£
¤
χ
b(1) ∗ E (α) (ξ, t1 , t2 , t3 , . . .) eiα(k0 x−ω0 t) =
t
0
=
−∞
dt0 χ(1) (t − t0 ) E (α) (ξ, t01 , t02 , t03 , . . .) eiα(k0 x−ω0 t ) =
Z
∞
iα(k0 x−ω0 t)
=e
dτ χ(1) (τ ) E (α) (ξ, t1 − ²τ, t2 − ²2 τ, . . .) eiαω0 τ .
(7.14)
0
con t0n = ²n t0 e τ = t − t0 .
Sviluppiamo ora la (7.14) in potenze di ² :
£
¤
χ(1) ∗ E (α) (ξ, t1 , t2 , t3 , ...) eiα(k0 x−ω0 t) =
(7.15)
82
Onde elettromagnetiche nei mezzi nonlineari
= eiα(k0 x−ω0 t)
h
(α)
(α)
2
χ
b(1) (αω0 ) E (α) + i²b
χ(1)
χ(1)
ω (αω0 ) Et1 + ² (ib
ω (αω0 ) Et2 +
1 (1)
(α)
bωω (αω0 ) Et1 t1
− χ
2
¸
+ O(²3 ) .
E con l’operatore di convoluzione sviluppiamo in potenze di ² anche gli
operatori differenziali 1 :
½
∂x 7→ ∂x + ²∂ξ
(7.16)
∂t 7→ ∂t + ²∂t1 + ²2 ∂t2
Otteniamo cosı̀ l’espressione dell’operatore L:
2
L = (∂t + ²∂t1 + ²2 ∂t2 + . . .) (1 + χ
b(1) ∗) − c2 (∂x + ²∂ξ )2 .
(7.17)
Quanto dobbiamo ora calcolare è il trasformato di E (α) eiα(k0 x−ω0 t) tramite
L. Sappiamo che L su di un’onda piana restituisce sempre un’onda piana;
possiamo cosı̀ pensare di scrivere
¡
¢
L E (α) (ξ, t1 , t2 , t3 , ...) eiα(k0 x−ω0 t) = E (α) (ξ, t1 , t2 , t3 , ...) eiα(k0 x−ω0 t) L(α) E (α)
(7.18)
(α)
Con L operatore lineare che lavora solo sulle variabili lente ξ e tn .
Sviluppiamo anche L(α) in potenze di ² :
(α)
(α)
(α)
L(α) = L0 + ²L1 + ²2 L1 + O(²3 )
(7.19)
Sfruttando la definizione di L(α) (7.18) determiniamo la forma esplicita dello
stesso :
2
L(α) = (−iαω0 + ²∂t1 + ²2 ∂t2 + ...) ×
(7.20)
¶¸
·
µ
1 (1)
2
(1)
(1)
2
(1)
b (αω0 )∂t1
+
× 1+χ
b (αω0 ) + ² ib
χω (αω0 )∂t1 + ² ib
χω (αω0 )∂t2 − χ
2 ωω
−c2 (iαk0 + ²∂ξ )2 ,
(α)
da cui L0 :
£ (1)
¤
£
¤
(α)
b (ω0 ) − χ
b(1) (αω0 )
b(1) (αω0 ) + c2 α2 ω0 2 = α2 ω0 2 χ
L0 = −α2 ω0 2 1 + χ
(7.21)
1
Notiamo che nella (7.16) abbiamo sviluppato l’operatore ∂t fino all’ ordine ²2 . In
realtà non sappiamo quanti sono i tempi lenti che entrano in gioco in quest’ applicazione
del metodo multiscala non essendo la relazione di dispersione una funzione polinomiale in
k.
7.1 Modello classico di dielettrico
83
in cui abbiamo sfruttato la relazione di dispersione (7.11). Osserviamo che
(α)
(α)
(α)
α = 0 ed α = ±1, annullando L0 , sono risonanze. Ed ancora L1 ed L2 :
(α)
L1
£
¤
2
= −2iαω0 1 + χ
b(1) (αω0 ) ∂t1 −iα2 ω0 2 χ
b(1)
ω (αω0 ) ∂t1 − 2iαk0 c ∂ξ (7.22)
£
¤
£
¤
(α)
b(1) (αω0 ) ∂t21 − 2iαω0 1 + χ
b(1) (αω0 ) ∂t2 + 2αω0 χ
b(1) (αω0 )∂t21 +
L2 = 1 + χ
(7.23)
µ
¶
1 (1)
−α2 ω0 2 ib
χ(1)
bωω (αω0 )∂t21 − c2 ∂ξ 2 .
ω (αω0 )∂t2 − χ
2
Notiamo che le equazioni di Maxwell da cui siamo partiti sono equazioni reali
e che anche χ(1) (t) è reale. Pertanto per avere una dispersione reale occorre
imporre che
χ
b(1) (ω) = χ
b(1) (−ω)
La precedente ci permette di dire quindi, insieme alla (7.21), che
(±1)
L0
=0
(7.24)
A questo punto siamo in grado di esprimere il campo elettrico nella forma
(7.12).
Scriviamo cosı̀:
LE = ²
+∞
X
L(α) E (α) eiα(k0 x−ω0 t)
α = −∞
= − ²3 χ(3)
"
+∞
X
(7.25)
+∞
X
eiα(k0 x−ω0 t)
α = −∞
#
E (α−β−γ) E (β) E (γ)
β,γ = −∞
tt
che è
+∞
X
L(α) E (α) = −²2 χ(3) (−iαω0 +²∂t1 +²2 ∂t2 +. . .)
E (α−β−γ) E (β) E (γ) (7.26)
β,γ=−∞
Enunciamo ora alcune proprietà di notevole importanza:
Proprietà di Parità : se nelle condizioni iniziali non vi sono armoniche pari:
E (2α) = 0, allora tali restano ad ogni istante t > 0.
Assumiamo che siano presenti a t = 0 solamente le armoniche dispari:
E (2α+1) 6= 0.
Proprietà di Realtà : poichè E è reale, allora
∗
E (α) = E (−α)
84
Onde elettromagnetiche nei mezzi nonlineari
Ipotesi di non Risonanza : assumiamo che
(α)
L0
= 0
solo per α = ±1.
(0)
Notiamo che il fatto che L0 sia nullo non ci interessa, valendo comunque
perchè vale l’ipotesi di parità.
Espandiamo ora anche le ampiezze E (α) in potenze di ²:
E
(α)
=
(α)
E(0)
+
(α)
²E(1)
2
+²
(α)
E(2)
+ ... =
+∞
X
(α)
²n E(n)
(7.27)
n=0
e discutiamo le equazioni d’evoluzione che si ottengono per α = ±1 ai
primi due ordini dell’espansione in potenze di ² delle ampiezze del campo
elettrico.
All’ordine ² otteniamo:
(1) (1)
L1 E(0) = 0
(7.28)
(1)
cioè l’ampiezza E(0) ha propagazione iperbolica lineare:
(1)
E(0)
con
vg =
(1)
t1
+ vg E(0) = 0
(7.29)
ξ
dω(k0 )
2k0 c2
=
(1)
dk
2ω0 [1 + χ
b(1) (ω0 )] − ω02 χ
bω (ω0 )
All’ordine ²2 abbiamo invece:
(1)
(1)
(1)
(1)
L1 E(1) + L2 E(0) = χ(3) ω02
X
(1−β−γ)
E(0)
(β)
(γ)
E(0) E(0)
(7.30)
β,γ
(α)
Sappiamo dall’ipotesi di non secolarità che per α > 1 l’operatore L0 è non
(α)
nullo, pertanto si deve avere E(0) = 0 (struttura trinagolare). Bilanciando le
armoniche e ricordando la precedente considerazione, la (7.30) diventa:
¯
¯
¯ (1) ¯2 (1)
(1) (1)
(1) (1)
(7.31)
L1 E(1) = −L2 E(0) + χ(3) ω02 ¯E(0) ¯ E(0) .
(1)
Soddisfacendo la (7.28), l’ampiezza E(0) risulta secolare nella (7.31). Affinchè
dunque venga evitata tale secolarità occorre porre:
¯2
¯
(1)
(1) (1)
(3) 2 ¯ (1) ¯
(7.32)
L2 E(0) = χ ω0 ¯E(0) ¯ E(0)
7.1 Modello classico di dielettrico
85
e cioè
(1)
(1)
L1 E(1) = 0
(7.33)
(1)
Notiamo cosı̀ che l’ampiezza E(1) ha propagazione iperbolica lineare rispetto
(1)
al tempo t1 mentre la E(0) evolve secondo la (7.32) rispetto al tempo t2 .
Definiamo
dω(k0 )
= vg ≡ ω 1 .
dk
(1)
Possiamo cosı̀ riscrivere l’operatore L2 come
¸
·
1 2 2 (1)
(1)
(1)
2
(1)
2
2
bω (ω0 ) ω1 + ω0 ω1 χ
bωω (ω0 ) − c ∂ξ2 +
L2 = 1 + χ
b (ω0 ) ω1 + 2ω0 χ
2
(7.34)
£
¤
(1)
2 (1)
−i 2ω0 + 2ω0 χ
b (ω0 ) + ω0 χ
bω (ω0 ) ∂t2 .
A partire dalla (7.11) definiamo :
1 d2 ω(k0 )
≡ ω2
2 dk 2
(1)
Calcolata la funzione di dispersione esprimiamo l’operatore L2 nella forma:
¡
¢¡
¢
(1)
L2 = − ω2 ∂ξ2 + i∂t2 2ω0 + 2ω0 χ
b(1) (ω0 ) + ω02 χ
b(1)
ω (ω0 )
che è
(1)
L2 = −
¢
2c2 k0 ¡
ω2 ∂ξ2 + i∂t2
ω1
(7.35)
(7.36)
Possiamo cosı̀ servendoci delle precedenti riscrivere la (7.32):
(1)
iE(0)
t2
+
(1)
ω2 E(0)
ξξ
3ω0 ω1 (3) ¯¯ (1) ¯¯2 (1)
+ 2 χ ¯E(0) ¯ E(0) = 0
2c k0
(7.37)
L’equazione precedente è l’Equazione di Schrödinger non lineare
(1)
(Non Linear Schrödinger, NLS) che determina la dipendenza di E(0) dal
tempo lungo t2 .
0 ω1
Il termine ω2 è il coefficiente di dispersione, mentre 3ω
χ(3) è detto
2c2 k0
autoaccoppiamento. Di questo ultimo fattore è importante il segno poichè da
questo è possibile desumere la stabilità o l’instabilità del sistema considerato
(-1,+1, rispettivamente). É proprio il competere, sotto opportune condizioni,
dei due termini, l’uno tendente a disperdere l’onda, l’altro a focalizzarla, a
provocare il fenomeno di propagazione di onde non lineari senza dispersione.
86
Onde elettromagnetiche nei mezzi nonlineari
Possiamo infine “fare della cosmesi” alla NLS ridefinendo le variabili che
compaiono nella (7.37) :

τ = ω2 t2





r¯

¯

¯ ω2 k0 ¯
(1)
E(0) = 2c ¯ 3ω0 ω1 χ(3) ¯φ(ξ, τ )







η = sign( 3ω0ωω21kχ0 (3) )
ottenendo
NLS
iφτ + φξξ + 2η|φ|2 φ = 0
(7.38)
L’equazione NLS è un’equazione speciale, un’equazione modello, integrabile
col Metodo della Trasformata Spettrale.
É interessante notare come a partire da equazioni integrali come quelle di
Maxwell, siamo giunti ad equazioni di evoluzione differenziali quali la NLS e
quella iperbolica lineare.
Questo è dovuto all’applicazione del metodo multiscala che ha permesso
di sviluppare l’operatore integrale di convoluzione in una somma di potenze
di ² di operatori differenziali (7.15).
7.2
L’equazione VNLS
7.2.1
Caso di un’onda risonante
Ripartiamo direttamente dalle equazioni di Maxwell per la singola armonica
in cui espandiamo l’operatore derivata seconda rispetto al tempo ed il termine
cubico (tramite il prodotto di convoluzione di tre serie di Laurent):
(α)
L
E
(α)
(3)
= −χ
2
2
(−iαω + ²∂t1 + ² ∂t2 + . . .)
+∞
X
E (β1 ) E (β2 ) E (α−β1 −β2 )
β1 ,β2 =−∞
(7.39)
Consideriamo ora il caso risonante in cui α = 1, 3 2 . Ancora una volta, come nel paragrafo precedente, per la proprietà di parità le armoniche
corrispondenti ad α = 2n esistono solo se compaiono già nei dati iniziali.
Dunque, poniamo come condizioni di risonanza
(1)
(3)
L0 = L0 = 0 ,
2
Ovviamente, sono cosı̀ compresi anche i casi delle armoniche negative, con α = −1, −3.
La trattazione ed i risultati sono analoghi.
7.2 L’equazione VNLS
87
delle quali la seconda corrisponde all’affermare
3 ω(k) = ω(3k) .
Andiamo ora ad analizzare i diversi ordini perturbativi. Ricordiamo le espansioni del campo elettrico E e dell’operatore L:
(α)
(α)
(α)
L(α) = L0 + ² L1 + ²2 L2 + . . .
(α)
(α)
(α)
E (α) = ² E(1) + ²2 E(2) + E(3) + . . .
Ordine ²2
Otteniamo dalla (7.39), per questo ordine e nelle due armoniche,
le due seguenti equazioni:
Notiamo che
Ordine ²3
(1)
(3)
(3)
−→
L1 E(1) = 0
α=3
−→
L1 E(1) = 0
 (1)
 L1 ∝ ∂t1 + v1 ∂ξ ,

(1)
α=1
(3)
L1 ∝ ∂t1 + v3 ∂ξ ,
con v1 =
dω(k)
dk
con v3 =
dω(3k)
dk
Qui otteniamo
α=1→
(1) (1)
L1 E(2)
+
(1) (1)
L2 E(1)
+∞
X
2 (3)
= −ω χ
(β )
(β )
(1−β1 −β2 )
E(1)1 E(1)2 E(1)
=
β1 ,β2 =−∞
2 (3)
= −ω χ
¸
· ³
´2
³
´2
(1)
(−1)
(−1)
(3)
(3) (−3) (1)
E(1) + 2 E(1) E(1) E(1)
3 E(1) E(1) + E(1)
α=3→
(3) (3)
L1 E(2)
+
(3) (3)
L2 E(1)
2 (3)
= −9 ω χ
+∞
X
(β )
(β )
(7.40)
(3−β1 −β2 )
E(1)1 E(1)2 E(1)
β1 ,β2 =−∞
·³
¸
´3
³
´2
(1)
(1) (−1) (3)
(3)
(−3)
2 (3)
= −9 ω χ
E(1) + 2 E(1) E(1) E(1) + 3 E(1) E(1)
(1)
Possiamo pensare la (7.40) come un’equazione nell’incognita E(2) . I ter³
´2
(1) (1)
(1)
(−1)
mini secolari da eliminare sono rappresentati da L2 E(1) e 3 E(1) E(1)
per i quali è soddisfatta la (7.29), la soluzione della quale si può scrivere cosı̀
(1)
E(1) = f (ξ − v1 t1 , t2 , t3 , . . .) .
=
88
Onde elettromagnetiche nei mezzi nonlineari
³
Contrariamente, il termine
(1)
E(−1)
´2
(3)
E(1) non è secolare e soddisfa l’equazione
(1)
iperbolica lineare definita dall’operatore L2 , la cui soluzione è scrivibile
sempre come
(3)
E(1) = g(ξ − v3 t1 , t2 , t3 , . . .) .
Cosı̀ se v1 6= v3 , data la realtà di E,
∗
E (α) = E (−α) ,
e tenendo conto delle condizioni di risonanza, si ricava
¯2
¯
(1) (1)
(1)
2 (3) ¯ (1) ¯
L2 E(1) = − 3 ω χ ¯E(1) ¯ E(1) .
(1) (1)
L1 E(2)
2 (3)
= −ω χ
¸
·³
¯
¯
´2
¯ (3) ¯2 (1)
(3)
(−1)
E(1) + 2 ¯E(1) ¯ E(1)
E(1)
(7.41)
(7.42)
Le due precedenti si presentano come un sistema di due equazioni nelle
(1)
(1)
due incognite E(1) ed E(2) che possiamo pensare di risolvere per sostituzione
(3)
sevendoci anche dell’espressione di E(1) .
Ripercorrendo gli stessi ragionamenti per α = 3 otteniamo il sistema
¯
¯2
(3) (3)
(3)
2 (3) ¯ (3) ¯
L2 E(1) = − 27 ω χ ¯E(1) ¯ E(1) ,
(3) (3)
L1 E(2)
2 (3)
·³
= −9ω χ
(1)
E(1)
´3
¸
¯
¯
¯ (1) ¯2 (3)
+ 2 ¯E(1) ¯ E(1) .
risolubile per sostituzione.
É importante notare che se le due armoniche hanno velocità di gruppo diverse, non si verificano particolari interazioni ed il fenomeno sostanzialmente
è descritto da due NLS.
Il caso interessante è dunque quello per cui accade che le armoniche viaggino con la stesse velocità di gruppo, cosı̀ che la risonanza porti ad effetti di
scambio di energia. Imponiamo, allora come ulteriore condizione, che
v1 = v3 .3
Questo implica immediatamente che
(1)
(3)
L1 ∝ L1
3
Questa condizione può essere interpretata come una richiesta di risonanza ancora più
forte con lo scopo di ottenere modelli di propagazione a più onde.
7.2 L’equazione VNLS
89
(3)
(1)
e dato che ora E(1) soddisfa alla stessa equazione di E(1) è necessario ridefinire
opportunamente le secolarità. All’ordine ²3 , abbiamo cosı̀ le seguenti equazioni:
(1)
(1)
L1 E(2) = 0 ,
(1) (1)
L2 E(1)
2 (3)
= −ω χ
· ³
¸
³
´2
´2
(1)
(−1)
(−1)
(3)
(3) (−3) (1)
3 E(1) E(1) + E(1)
E(1) + 2 E(1) E(1) E(1) .
Il sistema finale che si ottiene è

·µ

(1)

(i ∂t2 + γ1 ∂ξ2 ) E(1) = η1 3



VNLS
·µ



(3)
2

 (i ∂t2 + γ2 ∂ξ ) E(1) = η2 3
¸
¯¶
¯
¯
¯
³
´2
¯ (3) ¯2
¯ (1) ¯2
(1)
(1) ∗
(3)
E(1)
¯E(1) ¯ + 2 ¯E(1) ¯ E(1) + E(1)
¯
¯
¯ (3) ¯2
E
¯ (1) ¯ + 2
¸
¯
¯¶
³
´2
¯ (1) ¯2
(1)
(3)
(1) ∗
E(1)
¯E(1) ¯ E(1) + E(1)
noto come Equazioni di Schrödinger Vettoriali (Vectorial Non Linear Schrödinger, VNLS). In generale, questo sistema non ha infinite leggi di conservazione, come invece accade per la NLS, data la sua nota integrabilità.
Tuttavia per una scelta opportuna dei parametri di accoppiamento il sistema
può arrivare a soddisfare tale requisito. In questo modo, però, è evidente che
l’universalità e l’applicabilità alla Fisica, caratteristiche delle NLS, vengono
meno.
7.2.2
Caso di due onde non risonanti
Consideriamo due onde non risonanti
E(x, t) = A(1) (ξ, tn ) ei(k1 x−ω1 t) + A(2) (ξ, tn ) ei(k2 x−ω2 t)
ω1 = ω(k1 ) ,
ω2 = ω(k2 ) .
In modo più generale,
E(x, t) =
X
E (α1 ,α2 ) (ξ, tn ) eiα1 (k1 x−ω1 t) eiα2 (k2 x−ω2 t)
α1 ,α2
Come al solito sarà la non linearità a generare le armoniche superiori. Scriviamo allora l’equazione di Maxwell direttamente per le componenti di E:
L(α1 ,α2 ) E (α1 ,α2 ) = − χ(3) (−iα1 ω1 − iα2 ω2 + ²∂t1 + ²∂t1 + . . .) ×
X
×
E (β1 ,β2 ) E (γ1 ,γ2 ) E (α1 −β1 −γ1 ,α2 −β2 −γ2 )
β1 ,β2 ,γ1 ,γ2
90
Onde elettromagnetiche nei mezzi nonlineari
Studiamo i casi con
(1,0)
L0
(0,1)
= 0 = L0
in cui le due onde si propagano singolarmente nel mezzo e da cui discende
che
(1,0)
(0,1)
E(1) 6= 0 6= E(1) ,
mentre per tutte le altre si ha
(α ,α2 )
E(1)1
= 0,
se α1 , α2 ≥ 2 .
Come nel paragrafo precedente, il caso interessante lo si ha quando le velocità
di gruppo sono uguali,
v1 = v2 ,
il che determina l’accoppiamento delle onde. Quest’ultima equazione rappresenta anche la Condizione Necessaria e Sufficiente affinchè si possa ricavare
la VNLS:

µ ¯
¯
¯
¯¶
¯ (1,0) ¯2
¯ (0,1) ¯2

(1,0)
(1,0)
(1,0)

i E(1)
+ γ1 E(1)
= α̃1 ¯E(1) ¯ + α̃2 ¯E(1) ¯ E(1)


t2
ξξ

.
VNLS
µ ¯

¯2
¯
¯2 ¶


¯ (1,0) ¯
¯ (0,1) ¯
(0,1)
(0,1)
(0,1)

+ γ2 E(1)
= β̃1 ¯E(1) ¯ + β̃2 ¯E(1) ¯ E(1)
 i E(1)
t2
7.3
ξξ
Generazione della 2a armonica : 2HG
Vogliamo ora concentrarci sull’effetto provocato dalla presenza della seconda
armonica. In precedenza, la seconda armonica non compariva poichè avevamo ipotizzato che il dielettrico fosse isotropo e, dunque, per ragioni di
simmetria, questa doveva essere necessariamente nulla.
Ipotizziamo, invece, di avere un mezzo dielettrico anisotropo caratterizzato da un coefficiente di suscettibilità non lineare quadratico. Riprendiamo
allora l’equazione di Maxwell (7.8):
¡ ¢
Ett − c2 Exx + χ(1) ∗ Ett = − χ(2) E 2 tt .
Ipotizziamo la risonanza per le sole prima e seconda armonica:
(1)
(2)
L0 = 0 = L0 ,
ovvero
ω(2k) = 2ω(k)
7.4 Caso di due onde risonanti: 3WRI
91
per un opportuno valore di k. Ricordiamo che vale anche
(0)
L0 = 0
che si configura come una terza onda risonante. Vediamo qual è il comportamento ad ordine ²2 .
α=1
−→
(1) (1)
L1 E(1)
2
+∞
X
(2)
= ω χ
(β)
(1−β)
E(1) E(1)
β=−∞
(2)
(−1)
= 2 ω 2 χ(2) E(1) E(1)
α=2
−→
(2) (2)
L1 E(1)
2
(2)
= 4ω χ
+∞
X
(β)
(1−β)
E(1) E(1)
β=−∞
´2
³
(1)
= 4 ω 2 χ(2) E(1)
La struttura delle equazioni è 1

(1)
(1)
(2) (1) ∗

E
+
v
1 E(1) = γ1 E(1) E(1)

(1)

t1
ξ
2HG
´2
³


 E (2) + v2 E (2) = γ2 E (1)
(1)
(1)
(1)
t1
ξ
Queste equazioni sono note con il nome di 2HG (2nd Harmic Generation),
fenomeno tipico in Ottica non lineare che consiste per l’appunto nella generazione dell’armonica α = 2 dato un termine
³
´quadratico di sorgente espresso
(1)
tramite la prima armonica α = 1, cioè E(1)
7.4
2
.
Caso di due onde risonanti: 3WRI
Questo fenomeno di risonanza si può avere in cristalli anisotropi con un
coefficiente χ non lineare quadratico.
Riprendiamo allora le equazioni di Maxwell nel caso di dielettrico con
coefficiente quadratico.
¢
¤
¡ ¢
£ ¡
L E = ∂tt 1 + χ(1) ∗ − c2 ∂x2 E = χ(2) E 2 tt
(7.43)
1
Si osserva che la struttura può essere ricondotta alla classe delle equazioni iperboliche,
dato che compaiono solo derivate prime nel tempo e nello spazio ed una funzione generica
φ; si veda la (1.1).
92
Onde elettromagnetiche nei mezzi nonlineari
Siamo interessati al caso di due onde risonanti. Consideriamo la seguente
espressione per E nella forma più generale dello sviluppo delle armoniche:
+∞
X
E(x, t) = ²
E (α1 ,α2 ) ei[α1 (k1 x−ω1 t)+α2 (k2 x−ω2 t)] .
(7.44)
α1 ,α2 =−∞
Ricordiamo la condizione di realtà cui devono soddisfare le componenti di E
∗
E (α1 ,α2 ) = E (−α1 ,−α2 ) .
ed il fatto che dipendano dalle sole variabili lente:
E (α1 ,α2 ) = E (α1 ,α2 ) (ξ, t1 , t2 , . . .)
Inoltre nel limite lineare la soluzione dell’equazione (7.43) si riduce alla
sovrapposizione di due armoniche (ipotesi di quasi-monocromaticità):
ei(k1 x−ω1 t)
ed ei(k2 x−ω2 t) .
Espandiamo nelle armoniche α e guardiamo all’espressione dell’equazione
precedente per le componenti del campo E 1 :
¡
¢2
L(α1 ,α2 ) E (α1 ,α2 ) (ξ, t1 , . . .) = χ2 −i(α1 + α2 ) ω + ²∂t1 + ²2 ∂t2 + . . . ×
X
(7.45)
×
E (β1 ,β2 ) E (α1 −β1 ,α2 −β2 )
β1 ,β2
dove
(α1 ,α2 )
L(α1 ,α2 ) = L0
(α1 ,α2 )
+ ² L1
(α1 ,α2 )
+ ²2 L 2
+ ...
Quindi ai vari ordini, avremo
(α1 ,α2 )
L0
(α1 ,α2 )
L1
£
¤
= −(α1 ω1 + α2 ω2 )2 1 + χ
b(1) (α1 ω1 + α2 ω2 ) + c2 (α1 k1 + α2 k2 )2
£
¤
= −2i(α1 ω1 + α2 ω2 ) 1 + χ
b(1) (α1 ω1 + α2 ω2 ) ∂t1 +
2
− i(α1 ω1 + α2 ω2 )2 χ
b(1)
ω (α1 ω1 + α2 ω2 )∂t1 − 2i(α1 k1 + α2 k2 )c ∂ξ
...
(7.46)
Poniamo le condizioni di risonanza
(±1,0)
L0
1
(0,±1)
= L0
(±1,±1)
= L0
(±0,0)
= L0
= 0.
Ai fini della nostra trattazione ci limiteremo a considerare la sola dipendenza di E (α)
da t1 , sebbene quest’ultima sia funzione anche degli altri tempi lunghi.
7.4 Caso di due onde risonanti: 3WRI
e quelle di non risonanza
(α1 ,α2 )
L0
93
6= 0
per tutti i casi diversi dai precedenti (cioè per (α1 , α2 ) 6= (0, 0), (±1, 0), (0, ±1),
(±1, ±1)).
Considerando la componente di armoniche (α1 = ±1, 0) possiamo ricavare
la relazione di dispersione in forma implicita:
¡
¢
(α ,0)
b(1) (ω1 ) − c2 (iα1 k1 )2 ⇒
L0 1 = 0 = (−iαω1 )2 1 + χ
c2 k 2
1+χ
b(1) (ω)
Contrariamente al caso della derivazione della VNLS in cui è necessario porre
che le onde si propaghino con la stessa velocità di gruppo (altrimenti non si
verifica alcuna interazione), poniamo che le onde abbiano v1 6= v2 , dunque
risultino del tutto disaccoppiate.
Le armoniche non schiave sono
⇒
ω2 =
E (1,0) , E (0,1) , E (1,1) , E (0,0)
ed, ovviamente, quelle con −α dalla richiesta di realtà del campo.
Notiamo che al primo ordine in ² si ricava che la E (0,0) è del tutto disaccoppiata dalle altre armoniche non schiave, rispondendo ad un’equazione
banale di propagazione.
Le cose interessanti si osservano direttamente al secondo ordine. Andiamo
a studiare gli altri tre termini E (1,0) , E (0,1) , E (1,1) nel caso di risonanza.
Poniamo che
k = α1 k1 + α2 k2 , ω = α1 ω1 + α2 ω2
in modo che attraverso questa combinazione lineare si possano esprimere
tutte le armoniche. Facciamo l’ipotesi che nel reticolo definito attraverso
questa combinazione lineare di ω1 ed ω2 , esista un’armonica identificabile
con un punto in cui k ed ω(k) soddisfino alla condizione di risonanza
ω(α1 k1 + α2 k2 ) = α1 ω(k1 ) + α2 ω(k2 ) .
Questa richiesta è molto speciale e negli esperimenti è di difficile riproduzione.
Esistono comunque dei materiali caratterizzati da due indici α1 ed α2 per i
quali questo fenomeno è osservabile. Il caso che vogliamo trattare è quello
per α1 = 1 = α2 da cui ω(k1 ) + ω(k2 ) = ω(k1 + k2 ). Notiamo che se k1 = k2 ,
si riottiene il caso della 2HG da un formalismo completamente diverso.
Considerando dunque il secondo ordine, possiamo derivare le seguenti
equazioni per le tre componenti del campo elettrico E (1,0) , E (0,1) ed E (1,1)
ripartendo dalla (7.45).
94
Onde elettromagnetiche nei mezzi nonlineari
Cominciamo dalla prima:
X (β ,β ) (1−β ,1−β )
(1,0) (1,0)
2
L1 E(1) = −χ(2) ω12
E(1)1 2 E(1) 1
=
β1 ,β2
h
(1,0)
(0,0)
(0,1)
(1,−1)
= −χ(2) ω12 E(1) E(1) + E(1) E(1)
(1,1)
(0,−1)
i
+ 2E(1) E(1)
Di questi tre termini (prodotti di due componenti di E), l’unico non nullo
(1,1) (0,−1)
è l’ultimo, 2E(1) E(1)
(il fattore 2 deriva dai due casi di coppie (1, 1) e
(0, −1)); il primo si annulla perchè vale
(0,0)
L1
(0,0)
E(1) = 0 .
Essendo infatti la velocità di gruppo nulla per k = 0, quanto otteniamo è
(0,0)
che l’operatore L1 viene a coincidere con l’operatore di derivata rispetto al
tempo lungo t1 . Ora, dato che non vogliamo la dipendenza da t1 , richiediamo
(0,0)
che ad essere nullo sia E(1) .
Il secondo si annulla poichè non soddisfa alla condizione di risonanza
(1,0)
k1 + k2 , ma contribuisce attraverso k1 − k2 . Dunque, per il termine E(1) si
ha
(1,0) (1,0)
(1,1) (0,−1)
L1 E(1) = −2ω1 2 χ(2) E(1) E(1) .
Per le restanti due componenti, operando analoghe considerazione sulla corrispondenza delle armoniche e degli ordini di ², si ricava
(0,1)
L1
(1,1)
L1
(1,1)
E(1)
(0,1)
(1,1)
(−1,0)
(β ,β2 )
E(1)
E(1) = −2ω2 2 χ(2) E(1) E(1)
= −ω3 2 χ(2)
X
E(1)1
,
(1−β1 ,1−β2 )
β1 ,β2
2 (2)
= −2ω3 χ
(1,0)
(0,1)
E(1) E(1) .
Possiamo allora esplicitare la forma dell’operatore L nelle tre diverse
componenti (tenendo conto del prodotto di convoluzione come nelle (7.15)):

i
h
(1,0)
(1)
2 (1)

χ
b
(ω
)
(∂t1 + v1 ∂ξ )
L
=
−i
2
ω
+
2
ω
χ
b
(ω
)
+
ω

1
1
1
1
1 ω
 1





i
h
(1)
(0,1)
bω (ω2 ) (∂t1 + v2 ∂ξ )
L1 = −i 2 ω2 + 2 ω2 χ
b(1) (ω2 ) + ω22 χ





i
h


(1)
2 (1)
 L(1,1) = −i 2 ω3 + 2 ω3 χ
χ
b
(ω
)
(∂t1 + v3 ∂ξ )
b
(ω
)
+
ω
2
3
1
3 ω
dove
vj =
dω(kj )
,
dk
j = 1, 2, 3
7.4 Caso di due onde risonanti: 3WRI
95
è la velocità di gruppo corrispondente al vettore d’onda kj .
Poniamo allora
1 d2 ω(k)
≡ a(k) ,
2 dk 2
a(k) =
c2
(1)
2ω + 2ω χ
b(1) (ω) + ω 2 χ
bω (ω)
e
ωj2 (2)
(1,0)
(0,1)
(1,1)
χ a(kj ) , E(0) ≡ E1 , E(0) ≡ E2 , E(0) ≡ E3 .
c2
Ricordiamo che le E sono funzioni complesse di due variabili reali.
Possiamo scrivere dunque un sistema di tre onde risonanti interagenti (3
Waves Resonant Interaction, 3WRI) che ha origine da due onde risonanti:

(∂t1 + v1 ∂ξ ) E1 = i c1 E3 E2∗





(∂t1 + v2 ∂ξ ) E2 = i c2 E3 E1∗
3WRI
(7.47)





(∂t1 + v3 ∂ξ ) E3 = i c3 E1 E2
cj ≡ 2
Osserviamo che non esistono accoppiamenti dei campi con se stessi, cioè
termini quadratici di una stessa componente e che la non linearità è data
dal prodotto di due ampiezze 1 ; contrariamente, nella NLS ricordiamo che
tali autoaccoppiamenti si verificano e le non linearità discendono da termini
cubici.
La linearizzazione del sistema 3WRI ci porta alla triviale situazione di
tre onde che si propagano senza interagire tra loro.
Notiamo inoltre che possiamo riottenere dalle 3WRI le 2HG, quando k1 =
k2 e quindi k3 = 2k1 . k1 è tale che
ω(2k1 ) = 2ω(k1 ) ,
(ω3 = 2ω1 ) .
L’equazione con E1 = E2 , v1 = v2 e c1 = c2 , diventa

 (∂t1 + v1 ∂ξ ) E1 = i c1 E2∗ E3

.
(∂t1 + v3 ∂ξ ) E3 = i c3 E12
In generale, il sistema (7.47) non è integrabile, però sotto opportune condizioni può diventarlo. Tali condizioni riguardano i coefficienti complessi
cj :
cj = sj |cj | eiφ , sj 2 = 1
1
Possiamo pensare di sfruttare tale fenomeno nel caso in cui volessimo generare delle
somme di armoniche o degli amplificatori.
96
Onde elettromagnetiche nei mezzi nonlineari
dove sj è il segno di c, eiφ è la fase indipendente da j, quindi la stessa per
tutti e tre i coefficienti 2 . Una determinata scelta dei coefficienti può portare
ad osservare due comportamenti diversi, l’uno esplosivo l’altro, più comune,
non esplosivo. Per completezza, facciamo notare che per la seguente scelta
dei segni dei coefficienti cj , si osserva il comportamento non esplosivo:
(s1 , s2 , s3 ) = (1, −1, 1) .
2
Anche per la NLS abbiamo delle condizioni di integrabilità: i coefficienti c che
compaiono nell’equazione
³
´
2
iEt2 + c Eξξ + s |E| E = 0 ,
devono essere reali: c ∈ R .
Capitolo 8
Dielettrico quantistico
Nel caso di un’onda elettromagnetica che si propaga lungo l’asse x le equazioni di Maxwell si possono semplificare nel modello in 1+1 dimensioni,
ottenendo
1
Ett − c2 Exx = − Ptt ,
(8.1)
²0
dove E(x, t) è una componente del campo elettrico trasversale e P (x, t) è il
campo di polarizzazione indotto nel mezzo da questa onda.
Per legare la polarizzazione P al campo E occorre introdurre un modello
meccanico del dielettrico e della sua interazione con il campo elettrico.
A questo scopo facciamo l’ipotesi che il mezzo sia costituito da un un
insieme di densità costante di atomi (o ioni) disaccoppiati tra loro e che la
dinamica di questi atomi segua le regole della meccanica quantistica 1 .
La situazione in cui l’atomo non interagisce col campo elettromagnetico
è descritta ovviamente da una hamiltoniana del sistema coincidente con la
sola hamiltoniana dell’atomo dipendente dalle posizioni xj ed impulsi pj di
ogni j-esima particella:
H = Hat (xj , pj ) .
Se introduciamo l’interazione dell’atomo col campo, dobbiamo tener conto dei potenziali vettoriale A e scalare V attraverso i quali esprimiamo il
manifestarsi del campo stesso. Dunque
X
H = Hat (xj , pj + qj Aj (xj , t)) +
qj V (xj , t) .
j
Possiamo trascurare l’interazione dell’atomo col campo magnetico corrispondente al termine in A (poichè molto piccola) e concentrarci sul contributo
dato dall’interazione col campo elettrico in V .
1
Sebbene il dielettrico è inteso quantizzato, ciò non è assunto anche per il campo
elettromagnetico. Ci limitiamo, per semplicità, ad una descrizione classica del campo.
98
Dielettrico quantistico
Un’ulteriore semplificazione si ottiene supponendo che solo lo stato fondamentale ed un livello eccitato del singolo atomo prendano parte all’interazione
con il campo elettromagnetico (atomo a due livelli) 2 .
Sia quindi
H = Hat + V
l’operatore hamiltoniano totale del sistema “atomo-campo elettrico”, dove V
è il potenziale elettrico dell’onda. Prendendo dell’espansione in multipoli del
potenziale solo il termine di dipolo, si ottiene
V = −p · E(x, t)
dove p è l’operatore momento di dipolo dell’atomo e, quindi, proiettando
lungo la direzione parallela a quella di E, si ottiene in forma operatoriale
H = Hat − p E .
(8.2)
Nell’approssimazione di atomo a due livelli il vettore di stato |ψi dell’atomo è una combinazione lineare dei due autostati normalizzati dell’operatore
hamiltoniano Hat dell’atomo, lo stato fondamentale |0i e lo stato eccitato
|1i, ovvero
|ψi = u(0) |0i + u(1) |1i , Hat |ji = ~ωj |ji , hj|mi = δjm , j, m = 0, 1 .
Queste formule si riferiscono al singolo atomo che si trova in x al tempo t e
quindi i coefficienti u(j) della combinazione lineare sono funzioni della coordinata spaziale e del tempo: u(j) = u(j) (x, t). Inoltre l’evoluzione temporale
di questi coefficienti è data dall’equazione di Schrödinger
i~
d
|ψi = H |ψi
dt
che riscriviamo per i due coefficienti u(0) ed u(1) , proiettando sui bra h0| e h1|:
 (0)
 iut = ω0 u(0) − βEu(1)

2
(8.3)
(1)
iut
= ω1 u
(1)
− βEu
(0)
Si potrebbe pensare che in base a tale semplificazione il modello considerato è insoddisfacente, poichè sappiamo che per E > 0 lo spettro è continuo, mentre per E < 0 è
quantizzato. Ricordiamo però che siamo interessati ad osservare processi ai quali è associato un valore di probabilità di occorrenza elevato; i rimanenti processi non partecipano
invece cosı̀ attivamente alla dinamica del sistema.
99
Queste equazioni si ottengono con l’ipotesi che gli autostati |ji dell’atomo
b Pb] = 0) con l’implicazione
sono anche autostati dell’operatore di parità ([H,
che
h0|p|0i = h1|p|1i = 0 ,
mentre la costante β è definita dalla relazione ~β = h0|p|1i = h1|p|0i.
Notiamo subito nella (8.3) che il termine di dipolo accoppia u(0) ed u(1) .
É conveniente ora introdurre le variabili
·
¸
i
.
(j)
ψ (x, t) = exp (ω0 + ω1 )t u(j) (x, t) ,
per
j = 1, 2 .
2
per arrivare al sistema di equazioni
 (0)
 ψt = 2i Ω ψ (0) + iβE ψ (1)

(1)
ψt
=
− 2i Ω ψ (1)
+ iβE ψ
(8.4)
(0)
dove ~Ω = ~ (ω1 − ω0 ) è la differenza di energia tra i due livelli atomici.
Questo passaggio ci permette di eliminare la dipendenza banale dal tempo
introdotta dalle costanti ω0 ed ω1 : in sostanza annulliamo la traccia della
matrice associata al sistema (8.3).
Per legare queste equazioni all’equazione di Maxwell (7.1) è necessario
ora esprimere il campo di polarizzazione P (x, t) in funzione delle variabili
ψ (j) (x, t). Per semplicità trascuriamo la media statistica che lega proprietà su scala atomica al campo macroscopico P (x, t), il fatto che gli atomi
interagenti con l’onda E del campo elettrico possano emettere o assorbire
fotoni, l’allargamento dello spettro di energie degli atomi del mezzo dovuto
all’effetto Doppler causato dal moto termico dei singoli atomi 1 .
In questa approssimazione,
P (x, t) = ρ φ(x, t) ,
(8.5)
dove ρ è la densità costante di atomi e φ(x, t) = hψ|p|ψi è il valor medio del
momento di dipolo dell’atomo che si trova in x al tempo t (infatti il valor
medio dell’energia d’interazione è hψ|V |ψi = −Eφ). Quindi si ha
¢
¡
(8.6)
P = ρ hψ|p|ψi = ~βρ ψ (0)∗ ψ (1) + ψ (1)∗ ψ (0) .
1
Ciò che vogliamo affermare è che la polarizzazione che compare nelle (7.1) è sostanzialmente diversa dalla polarizzazione a rhs della (8.5): fra le due esiste un vero e proprio
mapping basato sulle frequenze dell’onda in cui è necessario considerare il picco corrispondente all’armonica fondamentale ed in aggiunta a questo una distribuzione (ad esempio
gaussiana) delle armoniche successive. Noi non calcoleremo queste medie, supponiamo già
mediata la grandezza P .
100
Dielettrico quantistico
Notiamo che in queste espressioni lo stato |ψi è normalizzato, cioè hψ|ψi =
¯ (0) ¯2 ¯ (1) ¯2
¯ψ ¯ + ¯ψ ¯ = 1. Infine notiamo anche che, utilizzando le equazioni (8.4),
si ottiene
h ¡
³¯
¯2 ´i
¯2 ¯
¢
Ptt = −~βρΩ Ω ψ (0)∗ ψ (1) + ψ (1)∗ ψ (0) + 2βE ¯ψ (1) ¯ − ¯ψ (0) ¯
Riconosciamo nella derivata temporale seconda di P due contributi: il primo
riconducibile a quello di un oscillatore armonico, il secondo relativo alla densità di popolazione di atomi nello stato fondamentale od in quello eccitato
(miscela di due tipi di atomi).
Dunque, questo modello di interazione di un’onda elettromagnetica con
un mezzo fatto di atomi a due livelli è descritto dalle equazioni di MaxwellBloch (semplificate)

£ ¡
¢
¡
¢¤

Ett − c2 Exx = ²10 ~βρ Ω Ω ψ (0)∗ ψ (1) + ψ (1)∗ ψ (0) + 2βE |ψ (1) |2 − |ψ (0) |2





(0)
MB
ψt = 2i Ω ψ (0) + iβE ψ (1)





 ψ (1) = − i Ωψ (1) + iβE ψ (0)
t
2
(8.7)
In questo sistema, il campo elettrico nella direzione trasversale E(x, t) è
una funzione reale, mentre i coefficienti ψ (0) (x, t) e ψ (1) (x, t) del vettore di
stato dell’atomo sono funzioni complesse, per cui questo sistema è di cinque
equazioni reali. In alcuni contesti risulta più conveniente riscrivere questo
sistema per quattro funzioni reali introducendo le nuove variabili dipendenti
reali R(x, t), Q(x, t) ed N (x, t) secondo la definizione seguente:
R = ψ (0)∗ ψ (1) + ψ (1)∗ ψ (0) ,
Q = iψ (0)∗ ψ (1) − iψ (1)∗ ψ (0) ,
(8.8)
¯2
¯2 ¯
¯
N = ¯ψ (1) ¯ − ¯ψ (0) ¯ .
Per queste nuove funzioni il sistema di Maxwell-Bloch diventa

Ett − c2 Exx = ²10 ~βρ Ω Qt








 Rt = −Ω Q


Qt = Ω R + 2βE N







Nt = −2βE Q
(8.9)
101
La (8.9) è dunque un sistema di 4 equazioni reali in quattro incognite,
dove le linearità sono quadratiche nel peggiore dei casi, diversamente dal
(8.7) in cui compaiono termini non lineari cubici.
Vediamo ora come queste equazioni si possono ulteriormente semplificare per arrivare a due modelli di propagazione che sono serviti di base per
spiegare alcuni fenomeni non lineari tra cui quello della trasparenza autoindotta (Self-Induced Transparency, SIT) dovuta alla risonanza tra l’onda
elettromagnetica e la transizione atomica.
Approssimazione sull’operatore.
Cominciamo con l’ipotesi che il campo
elettrico si propaghi lungo una sola direzione, per esempio quella positiva.
Poichè l’operatore di D’Alembert
∂t2 − c2 ∂x2 = (∂t + c∂x )(∂t − c∂x )
descrive la propagazione nelle due direzioni, si può tenere l’operatore di
propagazione lungo la direzione positiva ∂t +c∂x , (c > 0) e fare la sostituzione
∂t − c∂x ' 2∂t , ovvero
(∂t2 − c2 ∂x2 )E ' 2(∂t + c∂x )Et .
Se si fa ora questa sostituzione nella prima equazione del sistema (8.9)
e si integra una volta nella variabile t, si ottiene il più semplice modello di
propagazione di un’onda elettromagnetica in un mezzo di atomi a due livelli
che è il sistema delle quattro equazioni nonlineari reali del primo ordine

Et + c Ex = 2²10 ~βρ Ω Q








 Rt = −Ω Q
RMB
(8.10)


Q
=
Ω
R
+
2βE
N

t






Nt = −2βE Q
noto come equazioni Ridotte di Maxwell-Bloch. Queste equazioni, oltre ad
avere interesse applicativo, hanno la proprietà matematica di essere integrabili e di essere quindi trattabili con i metodi della teoria dei solitoni.
Multiscala. Un secondo modello, anch’esso integrabile e di notevole interesse applicativo, si ottiene con il metodo multiscala dall’equazioni di partenza (8.7) nell’ipotesi che il campo elettrico sia descritto da un’onda quasimonocromatica con frequenza ω e con ampiezza piccola (di ordine ², essendo
² il parametro perturbativo, vedi le lezioni sul metodo multiscala), e nella
condizione di risonanza ω = Ω. L’ingrediente fondamentale della derivazione
102
Dielettrico quantistico
del modello è l’ipotesi che gli atomi risonanti del mezzo siano solo una piccola frazione di tutti gli atomi e che gli altri atomi, cioè la maggior parte,
non siano risonanti. Questo è il caso, ad esempio, del rubino in cui gli ioni
Cromo Cr+3 risonanti (cioè la loro frequenza di eccitazione coincide con la
frequenza del campo elettrico) sono sparsi in un cristallo di molecole di ossido
di Alluminio Al2 O3 non risonanti che costituisce il dielettrico di fondo.
Per descrivere questa situazione, nelle equazioni di Maxwell-Bloch semplificate (8.7), la velocità di fase c va sostituita con la velocità di fase
v = c/n(ω)
nel dielettrico di fondo con costante dielettrica n = n(ω) , mentre la costante
1
~βρ ¿ 1 è molto piccola, ²10 ~βρ = ²2 γ , e determina la scala di “piccolezza”
²0
che compare nel metodo perturbativo multiscala. Scegliamo quindi che il
parametro ² sia adimensionale e che γ sia un parametro di ordine O(1).
Poichè le equazioni che ci interessano si ottengono all’ordine O(²2 ) e poichè il
campo elettrico è di ordine O(²) mentre le componenti ψ (0) e ψ (1) del vettore
di stato dell’atomo risonante sono di ordine O(1) (si ricordi infatti che vale
¯
¯2 ¯
¯2
la condizione di normalizzazione ¯ψ (0) ¯ + ¯ψ (1) ¯ = 1), è sufficiente porre
E(x, t) = ² (A(ξ, τ ) exp [i(kx − ωt)] + A∗ (ξ, τ ) exp [−i(kx − ωt)]) ,
¢
Ωt
,
2
ψ (0) (x, t) = A(0) (ξ, τ ) exp
¡i
ψ (1) (x, t) = A(1) (ξ, τ ) exp
¡i
2
(8.11)
¢
Ωt exp[i(kx − ωt)] ,
nelle equazioni (8.7) che, riscritte secondo le ipotesi sopra specificate, diventano
h ¡
³¯

¯
¯ (0) ¯2 ´i
¢
2
2
(0)∗ (1)
(1)∗ (0)
(1) ¯2
¯
¯ψ ¯

E
−
v
E
=
²
γΩ
Ω
ψ
ψ
+
ψ
ψ
+
2βE
ψ
−
tt
xx





(0)
i
(0)
(1)
 ψt = 2 Ω ψ + iβE ψ




 (1)
ψt = − 2i Ω ψ (1) + iβE ψ (0)
(8.12)
Teniamo conto degli sviluppi per il campo elettrico E e per le due funzioni
complesse ψ (j) , con j = 0, 1, sino al secondo ordine: altri termini esistono ma
i contributi di queste armoniche sono trascurabili.
Ordine ²
Espandiamo direttamente il d’alembertiano che agisce su E nella
(8.12):
∂t2 −v 2 ∂x2 = (−iω + ²∂τ )2 −v 2 (ik + ²∂ξ )2 = −ω 2 +v 2 k 2 −2i²(ω∂τ +kv 2 ∂ξ )+O(²2 ) .
103
Consideriamo dunque le equazioni che ricaviamo per le tre funzioni.
Per il campo elettrico E (che è già all’ordine ²), si ricava, bilanciando i
termini in ², la relazione di dispersione che lega ω a k:
−ω 2 + v 2 k 2 = 0
−→
ω = vk
Per ψ (0) , ricordando l’espansione dell’operatore ∂t
Ω
∂t = i + ² ∂ τ ,
2
si ottiene l’identità iΩ/2 = iΩ/2 che non dà alcuna informazione.
Per ψ (1) , invece si ricava la condizione di risonanza:
Ω
Ω
i − iω = −i
−→ Ω = ω .
2
2
Ordine ²2
All’ordine successivo, si ricavano le seguenti equazioni.
Per E, si ha
−2iω(∂τ + v ∂ξ ) A = γΩ2 A(0)∗ A(1) .
Per ψ (0) , si ottiene
A0τ = iβA∗ A(1) .
Per ψ (0) , risulta
A1τ = iβAA(0) .
Queste ultime tre equazioni sono il sistema che cercavamo applicando il
multiscala. Riscrivendo opportunamente la prima delle tre equazioni otteniamo:

Aτ + v Aξ = 2i γΩ A(0)∗ A(1)





(0)
(8.13)
Aτ = iβ A∗ A(1)




 (1)
Aτ = iβ AA(0)
Se assumiamo ulteriormente che l’ampiezza A sia immaginaria e che A(0) e
A(1) siano reali, queste tre equazioni diventano equivalenti alla sola equazione
scalare reale. Vale allora che
A = i B , B = B ∗ , A(0) = A(0)∗ , A(1) = A(1)∗ .
Cosı̀ il sistema (8.13) diventa

Bτ + v Bξ = 2i γΩ A(0) A(1)





(0)
Aτ = β BA(1)




 (1)
Aτ = β BA(0)
(8.14)
104
Dielettrico quantistico
(0)
(1)
Ora è evidente che le ultime due equazioni in Aτ ed Aτ possono essere
interpretate come le equazioni dell’oscillatore armonico e tenendo conto anche
della condizione imposta dalla normalizzazione, scriviamo che
A(0) = sin(Φ/2) ,
A(1) = cos(Φ/2)
Dunque, si definisce
φτ = 2β B
e risostituendo nella (8.14), si ricava un’unica equazione scalare (del secondo
ordine) nota col nome di equazione di Sine-Gordon:
φτ τ + v φτ ξ =
γ
Ω sin(φ)
4
Con una semplice trasformazione
X = vτ ,
T = τ − (2/v) ξ ,
F (X, T ) = Φ(ξ, τ ) .
si riesce ad esprimere la derivata mista attraverso una derivata seconda nello
spazio, ricavando la forma nota dell’equazione (iperbolica)
S-G
FT T − v 2 FXX + m2 sin(F ) = 0 .
(8.15)
Questa è un’equazione integrabile che ha applicazioni anche in altri campi
come la fisica dello stato solido e la geometria differenziale.
Capitolo 9
Derivazione dell’equazione di
Korteweg-de Vries
L’equazione di Korteweg-de Vries (KdV) nel campo scalare u(x, t):
ut − a uxxx − b ux = c uux
(9.1)
è un’equazione modello non lineare alle derivate parziali perchè si ottiene con
metodi perturbativi da un gran numero di equazioni d’onda non lineari. Essa
possiede le seguenti proprietà:
1. è reale;
2. è integrabile;
3. è debolmente non lineare, cioè i termini non lineari sono polinomi del
campo o delle sue deruvate: u, ux , uxx , . . .;
4. è debolmente dispersiva, cioè l’equazione linearizzata
ut − auxxx − bux = 0
possiede soluzioni in forma d’onda piana
A ei(kx−ωt) ,
con funzione di dispersione
ω = ω(k) = ω ∗ (k) = −ω(−k)
ad esempio polinomiale con potenze dispari. La particolare scelta:
ω(0) = 0 restituisce una funzione costante che è soluzione;
106
Derivazione dell’equazione di Korteweg-de Vries
5. la funzione costante è soluzione dell’equazione non lineare di partenza
(9.1). L’equazione linearizzata, se ω = ω(k) è la relazione di dispersione, è della forma
ut = −iω(−i∂x ) u .
Difatti ad esempio, la scelta di:
ω(k) = c1 k + c3 k 3
(9.2)
restituisce l’equazione dispersiva lineare
ut = −c1 ux + c3 uxxx .
Una classe di equazioni d’onda non lineari che soddisfa le condizioni precedenti si può ottenere sostituendo ad ogni operatore ∂x l’operatore f (u) ∂x .
Cosı̀, per esempio, l’equazione (9.2) diventa
ut = f0 (u) ux + f1 (u) [f2 (u)[f3 (u) ux ]x ]x ,
dove fi , con i = 1, 2, 3, sono funzioni analitiche di u.
Ovviamente u(x, t) = ū = cost. è soluzione della precedente.
Questa equazione si riscrive convenientemente nella forma
ut = f0 ux + F1 uxxx + F2 ux uxx + F3 u3x ,
dove si è posto (con f 0 ≡
F 1 = f1 f2 f3 ,
df
)
du
F2 = f1 (f20 f30 + 3f2 f30 ) ,
F3 = f1 (f2 f300 + f20 f30 ) .
Se ² è un parametro (piccolo) e il campo è espresso in termini della
soluzione costante ū perturbata:
u = ū + ²v(x, t) ,
allora il rumore v(x, t) soddisfa l’equazione
vt = f0 (ū+²v) vx +F1 (ū+²v) vxxx +² F2 (ū+²v) vx vxx +²2 F3 (ū+²v) vx3 , (9.3)
Si cerca una soluzione v(x, t) della (9.3) tale che:
1. sia una serie di potenze di ²
v = v(0) + ² v(1) + ²2 v(2) + . . .
(9.4)
107
2. ogni coefficiente dell’espansione (9.4) sia una funzione delle variabili
riscalate
√
√
√
√
ξ = ² x , t1 = ² t , t 2 = ² ² t , t 3 = ²2 ² t , . . .
(9.5)
v(n) = v(n)(ξ, t1 , t2 , . . .)
Sviluppiamo in potenze di ² gli operatori differenziali:
√
√
√
√
∂x = ² t , ∂t = ² ∂t1 + ² ² ∂t2 + ²2 ² ∂t3 + . . .
(9.6)
ed andiamo a sostituire gli sviluppi (9.4), (9.5), (9.6) nella (9.3), ricavando
¡
¢
∂t1 + ²∂t2 + ²2 ∂t3 + . . . (v(0) + ² v(1) + . . .) =
[f0 (ū) + ² v(0)f00 (ū) + . . .] +
² [F1 (ū) + ² v(0)F10 (ū) + . . .] (v(0)ξξξ + ² v(1)ξξξ + . . .) +
²2 [F2 (ū) + ² v(0)F20 (ū) + . . .] (v(0)ξ + ² v(1)ξ + . . .) (v(0)ξξ + ² v(1)ξξ + . . .) +
¡
¢
²3 [F3 (ū) + ² v(0)F30 (ū) + . . .] v(0)3ξ + 3² v(1)ξ v(0)2ξ + . . .
(9.7)
=
+
+
+
Per gli ordini ²0 ed ²1 , avremo:
Ordine ²0 :
v(0)t1 = f0 (ū) v(0)ξ
(9.8)
Ordine ²1 :
v(1)t1 + v(0)t2 = f0 (ū) v(1)ξ + f00 (u) v(0)v(0)ξ + F1 (ū) v(0)ξξξ
(9.9)
Se riscriviamo le (9.8) e (9.9), posto
L1 ≡ ∂t1 − f0 (ū) ∂ξ ,
come
L1 v(0) = 0 ,
L1 v(1) = −v(0)t2 + F1 (ū) v(0)ξξξ + f00 (ū) v(0)v(0)ξ ,
allora la soluzione generale di questa seconda equazione
L1 v(1) = g1
,
g1 = −v(0)t2 + F1 (ū) v(0)ξξξ + f00 (ū) v(0)v(0)ξ ,
è secolare. Possiamo difatti scrivere:
v(1)(ξ, t1 , t2 ) = h (ξ + f0 (ū)t1 , t2 , t3 , . . .) + t1 g1 (ξ, t1 , t2 , . . .)
108
Derivazione dell’equazione di Korteweg-de Vries
essendo già la forzante g1 soluzione dell’omogenea L1 g1 = 0. Per evitare la
secolarità, cioè la crescita lineare in t1 della soluzione, deve essere g1 = 0,
cioè
v(0)t2 = F1 (ū) v(0)ξξξ + f00 (ū) v(0)v(0)ξ
che è l’equazione di KdV per v(0) (9.1) con
a = F1 (ū) ,
b=0 ,
c = f00 (ū) .
L’equazione di Korteweg-da Vries è stata ricavata per la prima volta nel
1895 da Korteweg e de Vries che studiarono la dinamica di onde lunghe in
acqua poco profonda ignorando eventuali effetti d’attrito.
Tuttavia tale situazione era già stata analizzata sperimentalmente da J.
Scott Russel (1838) e teoricamente da Boussinesq (1877).
D’altra parte l’equazione “modello ”di Korteweg-de Vries compare anch
in altri contesti della fisica: dalla fisica dei plasmi a quella dei solidi, q auella
dei circuiti, fatto questo che, insieme alla sua proprietà fondamentale di integrabilità, la rende una delle equazioni fondamentali della fisica matematica
moderna.
Parte II
Solitoni
Capitolo 10
Il Metodo della Trasformata
Spettrale
10.1
Introduzione alla trasformata spettrale
Sappiamo che un modello matematico che vuole descrivere la propagazione
ondosa si fonda su due costituenti fondamentali: (1°) un profilo iniziale ben
determinato dell’onda e (2°) una legge di evoluzione. In sostanza è ciò che
chiamiamo generalmente col nome di Problema di Cauchy.
Questi due ingredienti - attraverso i quali partiamo per trattare molti
fenomeni fisici, sono intimamente connessi l’uno all’altro (almeno per quanto
riguarda le equazioni d’onda che ci interessano). La ragione di tale connessione si fonda sul metodo di analisi di Fourier: in tale metodo, lo studio del
moto ondoso rispetto alle coordinate spaziali consiste nell’esprimere il profilo
dell’onda come una somma di esponenziali oscillanti che, più precisamente,
sono quelle funzioni moltiplicate per un fattore di fase dipendente dal tempo
in modo tale da soddisfare le equazioni di evoluzione.
In questi casi, la proprietà di linearità dell’equazione di evoluzione gioca
un ruolo fondamentale nell’estensione dell’applicabilità della trasformata di
Fourier alle onde lineari: infatti, l’analisi di Fourier non può essere applicata
nel caso nonlineare. Anche deboli nonlinearità possono dar vita ad effetti
sostanziali per tempi lunghi nel profilo dell’onda, dato che questi tendono ad
accumularsi nell’intervallo di evoluzione.
Tuttavia esiste una trasformata - la trasformata spettrale, per l’appunto - che si applica alle equazioni di evoluzione nonlineari in un modo che è
piuttosto simile a quello della trasformata do Fourier. Una delle caratteristiche principali di questa trasformata è quella di dar luogo ad uno spettro
discreto che va a sommarsi a quello ordinario continuo connesso al pac-
10.1 Introduzione alla trasformata spettrale
111
chetto d’onda, nel quale sono contenute, come casi speciali, le soluzioni
solitoniche (come avremo modo di approfondire in seguito).
Il contesto matematico in cui sviluppiamo il metodo della trasformata
spettrale è quello del “problema inverso”, ovvero la ricostruzione di una funzione u(x) a partire da un insieme di dati spettrali in aggiunta ad un operatore
d2
− dx
2 + u(x).
L’importanza di tali argomenti è dovuta a molteplici studi: dagli esperimenti numerici affettuati da Fermi, Ulam e Pasta [32] (sull’equipartizione
dell’energia in una catena di oscillatori debolmente anarmonici) cui seguono
quelli di Zabusky e Kruskal che derivano da tale sistema la KdV, a quelli
di Gardner, Greene, Kruskal e Miura [18] i quali mostrano che i metodi
appropriati per investigare le proprietà dei solitoni sono quelli spettrali già
introdotti nel contesto del problema inverso. Inoltre, i lavori di Zakharov e
Shabat [33] hanno mostrato che usando una data trasformata spettrale anche
la NLS può essere risolta con tale metodo.
Vogliamo ora ricordare alcuni aspetti fondamentali della teoria delle trasformate spettrali. Se un’equazione d’evoluzione nonlineare (una PDE, una
ODE o un’equazione integro-differenziale scalare o matriciale in n variabili
spaziali ed una temporale, cioè dimensione (n + 1)) può essere ridotta ad
un’equazione di evoluzione lineare attraverso il metodo della trasformata spettrale, allora essa possiede molte proprietà importanti, come ad esempio infinite leggi di conservazione, una struttura hamiltoniana, etc... e per tali
motivi è detta integrabile. Con ciò, notiamo che le equazioni di evoluzione
nonlineari sono molto speciali e che una generica equazione di evoluzione
nonlineare non può essere a priori analizzata attraverso il metodo spettrale.
In aggiunta, non è ancora noto un metodo generale che ci permetta di sapere
se un’equazione d’evoluzione nonlineare è integrabile o meno, d’altra parte,
però, si conosce una tecnica per generare equazioni di evoluzione nonlineari
integrabili attraverso il metodo della trasformata spettrale.
I due ingredienti base della trasformata spettrale sono (i) un’equazione
differenziale lineare contenente parametri spettrali complessi ed (ii) il problema di Riemann-Hilbert (RH) (si veda l’appendice (D)).
10.1.1
La trasformata inversa di Fourier come problema RH
Al fine di mostrare la relazione tra i due argomenti ((i),(ii)) base della
trasformata spettrale, discutiamo la formulazione della trasformata inversa
di Fourier sotto forma di un problema RH.
Consideriamo una funzione u(x) reale (o complessa) che vogliamo analiz-
112
Il Metodo della Trasformata Spettrale
zare usando la trasformata e che verifica
Z +∞
dx |u(x)| < ∞ .
−∞
Consideriamo un’equazione differenziale lineare appropriata nella quale
inseriamo la nostra funzione u(x):
ψx − ik ψ = u(x) ,
con ψ = ψ(x, k) .
(10.1)
Questa è un’equazione differenziale non omogenenea del primo ordine contenente un parametro spettrale k. Dato che u(x) si annulla per |x| → ∞ ogni
soluzione della (10.1), per |x| grande, è proporzionale all’esponenziale eikx e
queste costanti di proporzionalità sono ad x = ±∞ i dati spettrali rilevanti.
É allora conveniente introdurre le soluzioni “sinistra” e “destra” della (10.1)
sotto le relative condizioni asintotiche:
ψL (x, k) → eikx
,
per x → −∞ ,
(10.2)
ψR (x, k) → eikx
,
per x → +∞ .
(10.3)
Risolvendo esplicitamente la (10.1), si trovano le seguenti espressioni delle
ψL e ψR ove compare la u(x):
¸
·
Z x
−iky
ikx
dy u(y)e
,
(10.4)
ψL (x, k) = e
1+
−∞
·
ikx
ψR (x, k) = e
Z
+∞
1−
¸
−iky
dy u(y)e
,
(10.5)
x
i comportamenti asintotici delle quali si esprimono cosı̀:
ψL (x, k) → eikx [1 + u
b(k)]
,
con x → +∞ , =(k) = 0 ,
(10.6)
ψR (x, k) → eikx [1 − u
b(k)]
,
con x → −∞ , =(k) = 0 ,
(10.7)
dove abbiamo cosı̀ definito la trasformata di Fourier della funzione u(x):
Z +∞
u
b(k) =
dx u(x) e−ikx , con =(k) = 0 .
−∞
Il problema diretto consiste nell’integrare la (10.1) su tutto l’asse x
usando le condizioni (10.2) e (10.3) e nel ricavare dagli andamenti asintotici
(10.6) e (10.7) la costante u
b(k) per ogni valore reale di k: cosı̀ operiamo il
passaggio u(x) → u
b(k).
10.1 Introduzione alla trasformata spettrale
113
La soluzione del problema inverso, cioè la ricostruzione della u(x) a
partire dalla u
b(k) (b
u(k) → u(x)) può essere ottenuta risolvendo il problema
RH (si rimanda all’appendice (D)). Al fine di formulare il problema RH
associato alla trasformata di Fourier, definiamo una funzione φ(x, k) della
variabile complessa k tale che:
φ(x, k) = ψ(x, k)L − eikx
,
=(k) > 0 ,
φ(x, k) = ψ(x, k)R − eikx
,
=(k) > 0 .
In riferimento alle (10.4) e (10.5), osserviamo che la funzione ψ(x, k) è analitica in tutto il piano complesso k con la unica eccezione dell’asse x (=(k) = 0),
sul quale la discontinuità è data dalla formula
φ(+) (x, k) = φ(−) (x, k) + u
b(k) eikx ,
in cui
φ(±) (x, k) = φ(x, k ± i0)
sono i valori al bordo dell’asse reale (dall’alto e dal basso).
La funzione φ(x, k) è di grado −1 per k = ∞, dato che
lim [ik φ(x, k)] = −u(x) .
(10.8)
k→∞
Dunque, il problema della determinazione di φ(x, k) è un problema RH
scalare, non omeogeneo con G = 1 e Γ coincidente con tutto l’asse reale
(di nuovo, rimandiamo all’appendice (D)). Tale problema è esplicitamente
risolto impiegando le formule di Plemelj-Sakhotski (PS) e la sua soluzione è
1
φ(x, k) =
2πi
Z
+∞
−∞
0
eik x
dk u
b(k ) 0
k −k
0
0
(10.9)
Osserviamo che, in questo problema, la x è un parametro reale e che
la soluzione (10.9) del problema RH fornisce una rappresentazione spettrale
delle soluzioni ψL e ψR dell’equazione diferenziale (10.1), data da
ψL (x, k) = e
ikx
ψR (x, k) = e
ikx
1
+
2πi
1
+
2πi
Z
+∞
−∞
Z
+∞
−∞
0
eik x
dk u(k ) 0
k − k − i²
0
0
,
=(k) = 0 ,
,
=(k) = 0 ,
0
eik x
dk u(k ) 0
k − k + i²
0
0
in cui integriamo rispetto alla variabile spettrale k invece che la x come nelle
(10.4) e (10.5).
114
Il Metodo della Trasformata Spettrale
Per concludere l’analisi spettrale della funzione u(x), ovvero per ricavare
la trasformata inversa di Fourier, sostituiamo l’espressione spettrale della
soluzione (10.9) nel membro di sinistra della (10.8):
1
u(x) =
2π
Z
+∞
dk u
b(k) eikx .
−∞
Estensione ad altre trasformate
Riprendendo quanto fatto per la trasformata di Fourier, possiamo introdurre
per analogia altre trasformate spettrali seguendo un metodo che generalizza
il precedente schema. Si ha infatti che l’analisi spettrale delle equazioni di
evoluzione nonlineari richiede che l’equazione differenziale (10.1) sia sostituita da una omogenea, lineare, di ordine maggiore o eventualmente da un
sistema di equazioni. Il tipo di sostituzione da effettuare è legato anche alla
dimensionalità del sistema: nel caso (1 + 1) il problema spettrale corrisponde
ad un problema RH omogeneo, dove h(s) = 0 nella D.4; nel caso (2 + 1) è
necessaria una generalizzazione del problema RH (si passa ad una relazione
integrale tra le φ(+) e φ(−) ).
10.1.2
Dipendenza parametrica dal tempo
Poniamo che la funzione u(x) che compare nella (10.1), dipenda parametricamente dal tempo t: u = u(x, t). Da questo, deduciamo che anche ψ dipende
da t; poniamo, inoltre, che questa dipendenza temporale di u dal tempo sia
tale che la ψ soddisfi la seguente equazione differenziale lineare nella variabile
temporale t:
ψt = A(x, k, t) ψ + B(x, k, t) ,
con ψ = ψ(x, k, t) ,
(10.10)
la quale fornisce una soluzione generale della (10.1); poniamo allora che
ψ(x, k, t) = ψL (x, k, t) + γ(k, t) eikx .
Le condizioni cha abbiamo imposto sono molto forti e determinano una classe
di equazioni di evoluzione per u(x, t) cosı̀ come per la relatica trasformata
spettrale u
b(k, t).
Tali equazioni si ottengono molto facilmente dalla condizione di compatibilità
ψxt = ψtx
10.1 Introduzione alla trasformata spettrale
115
tra le equazioni (10.1) e (10.10) che, data la arbitrarietà della funzione ψ,
restituisce due equazioni:
Ax = 0
ut = uA + Bx − ikB
(10.11)
Assumiamo i seguenti sviluppi dei coefficienti A e B:
A = c(ik, t) =
M
+1
X
cm (t)(ik)m , M ≥ 0
m=0
B =
M
X
b(m) (x, t) (ik)m .
(10.12)
m=0
Dalla (10.11), sostituendovi le due precedenti, otteniamo
b(m) (x, t) =
M
−m
X
cn+m+1 (t) Dn u(x, t) ,
m = 0, 1, 2, . . . , M ,
(10.13)
n=0
dove D ≡
∂
.
∂x
Dunque abbiamo
ut =
M
+1
X
cn (t) Dn u = c(D, t) u ,
(10.14)
n=0
dove il coefficiente c(D, t) è indipendente dalla variabile x.
L’equazione di evoluzione per u
b(k, t) si può ricavare dalla (10.10) per
ψ quando x → ±∞ e notando che, in tale limite, B(x, k, t) → 0 (come
suggeriscono le (10.12) e (10.13)).
Per x = −∞, otteniamo
γt = (1 + γ) A
mentre, per x = +∞ abbiamo
γt + u
bt = (1 + γ + u
b) A .
Combinando queste due ultime equazioni, otteniamo l’equazione di evoluzione
per la trasformata u
b:
u
bt (k, t) = u
b(k, t)
M
+1
X
cn (t) (ik)n = c(ik, t) u
b(k, t) .
(10.15)
n=0
Possiamo cosı̀ risolvere il problema al valor iniziale: u(x, 0) → u(x, t), associato all’equazione (10.14) operando i seguenti passi (illustrati nello schema
nella pagina seguente):
116
Il Metodo della Trasformata Spettrale
1. u(x, 0) → u
b(k, 0), risolvendo il problema diretto;
2. u
b(k, 0) → u
b(k, t), integrando l’equazione differenziale lineare ordinaria
(10.15) da cui otteniamo l’evoluzione della trasformata di u(x, t):
Rt
u
bk,t = u
b(k, 0) e
0
dt0 c(ik,t0 )
;
3. u
b(k, t) → u(x, t), risolvendo il problema spettrale inverso.
prob. dir.
u(x, 0)
u(x, t)
↓
↑
u
b(k, 0)
ev. trasf.
−→
prob. inv.
u
b(k, t)
Osserviamo, dunque, che l’analisi spettrale delle soluzioni dell’equazione
di evoluzione lineare (10.14), basata sulla trasformata di Fourier, è un utile
schema risolutivo che, dopo aver apportato varie modifiche e generalizzazioni,
può essere impiegato per trattare le equazioni di evoluzione nonlineari.
10.2
La trasformata spettrale
Il nostro scopo è ora modificare l’analisi spettrale basata sulla trasformata
di Fourier per trattare le equazioni di evoluzione nonlineari.
Contrariamente a quanto accade per la trasformata di Fourier, la quale
può essere generalizzata facilmente allo scopo di studiare funzioni dipendenti
da un numero arbitrario di variabili, l’estensione della trasformata spettrale
da una a due (o più) variabili spaziali richiede l’applicazione di nuove tecniche
ed idee.
Cominciamo col considerare il più semplice esempio di equazione di evoluzione nonlineare di interesse applicativo, integrabile col metodo spettrale,
ovvero la KdV per la funzione u = u(x, t) 1 :
ut + uxxx − 6uux = 0
1
(10.16)
I coefficienti dei tre termini nella (10.16) possono assumere qualsiasi valore costante,
previo riscalamento delle variabili dipendenti ed indipendenti u, x e t.
10.2 La trasformata spettrale
117
Facciamo notare innanzitutto che il metodo spettrale che andiamo a descrivere è limitato alla classe di soluzioni della (10.16) che soddisfano la
seguente relazione:
Z
+∞
dx (1 + |x|) |u(x, t)| < ∞ ,
(10.17)
−∞
per ogni valore di t. Questo ci dice che la funzione u(x, t) deve essere
localmente assolutamente integrabile e che deve annullarsi nel limite per
x → ±∞.
Cominciamo dunque col sostituire all’equazione differenziale non omogenea del primo ordine (10.1), l’equazione differenziale omogenea del secondo
ordine
ψx − ik ψ = u(x) −→ ψxx + k 2 ψ = u(x, t) ψ
con ψ = ψ(x, k, t) ,
(10.18)
dove t e k compaiono come semplici parametri. Questa equazione è il punto
di partenza dell’analisi spettrale della funzione u(x, t) della variabile x per
un t fissato.
Prima di procedere con questa analisi, osserviamo che l’equazione di
KdV (10.16) si ottiene richiedendo che la funzione ausiliaria ψ soddisfi un’equazione di evoluzione lineare che gioca lo stesso ruolo della (10.10) ed ha la
seguente forma:
£
¤
ψt = [c − ux (x, t)] ψ+2 2k 2 + u(x, t) ψx
,
,
con ψ = ψ(x, k, t) , (10.19)
dove c è una costante che non dipende da x, ma dalla particolare soluzione ψ
della (10.18). Infatti, la condizione di compatibilità tra la (10.18) e la (10.19),
cioè ψxxt = ψtxx , restituisce precisamente la KdV (10.16) per il coefficiente
u(x, t).
Nell’analisi spettrale che andiamo ad operare su u, abbiamo che le dipendenze rilevanti sono date da x e t, mentre quella esplicita da t sarà omessa.
Consideriamo inizialmente le proprietà di analiticità delle soluzioni particolari dell’equazione (10.18) come funzioni della variabile spettrale k. In
analogia con le soluzioni (10.2) e (10.3), introduciamo anche qui le soluzioni
destra e sinistra ψR e ψL , note anche con il nome di soluzioni di Jost, definite
nelle condizioni asintotiche:
ψL (x, k) → e−ikx
,
per x → −∞ , =(k) = 0 ,
(10.20)
ψR (x, k) → eikx
,
per x → ∞ , =(k) = 0 ,
(10.21)
118
Il Metodo della Trasformata Spettrale
consistenti con la condizione (10.17) e definite univocamente per =(k) =
0. Trasformiamo l’equazione differenziale (10.18) in una equazione integrale
applicando il metodo della funzione di Green. Usando le soluzioni di Jost,
otteniamo dalla (10.18) due equazioni integrali di Volterra:
Z
1 x
−ikx
ψL (x, k) = e
+
dy sin [k(x − y)] u(y) ψL (y, k) ,
(10.22)
k −∞
Z
1 +∞
ikx
ψR (x, k) = e −
dy sin [k(x − y)] u(y) ψR (y, k) .
(10.23)
k x
Notiamo dunque che le funzioni ψL e ψR sono olomorfe nel semipiano =(k) >
0. Tale risultato si ottiene chiaramente riscrivendo le equazioni integrali
(10.22) e (10.23) definendo le funzioni
µL (x, k) ≡ eikx ψL (x, k) ,
(10.24)
µR (x, k) ≡ e−ikx ψR (x, k) .
(10.25)
Queste danno dunque:
1
µL (x, k) = 1 +
2ik
1
µR (x, k) = 1 +
2ik
Z
0
£
¤
dy e−2iky − 1 u(y + x) µL (y + x, k) ,
(10.26)
−∞
Z
+∞
£
¤
dy e2iky − 1 u(y + x) µR (y + x, k) ,
(10.27)
0
le quali implicano che le funzioni µL e µR dipendenti da k (per x fissato) sono
di grado nullo all’infinito e più precisamente verificano
lim µL (x, k) = 1 ,
k→∞
lim µR (x, k) = 1 .
k→∞
(10.28)
Affrontiamo ora i problemi spettrali diretto ed inverso associati all’equazione (10.18). In questo contesto, una nozione molto importante è quella
di spettro che sappiamo essere definito come l’insieme dei valori della variabile complessa k al quale corrispondono soluzioni dell’equazione differenziale
(10.18) che sono funzioni limitate ovunque di x. La condizione di tali funzioni
di essere limitate è molto importante ed è una proprietà chiave delle equazioni
spettrali ausiliarie le quali giocano un ruolo chiave nell’analisi spettrale.
Lo spettro associato alla (10.18) ed alla condizione (10.17) è composto da
due parti, una componente continua ed una discreta.
Quella continua è l’asse reale, −∞ < k < +∞: tale parte è due volte degenere dato che, per ogni valore di k, sia la soluzione di Jost destra che quella
10.2 La trasformata spettrale
119
sinistra, definite dalle (10.20) e (10.21), sono soluzioni limitate linearmente
indipendenti della (10.18). Inoltre, dato che l’equazione differenziale (10.18)
è invariante sotto la trasformazione k → −k, ma non le condizioni al bordo (10.20) e (10.21), anche le funzioni ψL (x, −k) e ψR (x, −k) sono soluzioni
limitate. Da queste considerazioni, traiamo la conclusione che esistono ben
quattro soluzioni, ma la teoria generale delle equazioni differenziali ci dice
che tali equazioni, vista l’equazione trattata, devono essere connesse tramite
delle relazioni lineari: tra le possibili relazioni scegliamo la seguente:
T (k) ψL (x, k) = ψR (x, −k) + R(k) ψR (x, k) ,
=(k) = 0 ,
(10.29)
nella quale si definiscono, per ogni valore di k, i coefficienti T (k) ed R(k) di
trasmissione e di riflessione, rispettivamente.
Il modo con cui calcoliamo questi due coefficienti per un dato valore di k
consiste nell’integrare l’equazione differenziale (10.18) partendo da sinistra,
cioè per valori negativi di x molto grandi sotto la condizione (10.20) che
definisce la ψL . In seguito all’integrazione sull’intero asse reale x, guardiamo
il comportamento oscillante delle soluzioni ψL (x, k) a destra, cioè per valori
positivi di x grandi, dal quale finalmente estraiamo i coefficienti T (k) ed R(k)
in base alla formula asintotica
ψL (x, k) −→
1 −ikx R(k) ikx
e
+
e
T (k)
T (k)
,
per x → +∞ ,
(10.30)
derivabile dalla (10.29) e dalla (10.21). In questo modo, stabiliamo un mapping da u(x) ad R(k) e T (k) con la proprietà che le funzioni complesse R(k)
e T (k) non sono indipendenti l’una dall’altra, ma soddisfano alla condizione
di unitarietà:
R(k)R(−k) + T (k)T (−k) = 1 ,
la quale deriva direttamente dal teorema del wronskiano
·
¸
dψL (x, −k)
dψL (x, k)
d
ψL (x, k)
− ψL (x, −k)
= 0,
dx
dx
dx
unito alle condizioni asintotiche (10.20) e (10.30).
Osserviamo che le informazioni sulla funzione u(x) contenute in R(k)
e T (k) possono non essere in generale sufficienti per invertire il mapping
e quindi poter ricostruire la u(x): quanto detto accade quando altri valori
complessi di k appartengono allo spettro. Contrariamente se poniamo u = u∗ ,
allora può esistere solo un numero finito di autovalori discreti, tutti sull’asse
immaginario positivo della forma k = ipn , con pn > 0 ed n = 1, 2, . . . , N ,
che appartengono allo spettro discreto. Notiamo che anche se lo spettro
120
Il Metodo della Trasformata Spettrale
continuo esiste sempre, quello discreto non è detto che esista: lo spettro può
non contenere alcun autovalore, ad esempio nel caso di una funzione u(x) che
assume solo valori non negativi.
La soluzione della (10.18) corrispondente ad autovalori discreti k = ipn è
per definizione limitata ovunque, decrescente esponenzialmente per x = ±∞,
e ciò implica che ψL e ψR sono proporzionali l’uno all’altro:
ψL (x, ipn ) = λn ψR (x, ipn ) ,
n = 1, 2, . . . , N ,
(10.31)
dato che non possono esistere due soluzioni indipendenti che si annullano
all’infinito. Infatti, è conveniente definire la seguente soluzione:
φ(n) =
√
ρn ψ(R) (x, ipn ) ,
(10.32)
dove il parametro positivo ρn è fissato dalla condizione di normalizzazione
Z ∞
£
¤2
dx φ(n) (x) = 1 .
(10.33)
−∞
Come mostreremo più avanti, il parametro ρn che può essere definito tramite
il limite
£
¤2
lim epn x φ(n) = ρn ,
(10.34)
x→∞
è uno dei dati spettrali necessari per la ricostruzione della u(x).
10.2.1
Problema spettrale diretto
Il problema spettrale diretto può essere interpretato come il calcolo, effetuato
integrando la (10.18), della funzione complessa R(k) per ogni valore reale di
k, e dei 2N numeri positivi pn e ρn , con n = 1, 2, . . . , N .
Questo insieme di quantità è, per definizione, la trasformata spettrale
S[u] della funzione reale u(x):
S[u] = {R(k), −∞ < k < +∞; pn , ρn , n = 1, 2, . . . , N } .
(10.35)
Questa può essere interpretata come una generalizzazione della trasformata di Fourier. Dal punto di vista dell’applicazione, è importante ricordare
che due proprietà sono, però, sostanzialmente differenti da quelle riferite alla
trasformata di Fourier: (i) la prima è che il mapping che porta da u(x) da
S[u] è nonlineare e (ii) la seconda consiste nell’emergere di una componente
discreta ρn nello spettro discreto pn . Come sarà più chiaro in seguito, la prima proprietà conferisce alla trasformata spettrale la capacità di trasformare
equazioni di evoluzione nonlineare in equazioni lineari, mentre la seconda
10.2 La trasformata spettrale
121
è connessa alle speciali soluzioni delle equazioni di evoluzione nonlineari,
ovvero i solitoni.
Inoltre, nell’ipotesi in cui la trasformata spettrale di u(x) è sufficientemente piccola, allora l’approssimazione lineare della trasformata spettrale
è
R(k) ∼
1
u
b(2k) ,
2ik
(10.36)
dove u
b(k) è la trasformata di Fourier di u(x), e questo giustifica il fatto che
la trasformata spettrale generalizzi, in una veste nonlineare, la trasformata
di Fourier.
10.2.2
Problema spettrale inverso
Il problema spettrale inverso consiste nella ricostruzione di una funzione u(x)
dalla sua trasformata spettrale (10.35).
Per operare tale ricostruzione, dobbiamo prima di tutto ricordare alcune
proprietà del coefficiente di trasmissione T (k). Contrariamente al coefficiente
di riflessione R(k) che generalmente è definito solo per valori reali di k, il coefficiente di trasmissione T (k) può essere prolungato analiticamente sull’asse
reale nel semipiano positivo, dove tutti i suoi poli sono semplici e coincidono
con lo spettro discreto, cioè k = ipn con n = 1, 2, . . . , N . I residui in tali poli
sono dati da
lim [(k − ipn ) T (k)] = i
k→ipn
ρn
,
λn
(10.37)
dove ρn è il parametro spettrale definito nella (10.33) e (10.34), mentre λn
è la costante di proporzionalità introdotta nella (10.31). Infine, la funzione
T (k) ha grado nullo all’infinito ed in particolare
lim T (k) = 1 .
k→∞
(10.38)
Ora siamo in grado di formulare il problema RH corrispondente e di
ricavare le equazioni integrali del problema inverso.
122
Il Metodo della Trasformata Spettrale
10.2.3
Problema RH corrispondente
Introduciamo innanzitutto la funzione f (k) vettoriale bidimensionale sezionalmente meromorfa, definita come


T (k) µL (x, k)
 , per =(k) > 0
f (k) = 
(10.39)
µR (x, k)


µR (x, k)
f (k) = 
,
per =(k) < 0
(10.40)
T (−k) µL (x, −k)
dove µL e µR sono le funzioni (10.26) e (10.27):
µL (x, k) ≡ eikx ψL (x, k) ,
µR (x, k) ≡ e−ikx ψR (x, k) ,
e la variabile spaziale x è un semplice parametro fisso.
Considerando assieme le (10.29) (sull’asse reale) e (10.26) e (10.27), otteniamo la seguente uguaglianza:
T (k) µL (x, k) = µR (x, −k) + R(k) e2ikx µR (x, k) ,
=(k) = 0 ,
dalla quale possiamo ricavare i valori al contorno di f (±) (k) sull’asse reale:
f (±) (k ± i0). L’equazione soddisfatta da tale funzione è
f (+) (k) = G(k) f (−) (k) ,
dove

G(k) = 
=(k) = 0 ,
1 − R(k)R(−k) R(k) e2ikx
−R(−k) e
−2ikx
(10.41)

.
(10.42)
1
Da quanto detto concludiamo che f (k) è soluzione del seguente problema
di RH: f (k) è un vettore bidimensionale sezionalmente meromorfo nel piano
complesso diviso in due sezioni dall’asse reale, in cui i valori al contorno
f (±) (k ± i0) soddisfano l’equazione (10.41) con G(k) espresso dalla (10.42)
ed in particolare f (k) assume il seguente valore asintotico:
µ ¶
1
lim f (k) =
(10.43)
1
k→∞
10.2 La trasformata spettrale
123
(che segue dalle (10.38), (10.28), (10.39) e (10.40)) e 2N poli semplici in
k = ipn , con n = 1, 2, . . . , N , coi residui
lim [(k ± ipn ) f (k)] = Rn(±)
(10.44)
k→±ipn
dove
µ
Rn(±)
−2pn x
= ±iρn e
µR (x, ipn ) χ± ,
con χ+ =
1
0
¶
µ
, χ− =
0
1
¶
.
(10.45)
è dato dalle (10.39) e (10.40), (10.37), (10.31), (10.24) e (10.25). Osserviamo
che tale problema è un po’ più generale di quello considerato nell’appendice
(D): in quel caso la sezione f (k) è sezionalmente olomorfa, mentre in questo
caso è sezionalmente meromorfa. L’esistenza e l’unicità della soluzione f (k)
sono garantite dalla condizione (10.43), dalla realtà del parametro x, dall’annullamento di R(k) per k → ±∞ e da quello dell’indice totale ν (vedi
appendice (D)) che è dovuto alla proprietà della matrice G(k):
det(G(k)) = 1 .
Questo problema RH non può essere risolto esplicitamente in generale e
lo si affronta molto più facilmente derivando da esso un’equazione integrale
e studiando quest’ultima. Come discusso nell’appendice (D), la rappresentazione integrale relativa al problema RH, si può ricavare dalle formule PS
(Plemelj-Sakhotski) combinandovi la funzione di discontinuità
f (+) (k) − f (−) (k) = H(k) f (−) (k) ,
H(k) = G(k) − I ,
=(k) = 0 ,
che ha la seguente rappresentazione integrale:
"
#
µ ¶
N
(+)
(−)
X
Rn
Rn
1
f (k) =
+
+
+
1
k − ipn k + ipn
n=1
1
+
2πi
Z
+∞
−∞
·
¸
H(s)
ds
f (−) (s) , =(k) 6= 0 . (10.46)
s−k
Da queste due ultime formule partiamo per la nostra derivazione dell’equazione integrale del problema inverso che va a sostituire il problema RH.
Consideriamo la prima componente del vettore in entrambi i membri dell’uguaglianza (10.46) e facciamone il limite per k tendente all’asse reale dal
basso, cioè per =(k) < 0.
124
Il Metodo della Trasformata Spettrale
Otteniamo cosı̀ le due seguenti equazioni integrali accoppiate per µR (x, k)
nei casi =(k) = 0 e k = ipn :
N ·
X
¸
ρn
µR (x, k) = 1 −i
e−2pn x µR (x, ipn ) +
k
+
ip
n
n=1
¸
·
Z +∞
1
R(s)
e2isx µR (x, s) ,
+
ds
2πi −∞
s + k + i²
N ·
X
¸
ρn
µR (x, ipm ) = 1 −i
e−2pn x µR (x, ipn ) +
p
+
p
n
m
n=1
·
¸
Z +∞
R(s)
1
ds
+
e2isx µR (x, s) ,
2πi −∞
s + ipm
(10.47)
per =(k) = 0
(10.48)
per m = 1, 2, . . . , N .
Osserviamo che - come deve accadere - i dati che forniamo e che compaiono in queste equazioni sono proprio le quantità spettrali R(k), pn e ρn
che definiscono la trasformata spettrale della u(x) come nella (10.35).
Una volta risolte le (10.47) e (10.48), possiamo cercare di ottenere la
u(x) dalla soluzione µR (x, k). A tale scopo notiamo che la soluzione µR (k)
soddisfa, come conseguenza della sua definizione ((10.24) e (10.25)) e della
(10.18), la seguente equazione differenziale:
µR xx + 2ik µR x = u(x) µR .
(10.49)
Tenendo conto dell’espansione asintotica di µR (x, k) per valori grandi di
|k|:
µR (x, k) = 1 +
µ(1) (x) µ(2) (x)
+
+ ...
2ik
(2ik)2
e della (10.49), ricaviamo che
µ(1) x (x) = u(x) .
(10.50)
Osserviamo però che la rappresentazione spettrale dei coefficienti µ(1) è derivata dall’espansione per grandi valori di |k| del membro di destra della (10.47), e
tale rappresentazione inserita nella (10.50), ci fornisce l’espressione per u(x):
" N
#
Z +∞
X
1
d
2
ρn e−2pn x µR (x, ipn ) +
dk R(k) e2ikx µR (x, k) .
u(x) =
dx
π
−∞
n=1
(10.51)
10.2 La trasformata spettrale
125
Abbiamo cosı̀ completato il metodo di risoluzione del problema inverso.
Per riassumere, la risoluzione del problema inverso consiste nell’effettuare i
seguenti passi ciascuno dei quali consiste di sole operazioni lineari:
S[u] −→ {µR (x, k), µR (x, ipn )} −→ u(x) .
10.2.4
Formulazione alternativa del problema inverso
attraverso le equazioni di Fredholm
Una forma alternativa equivalente al problema inverso può essere ricavata
facendo uso delle equazioni integrali di Fredholm.
Questa si ottiene sostituendo la funzione incognita µR (x, k) nelle (10.47)
e (10.48) con la corrispondente trasformata inversa di Fourier rispetto alla
veriabile spettrale k (ricordiamo che qui la x è un semplice parametro), in
base alle seguenti definizioni
Z +∞
1
dk [µR (x, k) − 1] eik(x−y) ,
(10.52)
K(x, y) =
2π −∞
Z +∞
µR (x, k) = 1 +
dy K(x, y) eik(x−y) .
(10.53)
x
É bene notare che l’olomorfismo della µR (x, k) nel semipiano superiore
(=(k) > 0) implica che K(x, y) = 0 se y < x (da questo si giustifica il fatto
che l’integrazione della (10.53) vada da x ad ∞).
Riscriviamo ora le equazioni integrali (10.47) e (10.48) per la funzione
incognita K(x, y) usando le definizioni (10.52) e (10.53), ricavando
Z ∞
K(x, y) + M (x + y) +
dz K(x, z) M (z + y) = 0 per y ≥ x , (10.54)
x
ove abbiamo introdotto la nuova funzione M (x) definita come
M (x) =
N
X
n=1
−pn x
ρn e
1
+
2π
Z
+∞
dk R(k) eikx ,
(10.55)
−∞
la quale è direttamente connessa alla trasformata spettrale (10.35) della u(x).
Osserviamo allora che, per ogni x fissato la (10.54) è un’equazione integrale di Fredholm con nucleo M (y + z). Per concludere, usando nuovamente
le trasformazioni (10.52) e (10.53), l’espressione (10.51) della u(x) diventa
semplicemente
d
(10.56)
u(x) = −2 K(x, x) ,
dx
126
Il Metodo della Trasformata Spettrale
dove K(x, x) è il valore di K(x, y) sul bordo x = y nel limite in cui y → x
per y > x.
Riassumiamo anche qui quanto fatto nei seguenti passi:
1. Per una data trasformata spettrale S[u] ((10.35)), calcoliamo la funzione M (x), come nella (10.55);
2. risolviamo l’equazione integrale (10.54) (di Marchenko) per la funzione
incognita K(x, y) (per x fissato);
3. concludiamo usando la (10.56) per ottenere la u(x).
Notiamo che ora la trasformazione S[u] −→ u(x) è nonlineare; inoltre possiamo approssimare l’equazione integrale (10.54) nel caso in cui la componente discreta dello spettro di S[u] è assente e quella continua R(k) è
sufficientemente piccola, come segue
K(x, y) ∼ −M (x + y) ,
la quale implica che, considerando la (10.56),
Z
d
2i +∞
dk k R(k) e2ikx ,
u(x) ∼ 2 M (2x) =
dx
π −∞
formula consistente con l’approssimazione già data nella discussione del problema diretto (10.36).
10.2.5
Dipendenza parametrica di u(x) dal tempo t
Poniamo che la funzione u(x) dipenda parametricamente dal tempo t: u(x) →
u(x, t). Da questa assunzione segue che S[u] = S(t), cioè la trasformata
spettrale dipende dal tempo.
Ricordiamo ora alcune importanti proprietà: l’assunzione speciale che
ogni soluzione ψ(x, k, t) della (10.18) soddisfi anche l’equazione differenziale
(10.19), implica che u(x, t) sia una soluzione della KdV (10.16). Inoltre,
l’equazione differenziale (10.19) ci fornisce, insieme agli andamenti asintotici
(10.20) e (10.30), la corrispondente equazione di evoluzione per i coeffcienti
di trasmissione e di riflessione. Dato che la funzione u(x, t) si annulla per
x → ±∞, l’equazione (10.19) per ψ = ψL si riduce (usando la (10.20)) a
c = 4ik 3 per x = −∞, mentre per x = +∞ dà
Tt (k, t) = 0 ,
(10.57)
Rt (k, t) = −(2ik)3 R(k, t) .
(10.58)
10.2 La trasformata spettrale
127
Da queste ultime, possiamo ottenere direttamente le dipendenze temporali
dei coefficienti di trasmissione e di riflessione:
T (k, t) = T (k, 0) = T (k) ,
3
R(k, t) = R(k, 0) e−t(2ik) .
(10.59)
La discussione riguardante lo spettro discreto è simile. Osserviamo innanzitutto che
(n)
φ(n) φt
¡
¢
£
¤2
= c φx(n) + {2 [φnx ]2 − 4p2n + u [φnx ]2 }x ,
(ottenuta dalla (10.19) con k = ipn , e dalla (10.32)) e dalla condizione di
normalizzazione (10.33) abbiamo che c = 0. Allora, l’equazione di evoluzione
(10.19) con ψ = φ(n) e le condizioni asintotiche (10.34) portano alle seguenti
equazioni:
pn (t) = pn (0) = pn ,
ρn t (t) = (2pn )3 ρn (t) ,
(10.60)
(10.61)
che possiamo riscrivere in unica formula (per integrazione):
3
ρn (t) = ρn (0) et(2pn ) .
(10.62)
Possiamo concludere allora che se il profilo iniziale u(x, 0) si evolve in accordo con l’equazionedi KdV (10.16), allora il corrispondente spettro non
cambia (come è evidente dalla (10.60)), ovvero l’operatore di evoluzione
d2
− dx
2 + u(x, t) è isospettrale (cioè i relativi autovalori sono costanti), e la
trasformata spettrale (10.35) della u(x, t) evolve in modo semplice ed esplicito come descritto dalle formule (10.58) e (10.62), dove R(k, 0) e ρn (0)
corrispondono al profilo iniziale u(x, 0).
La proprietà caratterizzante la trasformata spettrale è la capacità di trasformare un sistema dinamico nonlineare e complicato (come può essere la KdV)
in un insieme (infinito) di modi normali accoppiati lineari. La differenza dal
caso lineare sta nel fatto che il principio di sovrapposizione nonlineare non
è completamente esplicito dato che contiene la funzione ausiliaria ψ sullo
spettro e consiste, oltre che ad un integrale relativo alla parte continua dello
spettro (come nel caso lineare di Fourier), di una somma finita sullo spettro
discreto. Quanto detto è chiaramente mostrato dalla (10.51) che riproponiamo includendovi le dipendenze temporali (10.58) e (10.62), ed usando le
128
Il Metodo della Trasformata Spettrale
(10.24) e (10.25):
u(x, t) =
" N
X
d
3
2
ρn (0) e−2pn x+(2pn ) t ψR (x, ipn , t)+
dx
n=1
¸
Z +∞
1
ikx−(2ik)3 t
dk R(k, 0) e
ψR (x, k, t) .
+
π −∞
(10.63)
Una seconda espressione per la u(x, t) del tutto equivalente alla precedente è
u(x, t) =
−4
N
X
3
pn ρn (0) e(2pn ) t ψR2 (x, ipn , t) +
n=1
2i
+
π
Z
+∞
−∞
3
dk k R(k, 0) e−(2ik) t ψR2 (x, k, t) .
(10.64)
Concludiamo con l’osservare che come nell’analisi di Fourier lineare, la ricostruzione di una u(x, t) per t 6= 0 può essere effettuata in modo esplicito in
un numero assai limitato di casi. Tuttavia nell’analisi spettrale nonlineare, la
ricostruzione di u(x, t) per ogni t può essere portata e termine in modo esplicito per un insieme grande ed interessante di trasformate spettrali. Tale classe
è caratterizzata dall’annullamento del coefficiente di riflessione R(k, t) = 0,
e la corrispondente soluzione u(x, t) è detta soluzione multisolitonica. Precisamente, una soluzione ad N solitoni uN (x, t) della KdV corrisponde ad N
autovalori discreti e non ha componente continua:
S[u] = {R(k) = 0, −∞ < k < +∞; pn , ρn , n = 1, 2, . . . , N } .
Tale soluzione dipende dunque da 2N parametri arbitrari positivi (pn e ρn ).
Capitolo 11
Il Metodo di Darboux
11.1
La trasformata di Darboux
Il metodo della trasformata di Darboux, proposto più di cento anni fa dal
matematico francese Gaston Darboux, è stato di recente riscoperto ed applicato per la risoluzione di equazioni di evoluzione nonlineari di notevole
interesse fisico [53].
L’idea di base su cui poggia il metodo della Trasformata di Darboux è
molto semplice.
Si consideri il seguente problema agli autovalori:
y 00 + [λ − u(x)] y = 0
(11.1)
noto nella Meccanica Quantistica come Equazione di Schrödinger unidimensionale.
Sia φ una qualche soluzione, anche banale, del problema (11.1) con autovalore λ = λ1 , e sia σ = φx φ−1 .
Darboux provò [58] che la (11.1) è covariante rispetto alla seguente trasformazione detta Trasformazione di Darboux:
y → yb = yx − σ y
u →u
b = u − 2 σx .
(11.2)
In altre parole yb soddisfa l’equazione di Schroedinger con potenziale u
b.
La trasformazione che la y induce sulla u prende anche il nome di Trasformazione di Backlund.
Cambiando la y secondo la (11.2) possiamo determinare tutte le soluzioni
della nuova equazione di Schroedinger con potenziale u
b.
Nel 1979 Matveev [57] provò che la stessa proprietà di covarianza vale
anche per tutte le equazioni di evoluzione del tipo :
n
X
∂f
∂mf
=
um (x, t) m ,
(11.3)
∂t
∂x
m=0
130
Il Metodo di Darboux
con coefficienti scalari o matriciali.
É cosı̀ possibile costruire infinite soluzioni esplicite di equazioni di evoluzione
nonlineari applicando il metodo della Trasformata di Darboux ad una equazione
iniziale integrabile.
Consideriamo l’ equazione di Zakharov-Shabat generalizzata :
ψx = [ −iκ σ3 + Q ] ψ
con :
µ
σ3 =
1 0
0 −1
¶
µ
,
Q =
(11.4)
0
q (+)
q (−)
0
¶
(11.5)
e κ parametro spettrale complesso.
Notiamo preliminarmente che l’equazione di Schrödinger stazionaria è un
caso particolare della (11.4) con ψ vettore complesso a due componenti, e
¶
µ
0 1
,
Q =
u 0
e che possiamo estendere il metodo della trasformata di Darboux ad equazioni
matriciali N × N :
ψx = [−iκ Σ + Q ] ψ
(11.6)
con σ matrice diagonale e Q matrice antidiagonale. Sia ψ(1) una qualche
soluzione anche banale della (11.4), allora possiamo definire la trasformazione
di Darboux :
ψ(2) = A(x, κ) ψ(1)
(11.7)
che restituisce la soluzione ‘vestita’ ψ(2). Sostituendo nella (11.4) si ottiene
facilmente :
0 = ψx (2)+iκσ3 ψ(2)−Q(2)ψ(2) = [Ax +A(−iκσ3 +Q(1))+(iκσ3 −Q(2))A]ψ(1) .
(11.8)
Dovendo la (11.8) essere valida per ogni soluzione fondamentale ψ(1) :
Ax + iκ[σ3 , A] + A Q(1) − Q(2)A = 0 .
(11.9)
Facciamo ora l’ipotesi che A sia una soluzione polinomiale in κ :
A(x, κ) =
M
X
m=0
Analizziamo i vari ordini.
κM A(m) (x) .
(11.10)
11.1 La trasformata di Darboux
131
ˆ Se M = 0 allora chiaramente A = A(0) da cui
[σ3 , A] = 0 ,
cioè A è diagonale.
Poichè A Q(1) − Q(2)A è antidiagonale, deve essere necessariamente
(0)
Ax = 0, cioè
A(0) = Q0
matrice costante diagonale.
Dalle precedenti risulta indotta su Q una trasformazione di similitudine
detta di Backlund:
Q(2) = Q0 Q(1)Q−1
0 .
ˆ Se M = 1, allora A = A(0) + κ A(1) da cui
[σ3 , A(1) ] = 0
cioè A(1) è diagonale.
All’ordine κ abbiamo definita l’equazione:
(0)
(1)
A(1)
Q(1) − Q(2)A(1) = 0 ,
x + i[σ3 , A ] + A
poichè [σ3 , A(0) ] e A(1) Q(1) − Q(2)A(1) sono antidiagonali, allora :
A(1) = Q1
matrice costante diagonale.
Quindi :
(0)
−1
Q(2) = Q1 Q(1)Q−1
1 + i[σ3 , A ]Q1 .
Poichè ci interessa una trasformazione di Darboux modulo nella precedente
conviene scegliere Q1 = I, da cui :
Q(2) = Q(1) + i[σ3 , A(0) ] ,
(11.11)
(0)
(0)
= 0.
A(0)
x + A Q(1) − Q(2)A
(11.12)
Ipotizziamo ora che A(0) sia funzione di un proiettore P , tale che P 2 = P ,
nella forma :
A(0) = −α + (α − β)P ,
(11.13)
con α e β complessi e diversi fra loro. Sostituendo tale definizione di A(0)
otteniamo :
Q(2) = Q(1) + i(α − β)[σ3 , P ] ,
(11.14)
132
Il Metodo di Darboux
Px = [−iβσ3 + Q(1)]P − P [−iασ3 + Q(1)] + i(β − α)P σ3 P . (11.15)
Sia ora P φ = φ; derivando questa si ottiene :
P [φx − (−iβσ3 + Q(1))φ] = φx − [−iβσ3 + Q(1)]φ .
(11.16)
Se ora ipotizziamo che φ è il sottospazio degli autovettori unidimensionali :
φx − (−iβσ3 + Q(1))φ = µφ ,
il problema è praticamente risolto.
Difatti dal momento che µ è eliminabile con la trasformazione φ → eµφ ,
questo può essere posto a zero ed otteniamo che φ è soluzione (nota) della
equazione di partenza :
φx = (−iβσ3 + Q(1))φ .
Conosciuta φ è immediato determinare il proiettore P e quindi A e Q(2) :
P =
11.2
φ φT
,
φT φ
(11.17)
A = κ − α + (α − β)P ,
(11.18)
Q(2) = Q(1) + i(α − β)[σ3 , P ] .
(11.19)
Alcune equazioni non lineari integrabili
di interesse applicativo: loro Coppia di
Lax e soluzione solitonica
1. Equazione di Korteweg-de Vries (KdV)
ut + uxxx − 6uux = 0 ,
u = u(x, t) ∈ R

 ψxx = [u(x, t) − κ2 ]ψ

(11.20)
2
ψt = −ux (x, t)ψ + [2u(x, t) + 4κ ]ψx
u(x, t) = −
con p e ξ reali ed arbitrari.
2p2
cosh2 [p(x − 4p2 t − ξ)]
11.2 Alcune equazioni non lineari integrabili di interesse
applicativo: loro Coppia di Lax e soluzione solitonica
133
2. Equazione di Schroedinger nonlineare (NLS) (focusing)
iut + uxx + 2|u|2 u = 0 ,

µ
¶
0 −u∗


ψx = [−iκσ3 +
]ψ


u 0

µ



2
2

 ψt = [(2iκ − i|u| )σ3 +
u = u(x, t) ∈ C
0
2κ u∗ + iu∗x
−2κ u + iux
0
¶
]ψ
(11.21)
2
u(x, t) =
2
a exp[i(bx − (b − a )t + θ)]
cosh[a(x − 2bt − ξ)]
con a, b, ξ, θ reali ed arbitrari e σ3 terza matrice di Pauli.
3. Equazione di Schroedinger nonlineare (NLS) (defocusing)
iut + uxx − 2|u|2 u = 0 ,

µ
¶
∗
0
u


]ψ
 ψx = [−iκσ3 +

u 0

µ



2
2

 ψt = [(2iκ + i|u| )σ3 +
u = u(x, t) ∈ C
0
−2κ u∗ − iu∗x
−2κ u + iux
0
¶
]ψ
(11.22)
¾
v
v2
2
2
u(x, t) = [iρ + a tanh[a(x − vt)]] exp −i[(ρ − )x + (3ρ + 2a − ρ v + )t]
2
4
½
con a, ρ, v reali ed arbitrari.
Questo solitone è un kink (grey se ρ 6= 0, dark se ρ = 0).
4. Equazione di Korteweg-de Vries modificata (mKdV)
ut + uxxx + 6u2 ux = 0 ,
u = u(x, t) ∈ R

µ
¶
0
−u


]ψ
 ψx = [−iκσ3 +
u 0



ψt = [(4(iκ)3 + 2iκ u2 )σ3 − 2iκ ux σ1 + i(4(iκ)2 u + uxx + 2u3 )σ2 ]ψ
(11.23)
2p
u(x, t) =
cosh[2p(x − 4p2 t − ξ)]
con p e ξ reali ed arbitrari e σi i-esima matrice di Pauli.
134
Il Metodo di Darboux
5. Equazione di Sine-Gordon (SG) (sul cono-luce)

uxt = sin(u)





u(x, t) = 0 ,
x≈∞





u(x, t) = nπ ,
x ≈ −∞

µ
¶
0
−1

1
 ψx = [−iκσ3 + ux
]ψ

2

1 0





 ψt =
µ
i
4κ
cos(u) sin(u)
sin(u) − cos(u)
u(x, t) = 4η arctan[exp[−2p(x +
(11.24)
(11.25)
¶
]ψ
t
− ξ)]]
4p2
con p > 0 e ξ reale ed arbitrario.
Per η = +1 la soluzione è un kink, per η = −1 è un antikink.
Riportiamo oltre la precedente soluzione solitonica anche la soluzione
‘breather’ per la Sine-Gordon :
a sin[bx − a2 +bbt2 +θ ]
u(x, t) = 4 arctan[
]
t
b cosh[a(x + a2 +b
2 − ξ)
con a e b positivi e ρ e θ reali arbitrari.
6. Equazioni di Maxwell-Block ridotte (RMB)

Et (x, t) = v(x, t)








 vx (x, t) = ω u(x, t) + E(x, t)q(x, t)


qx (x, t) = −E(x, t)v(x, t)







ux (x, t) = −ω v(x, t)
(11.26)
I campi E(x, t), v(x, t) e u(x, t) vanno a zero per |x| → ∞, mentre il
campo q(x, t) = q± = costanti per |x| → ∞. ω è un parametro reale
costante.
Riportiamo di seguito la Coppia di Lax del sistema :

µ
¶
0
−1

1

]ψ
 ψx = [−iκσ3 + 2 E
1 0
(11.27)



ψt = 2i 4κ21−ω2 [2κ(qσ3 + vσ1 ) − ωuσ2 ]ψ
11.2 Alcune equazioni non lineari integrabili di interesse
applicativo: loro Coppia di Lax e soluzione solitonica
135
Le soluzioni del sistema sono della forma :

2a
E(x, t) = cosh[a(x−wt−ξ)]








 v(x, t) = awE(x, t) tanh[a(x − wt − ξ)]



qx (x, t) = q∞ + 12 E 2 (x, t)






u(x, t) = ω wE(x, t)
(11.28)
1
dove abbiamo definito w = −q∞ a2 +ω
2 , con a, ξ e q∞ reali ed arbitrari.
7. Equazioni delle tre onde risonanti (3WRI)
ut + Cux = (Cu∗ ) × u∗
con u = (u1 , u2 , u3 ) vettore a componenti complesse e C = diag[c1 , c2 , c3 ] =
C ∗ matrice costante delle velocità caratteristiche.
La coppia di Lax del sistema è :





b1 0 0
0
u3 −u∗2




u1 ]ψ
ψx = [−iκ  0 b2 0  +  −u∗3 0



∗
 u2 −u1 0
 0 0 b3

0
c3 u3 −c2 u∗2
a1 0 0




0
c1 u1 ]ψ
ψ = [iκ  0 a2 0  −  −c3 u∗3


 t
∗
0 0 a3
c2 u2 −c1 u1
0
(11.29)
con ai e bi per i = 1, 2, 3 costanti reali tali che :
(a1 − a2 )(a1 − a3 )(a2 − a3 ) 6= 0
(b1 − b2 )(b1 − b3 )(b2 − b3 ) 6= 0
Siano poi per n = 1, 2, 3 :

n+1 −an+2

cn = abn+1

−bn+2




un = i(q ∗ − q)(bn+1 − bn+2 )hn+1 h∗n+2
(11.30)





 h(x, t) = v(x,t)
||v(x,t)||

 −iq(b x−a t)
1
1
e
0
0
 (γ1 , γ2 γ3 )T
v(x, t) = 
0
e−iq(b2 x−a2 t)
0
−iq(b3 x−a3 t)
0
0
e
(11.31)
con q e γi parametri complessi arbitrari.
Parte III
SIT & IST
Self-Induced Transparency and
Inverse Scattering Transform
137
Università degli Studi di Roma “La Sapienza”
Facoltà di Scienze Matematiche, Fisiche e Naturali
Dipartimento di Fisica
Laurea Specialistica in Fisica
Corso di Onde Nonlineari e Solitoni
Prof. Antonio Degasperis
SIT & IST
Self-Induced Transparency
&
Inverse Scattering Transform
Dario Dell’Arciprete
30 maggio
Anno Accademico
2006-2007
138
Sommario
Obiettivo di questo lavoro è lo studio del fenomeno della trasparenza autoindotta - noto anche con l’acronimo SIT, dall’inglese Self-Induced Transparency. Qui, poniamo maggiore enfasi sull’aspetto matematico del modello
adottato nella descrizione del fenomeno naturale, ovvero l’Inverse Scattering
Transform - in breve, IST. In particolare,
ˆ nel 1° capitolo, discutiamo brevemente i fenomeni riguardanti la propagazione di impulsi ultracorti nei dielettrici risonanti e la fenomenologia
SIT;
ˆ nel 2° capitolo, deriviamo le equazioni SIT applicando il metodo perturbativo multiscala alle equazioni di Maxwell-Bloch e da queste l’equazione di sine-Gordon;
ˆ nel 3° capitolo, sviluppiamo l’IST per il problema di Zakharov e Shabat,
mostriamo come è possibile ricondursi a questo sistema partendo dalle
SIT ed, infine, ricaviamo la soluzione a singolo solitone.
Capitolo 12
Propagazione di impulsi
ultracorti in mezzi risonanti
In questo capitolo, introduciamo il fenomeno della trasparenza auto-indotta
includendolo tra quelli che riguardano la propagazione di impulsi ultra-corti
in mezzi risonanti assorbenti ed esprimendo alcune condizioni generali di esistenza per tali effetti. Successivamente, riportiamo una descrizione fenomenologica della trasparenza auto-indotta ed accenniamo ad alcune proprietà degli
impulsi.
12.1
Effetti nonlineari coerenti di transiente
L’interazione di un impulso laser molto breve ed intenso - o di un campo
laser rapidamente variabile - con un materiale dielettrico risonante caratterizzato da una definita capacità di assorbimento, permette l’osservazione di
molteplici effetti ottici nonlineari coerenti di transiente.
Tali effetti sono detti di transiente perchè il periodo dell’interazione è
molto piccolo se confrontato coi tempi caratteristici di rilassamento del sistema molecolare. Il termine coerente, d’altra parte, si riferisce al tipo di interazione: il periodo temporale considerato è cosı̀ breve che tutte le molecole
del mezzo sono in grado di reagire in sincrono al campo ottico applicato e gli
effetti di rilassamento legati all’emissione spontanea sono perciò trascurabili.
Tra questi processi, i più noti e studiati sono - [36]:
1. la trasparenza auto-indotta;
2. l’eco fotonico;
3. la nutazione ottica.
140
Propagazione di impulsi ultracorti in mezzi risonanti
L’osservabilità di tali fenomeni richiede che siano soddisfatte specifiche
condizioni sia sull’impulso incidente che sul mezzo assorbente. Tra quelle
generalmente verificate, possiamo ricordare:
ˆ la frequenza dell’impulso di luce deve essere uguale - o comunque vicina (ad esempio, secondo una distribuzione nota) - alla frequenza di
risonanza del mezzo;
ˆ la durata dell’impulso - o della variazione del campo - deve essere più
piccola del tempo di rilassamento del sistema molecolare assorbente;
ˆ il campo ottico deve essere abbastanza intenso.
In questa situazione, la variazione della distribuzione delle popolazioni tra
due stati ottici correlati ed il rilassamento di fase delle popolazioni degli stati
eccitati del mezzo possono essere essenziali per comprendere l’evoluzione del
fenomeno. Ciò che si osserva in generale è che la risposta del mezzo non
dipende solamente dal valore istantaneo della funzione E(t) che descrive il
campo ottico applicato, ma dal valore integrale di questa su di un certo
intervallo temporale.
Lo studio di tali fenomeni consente quindi di approfondire i meccanismi
di interazione coerente nella fase transiente tra il campo ottico impulsivo ed
il mezzo risonante, e di misurare quantità importanti come i parametri di
rilassamento del sistema, gli elementi di matrice corrispondente al momento
di dipolo, etc...
Inoltre, da un punto di vista prettamente sperimentale 1 , tali argomenti di ricerca portano al crescente sviluppo di tecniche particolareggiate, incentrate sulla manipolazione di impulsi ottici, sui metodi di conteggio, di
amplificazione - [39], di trasmissione senza perdite, etc... che trovano immediato campo di applicazione nella costruzione di circuiti logici e, dunque,
nell’optical computing.
In questo lavoro, approfondiremo lo studio del fenomeno della trasparenza auto-indotta servendoci di un opportuno modello matematico. In breve,
questo comportamento dei mezzi risonanti consiste - sotto opportune condizioni, oltre a quelle sopra citate - nel mostrare una completa trasparenza
(trasmittività T = 1) al passaggio di determinati impulsi luce chiamati 2πpulse (impulsi-2π, la cui origine sarà spiegata nel prossimo paragrafo § 12.2),
consentendo cosı̀ una trasmissione senza perdite di forma e di energia del
segnale (da cui il modello a solitoni).
1
L’effetto SIT è stato verificato sperimentalmente nel caso di un campione di rubidio
irradiato da luce impulsiva laser-rubidio - [37] e [38].
12.2 Fenomenologia SIT
12.2
141
Fenomenologia SIT
Vogliamo qui dare una descrizione fenomenologica del SIT per chiarire fisicamente quali sono le fasi di cui si compone il processo durante il quale
l’impulso ultra-corto coerente interagisce col dielettrico assorbente risonante
- [37].
Innanzitutto è bene notare che gli effetti derivanti dall’assorbimento di
radiazione coerente - od incoerente - debole sono sostanzialmente differenti
da quelli che possono essere osservati nell’assorbimento di radiazione molto
intensa.
Nel primo caso, il processo di assorbimento trova una corretta interpretazione utilizzando un approccio dispersivo lineare, in particolar modo se il
livello energetico dello stato fondamentale del mezzo assorbente subisce una
diminuzione minima della popolazione a causa della radiazione incidente. A
poco a poco che l’intensità della radiazione risonante aumenta, il problema
lineare può essere perturbato per tener conto di una debole nonlinearità.
D’altra parte, considerando radiazioni impulsive coerenti di grande intensità, l’ampiezza temporale dell’impulso ha un effetto critico se risulta essere comparabile - o eventualmente più piccola - del tempo di smorzamento del mezzo risonante: la variazione della popolazione degli stati diviene
marcatamente nonlineare e dipendente dal tempo.
Consideriamo per semplicità un sistema a due soli livelli energetici, non
degenere, come modello del mezzo assorbente risonante (per approfondimenti si veda [40]). Poniamo che il mezzo abbia dimensioni molto più grandi
dell’impulso luce, ovvero che la lunghezza d’onda della radiazione sia molto
più piccola delle dimensioni del mezzo e che quest’ultimo non sia contenuto
in alcuna cavità.
Quando un impulso entra ed attraversa il mezzo nella parte iniziale, una
frazione di energia dell’impulso viene assorbita e trattenuta come energia di
eccitazione del sistema a due livelli; dopo poche lunghezze di assorbimento,
l’intensità dell’impulso decresce seguendo la legge di assorbimento di Beer 1 .
Sebbene i dipoli risultino eccitati dopo che l’impulso è passato, essi non
sono in grado di irradiare l’energia di eccitazione acquisita poichè velocemente
si sfasano a causa dello spettro di frequenze verso il quale sono stati eccitati.
Fino al momento in cui è presente un dato gruppo di dipoli eccitati coerentemente dall’impulso, l’assorbimento viene indotto dalla risonanza grazie
La legge empirica di (Lambert-)Beer afferma che T = IIout
= e−kλ l , dove T è la
in
trasmittività, Iin è l’intensità della radiazione incidente, Iout di quella uscente, kλ è il
coefficiente di estinzione ed l è la lunghezza del mezzo attraversato.
1
142
Propagazione di impulsi ultracorti in mezzi risonanti
Eccitato
Assorbimento
Emissione
Fondamentale
Figura 12.1: Schema del processo di assorbimento indotto ed emissione
stimolata.
alla quale un contributo del campo elettrico irradiato dai dipoli contrasta il
campo elettrico dominante.
Comunque, se l’intensità dell’impulso iniziale è sufficiente per eccitare i
dipoli risonanti verso uno stato saturo energeticamente prima che l’impulso stesso svanisca, una certa quantità di energia della radiazione dell’emissione indotta è riacquisita coerentemente dalla parte rimanente dell’impulso.
Ne segue che il campo elettrico generato dalla polarizzazione indotta va a
sommarsi a quello dominante.
Una volta che il processo di emissione si instaura all’ordine più basso,
esso diventa sempre più favorito a mano a mano che l’impulso si propaga nel
mezzo, sino a che non viene raggiunta la condizione di equilibrio: l’energia
dell’emissione indotta, trasferita al fascio di luce durante l’ultima metà dell’impulso, diventa uguale all’energia dell’assorbimento indotto, trasportata
dal fascio di luce durante la prima metà.
Questa è la dinamica della trasparenza auto-indotta. La condizione perchè questa si mantenga si riassume nella proprietà del sistema di far seguire
all’assorbimento coerente indotto dell’energia dell’impulso durante la prima
metà di questo, un’emissione coerente stimolata della stessa quantità di energia lungo la direzione del fascio di luce nella seconda metà dell’impulso. In
figura 12.1, riportiamo lo schema del processo appena descritto.
In questa descrizione, abbiamo assunto molto piccole le attenuazioni causate dagli smorzamenti o dalle perdite per diffusione, ma sostanzialmente gli
effetti di trasparenza risultano pressochè inalterati se l’ampiezza temporale
dell’impulso è piccola rispetto al tempo di smorzamento.
Nel caso di un’onda piana, la stabilità è raggiunta se l’impulso entrante
si evolve secondo una funzione secante iperbolica (come avremo modo di
mostrare analiticamente) nelle variabili temporale e spaziale, e soddisfa ad
una seconda proprietà - da cui deriva il nome, spesso usato in letteratura,
12.2 Fenomenologia SIT
143
Figura 12.2: Evoluzione di impulsi-2π per diverse intensità.
di impulso-2π: se andiamo, infatti, a calcolare l’integrale Rtemporale di tale
∞
impulso, in opportune unità di misura, il risultato è 2π: 2P
E(t) dt = 2π,
} −∞
dove P è l’elemento della matrice di dipolo ed } è la costante di Planck divisa
per 2π (vedi § 13.1). La velocità dell’impulso nel mezzo attenuatore è minore
rispetto a quella della luce non risonante a causa del continuo assorbimento
di energia dal picco iniziale dell’impulso e dell’emissione dell’energia verso la
restante parte.
Facciamo notare infine che il fenomeno della trasparenza non si verifica
solamente nel caso speciale della trasmissione di un singolo impulso: in generale, quando lo smorzamento è piccolo, un singolo impulso di sufficiente
intensità (ovvero, con un’area estesa, corrispondente all’integrale temporale
del campo elettrico associato) può suddividersi in due o più impulsi-2π autopropagantisi, accompagnati eventualmente da radiazione che decade in modo
esponenziale. All’uscita dal mezzo, l’impulso finale può essere caratterizzato da una sovrapposizione di impulsi-2π con varie ampiezze, fasi, tempi di
ritardo e frequenze centrali. Tali comportamenti sono stati osservati negli
esperimenti di Slusher e Gibbs - [39]. In figura 12.2, sono mostrati i risultati
di una serie di osservazioni (grafico a sinistra) e simulazioni (grafico a destra)
in cui l’intensità iniziale dell’impulso (linea tratteggiata) assume diversi valori (la linea continua corrisponde all’impulso finale): per il più basso (a),
si ha il semplice assorbimento dell’impulso; nei casi (b) e (c), si osserva il
formarsi dell’impulso-2π, mentre per intensità ancora più elevate, casi (d) ed
(e), l’impulso iniziale si suddivide in due e tre impulsi-2π, rispettivamente.
Capitolo 13
Derivazione delle equazioni SIT
In questo capitolo, deriviamo le equazioni SIT: partendo dalle equazioni di
Maxwell-Bloch (MB) che esprimono l’interazione tra il campo elettrico incidente ed il dielettrico, sviluppiamo il metodo perturbativo multiscala dal
quale ricaviamo le equazioni SIT - [42]. Successivamente, mostriamo come
l’equazione di sine-Gordon (SG) emerga dalle SIT in assenza di distribuzione
disomogenea delle risonanze.
13.1
Equazioni di Maxwell-Bloch
Come discusso in § 12.2, il SIT è un fenomeno che si verifica quando un materiale dielettrico assorbente è irradiato da un campo elettrico (ad esempio,
un fascio laser) ad una frequenza vicina a quella di risonanza del mezzo.
Al fine di ricavare le equazioni del modello, consideriamo la versione più
semplice di materiale dielettrico che consiste in un sistema quantistico a due
livelli - [40], nel quale si riconoscono, quindi, uno stato fondamentale ed uno
eccitato. Supponiamo che non ci sia alcuna degenerazione dei livelli e che gli
atomi si trovino inizialmente nel loro stato fondamentale, cioè che il mezzo
si comporti da attenuatore 1 .
Il campo elettrico incidente ha una frequenza prossima a quella di risonanza degli atomi ed in tali condizioni riesce ad eccitarli. Il trasferimento
di energia dal campo elettrico al mezzo è di solito irreversibile ed è in grado
di privare l’impulso di tutta la sua energia. Il tasso di energia assorbita da
parte del mezzo è dato dalla legge di Beer (§ 12.2).
Per far sı̀ che il fenomeno si verifichi è necessario che un impulso ultracorto e sufficientemente intenso assuma un particolare profilo temporale in
1
Nel caso opposto, in cui gli atomi si trovano nello stato eccitato, si parla di mezzo
amplificatore. Per il caso degenere, si faccia riferimento a [42].
13.1 Equazioni di Maxwell-Bloch
145
modo tale che il fronte dell’onda possa cedere energia (in modo coerente) al
mezzo, il quale a sua volta la mantiene per un certo intervallo di tempo per
poi restituirla (sempre coerentemente) alla seconda parte dell’impulso.
Per una particolare scelta dell’impulso, accade che il sistema di atomi
si mantiene nel suo stato fondamentale, non si riscontra alcuna perdita di
energia e l’impulso si propaga con una velocità ridotta attraverso il mezzo, il
quale può dirsi a tutti gli effetti trasparente.
Consideriamo, allora, le equazioni di Maxwell. Per un materiale dielettrico ideale queste si riducono a
1
Ett + µ0 Ptt + ∇ × ∇ × E = 0 .
c2
(13.1)
Qui, E è il campo elettrico incidente, P è la polarizzazione totale del materiale, dovuta sia ai dipoli risonanti che a quelli non risonanti; c è la velocità
della luce nel mezzo e µ0 è la permeabilità magnetica del vuoto.
Nella nostra descrizione assumiamo per convenienza che P rappresenti
solo la polarizzazione legata ai dipoli risonanti e a quelli vicini alla risonanza.
Tale interpretazione è valida se poniamo che c coincida con la velocità di fase
della luce nel mezzo quando i dipoli risonanti (o vicini alla risonanza) sono
assenti. Ponendoci, ad esempio, nelle condizioni dell’esperimento di McCall
ed Hahn - [37] e [38], condotto su un campione di rubidio (Rb), la frazione
di ioni risonanti di Cr3+ , presenti nell’Al2 O3 , è molto piccola: in questa
situazione, c è la velocità di fase della luce nell’Al2 O3 e P è la polarizzazione
dovuta ai soli ioni di Cr3+ .
Assumiamo che i dipoli risonanti siano ditribuiti in modo tale da interagire
col campo elettrico incidente, ma senza alcuna interazione mutua dipolodipolo. Sotto queste condizioni, sia p(x, t; ω) la polarizzazione di un singolo
dipolo (di modulo p) nello schema a due livelli con frequenza di transizione
ω e sia ηe(x, t; ω) la differenza tra le densità normalizzate di popolazioni dello
stato eccitato e di quello fondamentale. Vale, dunque, che |e
η | ≤ 1 e che
ηe = −1 se tutti i dipoli con frequenza ω si trovano nello stato fondamentale
(assumiamo inoltre che tale situazione sussista anche per t → −∞).
Da considerazioni legate alla natura quantistica del processo - [41] (in particolare l’appendice A), si può mostrare che p, ηe ed E sono legati attraverso
le seguenti relazioni:
µ
¶
1 2ωP
2
ptt + ω p = −
E ηe ,
(13.2)
3
h
µ ¶
2
ηet =
(13.3)
E · pt ,
hω
146
Derivazione delle equazioni SIT
dove h è la costante di Planck e P è l’elemento della matrice di dipolo
per una data transizione ed è dell’ordine P = O(qr̄) in cui q è la carica
dell’elettrone ed r̄ è il raggio medio dei dipoli. Notiamo che per il nostro
problema (1+1)-dimensionale, il fattore 31 nella (13.2) viene omesso poichè
tiene conto di tutte le possibili orientazioni spaziali permesse per il sistema
a due livelli.
Come già anticipato in § 12.2, i termini di smorzamento e di rilassamento
lento possono essere inclusi nelle (13.2), (13.3) (come mostrano le simulazioni
e le osservazioni effettuate da Slusher e Gibbs - [39]). Pur omettendo tali
effetti nella descrizione del fenomeno, dobbiamo ricordarci però del fatto che
il nostro modello non sarebbe più valido se ciascun dipolo rimanesse eccitato
per un tempo comparabile a quello di rilassamento del sistema molecolare
(ad esempio, nel caso dei vapori di Rb usati nell’esperimento di Slusher e
Gibbs, il tempo più breve è circa 3 × 10−8 sec - [39]).
Abbiamo assunto che vi fossero dipoli esattamente risonanti ed altri vicini
alla risonanza. Per descrivere questa situazione in cui alcuni dipoli non
cadono precisamente sulla frequenza del campo incidente, introduciamo il
modello della distribuzione disomogenea in cui le frequenze di transizione
dei dipoli risonanti non sono identiche, ma distribuite (secondo una funzione
di distribuzione normalizzata, ad esempio una gaussiana od una lorentziana)
attorno alla frequenza centrale di risonanza ω0 . Tale situazione, che viene a
crearsi negli esperimenti, è dovuta allo spostamento delle frequenze per effetto
Doppler (Doppler frequency shift) nel caso dei gas, ed ai campi elettrostatico
all’interno del cristallino e magnetico nel caso dei solidi. Richiediamo dunque
che
|ω − ω0 | ¿ ω0 ,
come condizione di quasi-risonanza. Se vi sono N0 dipoli risonanti (costanti)
per unità di volume, la polarizzazione totale P si può scrivere cosı̀:
Z
+∞
P = N0
p(x, t; ω) g(ω) dω = N0 hpi ,
(13.4)
−∞
dove g(ω) è la densità di probabilità (il termine
R ∞che rappresenta la distribuzione disomogenea) normalizzata all’unità: −∞ g dω = 1. Le parentesi
R∞
acute h. . .i rappresentano l’operazione di integrazione −∞ (. . .) g(ω) dω sullo
spettro disomogeneo di frequenze .
Riassumendo, le (13.1)→(13.4) sono le equazioni di Maxwell-Bloch.
Osserviamo che tali equazioni sono integrabili e dunque godono di proprietà
speciali (§§ 14.1, 14.6).
13.2 Equazioni SIT
13.2
147
Equazioni SIT
Una caratteristica importante del SIT consiste nel fatto che la distribuzione
disomogenea dei dipoli permette di assumere che la polarizzazione totale P
sia debole. In formule, stiamo affermando che, nella (13.1), vale
¯
¯
¯
¯1
¯ Ett ¯ À |µ0 Ptt | ,
¯
¯ c2
cosicchè la parte di backscattering, cioè di ritorno dell’impulso, possa essere
trascurata.
Si mostra - [42], che un’altra appropriata misura di questa distribuzione
di dipoli è
N0 P 2 c 2 µ 0
2
² =
¿ 1,
2hω0
che può essere interpretata come un rapporto di energie. Tale quantità è
importante perchè da questa dipende la validità del metodo perturbativo
multiscala applicato alle equazioni MB dalle quali ricaviamo le equazioni
SIT.
Le equazioni SIT emergono nel limite di campo debole. Richiediamo che
¶
µ
hω0
|E| = O ²
P
e che il campo elettrico assuma la forma di un’onda trasversa di debole intensità alla frequenza ω0 con un inviluppo lentamente variabile propagantesi
lungo la direzione x (approssimazione “svea”, ovvero slowly varying envelope amplitude). Trattiamo il caso di un campo polarizzato linearmente (per
la polarizzazione circolare non si verificano cambiamenti sostanziali - [43]).
Essendo in (1+1)-dimensioni, avremo
o
¤
hω0 n b £
E∼
² j E(χ, τ ) eiθ + E ∗ (χ, τ ) e−iθ + ²2 E1 ,
2P
dove
θ = k0 x − ω0 t , χ = ²k0 x , τ = ²ω0 t .
Le nuove variabili χ e τ rappresentano le variabili lente (o riscalate) spaziale
e temporale, caratteristiche dell’approccio multiscala. Consistentemente con
le equazioni (13.1)→(13.4), assumiamo i seguenti sviluppi:
ω = ω0 (1 + 2²α) ,
ηe ∼ η0 (χ, τ ; α) + ² η1 ,
π
π¤
Pb£
p∼
j p(χ, τ ; α) eiθ−i 2 + p∗ (χ, τ ; α) e−iθ+i 2 + ² Pp1 ,
2
2hω0
P = ²2 2 hpi .
cP
(13.5)
(13.6)
(13.7)
(13.8)
148
Derivazione delle equazioni SIT
dove α è un parametro che in seguito giocherà il ruolo di variabile spettrale
(§ 14.1.2) ed è definito dalla (13.5). Analogamente, dobbiamo assumere degli
sviluppi per gli operatori differenziali:
∂x → ∂x + ² k0 ∂χ + . . .
,
∂t → ∂t + ² ω0 ∂τ + . . . .
Per ottenere le equazioni di nostro interesse, è sufficiente troncare lo sviluppo
al secondo ordine in ².
Dalla (13.1), operando gli sviluppi del caso e per l’ordine O(²), abbiamo
ω2
che k02 = c20 , cioè il numero d’onda della portante è determinato dal mezzo
sul quale va ad incidere, nel caso in cui gli atomi risonanti siano assenti. All’ordine successivo, O(²2 ), a meno dei termini secolari connessi al contributo
E1 , otteniamo che
Eχ + Eτ = hpi .
Applicando tale metodo perturbativo alla (13.2) per O(1), ricaviamo l’equazione dell’oscillatore armonico, mentre per il successivo O(²), deriviamo,
dopo aver rimosso al solito i termini secolari, la seguente uguaglianza
pτ + 2iα p = Eη .
Analogamente per la (13.3), all’ordine O(1), ricaviamo che η è costante
(∂t η0 = 0) e rimuovendo nuovamente i termini secolari, otteniamo, al primo
ordine O(²), l’equazione
1
(Ep∗ + E ∗ p) .
2
Per concludere, scriviamo le tre precedenti equazioni in termini delle coordinate caratteristiche χ = χ, T = τ − χ.
Le equazioni SIT sono dunque
ητ = −
Eχ = hpi ,
(13.9)
pT + 2iα p = Eη ,
(13.10)
1
ηT = − (Ep∗ + E ∗ p) .
(13.11)
2
Osserviamo che tali equazioni godono dell’importante proprietà di essere
integrabili. Le condizioni al contorno ed iniziali appropriate sono:
E → 0 , T → ±∞, ∀χ > 0 ,
p → 0 , η → −1 , T → −∞ ,
ed inoltre E(χ = 0, T ) è noto e decresce rapidamente per T → ±∞ 1 .
1
Come avremo modo di notare nel prossimo capitolo, la scelta delle giuste condizioni
per gli andamenti asintotici delle funzioni è fondamentale per l’applicabilità dell’IST e pei
risultati che ne seguono.
13.2 Equazioni SIT
13.2.1
149
Sharp line limit: l’equazione di sine-Gordon
É utile mostrare come l’equazione SG rappresenti un caso speciale del sistema
costituito dalle equazioni SIT (13.9)→(13.11). Tale equazione si ottiene nel
limite in cui le frequenze dei dipoli vanno a coincidere in un’unica frequenza
di risonanza ω0 . In sostanza, ciò corrisponde ad eliminare la distribuzione
disomogenea:
g(ω) = δ(ω − ω0 ) .
Con questa scelta, le equazioni (13.9)→(13.11) si trasformano in
Eχ = p ,
pT = Eη ,
1
ηT = − (Ep∗ + E ∗ p) .
2
(13.12)
(13.13)
(13.14)
Per la (13.12), basta ricordare il significato delle h. . .i; per la (13.13), riprendiamo la definizione di α, data dallo sviluppo (13.5). Dalle (13.13), (13.14),
ricaviamo il seguente integrale primo:
η 2 + |p|2 = 1 ,
(13.15)
Questa uguaglianza suggerisce la parametrizzazione
η = cos(ϑ) ,
p = eiψ sin(ϑ) ,
ϑ = ϑ(χ, T ) .
Da ciò segue che, se E ha una fase costante inizialmente, allora
ψ = cost. ,
E = eiψ ϑT ,
(13.16)
Infine, dalle (13.12), (13.16), ricaviamo l’equazione di sine-Gordon
cono luce), le proprietà di integrabilità della quale sono note:
1
(sul
ϑχT = sin(ϑ) .
1
Il fatto che l’equazione di sine-Gordon sia risolubile tramite l’IST, ci porta subito a
pensare che anche le equazioni SIT, dalle quali la stessa sine-Gordon è stata ora derivata,
siano risolubili applicando lo stesso metodo con opportune modifiche.
Capitolo 14
Inverse Scattering Transform
In questo capitolo, dopo aver presentato le origini e le idee che sono alla
base dell’IST, discutiamo in dettaglio i problemi di scattering diretto ed
inverso. In seguito, affrontiamo l’evoluzione temporale dei dati di scattering
e la soluzione a singolo solitone rappresentante la propagazione dell’impulso2π. Concludiamo con la soluzione per il sistema di equazioni SIT ed alcune
osservazioni sul metodo risolutivo adottato e sulle equazioni integrabili.
14.1
Introduzione al metodo
Il metodo dell’Inverse Scattering Transform fu sviluppato ed applicato per
la prima volta nella risoluzione dell’equazione di Korteweg-de Vries (KdV)
da Gardner, Greene, Kruskal e Miura. Non era chiaro inizialmente se tale
metodo potesse essere applicato anche ad altre equazioni importanti della
Fisica - [42], [45].
Zakharov e Shabat sciolsero tale dubbio, mostrando che ciò era possibile:
rifacendosi ad un tecnica introdotta da Lax, provarono che l’equazione di
Schrödinger nonlineare (NLS) è legata ad un problema di scattering lineare
ed applicando metodi di scattering diretto ed inverso, riuscirono a risolvere la
NLS, noto il dato iniziale q(x, 0) e supponendo che tale potenziale decadesse
in modo sufficientemente rapido per |x| → ∞.
Questo lavoro è stato fonte di nuove idee per risolvere altre importanti
equazioni: l’equazione di Korteweg-de Vries modificata (mKdV) risolta da
Wadati, l’equazione SG da Ablowitz, Kaup, Newell e Segur.
Tali risultati provano quindi la potenza e la versatilità dell’IST nel risolvere determinati problemi fisici connessi a delle equazioni nonlineari alle
derivate parziali.
14.1 Introduzione al metodo
14.1.1
151
La coppia di Lax
Ripercorriamo ora le idee essenziali che stanno alla base del metodo introdotto da Lax. Consideriamo due operatori L ed M. L è l’operatore del problema
spettrale ed M è l’operatore associato all’equazione d’evoluzione temporale:
Lv = λv,
vt = M v .
(14.1)
(14.2)
Nel caso particolare della KdV, il problema di scattering associato è quello
di Schrödinger:
L v = vxx + u(x, t) v = λ v
,
da cui L ≡ ∂x2 + u(x, t) ,
con ut + u ux + uxxx = 0 (KdV ≡ condizione di compatibilità) .
Derivando la (14.1) rispetto al tempo ed assumendo λt = 0 (isospettralità
dell’operatore L), abbiamo che
Lt v + L vt = λ vt .
Sostituendovi la (14.2), ricaviamo
Lt + [ L, M ] = 0 .
(14.3)
In questa uguaglianza, nota come equazione di Lax, è contenuta un’equazione
di evoluzione nonlineare 1 a patto che L ed M siano scelti correttamente. Se
un’equazione nonlineare alle derivate parziali si presenta come condizione di
compatibilità dei due operatori L ed M, allora la (14.3) è chiamata rappresentazione di Lax dell’equazione d’evoluzione nonlineare alle derivate parziali ed
L ed M formano la coppia di Lax. Data L, Lax ha indicato come costruire
una M associata in modo tale da non rendere triviale la (14.3). Le difficoltà nascono quando, per una data equazione alle derivate parziali, non si
dispone di un metodo per determinare se esiste una rappresentazione di Lax
corrispondente e quindi il modo secondo il quale determinare gli operatori
associati.
Tale elegante metodo presenta, dunque, le seguenti difficoltà: (i) è necessario indovinare un forma appropriata per L e poi trovare M in modo tale
che soddisfino le (14.1), (14.2); (ii) può risultare difficile lavorare con degli
operatori differenziali.
1
Tale equazione di evoluzione nonlineare rappresenta la condizione di compatibilità
della (14.3) e nel caso di Schrödinger coincide con la KdV.
152
14.1.2
Inverse Scattering Transform
Il problema di Zakharov e Shabat
Una procedura alternativa è quella proposta da Ablowitz, Kaup, Newell e
Segur che può essere formulata in maniera molto generale nel seguente modo.
Consideriamo le due equazioni lineari
vx = X v ,
vt = T v ,
(14.4)
(14.5)
dove v è un vettore n-dimensionale ed X e T sono delle matrici n × n. La
condizione di compatibilità per queste due equazioni (vxt = vtx ) porta a
Xt − Tx + [ X, T ] = 0 .
(14.6)
In sostanza, questo risultato è equivalente alla (14.3), ma è più generale
perchè permette di introdurre una dipendenza dagli autovalori del problema
rispetto alla (14.1): nell’operatore X possiamo inserire tale dipendenza (parametrica) dall’autovalore (costante nel tempo: λt = 0). Dato X, si mostra
che vi è una semplice procedura per trovare T in modo tale che la (14.6)
contenga un’equazione di evoluzione nonlineare 1 .
Consideriamo allora il problema di scattering di Zakharov e Shabat che
consiste in un problema agli autovalori 2 × 2 dato da
v1 x = −ik v1 + q v2 ,
v2 x = ik v2 + r v1 ,
(14.7)
(14.8)
insieme alle due seguenti dipendenze lineari dal tempo
v 1 t = A v 1 + B v2 ,
v2 t = C v 1 + D v 2 ,
(14.9)
(14.10)
dove A, B, C e D sono delle funzioni scalari di q(x, t), r(x, t) e k, indipendenti
da v = (v1 , v2 ). Le (14.7), (14.8) e le (14.9), (14.10) corrispondono alle (14.4),
(14.5), ed X e T sono date dal membro di destra delle (14.7), (14.8) e (14.9),
(14.10), rispettivamente:
µ
¶
µ
¶
−ik q
A B
X=
, T=
.
r ik
C D
1
Osserviamo che una soluzione completa dell’equazione nonlineare di evoluzione sull’intervallo infinito può essere trovata quando il problema di scattering completo associato
è tale che il problema di scattering inverso possa essere effettivamente portato a termine.
Infatti, sebbene esistano numerose equazioni nonlineari di evoluzione che soddisfino alla
(14.6), una teoria completa (di scattering diretto ed inverso) per molte di queste equazioni
associate non è stata ancora adeguatamente sviluppata.
14.1 Introduzione al metodo
153
Se comparissero delle derivate rispetto ad x nel membro di destra delle (14.9),
(14.10), queste potrebbero essere assorbite usando le (14.7), (14.8).
Vogliamo mostrare ora come sia possibile derivare dal sistema di Zakharov e Shabat alcune tra le più importanti equazioni integrabili nonlineari
di evoluzione di interesse applicativo. Tali equazioni si presentano come
condizioni di compatibilità del sistema di partenza, nel quale è stata operata un’opportuna scelta dei potenziali e dei coefficienti che emergono dallo
sviluppo polinomiale troncato al grado n-esimo (che specificheremo caso per
caso) delle funzioni scalari A, B, C e D. Osserviamo, prima di sviluppare,
che, ad esempio, per r = −1, le (14.7), (14.8) si riducono al problema di
scattering per l’equazione di Schrödinger:
¡
¢
v2 xx + k 2 + q v2 = 0 , (k 2 ≡ −λ) .
La compatibilità delle (14.7), (14.8) con le (14.9), (14.10) impone che
siano verificate una serie di condizioni su A, B, C e D. Richiedendo allora
che (vi tx ) = (vi xt ) con i = 1, 2 ed assumendo l’isospettralità dell’operatore X
(ovvero kt = 0), troviamo le seguenti equazioni per A, B, C e D:
Ax
Bx + 2ik B
Cx − 2ik C
−Dx
=
=
=
=
qC −rB,
qt − (A − D) q ,
rt + (A − D) r ,
qC −rB.
Senza perdere in generalità, possiamo porre D = −A. Dunque, otteniamo
tre equazioni della forma
Ax = q C − r B ,
Bx + 2ik B = qt − 2A q ,
Cx − 2ik C = rt + 2A r .
(14.11)
(14.12)
(14.13)
A questo punto, formalmente, non rimane che risolvere tale sistema per A, B
e C. Ciò che si trova in generale è che il sistema può essere risolto se un’ulteriore condizione è soddisfatta: questa condizione è proprio l’equazione di
evoluzione. Procediamo, allora, con l’espansione polinomiale dei coefficienti
A, B e C nel parametro libero k (l’autovalore):
A=
n
X
j=0
Aj k j
,
B=
n
X
j=0
Bj k j
,
C=
n
X
Cj k j .
j=0
Sostituiamo questi sviluppi polinomiali ed uguagliamo i coefficienti delle
potenze di k. Da calcoli diretti, per k 3 abbiamo che B2 = C2 = 0 ((14.12),
154
Inverse Scattering Transform
(14.13)). Per k 2 , la (14.11) restituisce A2 = a2 = cost.; la (14.12) dà B1 =
ia2 q; la (14.13), invece, C1 = ia2 r. Per k, la (14.11) porta a A1 = a1 = cost.:
per semplicità, poniamo che a1 = 0 (se mantenessimo a1 6= 0, otterremmo
un’equazione ancor più generale); la (14.12) dà B0 = −a2 qx /2; dalla (14.13),
otteniamo che C0 = a2 rx /2. Infine, per k 0 , la (14.11) dà A0 = a2 qr/2 + a0 ,
e poniamo di nuovo per semplificare, che a0 = cost. = 0; le (14.12), (14.13)
restituiscono, invece,
1
qt = a2 q 2 r − a2 qxx ,
2
1
rt = −a2 qr2 + a2 rxx .
2
(14.14)
(14.15)
Se poniamo r = ±q ∗ , allora le (14.14), (14.15) sono compatibili se a2 = iα,
con α ∈ R . Inoltre, posto α = 2, otteniamo la NLS (focusing e defocusing,
a seconda del segno)1 :
i qt = qxx ± 2 q 2 q ∗ .
D’altra parte, se lo sviluppo è basato sulle potenze inverse di k, è possibile
ricavare la SG: assumendo A = a(x, t)/k, B = b(x, t)/k, C = c(x, t)/k,
otteniamo che ax = i/2 (qr)t , qxt = −4ia q, rxt = −4ia r; con le scelte speciali:
a = i/4 cos(u), b = c = i/4 sin(u), q = −r = −ux /2, ricaviamo la SG sul
cono luce: uxt = sin(u).
Osserviamo che un altro modo di scrivere in forma compatta il sistema
(14.7), (14.8) è il seguente:
vx = [−ikσ3 + Q] v ,
(14.16)
dove si fa uso della matrice di Pauli σ3 e della matrice dei potenziali Q:
µ
σ3 =
1 0
0 −1
¶
µ
,
Q=
0 q
r 0
¶
.
Di seguito, riportiamo alcune equazioni d’evoluzione nonlineari integrabili,
accompagnate dalla loro coppia di Lax e dalla soluzione a singolo solitone.
1
In modo del tutto analogo, è possibile ricavare altre importanti equazioni, come la
KdV o la mKdV - [42].
14.1 Introduzione al metodo
155
Equazione NLS (focusing)
irt + rxx + 2|r|2 r = 0 , r = r(x, t) ∈ C ,
µ
¶
0 −r∗
vx = [−ikσ3 +
]v,
r 0
µ
¶
0
2kr∗ + irx∗
2
2
vt = [(2ik − i|r| )σ3 +
]v,
−2kr + irx
0
2
2
aei[bx−(b −a )t+θ]
,
r(x, t) =
cosh[a(x − 2bt − ξ)]
(14.17)
dove a, b, ξ, θ ∈ R sono parametri arbitrari.
Equazione NLS (defocusing)
irt + rxx − 2|r|2 r = 0 , r = r(x, t) ∈ C ,
¶
µ
0 r∗
]v,
vx = [−ikσ3 +
r 0
µ
¶
0
−2kr∗ − irx∗
2
2
vt = [(2ik + i|r| )σ3 +
]v,
−2kr + irx
0
h
−i
r(x, t) = {iρ + arctan[a(x − vt)]} e
(ρ− v2 )x+
“
”i
2
3ρ2 +2a2 −ρv+ v4 t
,(14.18)
dove a, b, ρ, v ∈ R sono parametri arbitrari 1 .
Equazione SG
rxt = sin(r) ,
µ
¶
rx 0 −1
vx = [−ikσ3 +
]v,
1 0
2
µ
¶
i
cos(r) sin(r)
vt =
v,
sin(r) − cos(r)
4k
·
”¸
“
−2p x+ t 2 −ξ
4p
r(x, t) = 4η arctan e
,
dove r(x, t) → 0 per x → +∞; r(x, t) → nπ per x → −∞;
0; p > 0 e ξ ∈ R, arbitrari 2 .
1
2
(14.19)
R∞
−∞
Questo solitone è un kink; è detto gray se ρ 6= 0, dark altrimenti.
Per η = +1, r è un kink, mentre per η = −1 un anti-kink.
dx sin[r(x, t)] =
156
Inverse Scattering Transform
Equazioni MB (espresse in forma ridotta)
Et = v
,
vx = ωu + Eq , qx = −Ev , ux = −ωv ,
µ
¶
E 0 −1
vx = [−ikσ3 +
]v,
1 0
2
µ
¶
i
1
vt =
[2k(qσ3 + vσ1 ) − ωσ2 ] v ,
2 4k 2 − ω 2
2a
1
E(x, t) =
, w = −q∞ 2
,
cosh[a(x − wt − ξ)]
a − ω2
v(x, t) = awE(x, t) tanh[a(x − wt − ξ)] ,
u(x, t) = ωwE(x, t) ,
dove E, v, u, q sono funzioni di x e t, ed ω = cost. ∈ R ; E, v, u → 0 e q
tende a valori costanti per x → ±; inoltre, q(x, t) = q∞ + 21 wE 2 (x, t) ed a, ξ,
q∞ ∈ R arbitrari; σ1 , σ2 sono le matrici di Pauli.
14.2
Problema Diretto
Vogliamo ora concentrarci sul problema dello scattering diretto che consiste nel trasferire il potenziale q(x, t = 0) nella corrispondente trasformata
S(k, 0).
Cominciamo con l’assumere che i due potenziali q ed r nelle (14.7), (14.8)
decrescano rapidamente per |x| → ∞. Notiamo da subito che tale assunzione
è di fondamentale importanza, dato che una teoria dello scattering con differenti condizioni al contorno (quali sono quelle date per i potenziali) porta
a risultati sostanzialmente differenti.
Definiamo, allora, le autofunzioni φ(x, k), φ̄(x, k), ψ(x, k) e ψ̄(x, k) 3 (vettori a due componenti, e.g. φ(x, k) = (φ1 , φ2 )(x, k)) associate al sistema di
Zakharov e Shabat (14.7), (14.8), fornendo le rispettive condizioni al contorno
- [45]:
µ ¶
µ
¶
1
0
−ikx
φ∼
e
,
φ̄ ∼
eikx , per x → −∞ , (14.20)
0
−1
µ ¶
µ ¶
0
1
ikx
ψ∼
e
,
ψ̄ ∼
e−ikx , per x → +∞ . (14.21)
1
0
Tali soluzioni asintotiche sono definite ad un tempo fissato (ad esempio all’istante t = 0) e tutta la teoria dello scattering di cui discuteremo in questo
3
Per chiarezza, facciamo osservare che φ̄ non è il complesso coniugato di φ; per indicare
il complesso coniugato di φ, useremo φ∗ .
14.2 Problema Diretto
157
paragrafo sarà ad un istante di tempo fissato; in § 14.4, vedremo come ottenere le autofunzioni dipendenti dal tempo che soddisfano alle (14.7)→(14.10).
In questo paragrafo, la variabile tempo t (declassata a parametro) è, dunque,
omessa nella notazione.
In modo del tutto generale, se u(x, k) e v(x, k) (vettori colonna a due
componenti: u(x, k) ≡ (u1 (x, k), u2 (x, k))T , ed analogamente per v) sono
due soluzioni delle (14.7), (14.8), abbiamo che
d
W (u, v) = 0 ,
dx
dove W (u, v) è il wronskiano di u e v definito come
W (u, v) = u1 v2 − u2 v1 .
In base alle condizioni al contorno (14.20), (14.21), desumiamo che W (φ, φ̄) =
W (ψ, ψ̄) = −1 = −W (φ̄, φ) = −W (ψ̄, ψ). Le soluzioni ψ e ψ̄ sono d’altra
parte linearmente indipendenti, perciò possiamo scrivere
φ(x, k) = a(k) ψ̄(x, k) + b(k) ψ(x, k) ,
φ̄(x, k) = −ā(k) ψ(x, k) + b̄(k) ψ̄(x, k) ,
(14.22)
(14.23)
dove abbiamo introdotto le funzioni a(k), b(k), ā(k) e b̄(k). Usando le (14.22),
(14.23) e W (φ, φ̄) = −1, ricaviamo l’uguaglianza
a(k) ā(k) + b(k) b̄(k) = 1 .
(14.24)
Introduciamo per convenienza (comportamento asintotico semplice e proprietà di analiticità notevoli), le funzioni
M(x, k) = φ(x, k) eikx , M̄(x, k) = φ̄(x, k) e−ikx ,
N(x, k) = ψ(x, k) e−ikx , N̄(x, k) = ψ̄(x, k) eikx ,
(14.25)
(14.26)
le quali verificano (consistentemente con le (14.20), (14.21))
µ ¶
µ
¶
1
0
M(x, k) ∼
, M̄(x, k) ∼
, per x → −∞ ,
0
−1
µ ¶
µ ¶
0
1
N(x, k) ∼
, N̄(x, k) ∼
, per x → ∞ .
1
0
Osserviamo che dalle definizioni (14.25), (14.26) e (14.22), (14.23) derivano
le relazioni
M(x, k)
= N̄(x, k) + ρ(k) e2ikx N(x, k) ,
(14.27)
a(k)
M̄(x, k)
= −N(x, k) + ρ̄(k) e−2ikx N̄(x, k) ,
(14.28)
ā(k)
158
Inverse Scattering Transform
dove
ρ(k) =
b(k)
a(k)
,
ρ̄(k) =
b̄(k)
.
ā(k)
1
sono i coefficienti di riflessione e di trasmissione,
Qui, ρ(k) e t(k) = a(k)
rispettivamente.
Facciamo notare che i casi fisici importanti si verificano quando r è proporzionale a q ∗ o a q. Nel caso r = ±q ∗ di maggiore interesse, dalle (14.7),
(14.8), ricaviamo le seguenti relazioni di simmetria


 ∗ 
N2∗
ψ2
 (x, k ∗ ) = N̄ ,
 (x, k ∗ ) ; 
ψ̄(x, k) = 
±ψ1∗
±N1∗
(14.29)




∓φ∗2
∓M2∗
∗
 (x, k ) ; 
 (x, k ∗ ) = M̄ ,
φ̄(x, k) = 
−φ∗1
−M1∗
le quali implicano (ricordando che a = W (φ, ψ)) che
ā(k) = a∗ (k ∗ ) ,
b̄(k) = ∓b∗ (k ∗ ) ,
ρ̄(k) =
b̄(k)
= ∓ρ∗ (k ∗ )
ā(k)
Un risultato analogo si ha per r = ±q (è sufficiente sostituire k ∗ con −k).
In base a queste relazioni di simmetria, è semplice mostrare che i coefficienti di trasmissione e di trasmissione soddisfano l’uguaglianza (si osservi la
14.24)
|ρ(k)|2 + |t(k)|2 = 1 .
Al fine di studiarne le proprietà di analiticità, le funzioni M, M̄, N ed
N̄ possono essere espresse in forma di equazioni integrali. Queste rappresentazioni integrali sono molto convenienti per diverse ragioni: ad esempio,
l’equazione integrale include direttamente le condizioni al contorno, mentre nel caso di un’equazione differenziale tali condizioni sono date separatamente; inoltre, in generale, l’operatore integrale corrispondente è compatto
(contrariamente a quello differenziale) cosicchè il problema può essere risolto
servendosi di metodi iterativi per approssimazioni successive (sfruttando il
teorema delle contrazioni). A riguardo, riesprimiamo le (14.7) e (14.8) nella
forma
(v1 eikx )x = q v2 eikx ,
(v2 e−ikx )x = r v1 e−ikx .
14.2 Problema Diretto
159
Integrando le precedenti e facendo uso delle condizioni al contorno
precedenza, otteniamo le seguenti equazioni integrali:
µ ¶ Z ∞
1
M(x, k) =
+
G+ (x − ξ, k) Q(ξ) M(ξ, k) dξ ,
0
−∞
µ ¶ Z ∞
0
e + (x − ξ, k) Q(ξ) N(ξ, k) dξ ,
N(x, k) =
+
G
1
µ
¶ −∞
Z ∞
0
M̄(x, k) =
+
G− (x − ξ, k) Q(ξ) M̄(ξ, k) dξ ,
−1
−∞
µ ¶ Z ∞
1
e − (x − ξ, k) Q(ξ) N̄(ξ, k) dξ ,
N̄(x, k) =
+
G
0
−∞
in cui
µ
Q(x) =
0 q(x)
r(x) 0
date in
(14.30)
(14.31)
(14.32)
(14.33)
¶
e
µ
G+ (x, k) =
e + (x, k) =
G
G− (x, k) =
e − (x, k) =
G
¶
1
0
θ(x) ,
0 e2ikx
¶
µ −2ikx
e
0
θ(−x) ,
−
0
1
µ −2ikx
¶
e
0
θ(x) ,
0
1
µ
¶
1
0
−
θ(−x) ,
0 e2ikx
dove θ(x) è la funzione di Heaviside (θ(x) = 1 se x > 0, θ(x) = 0 se x < 0) e
e + (G− , G
e − ) rappresentano i nuclei analitici nel semipiano-k superiore
G+ , G
(inferiore). Riconosciamo, dunque, nelle (14.30)→(14.33) quattro equazioni
integrali di Volterra che ammettono soluzione unica per ogni k. Le serie
di Neumann di tali equazioni convergono per Q(x) ∈ L1 (R) nel relativo
semipiano, cioè per una scelta dei potenziali q ed r assolutamente integrabili.
Infatti, si verifica che se
¯¶
µ¯
Z ∞
¯ q(x) ¯
n
¯
¯
(14.34)
|x|
¯ r(x) ¯ dx < ∞ , ∀n .
−∞
allora l’analiticità può essere prolungata all’asse reale k.
Osserviamo infine che in queste condizioni, M ed N sono analitiche nel
semipiano superiore (=(k) = η > 0), ed M̄ ed N̄ lo sono in quello inferiore
160
Inverse Scattering Transform
(η < 0). Inoltre, notiamo sin da subito che queste proprietà portano ad avere
che
a = W (φ, ψ) = φ1 ψ2 − φ2 ψ1
(14.35)
è analitica nel semipiano superiore, mentre
ā = W (φ̄, ψ̄) = φ̄1 ψ̄2 − φ̄2 ψ̄1
(14.36)
lo è in quello inferiore 1 .
Nel caso in cui r e q decrescano più velocemente di qualsiasi esponenziale per |x| → ∞, le funzioni costruite su questi sono analitiche in tutto
il piano complesso-k. Il caso speciale di un supporto compatto semplifica
notevolmente lo studio dell’analiticità delle funzioni, dato che in questo caso le equazioni integrali di Volterra sono definite su un intervallo finito. Si
può mostrare che tali equazioni hanno sempre soluzioni in serie di Neumann
assolutamente convergenti.
Per quanto concerne i coefficienti di scattering a(k), ā(k), b(k) e b̄(k),
possiamo esprimerli in forma di integrali sui potenziali q(x), r(x) e sulle
autofunzioni per meglio caratterizzare le rispettive proprietà di analiticità.
A riguardo, definiamo
∆(x, k) = M(x, k) − a(k) N̄(x, k) .
(14.37)
Sostituiamo le equazioni (14.30)→(14.33) nella (14.37) e, sfruttando la condizione
µ
¶
³
´
1
0
e
G+ − G− (x, k) =
,
0 e2ikx
ricaviamo
Z
∞
e − (x − ξ, k) Q(ξ) ∆(ξ, k) dξ =
G
¶
µ ¶ Z ∞µ
1
0
1
Q(ξ) M(ξ, k) dξ.(14.38)
= [1 − a(k)]
+
0
0 e2ik(x−ξ)
−∞
∆(x, k) −
−∞
D’altra parte, le (14.27), (14.37) producono
∆(x, k) = b(k) e2ikx N(x, k) ,
(14.39)
da cui, sostituendovi l’equazione integrale per N(x, k) ed usando l’uguaglianza
e + (x, k) = G
e − (x, k) ,
e2ikx G
1
Per il calcolo esplicito si veda [42].
14.2 Problema Diretto
161
otteniamo
Z
∞
∆(x, k) −
µ
e − (x − ξ, k) Q(ξ) ∆(ξ, k) dξ = b(k) e
G
2ikx
−∞
0
1
¶
.
(14.40)
Confrontando dunque i membri di destra delle (14.38), (14.40), risulta che
Z ∞
a(k) = 1 +
q(x) M2 (x, k) dx ,
(14.41)
−∞
Z ∞
b(k) = −
e−2ikx r(x) M1 (x, k) dx ,
(14.42)
−∞
in cui M1 (x, k) ed M2 (x, k) sono le componenti di M(x, k). In modo analogo,
si ricavano le equazioni per i coefficienti di scattering ā(k) e b̄(k):
Z ∞
(14.43)
ā(k) = 1 +
r(x) M̄1 (x, k) dx ,
−∞
Z ∞
b̄(k) = −
e2ikx q(x) M̄2 (x, k) dx .
(14.44)
−∞
Ricordiamo che i quattro coefficienti a(k), ā(k), b(k) e b̄(k) possono essere
ricavati usando le relazioni basate sul wronskiano (14.35), (14.36) (e relative
per b(k) e b̄(k)). Come già fatto osservare, dalle (14.41), (14.43), deduciamo
direttamente che a(k) (ā(k)) è analitico nel semipiano-k superiore (inferiore),
dato che M(x, k) (M̄(x, k)) gode di tali proprietà.
Poniamo ora il caso in cui il termine a(k) possieda degli zeri nel semipiano superiore (η > 0) o ā(k) ne abbia in quello inferiore (η < 0). In questa
situazione, il problema di scattering (14.7), (14.8) possiede autovalori discreti
(esistenza di stati legati). Indichiamo con kj , j = 1, 2, . . . , N gli zeri di a(k),
dove N è il numero di stati legati. Allora, abbiamo che per k = kj , φ risulta
essere proporzionale a ψ (ricordiamo che W (φ, ψ) = a), ovvero che φ = Cj ψ.
Analogamente, se abbiamo k = k̄j , con j = 1, 2, . . . , N̄ , allora φ̄ = C̄j ψ̄.
Abbiamo visto che con q ed r decrescenti rapidamente per |x| → ∞, i
coefficienti di scattering a, b, ā e b̄ sono funzioni analitiche in tutto il piano
complesso. Verificata la (14.34), a(k) (ā(k)) è analitica sull’asse reale come
lo è nel semipiano superiore (inferiore). Questo ci assicura che a(k) ha solo
un numero finito di zeri per =(k) ≥ 0 (cioè a(k) è analitica per =(k) ≥ 0 ed
a(k) → 1 per |k| → ∞). Dunque tutti gli zeri di a(k) sono isolati e giacciono
in una regione limitata. Osserviamo che per la scelta r = −q ∗ , si ha
N̄ = N
,
k¯j = kj∗
,
C̄j = ∓Cj∗ .
162
Inverse Scattering Transform
Mettendo a confronto il problema (14.7), (14.8) (che verifica le condizioni
asintotiche (14.20), (14.21)) con quello di Schrödinger, ci accorgiamo di alcune differenze: (i) gli zeri di a(k) (cioè gli autovalori) non sono necessariamente limitati all’asse immaginario; (ii) a(k) può avere zeri multipli; (iii)
a(k) può annullarsi per =(k) = 0.
Abbiamo cosı̀ concluso il problema diretto, abbiamo cioè indivuato tutti
gli elementi necessari a definire S(k, 0) partendo dal potenziale iniziale q(x, 0):
il coefficiente di riflessione ρ(k), gli zeri kj e le costanti Cj di normalizzazione
delle autofunzioni (tutti al tempo iniziale t = 0):
n
o
N
q(x, 0) =⇒ S(k, 0) := ρ(k, 0), {kj , Cj (0)}j=1 .
14.3
Problema Inverso
Vogliamo ora risolvere il problema inverso che consiste nel passaggio dalla
trasformata S(k, t), già evoluta nel tempo, al potenziale q(x, t).Tale problema
può essere risolto seguendo strade diverse.
Il problema di Riemann-Hilbert
Generalemente, lo si può scrivere come un problema di Riemann-Hilbert
(problema RH). Riprendiamo allora le equazioni (14.27), (14.28). Facciamo
notare che, in generale, tutti i problemi di scattering che si incontrano nello
studio di equazioni alle derivate parziali unidimensionali, quali quelle che ora
stiamo trattando, possono essere posti nella forma
(m+ − m− ) (x, k) = V(x, k) m− (x, α(k)) ,
su Σ ,
(14.45)
con
m± → I ,
per |x| → ∞ ,
dove Σ è un opportuno contorno del piano-k complesso, α(k) e V(k) sono
definite su Σ, V (generica componente di V) dipende esplicitamente dai
dati di scattering; m± (x, k) sono funzioni meromorfe di matrici n × n di
k ∈ C \Σ per =(k) ≶ 0, ed m± (x, k) ha un numero finito di poli in punti
specifici k1 , k2 , . . . , kN del piano complesso, coi relativi residui.
Definiamo, allora, le matrici 2 × 2
¶
µ
M(x, k)
, N(x, k) ,
m+ (x, k) =
a(k)
µ
¶
M̄(x, k)
N̄(x, k), −
m− (x, k) =
,
ā(k)
14.3 Problema Inverso
163
cosicchè possiamo scrivere un problema nella forma della (14.45), equivalente
alle (14.27), (14.28), dove


ρ(k) ρ̄(k) ρ(k) e2ikx
.
V(x, k) = 
−2ikx
ρ̄(k) e
0
Dalle equazioni integrali (14.30)→(14.33), ricaviamo le formule asintotiche
per m± (x, k) quando k → ∞:
R∞


q(x)
1
1 + 2ik
q(ξ) r(ξ) dξ
2ik
x
.
m± (x, k) ∼ 
Rx
r(x)
1
− 2ik
1 − 2ik −∞ q(ξ) r(ξ) dξ
Poniamo, inizialmente, che non esistano zeri di a(k) ed ā(k). Consideriamo l’operatore di proiezione P± definito da
Z ∞
f (ζ)
1
dζ .
P± f =
2πi −∞ ζ − (k ± i0)
Con f± analitica nel semipiano superiore/inferiore e tale che f± → 0 per
|k| → ∞ (con =(k) ≶ 0), il risultato dell’applicazione è
P± f± (k) = ± f± (k) ,
P± f∓ (k) = 0
Facciamo agire l’operatore di proiezione P− sulla (14.45), ottenendo
Z ∞
V(x, ζ) m− (x, ζ)
1
m− (x, k) = I +
dζ ,
(14.46)
2πi −∞ ζ − (k − i0)
che rappresenta la soluzione formale del problema.
Se poniamo, ora, che a(k) = 0, allora dobbiamo aggiungere nella (14.46)
i contributi dati dai poli - i quali contengono le soluzioni solitoniche.
Comparando le formule asintotiche per |k| → ∞, ricaviamo
 R∞

q(ξ)r(ξ)dξ
q(x)
x

=
R∞
−r(x)
− x q(ξ)r(ξ)dξ
 R∞
ρ(ζ) e2iζx N1 (x, ζ)dζ
−∞
1
=−  R
∞
π
−∞
ρ(ζ) e
2iζx
N2 (x, ζ)dζ
R∞
ρ̄(ζ) e−2iζx N̄1 (x, ζ)dζ
−∞
R∞
−∞
−2iζx
ρ̄(ζ) e

,
N̄2 (x, ζ)dζ
dal quale possiamo dedurre le espressioni per i potenziali q(x) ed r(x).
164
Inverse Scattering Transform
Le equazioni di Gel’fand-Levitan-Marchenko
Una procedura alternativa consiste nel risolvere il problema inverso attraverso le equazioni integrali di Gel’fand-Levitan-Marchenko. Queste equazioni
possono essere derivate direttamente dal problema RH. In breve, si tratta
di operare una trasformata di Fourier ordinaria della trasformata spettrale.
Assumiamo che
µ ¶ Z ∞
0
N(x, k) =
+
K(x, s) eik(x−s) ds ,
(14.47)
1
x
µ ¶ Z ∞
1
N̄(x, k) =
+
K̄(x, s) e−ik(x−s) ds .
(14.48)
0
x
dove K(x, s)¶ (K̄(x, s)) è un vettore colonna a due componenti: K(x, s) =
µ
K1 (x, s)
. Il termine integrale riguardante K (K̄) rappresenta la difK2 (x, s)
ferenza tra i valori al contorno per x = ∞ e le vere autofunzioni. L’osservazione fondamentale, ora, sta nel notare che i nuclei K e K̄ sono indipendenti
dall’autovalore k. Per provarlo, dobbiamo sostituire le (14.47), (14.48) nel
problema agli autovalori (14.7), (14.8). Ad esempio, esplicitando il conto per
la (14.47), abbiamo
Z ∞
eiks [ (∂x − ∂s ) K1 (x, s) − q(x) K2 (x, s) ] ds +
x
£
¤
− [ q(x) + 2K1 (x, x) ] eikx + lim K1 (x, s) eiks = 0 ,
s→∞
(14.49)
Z
∞
x
eiks [ (∂x + ∂s ) K2 (x, s) − r(x) K1 (x, s) ] ds +
£
¤
− lim K2 (x, s) eiks = 0 .
s→∞
Dobbiamo imporre, allora, che
(∂x − ∂s ) K1 (x, s) − q(x) K2 (x, s) = 0 ,
(∂x + ∂s ) K2 (x, s) − r(x) K1 (x, s) = 0 ,
le quali sono soggette alle seguenti condizioni al contorno che ci forniscono
una semplice espressione per il potenziale q(x).
1
K1 (x, x) = − q(x) ,
2
lim K2 (x, s) = 0 .
s→∞
(14.50)
14.3 Problema Inverso
165
Deriviamo, dunque, le equazioni integrali lineari di Marchenko per il problema inverso. Consideriamo k su un contorno C nel piano complesso che
parte da k = −∞ + i0+ , passante al di sopra di tutti gli zeri di a(k) e che
tende a k = +∞ + i0+ . Assumendo decadimenti rapidi per i potenziali q ed
r, riprendiamo la (14.27). Sostituendovi le (14.47), (14.48), troviamo
µ ¶ Z ∞
M(x, k)
1
=
+
K̄(x, s) e−ik(x−s) ds +
0
a(k)
·µ x ¶
¸
Z ∞
b
0
2ikx
ik(x+s)
+ (k)
e
+
K(x, s) e
ds . (14.51)
1
a
x
R
1
dk eiky per y > x,
Trasformiamo ora tale espressione tramite l’operatore
2π C
R
1
dk eikx , scambiamo gli integrali
usiamo dunque la delta di Dirac δ(x) = 2π
C
ed otteniamo
µ ¶
Z ∞
0
K(x, s) F (s + y) ds ,
F (x + y) +
I = K̄(x, y) +
1
x
dove
Z
Z
b
1
1
ikx
(k) e dk =
ρ(k) eikx dk
F (x) =
2π C a
2π C
Z
1
M(x, k) ik(y−x)
I≡
e
dk .
2π C a(k)
(14.52)
(14.53)
Osserviamo che per φ eikx analitica in tutto il semipiano superiore, y > x, e
tenendo conto del fatto che il contorno passa al di sopra di tutti gli zeri di a,
l’integrale nella (14.53) è nullo. Allora, otteniano l’equazione desiderata:
µ ¶
Z ∞
0
K̄(x, y) +
F (x + y) +
K(x, s) F (s + y) ds = 0 .
(14.54)
1
x
Svolgendo nuovamente gli stessi conti per la (14.23) nel semipiano inferiore,
ricaviamo
µ ¶
Z ∞
1
K̄(x, s) F̄ (s + y) ds = 0 ,
(14.55)
K(x, y) −
F̄ (x + y) −
0
x
con
1
F̄ (x) =
2π
Z
b̄ −ikx
1
e
dk =
2π
C¯ ā
Z
C¯
ρ(k) e−ikx dk
(14.56)
dove C¯ è un contorno simile a C, ma passante al di sotto degli zeri di ā(k).
166
Inverse Scattering Transform
Un caso speciale per queste formule lo si ha quando si assume che a(k)
non si annulli sull’asse reale (k = k e η = 0) e possieda degli zeri semplici
isolati 1 . L’integrazione lungo i contorni C, C¯ delle (14.52), (14.56) restituisce
1
F (x) =
2π
1
F̄ (x) =
2π
Z
∞
ikx
ρ(k) e
dk − i
−∞
Z
∞
N
X
Cj eikj x ,
(14.57)
j=1
ρ̄(k) e−ikx dk + i
−∞
N̄
X
C̄j eik̄j x .
(14.58)
j=1
Le equazioni integrali (14.54), (14.55) possono essere scritte come un’unica equazione integrale matriciale definendo
µ
¶
µ
¶
K̄1 K1
0 −F̄
K = (K̄, K) =
, F=
.
K̄2 K2
F 0
Cosı̀, abbiamo:
Z
∞
K(x, y) + F(x + y) +
K(x, s) F(s + y) ds = 0 .
(14.59)
x
Nel caso speciale e fisicamente importante r = ±q ∗ , emergono numerose
relazioni di simmetria. Dalle (14.29), ricaviamo
F̄ (x) = ∓F ∗ (x) ,
µ
K̄(x, y) =
K2∗ (x, y)
±K1∗ (x, y)
¶
.
In base alle simmetrie ottenute, l’equazione integrale (14.59) si può ridurre a
Z ∞Z ∞
∗
K1 (x, y)±F (x+y)∓
K1 (x, z) F (z +s) F ∗ (s+y) ds dz = 0 . (14.60)
x
x
Risolta l’equazione di Gel’fand-Levitan-Marchenko nell’incognita K1 (x, y) ed
usando la (14.50), otteniamo l’espressione per il potenziale q(x):
q(x) = −2K1 (x, x) .
(14.61)
In base a considerazioni del tutto simili, si ricava che il potenziale r(x)
soddisfa l’uguaglianza
r(x) = −2K̄2 (x, x) ,
(14.62)
1
Osserviamo di nuovo che, diversamente dal problema di scattering legato all’equazione
di Schrödinger, a(k) ed ā(k) possono annularsi sull’asse reale ed avere radici multiple.
14.4 Dipendenza temporale e soluzione a singolo solitone
167
(si ripercorra il calcolo esplicito che porta alla (14.49)).
Abbiamo cosı̀ concluso il problema di scattering inverso, ovvero il passaggio dalla trasformata spettrale per t > 0 al potenziale q(x, t):
n
o
N
S(k, t) := ρ(k, t), {kj , Cj (t)}j=1 =⇒ q(x, t) .
14.4
Dipendenza temporale e soluzione a singolo solitone
L’aver sviluppato le equazioni di scattering inverse connesse al problema
generalizzato di Zakharov e Shabat
n consiste, una volta definiti i dati
o di scatN
b
tering a tempo t > 0: S(k, t) = {kj , Cj (t)}j=1 , a (k, t) ≡ ρ(k, t) , (ovvero
gli autovalori discreti, le costanti di normalizzazione ed il coefficiente di riflessione), nel risolvere - almeno in principio - l’equazione integrale associata.
La soluzione dell’equazione integrale, allora, restituisce il potenziale q(x) (14.61) (r(x) - (14.62)). Tale procedura può essere eseguita per ogni tempo
t che qui gioca il ruolo di un semplice parametro. Dato che siamo interessati
però a risolvere un’equazione di evoluzione del sistema, procediamo come
segue.
Evoluzione dei dati di scattering
Cominciamo col costruire le soluzioni delle (14.7)→(14.10). Dati q, r → 0
per |x| → ∞, otteniamo una larga classe di equazioni con la proprietà che
A → A− (k), D → −A− (k), B, C → 0 per |x| → ∞. Le funzioni dipendenti
dal tempo sono definite come
φ(t) = φ eA− t
φ̄(t) = φ̄ e−A− t
ψ (t) = ψ e−A− t ,
,
,
ψ̄ (t) = ψ̄ eA− t ,
dove φ, φ̄, ψ e ψ̄ soddisfano le (14.7), (14.8) con le condizioni al contorno
(14.20), (14.21). É bene notare che l’equazione di evoluzione
µ ¶ temporale non
1
ammette condizioni al contorno fissate. Dunque, φ ∼
e−ikx e le altre
0
funzioni non possono soddisfare le (14.9), (14.10). Ad esempio, l’evoluzione
temporale di φ(t) ,
µ
¶
∂φ(t)
A B
=
φ(t)
C
D
∂t
168
Inverse Scattering Transform
mostra che φ soddisfa a
∂φ
=
∂t
µ
A − A− (k)
B
C
D − A− (k)
¶
Usando la relazione (14.22)
µ ¶
µ ¶
1
0
−ikx
φ = a ψ̄ + b ψ ∼ a
e
+b
eikx
0
1
φ.
,
(14.63)
per x → ∞ ,
allora, la (14.63) per x → ∞ restituisce
µ
¶ µ
¶
at e−ikx
0
=
.
bt eikx
−2A− (k) b eikx
Quindi per i coefficienti a(k) e b(k), abbiamo le seguenti equazioni di evoluzione
temporale:
a(k, t) = a(k, 0) ,
b(k, t) = b(k, 0) e−2A− (k)t .
(14.64)
Dalla (14.64), deduciamo che gli autovalori kj sono costanti nel tempo.
In modo analogo, siamo in grado di ricavare delle equazioni di evoluzione
per le costanti di normalizzazione Cj (t) (diamo direttamente l’espressione).
L’evoluzione temporale è espressa da
Cj (t) = Cj (0) e−2A− (kj )t ,
j = 1, 2, . . . , N.
(14.65)
Quanto effettuato per le funzioni φ e ψ, va ripetuto, ripercorrendo gli stessi conti, al fine di ricavare i dati di scattering contenuti in S̄(k, t) (sfruttando
la (14.23)). Riportiamo di seguito i risultati:
ā(k, t) = ā(k, 0) ,
b̄(k, t) = b̄(k, 0) e−2A− (k)t ,
C̄j (t) = C̄j (0) e−2A− (k̄j )t ,
j = 1, 2, . . . , N.
Possiamo allora introdurre la dipendenza temporale nelle (14.57), (14.58):
1
F (x, t) =
2π
Z
+∞
−∞
1
F̄ (x, t) =
2π
Z
N
X
b
ikx−2A− (k)t
(k, 0) e
dk − i
Cj (0) eikj x−2A− (kj )t , (14.66)
a
j=1
+∞
−∞
N̄
X
b̄
(k, 0) e−ikx+2A− (k)t dk + i
C̄j (0) e−ik̄j x+2A− (k̄j )t .
ā
j=1
(14.67)
14.4 Dipendenza temporale e soluzione a singolo solitone
169
Abbiamo cosı̀ operato l’evoluzione dei dati di scattering e dunque descritto il problema complessivo di scattering diretto ed inverso. Concludiamo,
riportando lo schema che illustra i tre passi fondamentali.
n
o
P roblema Diretto
q(x, 0)
=⇒
S(k, 0) := ρ(k, 0) ≡ ab (k, 0), {kj , Cj (0)}N
j=1
¿↓?
n ⇓ Evoluzione Temporale
o
q(x, t)
P roblema Inverso
⇐=
S(k, t) := ρ(k, t) ≡ ab (k, t), {kj , Cj (t)}N
j=1
Soluzione speciale a singolo solitone
Avendo ricavato la dipendenza temporale dei dati di scattering (cioè la
trasformata spettrale espressa in funzione del tempo), possiamo dedicarci
a discutere le soluzioni solitoniche speciali.
Consideriamo, allora, il caso r = −q ∗ e la (14.60). Per F (x), scegliamo
b
(t = 0) = 0, poniamo cioè che non esista il contributo connesso allo speta
tro continuo, e sia N = 1: esiste un solo autovalore discreto. Dunque,
(omettendo la dipendenza temporale per semplicità di scrittura)
F (x) = −ic eikx
,
c = C1
,
k = κ + iη
,
η > 0.
(14.68)
Sostituendo la (14.68) nella (14.60), otteniamo
∗
K1 (x, y) = ic∗ e−ik (x+y) +
Z ∞Z ∞
∗
∗
−
K1 (x, z) |c|2 eikz eis(k−k ) e−ik y ds dz . (14.69)
x
x
Definiamo
Z
∞
b 1 (x) =
K
K1 (x, z) eikz dz .
x
R∞
Moltiplichiamo la (14.69) per il fattore eiky e, svolgendo l’integrale x eiky dy,
b 1 (x) (η > 0), la cui soluzione è data da
ricaviamo un’equazione per K
b 1 (x) = −
K
h
(k −
k∗)
c∗ ei(k−2k
1−
∗ )x
|c|2
(k−k∗ )2
e2i(k−k∗ )x
Dalla (14.69), possiamo trovare K1 (x, y):
K1 (x, y) = h
1−
ic∗ e−ik
|c|2
(k−k∗ )2
∗ (x+y)
e2i(k−k∗ )x
i.
i.
170
Inverse Scattering Transform
Dunque, il potenziale q è dato da (si veda (14.50))
q(x) = −2K1 (x, x) = −
Definendo
|c|2
4η
2ic∗ e−2iκx
³ 2´
.
|c|
−2ηx
e2ηx + 4η
e
2
= e4φ , otteniamo
c∗
2η e−2ikx × sech [2 (ηx − φ)] ,
|c|
soluzione a singolo solitone per tutte le equazioni di evoluzione che rispettano r = −q ∗ , soggette alla condizione sui coefficienti A, B, C e D discusse
in precedenza.
Reintroduciamo ora il tempo per avere l’espressione finale del solitone
- l’impulso-2π - in funzione delle coordinate spaziale e temporale. Dalla
(14.65), c = c(t) verifica
c = c0 e−2A− (k)t ,
q(x) = −i
dunque l’espressione del potenziale in cui compare esplicitamente la dipendenza dal tempo è
q(x, t) = 2η e−2iκx e2i=(A− (k))t e−i(ψ0 +π/2) × sech [2ηx + 2<(A− (k))t − x0 ] ,
(14.70)
iψ0
dove c0 ≡ |c0 | e e x0 ≡ ln(|c0 |/2η).
Nel caso della NLS, abbiamo che A− (k) = 2ik 2 e la (14.70) è data da
2 −η 2 )t−i(ψ +π/2)
0
q(x, t) = 2η e−2iκx e4i(κ
× sech [2ηx − 8κηt − x0 ] ,
dove la velocità della soluzione è data da 4κ e l’ampiezza da 2η.
Nel caso della SG, quando esiste un solo autovalore appartenente all’asse
1
immaginario κ = 0, si ha <(A− (k)) = 4η
e =(A− (k)) = 0. Dunque, dalla
(14.70), otteniamo che (posto ψ0 = π/2)
µ
¶
1
ux
q(x, t) = −2η × sech 2ηx + t + x0 = −
2η
2
e la soluzione (a singolo kink) per la SG è data da
³
´
1
2ηx+ 2η
t+x0
u = 4 arctan e
.
Riesprimendo tutto nelle coordinate x = (X+T )/2, t = (X−T )/2, otteniamo
che, per la SG (espressa nel sistema di riferimento del laboratorio)
uT T − uXX + sin(u) = 0 ,
la soluzione assume la forma
´
³
1
1
u(X, T ) = 4 arctan e(η+ 4η )(X−X0 )+(η− 4η )T .
14.5 SIT come sistema di Zakharov e Shabat e soluzione finale171
14.5
SIT come sistema di Zakharov e Shabat
e soluzione finale
Vogliamo ora far osservare come dalle equazioni SIT sia possibile ricondursi al sistema di Zakharov e Shabat (mostrando cosı̀ che le SIT possono essere risolte tramite l’IST). Ricordiamo l’esistenza dell’integrale primo (13.15),
connesso alle (13.10), (13.11). Possiamo fattorizzare tale integrale primo nelle
due seguenti uguaglianze - [44]:
p∗
1+η
v2
=
=
,
1−η
p
v1
µ ¶∗
1+η
v2
p
=
=
,
1−η
p∗
v1
(14.71)
dove abbiamo introdotto le variabili v1 , v2 (le quali compaiono nel sistema
(14.7), (14.8) di Zakharov e Shabat). Riesprimendo le equazioni SIT (13.10),
(13.11) in termini del rapporto vv12 , otteniamo due nuove equazioni. Per la
(13.10), si ricava che
µ ¶2
v2 T
v2
v2 v1 T
v2 1
1
−
= 2iα − E
(14.72)
− E∗ .
v1
v1 v1
v1 2
v1
2
Riconosciamo nella (14.72) la forma dell’equazione di Riccati. Possiamo
allora operare una trasformazione il cui fine è l’eliminazione del termine
quadratico; poniamo che
v1 T
1 v2
=λ+ E ,
v1
2 v1
(14.73)
ove λ è un parametro complesso. Otteniamo dunque le due seguenti equazioni
per v1 e v2 :
1
v1T = λ v1 + E v2 ,
2
1
v2T = λ v2 + 2iα v2 − E ∗ v1 .
2
Possiamo scrivere queste due ultime in forma matriciale:
v = Zv,
con v ≡ (v1 , v2 ) e Z matrice della forma


E
λ
2

Z=
E∗
− 2 λ + 2iα
(14.74)
(14.75)
172
Inverse Scattering Transform
Richiediamo inoltre che Z sia una matrice a traccia nulla (in modo tale
da sfruttare le proprietà derivanti dal teorema del wronskiano - § 14.2, e
ricavare λ = −iα). Osserviamo che allora dalle (13.10), (13.11), siamo passati
al sistema di Zakharov e Shabat. Per completare la trasformazione delle
equazioni SIT, dobbiamo interessarci alla prima di queste, la (13.9). Date
v1 , v2 e la (14.71), possiamo scrivere che
D
v1 E
Eχ = hpi = (1 + η)
.
v2
Inoltre, dalla (13.15) e dalla (14.71), ricaviamo che
¯ ¯2
¯ v2 ¯
¯ ¯2
¯ v1 ¯ − 1
¯ v2 ¯
1
+
η
¯ ¯ =
→
η
=
.
¯ ¯2
¯ v1 ¯
¯ v2 ¯
1−η
¯ v1 ¯ + 1
Infine, otteniamo per la trasformazione di (13.9), la seguente equazione
D 2v v ∗ E
1 2
Eχ =
.
|v1 |2 + |v2 |2
Come già mostrato in § 14.1.2, assumendo le seguenti equazioni differenziali per v1 e v2 :
v 1 χ = A v 1 + B v2 ,
v2 χ = C v 1 − A v 2 ,
la compatibilità tra queste ultime e le (14.74), (14.75), impone che i coefficienti A, B e C verifichino
1
(EC + E ∗ B)
2
1
BT + 2ik B =
Eχ − AE
2
1
CT − 2ik C = − Eχ∗ − AE ∗
2
AT =
(14.76)
(14.77)
(14.78)
corrispondenti alle (14.11)→(14.13) per q = 21 E = −r∗ . Comparando tali
equazioni alle SIT (13.9)→(13.11) - [42], una soluzione delle (14.76)→(14.78)
è
Z
i D η E i ∞ η(χ, T ; α)
=
g(ω) dω ,
A(χ, T ; k) =
4 k−α
4 −∞ k − α
iD p E
B=−
,
4 k−α
C = B∗ .
(14.79)
14.6 Osservazioni finali
14.6
173
Osservazioni finali
Abbiamo visto, dunque, che gli ingredienti base del metodo IST sono rappresentati da un’equazione differenziale lineare contenente un parametro spettrale complesso ed un problema RH anch’esso lineare; inoltre, una delle peculiarità di tale metodo è l’esistenza di uno spettro discreto (in aggiunta a
quello continuo associato al pacchetto d’onda), nel quale è contenuta, come
caso speciale la soluzione ad onda solitaria.
Osserviamo, infine, che, in un ambito del tutto generale, se un’equazione
di evoluzione nonlineare (ad esempio una PDE, un’ODE, un’equazione integro-differenziale per una funzione scalare, matriciale od una funzione ad n
dimensioni spaziali ed una temporale (n+1)-dimensionale) può essere mappata in un’equazione d’evoluzione lineare attraverso il metodo dell’IST, allora,
questa possibilità implica che tale equazione possegga molte importanti proprietà: ad esempio, il sistema ha infinite leggi di conservazione, può essere
scritto usando una struttura hamiltoniana, . . . ed è dunque detto integrabile.
Notiamo anche, però, che le equazioni d’evoluzione integrabili sono dei
casi davvero speciali, e che una qualsiasi equazione d’evoluzione nonlineare
non può essere analizzata attraverso questo metodo.
Inoltre, un metodo generale per determinare se una data equazione d’evoluzione nonlineare è integrabile non è ancora noto. Ciò che conosciamo bene
è una tecnica di generazione di classi d’equazioni d’evoluzione nonlineari
integrabili per mezzo dell’IST.
Ciò che sorprende (con nostra grande felicità) è che comunque un numero elevato d’equazioni integrabili (e, a seconda dei casi, le relative forme
approssimate) costituisce un insieme di buoni modelli naturali.
Parte IV
Sull’Equazione di Sine-Gordon
Giunzione Josephson e
soluzione ad un solitone
175
Università degli Studi di Roma
‘La Sapienza’
Facoltà di Scienze Matematiche Fisiche e Naturali
Corso di Onde nonlineari e Solitoni
Anno Accademico 2006-2007
Sull’ Equazione di Sine-Gordon :
Giunzione Josephson e soluzione ad un solitone
Giorgio Ferrari
176
In questo lavoro vogliamo studiare il significato fisico e le proprietà d’
integrabilità dell’ equazione di Sine-Gordon (SG).
Dopo una breve introduzione sullo stato superconduttivo della materia, ricaveremo l’ equazione di Sine-Gordon come equazione di evoluzione della
differenza di fase nelle funzioni d’onda dei due stati superconduttivi in una
Giunzione Josephson.
Ci soffermeremo poi sulle proprietà d’ integrabilità dell’ equazione di SineGordon, ricavandone la soluzione ad un solitone col metodo della Trasformata
di Darboux.
Capitolo 15
Lo stato superconduttivo
In questo primo capitolo vogliamo descrivere brevemente le proprietà dello
stato superconduttivo della materia.[47]
Ci soffermeremo sulle caratteristiche di un superconduttore di conducibilità
elettrica infinita e di diamagnetismo perfetto ed analizzeremo i punti cardine
delle teorie BCS e di Landau-Ginzburg.
15.1
Proprietà dei superconduttori
In molti materiali a temperature prossime allo zero assoluto viene a stabilirsi uno stato elettronicamente ordinato, noto come stato superconduttivo
della materia.
Circa 20 elementi della tavola periodica possono comportarsi come superconduttori e tra questi ricordiamo l’ Alluminio, il Piombo, il Niobio, il Titanio,
il Cadmio ed il Mercurio.
Le caratteristiche principali dei superconduttori sono :
1. un superconduttore si comporta come se avesse resistività elettrica nulla. La corrente stabilitasi in un superconduttore può, in assenza di un
campo esterno, mantenersi anche per due anni e mezzo;
178
Lo stato superconduttivo
2. un superconduttore può comportarsi come un perfetto diamagnete.[48]1
Un campione in equilibrio termico sotto l’ azione di un campo magnetico esterno non troppo intenso, definisce correnti superficiali che generano a loro volta un campo magnetico interno che cancella il campo
applicato;
3. usualmente un superconduttore ha gap energetiche di ampiezza 2 ∆
centrate attorno ad ²F .
Cosı̀ un elettrone di energia ² puo’ occupare ( o essere estratto da) un
livello energetico solo se ² − ²F (o ²F − ²) è superiore a ∆.
Lo spessore della gap è una funzione crescente in 1/T : raggiunge il suo
massimo ∆(0) a temperature molto basse.
15.2
Proprietà elettriche : Temperatura critica e conducibilità infinita
La transizione dall’ usuale stato metallico a quello superconduttivo è alquanto
brusca : a temperature superiori ad una Temperatura critica Tc , che varia
da materiale a materiale in un range che va dai 10−3 K ai 20 K, il campione
si comporta come un comune metallo, mentre al di sotto di Tc iniziano a
manifestarsi le proprietà superconduttive.
La resistività elettrica passa dall’ avere un andamento proprio dei metalli
del tipo ρ (T ) = ρ0 + B T 5 , all’ essere zero : la corrente puo’ fluire in un
superconduttore senza alcuna apprezzabile dissipazione d’ energia.
Esistono però alcune limitazioni :
ˆ le proprietà superconduttive possono cessare sotto l’ azione di un campo
magnetico abbastanza intenso da superare un campo critico Hc , che a
T = 0 vive, a seconda del materiale, tra i 10 e i 1000 Gauss;
ˆ se la corrente indotta dal campo esterno supera una corrente critica Ic
propria del sistema (Effetto Silsbee), quest’ ultimo transisce dallo stato
superconduttivo all’ usuale stato metallico;
1
Ricordiamo che un materiale diamagnetico è un materiale in cui la suscettività magnetica χm è negativa : ciò significa che il momento magnetico indotto nel materiale è
diretto in verso opposto rispetto al campo inducente essendo
M = χm H
.
15.3 Proprietà magnetiche : Effetto Meissner e Campo critico 179
ˆ il comportamento superconduttivo a resistività nulla cessa quando la
frequenza ωext di una corrente alternata applicata supera il valore ωc =
∆/~ con ∆ = ²gap .
15.3
Proprietà magnetiche : Effetto Meissner
e Campo critico
Se tuttavia il campo magnetico applicato dall’ esterno non supera un valore
critico Hc il materiale superconduttivo si comporta come un diamagnete
perfetto : Effetto Meissner-Ochsenfeld.
Se un metallo normale è portato fino a temperature inferiori alla propria
temperatura di transizione superconduttiva Tc , le linee di flusso del campo
applicato vengono bruscamente espulse dall’ interno del campione.
Ciò è dovuto alla presenza di correnti superficiali che generano un campo
quasi del tutto opposto a quello esterno. Il campo esterno non è difatti
completamente espulso ma penetra all’ interno della superficie del materiale
fino a distanze finite λ dette lunghezze di penetrazione tipicamente dell’
ordine dei 10−5 cm.
A secoda di quale sia il comportamento del campione sotto l’ azione di
campi magnetici superiori per intensità ad Hc possiamo distinguere due differenti tipi di superconduttori.
Appartengono al primo tipo superconduttivo tutti quei materiali che per
H > Hc permettono alle linee di flusso del campo esterno di penetrare
completamente.
Del secondo tipo superconduttivo fanno parte invece quei materiali per i quali
al di sotto di un certo campo critico Hc1 (T ) non v’è penetrazione di flusso;
quando il campo applicato supera un secondo campo critico Hc2 (T ) > Hc1 (T )
il sistema transisce dallo stato superconduttivo a quello metallico.
Per Hc1 < Hext < Hc2 si osserva una parziale penetrazione di flusso e nel
campione sussiste uno stato microscopico piuttosto complicato detto stato
misto di coesistenza tra lo stato metallico e quello superconduttivo.
15.4
Teoria BCS
La prima teoria microscopica della superconduttività fu elaborata da Bardeen,
Cooper e Schrieffer (BCS) nel 1957.[51]
La teoria della superconduttività si basa sull’ assunzione che gli elettroni con
energie prossime a quella di Fermi si attraggano l’ un l’ altro.
Sebbene l’ interazione tra due elettroni sia di tipo coulombiano repulsivo,
180
Lo stato superconduttivo
è possibile che, a causa della presenza degli ioni del reticolo, questa venga
schermata lasciando il posto ad un potenziale efficace attrattivo tra due elettroni che differiscono in energia per non piu’ di ~ ωD .
Si vengono a formare cosı̀ coppie di fermioni con spin 0 o 1, a seconda dell’ orientazione relativa degli spin delle due particelle, chiamate Coppie di
Cooper o elettroni superconduttivi. Avendo spin intero tali coppie sono
quasiparticelle che obbediscono alla statistica di Bose-Einstein.
Sappiamo tutttavia dallo studio delle interazioni in tre dimensioni che
possono formarsi stati legati solo se il potenziale è abbastanza intenso da
permetterlo e la sola semplice interazione attrattiva non sarebbe in grado di
generare stati legati quali le coppie di Cooper.
L’ idea di Cooper [52] fu quindi quella di pensare che al processo partecipassero anche tutti gli altri N − 2 elettroni, in maniera tale da permettere al
potenziale attrattivo di avere un minimo.
A partire cosı̀ dalle ipotesi della teoria BCS simo in grado di costruire lo
stato fondamentale per un sistema superconduttivo : si raggruppano gli N
elettroni in N/2 coppie di cui ogni coppia è descritta da una funzione d’ onda
φ(x1 , s1 , x2 , s2 ) dove x è la posizione elettronica ed s il numero quantico di
spin.
La funzione d’ onda dello stato ad N elettroni sarà cosı̀ il prodotto di N/2
identiche funzioni d’ onda di coppia :
Ψ(x1 , s1 , ..., xN , sN ) = φ(x1 , s1 , x2 , s2 )...φ(xN −1 , sN −1 , xN , sN )
(15.1)
Perchè abbia la giusta simmetria prescritta dal Principio di Pauli, occorre la
(15.1) sia antisimmetrizzata di modo che cambi segno sotto l’ operazione di
scambio di due elettroni in una coppia.
Sia A l’ operatore di antisimmetrizzazione. La funzione d’ onda dello stato
fondamentale prescritta dalla teoria BCS sarà cosı̀ :
ΨBCS = A Ψ
(15.2)
Nella teoria BCS le funzioni d’ onda φ di coppia sono prese come stati
di singoletto2 : i due elettroni hanno proiezione dello spin opposta e la parte
radiale della funzione d’ onda φ(x1 , x2 ) è simmetrica. Se inoltre assumiamo
che la parte radiale di φ sia anche invariante per traslazioni possiamo scrivere :
φ(x1 , x2 ) = χ(x1 − x2 ) =
2
1 X
χk ei k (x1 −x2 )
V k
(15.3)
Gli stati di tripletto presentano proprietà magnetiche non osservate nello stato
fondamentale di un superconduttore.
15.5 La teoria di Landau-Ginzburg
181
E’ possibile calcolare ΨBCS tramite un procedimento variazionale : quanto
si osserva è che l’ estensione spaziale ξ0 delle funzioni d’ onda di coppia φ è
molto piu’ grande della separazione media tra gli elettroni rs . Tipicamente
ξ0 è dell’ ordine dei 10−5 cm.
Questo significa che nella regione di spazio occupata da una coppia si possono trovare molte altre coppie : le coppie di Cooper non sono cosı̀ delle particelle indipendenti ma sono spazialmente sovrapposte in una maniera molto
complicata, indispensabile per la stabilità dello stato.
15.5
La teoria di Landau-Ginzburg
Ginzburg e Landau [50] asserirono che lo stato superconduttivo poteva essere
caratterizzato da un ‘parametro d’ ordine’ complesso ψ(x), che va a zero per
temperarture superiori a Tc ed il cui modulo misura il grado di ordinamento
superconduttivo nella posizione x per T ≤ Tc .
Dalla teoria BCS il parametro d’ ordine ψ(x) può essere visto come la funzione d’ onda di una particella associata al centro di massa della Coppia di
Cooper.3
Nello stato fondamentale di un superconduttore ogni coppia è invariante per traslazioni e non dipende dalle coordinate del centro di massa :
il parametro d’ ordine è cosı̀ una costante.
Il comportamento della ψ diventa quindi interessante quando inizia a fluire
corrente nel superconduttore, cioè quando viene applicato un campo esterno.
Un’ assunzione fondamentale della teoria di Ginzburg e Landau è che la
corrente che passa in un superconduttore con parametro d’ ordine ψ(x) in
presenza di un campo magnetico esterno di potenziale vettore A(x) è data
dall’ usuale formula quantistica per la corrente di una particella di massa
2m = m∗ e carica −2e = e∗ descritta dalla funzione d’ onda ψ(x) :
j = −
i~e∗ ∗
(e∗ )2 2
∗
(ψ
∇ψ
−
ψ∇ψ
)
−
|ψ| A
2m∗
m∗
(15.4)
Per una funzione ψ normalizzata, la |ψ|2 può essere ben interpretata come la
distribuzione, dipendente dal tempo, delle Coppie di Cooper all’ interno del
materiale superconduttivo.
La quantità vettoriale j è, invece, come già accennato, la corrente elettrica
sorgente del campo magnetico H :
∇×H = j
3
(15.5)
Poichè tutte le coppie di Cooper sono nello stesso stato a due elettroni, una sola
funzione d’ onda è sufficiente per descriverte il fenomeno.
182
15.6
Lo stato superconduttivo
Supercorrente di tunneling :
Gli Effetti Josephson
Se costruiamo una giunzione costituita da due metalli separati tra di loro solo
da un sottile strato isolante, quanto si osserva, in seguito all’ applicazione
di una differenza di potenziale, è una corrente di elettroni che traversano la
barriera isolante e che si portano da una parte all’ altra della giunzione.
E’ stato inoltre verificato che tale corrente obbedisce alla legge di Ohm.
Se al posto di due semplici metalli poniamo due materiali che presentano,
nelle oportune condizioni di pressione e temperatura, proprietà superconduttive, si osserva che v’è un flusso di elettroni attraverso la giunzione solo se il
∆ V applicato è pari all’ energia di gap ∆.
Nel 1962 B.D. Josephson [49] pensò che in una giunzione superconduttiva
oltre al normale effetto di tunneling di elettroni si potesse osservare una
corrente di tunneling di coppie di Cooper : a patto che lo strato isolante non
sia troppo spesso, le coppie di elettroni possono traversare la giunzione da
un superconduttore ad un altro senza dissociarsi.
Una conseguenza immediata della previsione di Josephson è quello che
prende il nome di Effetto Josephson DC : in assenza di qualsiasi campo
elettrico applicato, si osserva una supercorrente continua di coppie di Cooper
che attraversano la giunzione.
Tale corrente continua è tipicamente di gran lunga inferiore rispetto alla
corrente critica associata al campione.
Josephson predisse una grande varietà di ulteriori effetti assumendo che
lo stato superconduttivo potesse essere descritto, da una parte e dall’ altra
della giunzione, da un parametro d’ ordine complesso ψ(x).
Egli mostrò che la supercorrente di tunneling poteva essere determinata studiando il cambio della fase del parametro d’ ordine nell’ attraversamento
della barriera isolante.
Tra gli effetti predetti dal fisico inglese, poi osservato sperimentalmente,
v’ è il cosiddetto Effetto Josephson AC : se un potenziale costante viene
applicato ai capi della giunzione, la supercorrente di coppie di Cooper che si
osserva è alternata.
Capitolo 16
Sine-Gordon e Giunzione
Josephson
In questo capitolo ricaviamo l’ equazione di Sine-Gordon come equazione di
evoluzione della differenza di fase nelle funzioni d’ onda di due stati superconduttivi in una Giunzione Josephson.
Consideriamo la situazione sperimentale in cui due superconduttori sono separati l’ uno dall’ altro da una barriera di materiale isolante : una Giunzione
Josephson.
Una tipica configurazione è quella in cui uno strato di Piombo ed uno
strato di Niobio sono separati da uno di Ossido di Niobio.
Sappiamo dalla Meccanica Quantistica che una particella ha una probabilità
non nulla di penetrare dall’ altro lato di una barriera di potenziale che sarebbe
impenetrabile per la corrispondente particella classica.
Tale fenomeno di penetrazione della barriera è chiamato Effetto Tunnell.
In modo del tutto analogo è possibile per una Coppia di Cooper di passare attraverso uno strato di materiale isolante frapposto tra due materiali
supeconduttivi.
Tale fenomeno di tunnelling superconduttivo fu considerato per la prima volta nel 1962 da Josephson per la sua tesi di dottorato a Cambridge.
Considereremo ora il fenomeno nell’ ambito della teoria di Landau-Ginzburg.
184
Sine-Gordon e Giunzione Josephson
Figura 16.1: Una giunzione Josephson.
16.1
Derivazione fisica della Sine-Gordon [46]
Dal momento che il parametro d’ ordine ψ(x) è una quantità complessa,
possiamo sempre scriverlo nella sua forma polare:
1
ψ = ρ 2 eiφ
(16.1)
Assumiamo che la variazione spaziale significativa nella ψ sia attraverso la
1
fase φ e non tramite il suo modulo ρ 2 .
Dal momento che il modulo del parametro d’ ordine misura il grado di ordinamento superconduttivo, tale richiesta equivale a considerare perturbazioni
in cui la densità di Coppie di Cooper non è apprezzabilmente alterata dal
suo valore uniforme di equilibrio termico.
E’ questo ad esempio il caso in cui le coppie di Cooper possono fluire ma non
accumularsi o essere distrutte.
Sfruttando la (16.1) riscriviamo la (15.4):
j = −
(e∗ )2 ρ
~
(A − ∗ ∇φ)
∗
m
e
(16.2)
m∗
e∗
(A + ∗ 2 j)
~
(e ) ρ
(16.3)
che possiamo porre nella forma:
∇φ =
espressione valida solo all’ interno dei superconduttori. Se definiamo ϕ come
il cambiamento di fase della funzione d’ onda attraverso la barriera:
ϕ(x, y, t) = φ(x, y, 0+, t) − φ(x, y, 0−, t)
(16.4)
16.1 Derivazione fisica della Sine-Gordon [46]
185
il seguente semplice argomento mostra che ϕ è non nulla.
Siano P e Q due punti arbitrari nella barriera e sia l’ interfaccia barrierasuperconduttore presa come il piano x − y.
Figura 16.2: La curva chiusa d’ integrazione C.
Integrando sulla curva C otteniamo :
I
e∗
m∗
ϕ(Q) − ϕ(P ) =
[A + ∗ 2 j]dx
~ C
(e ) ρ
(16.5)
con P e Q di coordinate rispettivamente (x, y, 0) e (x + ∆x, y + ∆y, 0).
Vale anche :
∂ϕ
∂ϕ
ϕ(Q) − ϕ(P ) =
∆x +
∆y
(16.6)
∂x
∂y
Per il Teorema di Stokes:
I
Z
A · dx =
C
B · dS
(16.7)
S
dove S è una qualsiasi superficie orientata che ha per frontiera C.
Prendiamo allora S come il piano rettangolare in figura:
S = 2l( biy ∆x − bix ∆y)
(16.8)
186
Sine-Gordon e Giunzione Josephson
Assumendo che B sia costante sul piano, abbiamo:
Z
B · dS = S · B = 2l(By ∆x − Bx ∆y)
(16.9)
S
L’ integrale sulla curva C della corrente j è nullo dal momento che, in un
materiale superconduttore, le correnti possono fluire solo vicino alla superficie
esterna.
Cosı̀ uguagliando la (16.9) alla (16.6) otteniamo:
2l
e∗
∂ϕ
∂ϕ
(By ∆x − Bx ∆y) =
∆x +
∆y
~
∂x
∂y
da cui le due equazioni :











(16.10)
∗
∂ϕ
∂x
= 2l e~ By = α By
∂ϕ
∂y
= −2l e~ Bx = −α Bx
∗
(16.11)
∗
α = 2l e~
Tali equazioni ci danno informazioni sulla variazione spaziale di ϕ ma ciò
che ora vogliamo conoscere è come ϕ varia nel tempo e, soprattutto, come
questa sia legata alla corrente superconduttiva che attraversa la barriera.
Per ottenere le informazioni cui siamo interessati possiamo pensare di schematizzare la Giunzione Josephson come un sistema quantistico a due stati.
Figura 16.3: Giunzione Josephson come sistema quantistico a due stati.
16.1 Derivazione fisica della Sine-Gordon [46]
187
In ogni regione superconduttiva il sistema è descritto da una pseudo funzione d’ onda. Nella regione 1 sia ϕ(1) e nella regione 2 sia ϕ(2).
Se sapessimo qualcosa a riguardo della barriera di potenziale corrispondente
allo strato isolante, potremmo cercare di risolvere il problema di scattering
per l’ equazione di Schroedinger fenomenologica che regola il comportamento
del parametro d’ ordine :
i~
∂ψ
1
=
(−i~∇ − e∗ A)2 ψ + V (x)ψ + λψ|ψ|2
∂t
2m∗
(16.12)
con V (x) potenziale scalare associato alla barriera isolante.
Un modo molto semplice dovuto a Jacobson [54] è considerare un processo
statico in cui la funzione d’ onda obbedisce in ogni regione superconduttiva
ad un’ equazione di Schroedinger nonlineare del tipo (16.12) indipendente
dal tempo con potenziale V (x).
Nella regione isolante invece la funzione risponde ad una normale equazione
di Schroedinger con potenziale repulsivo.
Le equazioni vengono risolte in ogni regione e le soluzioni sono accordate
sulle interfacce.
Tuttavia risultati simili possono essere ottenuti in modo più semplice
studiando l’analogia fra la situazione descritta dalla Giunzione Josephson ed
un sistema quantistico a due stati1 .
Supponiamo per semplicità che i due materiali superconduttivi siano dello
stesso tipo.
Se le due regioni non sono connesse, la funzione d’onda soddisferà in ogni
regione ad un’ equazione di Schroedinger time-dependent della forma:
i ~ ϕ(i)t = H0 ϕ(i)
(16.13)
per i = 1, 2.
Supponiamo inoltre che in ogni regione il sistema si trovi in un autostato di
energia U1 e U2 rispettivamente .
H0 ϕ(i) = Ui ϕ(i)
(16.14)
Ogni coppia di Cooper è confinata nella sua particolare regione e cosı̀ la
funzione d’ onda ϕ(1) è nulla nella regione 2 e viceversa.
Le Ui sono le self-energies delle coppie di Cooper nei due separati dominii e
non sono tra loro connesse.
Consideriamo ora la situazione della Giunzione Josephson in cui lo strato
isolante è poco spesso ed in cui v’ è la possibilità di tunneling quantistico.
1
L’idea di guardare la Giunzione Josephson come un sistema quantistico a due stati la
si deve a R. Feynman (1969)
188
Sine-Gordon e Giunzione Josephson
Le funzioni d’ onda dei sistemi interagenti sono ora non zero in entrambe le
regioni e le energie Ui non sono piu’ indipendenti.
Se tra un capo ed un altro della giunzione c’ è una differenza di potenziale
V , allora :
U2 − U1 = e∗ V
(16.15)
Assumiamo che la presenza dell’ isolante possa essere schematizzata come
un’ hamiltoniana d’ interazione, HT , chiamata Hamiltoniana di tunneling
e che il sistema globale sia descritto dall’ hamiltoniana :
H = H0 + HT
(16.16)
Un modello particolarmente semplice possiamo ottenerlo se pensiamo che la
coppia di Cooper attraversi per effetto tunnell la barriera.
Pensiamo che la giunzione sia essenzialmente costituita da due stati.
Uno stato, descritto dalla funzione d’ onda ϕ(1), in cui le coppie di Cooper
sono sulla sinistra della barriera, ed uno stato, descritto da ϕ(2), in cui gli
elettroni superconduttivi sono sulla destra dello strato isolante.
Le funzioni d’ onda descriventi il sistema saranno cosı̀ una combinazione
lineare di questi due stati di base :
ψ = a1 ϕ(1) + a2 ϕ(2)
(16.17)
cosı̀ se
∂ψ
= (H0 + HT )ψ
(16.18)
∂t
abbiamo le due equazioni di Schroedinger per i coefficienti a1 ed a2 :

1
= U1 a1 + K a2
 i ~ ∂a
∂t
(16.19)

∂a2
i ~ ∂t = U2 a2 + K a1
i~
nel ricavare le quali abbiamo assunto che :
(ϕ(i) , HT ϕ(j)) = K
(16.20)
per i 6= j.
Fissiamo lo zero dell’ energia a metà fra i livelli U2 ed U1 . In tal modo le
16.19 diventano :

1
= 12 e∗ V a1 + K a2
 i ~ ∂a
∂t
(16.21)

1 ∗
2
i ~ ∂a
=
−
e
V
a
+
K
a
2
1
∂t
2
Le quantità |a1 |2 ed |a2 |2 sono le probabilità di trovare la coppia di Cooper
alla destra o alla sinistra dello strato isolante.
16.1 Derivazione fisica della Sine-Gordon [46]
189
Se scegliamo le fasi degli stati di base cosicchè questi siano reali, possiamo
scrivere :
√
ai = ρi eiθi
(16.22)
Identifichiamo
ϕ = (θ2 − θ1 )
Sostituendo la (16.22) nelle (16.21) (separando parte reale e immaginaria) si
ottiene un sistema di quattro equazioni in quattro incognite di soluzione :

√
ρ1,t = K~ ρ1 ρ2 sin(ϕ)






√


ρ2,t = − K~ ρ2 ρ1 sin(ϕ)



q
(16.23)
ρ2
K
e∗ V

θ
=
cos(ϕ)
−

1,t
~
ρ1
2~






q


 θ2,t = K ρ1 cos(ϕ) + e∗ V
~
ρ2
2~
La variazione della densità ρ di coppie di Cooper in una regione della
giunzione sarà in generale proporzionale alla corrente di tunneling, cioè al
numero di elettroni superconduttivi che traversano la giunzione da una parte
all’ altra.
Possiamo cosı̀ scrivere che la supercorrente nella regione i-esima in direzione
zeta sarà data da :
jiz = ρi,t
(16.24)
In un’usuale Giunzione Josephson ρ1 e ρ2 sono entrambi circa uguali ad
un valore ρ0 quasi costante nel tempo.
A prima vista quest’ ultima richiesta potrebbe sembrare in contraddizione
con le equazioni (16.23), tuttavia cosı̀ non è se pensiamo che non tutte le
proprietà del sistema sono state ancora considerate.
Se difatti consideriamo la presenza di una batteria esterna che stabilisce una
differenza di potenziale ai capi della giunzione, possiamo pensare che ben
presto la corrente j1z possa raggiungere la regione 2.
La corrente che circola nella batteria non è stata inclusa ed il suo effetto è
quello di permettere a ρ1 e a ρ2 di stabilizzarsi al valore ρ0 .
Se poniamo ρ1 = ρ2 = ρ0 dalle prime due delle (16.23) otteniamo la
supercorrente totale che attraversa la barriera :
jz = J¯ sin(ϕ)
con J¯ =
2Kρ0
.
~
(16.25)
190
Sine-Gordon e Giunzione Josephson
La (16.25) esprime quello che è conosciuto come Effetto Josephson AC :
sebbene la differenza di potenziale applicata agli estremi della giunzione sia
costante, quanto si osserva è una corrente alternata di coppie di Cooper
attraverso la barriera.
All’ interno dell’ isolante le usuali equazioni di Maxwell nella materia
continuano a valere e, data la tensione V applicata, dobbiamo tener conto
anche di un’ ulteriore corrente :
dV
jz0 = CS
(16.26)
dt
con CS capacità della giunzione per unità di superficie.
L’ equazione di Maxwell (15.5) diventa :
∂By
∂Bx
−
= µ0 (jz + jz0 )
(16.27)
∂x
∂y
Sottraendo tra di loro le ultime due delle (16.23) e ricordando la definizione
di ϕ otteniamo :
∂ϕ
e∗
=
V
(16.28)
∂t
~
Sfruttando le (16.28), (16.27) e le (16.11) arriviamo a scrivere l’equazione
di evoluzione per la differenza di fase del parametro d’ ordine attraverso la
barriera :
∂ 2ϕ
∂ 2ϕ
1 ∂ 2ϕ
1
+
−
= 2 sin(ϕ)
(16.29)
2
2
2
2
∂x
∂y
c ∂t
β
che è l’ Equazione di Sine-Gordon in 2 + 1 dimensioni.
Abbiamo posto :
~
1
β2 =
c2 =
∗
¯
µ0 C S l
µ0 e Jl
Se ci troviamo nelle condizioni sperimentali di poter trascurare la variazione
di ϕ lungo y otteniamo l’ equazione di Sine-Gordon in 1 + 1 dimensioni che,
come mostreremo nel capitolo seguente, ammette soluzioni ad un solitone del
tipo :
ϕ(x, t) = 4 arctan[exp ±(κ (x − x1 ) − λ t)]
(16.30)
con κ, λ e x1 parametri reali.
Dal momento che per la (16.11) :
∂ϕ
= α By
∂x
quanto si osserva all’ interno della giuntura è il profilo sech per la componente
y del campo magnetico :
κ
By = 2 sech[κ (x − x1 ) − λ t]
(16.31)
α
Capitolo 17
Equazione di Sine-Gordon e
Trasformazione di Darboux
In questo capitolo vogliamo determinare la soluzione ad un solitone per
l’ equazione di Sine-Gordon servendoci del Metodo della Trasformata di
Darboux [55].
17.1
Il Metodo di Darboux
Il metodo della trasformata di Darboux, proposto piu’ di cento anni fa dal
matematico francese Gaston Darboux, è stato di recente riscoperto ed applicato per la risoluzione di equazioni di evoluzione nonlineari di notevole
interesse fisico [53].
L’ idea di base su cui poggia il metodo della Trasformata di Darboux è
molto semplice.
Si consideri il seguente problema agli autovalori :
y 00 + [λ − u(x)] y = 0
(17.1)
noto nella Meccanica Quantistica come Equazione di Schroedinger unidimensionale.
Sia φ una qualche soluzione, anche banale, del problema (11.1) con autovalore λ = λ1 , e sia σ = φx φ−1 .
Darboux provò [58] che la (11.1) è covariante rispetto alla seguente trasformazione detta Trasformazione di Darboux:
y → yb = yx − σ y
u →u
b = u − 2 σx
(17.2)
In altre parole yb soddisfa l’ equazione di Schroedinger con potenziale u
b.
La trasformazione che la y induce sulla u prende anche il nome di Trasformazione di Backlund.
192
Equazione di Sine-Gordon e Trasformazione di Darboux
Cambiando la y secondo la (17.2) possiamo determinare tutte le soluzioni
della nuova equazione di Schroedinger con potenziale u
b.
Nel 1979 Matveev [57] provò che la stessa proprietà di covarianza vale
anche per tutte le equazioni di evoluzione del tipo :
n
X
∂f
∂ mf
=
um (x, t) m
∂t
∂x
m=0
(17.3)
con coefficienti scalari o matriciali.
E’ cosı̀ possibile costruire infinite soluzioni esplicite di equazioni di evoluzione
nonlineari applicando il metodo della Trasformata di Darboux ad una equazione
iniziale integrabile.
17.2
Soluzione ad un solitone per l’ Equazione
di Sine-Gordon
Nel sistema di riferimento del laboratorio l’ Equazione di Sine-Gordon (SG)
assume la forma:
θxx − θtt − sin(θ) = 0
(17.4)
Quanto vogliamo fare è risolvere la (17.4) con le condizioni al contorno
cos(θ) → 1 per x → ±∞ servendoci del Metodo della Trasformata di
Darboux.
A tal fine introduciamo le equazioni di Lax associate alla SG :
∂x F (ζ) = L(ζ) F (ζ) ,
∂t F (ζ) = M (ζ) F (ζ)
in cui ζ è il parametro spettrale complesso, e :

1
i
 L(ζ) = − 4 ζσ3 − 2 U +

M (ζ) =
i
ζσ3
4
+
1
U
2
+
i
4ζ
i
4ζ
(17.5)
V
(17.6)
V
Inoltre :
µ
¶
cos(θ) sin(θ)
V =
= cos(θ) σ3 + sin(θ) σ1 ,
sin(θ) − cos(θ)
i
U = − (θx − θt ) σ2
2
(17.7)
con θ soluzione della (17.4).
Nel limite di x → ±∞ segue dalle definizioni U e V che :
i
L0 = − κ σ3 ,
2
M0 =
i
λ σ3
2
(17.8)
17.2 Soluzione ad un solitone per l’ Equazione di Sine-Gordon 193
in cui abbiamo definito :
κ =
1
(ζ − ζ −1 ) ,
2
λ =
1
(ζ + ζ −1 )
2
(17.9)
Dalle (17.5) otteniamo :
∂x F0 (ζ) = L0 (ζ) F0 (ζ) ,
∂t F0 (ζ) = M0 (ζ) F0 (ζ)
che ammettono soluzioni di Jost :
µ
¶

1
f
(ζ)
0

0
(κ
x
−
λ
t)
σ
−i
3
 F0 (ζ) = e 2
=

0
f0−1 (ζ)


1

f0 (ζ) = e−i 2 (κ x − λ t)
(17.10)
(17.11)
in cui σ3 è la terza matrice di Pauli.
Le (17.11) corrispondono alla soluzione a zero solitoni della Sine-Gordon.
Possiamo costruire la soluzione ad un solitone F1 (ζ) definendo una matrice
di Darboux 2 × 2 D1 (ζ) tale che :
F1 (ζ) = D1 (ζ) F0 (ζ)
(17.12)
e che assumiamo avere un solo polo nel piano complesso ζ. Per le (17.5) vale :
∂x F1 (ζ) = L1 (ζ) F1 (ζ)
(17.13)
Sfruttando la (17.12) e le (17.10) otteniamo, per ogni soluzione fondamentale
F0 (ζ) :
∂x D1 (ζ) = L1 (ζ) D1 (ζ) − D1 (ζ) L0 (ζ)
(17.14)
in cui L1 (ζ) è la L(ζ) associata al caso di un solitone1 .
Seguendo gli stessi ragionamenti :
∂t D1 (ζ) = M1 (ζ) D1 (ζ) − D1 (ζ) M0 (ζ)
(17.15)
Sia ζ1 il polo nel piano complesso della matrice di Darboux che scegliamo
della seguente forma :
D1 (ζ) = I +
1
I
A1
ζ − ζ1
Possiamo costruire iterativamente la soluzione ad n solitoni secondo la :
Fn (ζ) = Dn (ζ) Fn−1 (ζ)
(17.16)
194
Equazione di Sine-Gordon e Trasformazione di Darboux
con A1 matrice indipendente da ζ.
Poichè dalle (17.6) vale :
L† (ζ) = −L(ζ) ,
M † (ζ) = −M (ζ)
(17.17)
in cui il simbolo di croce e la barra indicano rispettivamente l’ Hermitiano
coniugato ed il complesso coniugato, allora :
e quindi :
F † (ζ) = F −1 (ζ)
(17.18)
D1† (ζ) = D1−1 (ζ)
(17.19)
Chiaramente D1 (ζ) D1−1 (ζ) = I, cosı̀ dalla definizione di D1 (ζ) (17.16)
calcolandone il residuo per ζ = ζ1 si ha :
A1 [I +
I
A†1 ] = 0
ζ1 − ζ 1
(17.20)
D’ altra parte calcolando il residuo per ζ = ζ1 a partire dalla (17.12) (sfruttando la (17.16) ed il fatto che det[F0 (ζ1 )] = 1) si ottiene che A1 è una
matrice singolare ovvero a determinante nullo.
Possiamo pertanto esprimere A1 come un proiettore (δ1 , γ1 )T (β1 , α1 ).
Sostituendo quest’ ultima nella (17.20) vogliamo determinare la relazione
che intercorre fra (β1 , α1 ) e (δ1 , γ1 ). Arriviamo cosı̀ a scrivere:
µ
¶
ζ1 − ζ 1
β1
A1 =
(β1 , α1 )
(17.21)
α1
|β1 |2 + |α1 |2
Il prossimo passo è determinare α1 e β1 .
Partiamo dalla (17.13) e sostituiamoci le (17.12) e (17.16) :
∂x [D1 (ζ) F0 (ζ)] = L1 (ζ) D(ζ) F0 (ζ)
(17.22)
che nel limite per ζ che tende a ζ1 diventa:
∂x [A1 F0 (ζ1 )] = L1 (ζ1 ) A1 F0 (ζ1 )
(17.23)
Dalla definizione (17.21) di A1 notiamo che quest’ ultima non cambia se mandiamo (β1 , α1 ) in γ (β1 , α1 ) con γ costante. Ciò che conta è cosı̀ il rapporto
di (β1 , α1 ).
Se scegliamo:
(17.24)
(β1 , α1 ) = (b1 , 1) F0−1 (ζ1 )
con b1 costante si può facilmente verificare che la (17.23) risulta soddisfatta.
17.2 Soluzione ad un solitone per l’ Equazione di Sine-Gordon 195
Valendo la (17.12) possiamo scrivere :
i
1
(ζ − ) D1 (ζ) σ3 D1−1 (ζ)
4
ζ
(17.25)
Nel limite di |ζ| → 0, la matrice di Darboux D1 (ζ) tende a D1 (0), mentre
per |ζ| → ∞ D1 (ζ) ≈ I + ζ −1 A1 .
Abbiamo pertanto per |ζ| → 0 :
[∂x F1 (ζ)]F1−1 (ζ) = L1 = D1x (ζ) D1−1 (ζ) −
L1 =
i
D1 (0) σ3 D1−1 (0) + O(1)
4ζ
(17.26)
i
i
1
ζ σ3 − [A1 , σ3 ] + O( )
4
4
|ζ|
(17.27)
mentre nel limite |ζ| → ∞ :
L1 = −
Costruiamo la funzione di ζ :
i
i
i
ζ σ3 − [A1 , σ3 ] +
D1 (0) σ3 D1−1 (0)]
4
4
4ζ
(17.28)
che è per costruzione analitica in tutto il piano complesso inclusi ζ = 0 e
ζ = ∞.
Inoltre f (ζ) tende a zero per |ζ| → ∞. Per il Teorema di Liouville essa è
pertanto nulla : f (ζ) = 0.
Arriviamo cosı̀ a scrivere l’ operatore di Lax L1 (ζ) nella forma :
f (ζ) = [∂x F1 (ζ)]F1−1 (ζ) − [−
L1 (ζ) =
i
i
i
D1 (0) σ3 D1−1 (0) − ζ σ3 − [A1 , σ3 ]
4ζ
4
4
(17.29)
ed analogamente per M1 (ζ) partendo dalla seconda equazione di Lax otteniamo :
M1 (ζ) =
i
i
i
D1 (0) σ3 D1−1 (0) + ζ σ3 + [A1 , σ3 ]
4ζ
4
4
(17.30)
che sottratte tra di loro restituiscono :
[∂t F1 (ζ)]F1−1 (ζ) − [∂x F1 (ζ)]F1−1 (ζ) =
i
i
[Q(x, t), σ3 ] + ζ σ3
2
2
(17.31)
Nel limite in cui |ζ| → 0, sfruttando la (17.12) otteniamo :
D1t (0) D1−1 (0) − D1x (0) D1−1 (0) =
i
[A1 , σ3 ]
2
(17.32)
196
Equazione di Sine-Gordon e Trasformazione di Darboux
quindi :

 L1 (ζ) =

i
D (0) σ3
4ζ 1
D1−1 (0) −
i
4
1
2
[D1t (0) D1−1 (0) − D1x (0) D1−1 (0)]
[D1t (0) D1−1 (0) − D1x (0) D1−1 (0)]
(17.33)
Dal momento che la Coppia di Lax gode delle seguenti proprietà :
M1 (ζ) =
i
D (0) σ3
4ζ 1
D1−1 (0) +
ζ σ3 −
L1 (−ζ) = L1 (ζ) ,
i
4
ζ σ3 +
1
2
M1 (−ζ) = M1 (ζ)
(17.34)
D1 (−ζ) = D1 (ζ)
(17.35)
possiamo scrivere :
F1 (−ζ) = F1 (ζ) ,
che si traducono nel dire che D1 (0) è una matrice reale :
D1 (0) = D1 (0)
(17.36)
Dalla (17.19) valutata per ζ = 0 ricaviamo inoltre che D1 (0) ha determinante
quadro pari ad uno.
Possiamo cosı̀ scrivere in generale :



θ
θ
)
−
sin(
)
cos(

2
2


−iπ −i θ2 σ2



D
(0)
=
e
=
(−)

1


θ
θ

sin( 2 ) cos( 2 )

(17.37)



θ
θ

cos(
)
sin(
)


2
2

†



D
(0)
=
(−)


 1
θ
θ
− sin( 2 ) cos( 2 )
da cui è semplice trovare:
¶
cos(θ) sin(θ)
= e
σ3 = cos(θ) σ3 + sin(θ) σ1 =
sin(θ) − cos(θ)
(17.38)
Da tale definizione della matrice di Darboux segue immediatamente che:

†
 (∂x D1 (0)) D1 (0) = − 2i θx σ2
(17.39)

†
i
(∂t D1 (0)) D1 (0) = − 2 θt σ2
D1 (0) σ3 D1† (0)
µ
−i θ σ2
Ricordando che D1† (0) = D1−1 (0) sostituendo nella (17.33), otteniamo le
espressioni per L1 (ζ) e M1 (ζ) :

i
i −iθσ2
i
σ3
 L1 (ζ) = − 4 ζ σ3 − 4 (θt − θx ) σ2 + 4ζ e
(17.40)

M1 (ζ) = − 4i ζ σ3 − 4i (θx − θt ) σ2 + 4ζi e−iθσ2 σ3
17.2 Soluzione ad un solitone per l’ Equazione di Sine-Gordon 197
che sono proprio le definizioni della Coppia di Lax che abbiamo riportato
nelle (17.6). F1 (ζ, x, t), trasformato di F0 (ζ, x, t) secondo D1 (ζ), è pertanto
soluzione delle equazioni di Lax.
Chiediamo ora che il polo della matrice di Darboux D1 (ζ) si trovi sull’asse
immaginario : ζ1 = iζ100 .
Tale condizione corrisponde a ricercare una soluzione solitonica per la SG.
Come già notato nel caso di un solitone solo i valori relativi dei due termini
nella (17.24) contano.
Poniamo dunque :

 β1 = α1−1 = eΘ1
(17.41)

1 00
00
Θ1 = − 2 [κ1 (x − x1 ) − λ1 t]
in cui abbiamo introdotto i parametri reali
κ001 =
1
+ ζ100 ,
00
ζ1
λ001 = −
1
+ ζ100
00
ζ1
con ζ100 = =(ζ1 ).
Con questa riscrittura di β1 ed α1 possiamo esprimere la matrice di
Darboux D1 (0) nella forma :






1 − Γ e2Θ1
−Γ
− cos( 2θ ) sin( 2θ )



 = 


 D1 (0) = 
θ
θ
−2Θ1
−Γ
1 − Γe
− sin( 2 ) − cos( 2 )





 Γ = 1 ζ1 − ζ 1 = sech(2 Θ1 )
ζ1 2 cosh (2 Θ1 )
(17.42)
Uguagliando tra di loro gli elementi 12 delle due matrici otteniamo la soluzione
ad un solitone per l’Equazione di Sine-Gordon:
θ(x, t) = − 2 arcsin [sech (κ001 (x − x1 ) − λ001 t)]
(17.43)
Vale inoltre la formula trigonometrica
1 − cos( 2θ )
θ
tan( ) = −
4
sin( 2θ )
da cui sfruttando l’uguaglianza degli elementi 11 o 22 delle due matrici otteniamo l’usuale espressione della soluzione ad un solitone della SineGordon:
00
00
θ(x, t) = 4 arctan [e ± (κ1 (x − x1 )− λ1 t) ]
(17.44)
198
Equazione di Sine-Gordon e Trasformazione di Darboux
La soluzione (17.44) col segno positivo dell’esponenziale viene chiamata
in letteratura ‘kink’ poichè rappresenta un ‘giro completo’ nella variabile
θ che passa dall’ assumere il valore 0 al valore 2π. La soluzione col segno
negativo nell’ esponenziale prende invece il nome di ‘antikink’.
Figura 17.1: soluzione di kink per la Sine Gordon con parametri :
x1 = 0 , κ001 = 2.5 , λ001 = 1.5 (polo in ζ = 2i).
Figura 17.2: soluzione di antikink per la Sine Gordon con parametri :
x1 = 0 , κ001 = 2.5 , λ001 = 1.5 (polo in ζ = 2i).
Appendice A
Metodo della fase stazionaria
Assegnato un generico problema lineare al valore iniziale

¡ ∂¢
u=0
 ut + iω −i ∂x

u(x, 0) = A(x)
sappiamo che la soluzione generale è esprimibile nella forma di integrale di
Fourier
Z ∞
u(x, t) =
dk A(k) ei[kx−ω(k)t]
(A.1)
−∞
con A(k) trasformata di Fourier del dato iniziale ed ω(k) relazione di dispersione.
Sebbene la (A.1) restituisca l’esatta soluzione del problema, in certi casi
è interessante studiare il comportamento della soluzione per tempi grandi
t À 1. Se l’onda è dispersiva (ω 00 (k) 6= 0) possiamo pensare che ogni singolo
pacchetto si sia disperso nello spazio, cosicchè anche x À 1. Richiediamo
pertanto che xt = O(1) che significa seguire l’onda alla velocità di gruppo.
Riscriviamo cosı̀ la (A.1) come
Z ∞
u(x, t) =
dk A(k) eitφ(k)
¡x¢
−∞
con φ(k) = [k t − ω(k)] fase dell’onda.
Possiamo cosı̀ applicare il metodo della fase stazionaria [1], [56],
dovuto a Lord Kelvin, per studiare il comportamento dell’onda a tempi
grandi.
Immaginiamo di avere un integrale del tipo
Z b
I(t) =
q(k) dk eitp(k)
a
(A.2)
200
Metodo della fase stazionaria
Per grandi valori della t, l’integrando oscilla molto rapidamente causando
la cancellazione dei contributi di quasi tutto l’intervallo di integrazione.
Fanno eccezione gli estremi di integrazione, se finiti, per mancanza di
simmetria, e gli zeri di p0 (k), perchè p(k) varia abbastanza lentamente nell’intorno di tali punti stazionari.
Punti stazionari Immaginiamo che k0 ∈ (a, b) sia un punto stazionario di
p(k), tale che p0 (k0 ) = 0.
L’integrando della (A.2) nell’intorno di k0 è approssimativamente
1
2
eit[p(k0 )+ 2 (k−k0 )
p00 (k0 )]
q(k0 )
a patto che q(k0 ) e p00 (k0 ) siano non nulli. La (A.2) diventa cosı̀
Z k0 +δ
1
2 00
q(k0 ) dk eit[p(k0 )+ 2 (k−k0 ) p (k0 )] q(k0 )
I(t) ∼
k −δ
Z 0+∞
1
2 00
∼
q(k0 ) dk eit[p(k0 )+ 2 (k−k0 ) p (k0 )] q(k0 )
−∞
e sfruttando il risultato dell’integrale gaussiano:
s
2π
1
±i π4
I(t) ∼ q(k0 ) eitp(k0 )
e
∼
O(
1 )
t p00 (k0 )
t2
col ± dato dal segno di p00 (k0 ).
Chiaramente se i punti stazionari sono più di uno la stima dell’integrale
sarà data dalla somma di tutti i loro contributi.
Estremi Se invece consideriamo il contributo dato da un estremo, ad esempio a, otteminamo che l’integrando per k ∼ a è
0
eit [p(a)+(k−a)p (a)] q(a)
che ammette primitiva
0
eit [p(a)+(k−a)p (a)] q(a)
,
ikp0 (a)
con p0 (a) 6= 0
che nel limite in cui k −→ a diventa
eit p(a) q(a)
1
I(t) ∼
∼
O(
)
ikp0 (a)
t
(A.3)
L’espressione asintotica di I(t) sarà data pertanto dalla somma dei contributi dei punti stazionari e dei punti estremali dell’intervallo di integrazione.
Tuttavia, confrontando la (A.2) con la (A.3), notiamo che i contributi dati
dagli estremi sono trascurabili rispetto a quelli dei punti stazionari, essendo
i primi O( 1t ) e questi ultimi O( √1t ).
Appendice B
Osservazioni sull’integrazione
numerica: la discretizzazione
delle PDE
Il problema della discretizzazione di un’equazione differenziale è un passaggio
obbligato quando si cerca una soluzione numerica di una PDE. Il modo col
quale si effettua questa discretizzazione è in alcuni casi vincolante al fine
di ottenere delle soluzioni sensate e, comunque, ben approssimate a quella
esatta.
Le variabili in gioco sono il tempo e lo spazio, e sul computer queste
devono essere entrambe discretizzate.
In seguito, riportiamo dei casi in cui si opera la discretizzazione della sola
variabile spaziale e ci si sofferma sugli effetti che ne seguono. Per capire i
motivi che portano ad avere modelli discreti affidabili, si impiega l’analisi di
Fourier.
Cominciamo col considerare il problema differenziale più semplice: quello
dell’onda di traslazione soluzione della (1.25). Usiamo la rappresentazione
integrale di Fourier della soluzione u(x, t):
Z
∞
u(x, t) =
A(k, t) eikx dk .
(B.1)
−∞
e sostituiamo questa rappresentazione nella (1.25), ottenendo
At + ikc A = 0
che ha per soluzione
A(k, t) = ũ(k)eikct
(B.2)
Osservazioni sull’integrazione numerica: la discretizzazione delle
202
PDE
Concludiamo sostituendo la (B.2) nella (B.1)
Z ∞
u(x, t) =
ũ(k) eik(x−ct) dk .
−∞
con ũ(k) trasformata di Fourier del dato iniziale u(x).
Osserviamo, dunque, che non c’è dispersione, poiché
ω = ω(k) = ck −→
d2 ω
= 0.
dk 2
Derivata Ordinaria Discretizziamo ora l’equazione di partenza nella sola
variabile spaziale x lasciando continua quella temporale t.
Sostituiamo alle derivate spaziali il rapporto incrementale:
ux (x, t) −→
u(x + ², t) − u(x, t)
,
²
con ² parametro reale arbitrariamente piccolo.
un’equazione differenziale funzionale nella forma
ut (x, t) +
Cosı̀ facendo, otteniamo
c
[u(x + ², t) − u(x, t)] = 0 .
²
É ovvio che se ² → 0, allora, ricadiamo nell’equazione continua (1.25). É
bene inoltre sottolineare che la differenza nelle soluzioni è apprezzabile per
valori dell’ordine di ².
Consideriamo nuovamente la trasformata di Fourier dell’equazione discretizzata; questa volta si ottiene
Ȧ +
c ik²
(e − 1) A = 0
²
che ha per soluzione
c
A(t) = ũ(k)e−i ² (e
ik² −1) t
.
Sostituendo quest’ultima espressione nella (B.1), otteniamo:
Z ∞
c ik²
u(x, t) =
ũ(k) ei[kx− ² (e −1)t] dk .
(B.3)
−∞
Possiamo notare che nell’argomento dell’esponenziale della (B.3) compare
un termine dissipativo che non deriva da alcuna considerazione legata alla
fisica del sistema, ma semplicemente dal modo col quale è stata effettuata la
discretizzazione.
203
La (B.3) mostra infatti perchè il metodo di discretizzazione adottato non
restituisce risultati affidabilio comunque coerenti con quelli dell’equazione
continua (1.25): sviluppando l’esponenziale complesso eik² tramite la rappresentazione di Eulero, otteniamo un contributo del tipo
c
e+ ² sin(k²)
di smorzamento o divergente (a seconda del segno di c) che rende inaffidabile
il risultato di un tale calcolo numerico per questo specifico problema.
Derivata Simmetrica Per risolvere questo problema è evidente che è necessario adottare una diversa discretizzazione dello spazio, ovvero definire differentemente la derivata spaziale. Scegliamo allora la derivata simmetrica e
vediamo a quale risultato arriviamo ripercorrendo i passaggi precedenti.
L’espressione della derivata simmetrica è
∂x −→
u(x + ², t) − u(x − ², t)
.
2²
Sostituiamo nella (1.25):
ut +
c
[u(x + ², t) − u(x − ², t)] = 0 .
2²
Sfruttando l’analisi di Fourier otteniamo:
Z ∞
Z
ct i²k
ikx − 2²
(e −e−i²k )
ũ(k) e e
u(x, t) =
dk =
−∞
∞
ũ(k) ei[kx− ²
ct
sin(²k)]
dk
−∞
Dall’ultimo membro, notiamo che ora compare un semplice termine oscillante e non c’è più alcuna dissipazione: bensı̀ osserviamo l’introduzione di
un termine dispersivo con relazione di dispersione:
ω(k) =
c
sin(²k)
²
dal quale ricaviamo subito la dispersione
dvg
d2 ω
=
= −² c sin(²k) .
2
dk
dk
(B.4)
Dalla (B.4) osserviamo che la dispersione è tanto più significativa quanto
π
. Una corretta modellizzazione del problema sarà allora ottenibile
più k ∼ 2²
scegliendo λ À ², in maniera che non si tenga conto dei dettagli del sistema.
Reticolo Per concludere passiamo effettivamente al discreto introducendo un reticolo: per semplicità possiamo considerare il caso monodimensionale
Osservazioni sull’integrazione numerica: la discretizzazione delle
204
PDE
in cui si considera una sequenza di punti disposti su una retta a distanza ²
l’uno dall’altro. Dunque xn = n² e
u(x, t) → u(n², t) = un (t)
In tal modo, il campo u è definito in base a due parametri (n,²) e ad una
variabile continua (t) (anche se nella realtà, nel processo di discretizzazione
è inclusa anche la variabile temporale).
L’equazione che si ottiene è un’equazione a 3 punti (n − 1, n, n + 1) alle
differenze finite (nello spazio) e differenziale (nel tempo):
u̇n +
c
[un+1 − un−1 ] = 0 ,
2²
(B.5)
che possiamo pensare di integrare numericamente sevendoci, ad esempio, del
metodo di Runge-Kutta troncato all’ordine desiderato.
Per risolvere analiticamente la (B.5), si può impiegare la tecnica della
serie di Fourier. Potremmo pensare di cercare una soluzione della forma
un (t) = A(t) z n
dove A dev’essere una funzione limitata e contenuta in un cerchio di raggio
² nel piano complesso. Da cui, sostituendo nell’equazione B.5, si ricava che
µ
¶
c
1
Ȧ +
z−
=0
2²
z
che ha soluzione
da cui
A(t) = A(0) e− 2² (z− z ) t ,
c
1
un (t) = A(0) e− 2² (z− z ) t z n .
c
1
Appendice C
Coefficienti di Trasmissione e
Riflessione di un’onda
elettromagnetica
In questo paragrafo vogliamo determinare la forma dei coefficiente di riflessione e di trasmisione di un’onda elettromagnetica in un mezzo.
Partiamo dalle equazioni di Maxwell in presenza di materia:
∇·D=ρ
∇ × E = − ∂B
∂t
,
∇·B=0
,
∇×H = J+
(C.1)
∂D
∂t
Assumendo che il campo elettrico sia una funzione della sola variabile spaziale
x e del tempo, otteniamo, direttamente dalle equazioni Maxwell, l’equazione
delle onde non omogenea
1
Ett − c2 Exx = − Ptt
(C.2)
ε0
dove P è il vettore di polarizzazione elettrica, definito come il momento di
dipolo elettrico per unità di volume posseduto dal mezzo, c la velocità di
propagazione dell’onda nel mezzo ed ε0 la costante dielettrica del vuoto.
Assumiamo inoltre che il vettore di polarizzazione risulti lineare nel campo elettrico, tramite un coefficiente di proporzionalità non costante detto
suscettività elettrica χ:
Z t
P = ε0
χ(x, t − t0 )E(x, t0 )dt0 .
(C.3)
−∞
L’equazione (C.2) diventa pertanto
Z t
2
Ett − c Exx = −
χ(x, t − t0 )Ett (x, t0 )dt0
−∞
(C.4)
Coefficienti di Trasmissione e Riflessione di un’onda
elettromagnetica
206
Cerchiamone una soluzione del tipo
E(x, t) = ψ(x)e−iωt
da cui l’equazione per la ψ(x):
Z
2
2
2
t
−ω ψ(x) − c ψxx (x) = ω ψ(x)
0
χ(x, t − t0 )eiω(t−t ) dt0
(C.5)
−∞
Cambiando variabile: τ = t − t0 , l’integrale precedente assume la forma
Z ∞
χ(x, τ )eiωτ ) dτ ≡ χ
b(ω, τ )
0
che non è altro che la trasformata di Fourier della suscettività χ. Segue cosı̀:
ψxx = −
ω2
(1 + χ
b)ψ .
c2
(C.6)
Il modello più semplice che possiamo costruire è quello di uno specchio
posto in x = 0 non perfettamente riflettente.
Assumiamo cosı̀ che la χ
b possa essere scritta come:

bs = cost. , se x < 0
 χ
χ
b(x, ω) =
(C.7)

0
, se x > 0
Le condizioni al contorno più naturali che possiamo scegliere sono quelle
di un’onda proveniente da +∞ in parte riflessa ed in parte trasmessa in
x = 0:
 iω x
−iω x
 e c + R(ω)e c , se x ∼ ∞
ψ(x) =
(C.8)
√

χs
i ωc 1+b
, se x ∼ −∞
T (ω)e
Notiamo che nel definire le condizioni al contorno abbiamo già fissato le
due costanti a disposizione derivanti dal fatto che l’equazione per la ψ(x)
è un’equazione alle derivate ordinarie del secondo ordine: abbiamo difatti
imposto che l’ampiezza dell’onda incidente fosse 1 e quella dell’eventuale
onda proveniente da meno infinito fosse nulla.
I coefficienti di trasmissione T (ω) e di riflessione R(ω) risultano pertanto
già fissati e possiamo determinarli imponendo la continuità della funzione
d’onda e delle sua derivata in x = 0.
La prima richiesta si traduce in
1+R=T ,
207
mentre la seconda in
1−R=
p
1+χ
bs T
che prese insieme formano un sistema di due equazioni nelle due incognite T
ed R:
√

χs
1− 1+b


 R(ω) = 1+√1+bχs
(C.9)


 T (ω) = √2
1+
1+b
χs
Dalle precedenti osserviamo che nel momento in cui abbiamo a che fare
con uno specchio ideale perfettamente riflettente, χ
bs −→ ∞, il coefficienete
di riflessione tende a uno, mentre quello di trasmissione tende a zero.
Sappiamo che in Meccanica Quantistica i coefficienti di trasmissione e
di riflessione sono legati l’uno all’altro dalla conservazione della densità di
probabilità di trovare una particella quantistica in un punto x dello spazio al
tempo t.
Vogliamo ora determinare quale è la relazione che lega R(ω) a T (ω) per
un’onda elettromagnetica.
A tale scopo ci serviremo del Teorema del Wronskiano:
Teorema 1 (del wronskiano). Siano ψ1 (x) e ψ2 (x) soluzioni dell’equazione
differenziale ordinaria:
A(x)ψx + B(x)ψ = 0
Allora il funzionale wronskiano
µ
W (ψ1 , ψ2 ) = ψ1 ψ2 x − ψ2 ψ1 x = det
ψ1 ψ2
ψ1 x ψ2 x
¶
soddisfa l’equazione
Wx = A(x)W
che ammette soluzione
W (x) = W (0) e
Rx
x0
A(y)dy
.
Nel nostro caso, cosı̀ come nell’equazione di Schrödinger, la funzione A(x)
è nulla, pertanto il wronskiano è costante nello spazio.
Essendo l’equazione per la ψ(x) un’equazione reale, se ψ(x) è soluzione
lo è anche la sua complessa coniugata ψ ∗ (x).
Identificando ψ = ψ1 e ψ ∗ = ψ2 , otteniamo
W = ψψx∗ − ψ ∗ ψx
208
Coefficienti di Trasmissione e Riflessione di un’onda
elettromagnetica
Imponendo l’uguaglianza di W (x) per x negativi e per x positivi abbiamo:
p
|R|2 + 1 + χ
bs | T |2 = 1
(C.10)
che non è altro che la conservazione dell’energia del sistema.
Appendice D
Il Problema RH
Il problema di Riemann-Hilbert (RH) riguarda funzioni complesse f (k) (o
matrici e vettori complessi) della variabile complessa k.
Cominciamo con una definizione:
Una funzione f (k) si dice sezionalmente olomorfica (o olomorfa) se l’intero
piano-k complesso è diviso in sezioni curve continue a tratti ed f (k) è analitica
(cioè olomorfica) in ogni sezione ed ha limite nel valor al contorno quando k
si avvicina ai due lati di tale curva.
I bordi delle sezioni sono curve orientate.
Inoltre il grado all’infinito di una funzione f (k) sezionalmente olomorfica
è l’intero n tale che
f (k) = ck n [1 + O(1/k)] ,
per |k| → ∞ ,
dove c è una costante non nulla.
Al fine di ottenere una rappresentazione di una funzione sezionalmente
olomorfica, osserviamo che un’informazione di base ci è fornita dalla discontinuità f (+) − f (−) sui bordi. Per usare tale informazione, facciamo uso delle
formule di Plemelj-Sakhotski.
Sia Γ una curva orientata nel piano complesso che insieme alla sua tangente è continua e sia g(s) una funzione di Hölder su Γ, ovvero
α
|g(s0 ) − g(s)| < γ |s0 − s| ,
allora, la funzione
1
f (k) =
2πi
per 0 < α ≤ 1, γ > 0 ,
Z
ds
Γ
g(s)
s−k
è olomorfica in tutto il piano complesso coll’eccezione della curva Γ che ne
rappresenta la discontinuità.
210
Il Problema RH
Le formule di Plemelj-Sakhotski ci forniscono i valori della f (k) al bordo,
ed hanno la seguente espressione:
Z
1
g(s0 )
1
(±)
f (s) =
P ds0 0
± g(s) , per s ∈ Γ ,
(D.1)
2πi Γ
s −s 2
dove il simbolo P dinanzi l’integrale significa che si vuol considerare il valor
principale (o di Cauchy) dell’integrale, ed i valori f (±) dipendono dall’orientazione della curva Γ. Notiamo che quest’ultima espressione implica che la
discontinuità di f (k) su Γ è precisamente g(s), ovvero
f (+) (s) − f (−) (s) = g(s) ,
per s ∈ Γ .
(D.2)
L’uso di queste formule fornisce una rappresentazione esplicita di una
funzione f (k) che soddisfa le seguenti condizioni: f (k) è olomorfica eccetto
per
1. k = ∞, dove si comporta come un polinomio P (k);
2. k = km , m = 1, 2, . . . , N che sono poli semplici nei quali f (k) ha residui
Rm :
lim [(k − km ) f (k)] = Rm , per m = 1, 2, . . . , N ;
k→km
3. k = s ∈ Γ dove f (k) ha una discontinuità g(s) di Hölder.
Si trova allora che f (k) è data dall’espressione unica.
N
X
Rm
1
f (k) = P (k) +
+
k − km 2πi
m=1
Z
ds
Γ
g(s)
,
s−k
per k ∈
/ Γ,
(D.3)
Tali risultati si estendono anche ai casi in cui si considerino matrici e vettori: consideriamo una curva Γ continua con la sua tangente, una funzione
matrice G(s) non-singolare N × N , i cui elementi sono hölderiani su Γ, un
vettore N -dimensionale h(s), anch’esso con componenti hölderiani, ed un intero n. La soluzione del problema RH è una funzione vettore N -dimensionale
f (k), la quale è olomorfica nel piano complesso eccetto che per k = ∞ dove
ha grado n e sulla curva Γ dove i valori al bordo f (±) devono soddisfare
l’equazione algebrica nonomogenea
f (+) (s) = G(s) f (−) (s) + h(s) ,
per s ∈ Γ .
(D.4)
Notiamo innanzitutto che come per i sistemi di equazioni differenziali del
primo ordine, il problema RH può essere risolto in una forma esplicita solo
211
per il caso scalare, N = 1. Benchè il problema RH assuma forma matriciale
in tutte le applicazioni dell’analisi spettrale, sfruttiamo la risolubilità del
caso scalare per sottolineare alcuni aspetti generali. (Un ruolo cruciale per
l’esistenza e l’unicità della soluzione del problema RH è giocato dal grado n
all’infinito.)
Per n = 1, la soluzione esiste, ma non è unica dato che dipende da due
parametri c0 e c1 in base all’espressione:
Z
1
h(s)
f (k) = c0 + c1 k +
ds
, per k ∈
/ Γ.
2πi Γ s − k
Per n = −1, la soluzione esiste unica:
Z
h(s)
1
ds
f (k) =
,
2πi Γ s − k
per k ∈
/ Γ.
Per n = −2, la soluzione in genere non esiste ed esiste se e solo se il
termine nonomogeneo h(s) soddisfa la condizione
Z
ds h(s) = 0 .
Γ
Nel caso più interessante, nei quali G(s) 6= 1 e Γ è una curva chiusa, esiste
un altro intero che può decidere dell’esistenza e dell’unicità della soluzione:
questo intero è chiamato “indice totale” indicato con ν e dall’espressione
ν ≡ ind [det (G)] =
1 z
d
ds
det (G(s)) .
2πi
ds
Γ
Questo indice discende dal fatto che il numero complesso det (G(s)) cambia
continuamente quando s varia attorno a Γ, ma non necessariamente la sua
fase, la quale può cambiare dopo un giro completo di un multiplo di 2π.
Tuttavia nelle applicazioni ν = 0, e quindi non ci interessiamo dei casi in
cui questo non si annulla.
Osserviamo, dunque, che l’uso delle formule di Plemelj-Sakhotski ci permette di trasformare il problema RH in un’equazione integrale. In questo contesto, il ruolo giocato dalle formule PS corrisponde a quello giocato dalle funzioni di Green nella teoria delle equazioni differenziali, dato che trasformano
equazioni differenziali in equazioni integrali.
Per semplicità, consideriamo il problema RH omogeneo, con h(s) = 0 e
poniamo che H(s) = G(s) − 1. Possiamo esprimere la discontinuità di f (k)
su Γ come
f (±) (s) − f (−) (s) = H(s) f (−) (s) ,
212
Il Problema RH
cosicchè se la curva Γ coincide con l’asse reale (come in molte applicazioni),
il grado all’infinito si annulla, ovvero n = 0, e cosı̀ f (k) → c, per |k| → ∞.
Allora, viste le (D.3) e (D.2), si ha
1
f (k) = c +
2πi
Z
+∞
ds H(s)
−∞
f (−) (s)
,
s−k
per k ∈
/ Γ.
Otteniamo allora l’equazione integrale per la funzione f (−) (s) definita
sull’asse reale facendo tendere k verso l’asse reale dal basso nella precedente
espressione:
Z +∞
1
f (−) (s0 )
(−)
f (s) = c +
ds0 H(s0 ) 0
,
2πi −∞
s − s + i²
nella quale il limite per ² → 0 con ² > 0, ci dà la formula esplicita
Z +∞
1
f (−) (s0 ) 1
(−)
f (s) = c +
P
ds0 H(s0 ) 0
− H(s)f (−) (s) ,
2πi −∞
s −s
2
come comportano le formule di PH (D.1).
Bibliografia
[1] Whitham, G. B. - Linear and NonLinear Waves, Jonh Wiley & Sons,
1974.
[2] Angilella, G. G. N. - Appunti dei corsi, Università degli studi di Catania,
Dottorato di ricerca in fisica, XI ciclo.
[3] Ablowitz, M. J.; Clarkson, P. A. - Solitons, Nonlinear Evolution
Equations and Inverse Scattering, Cambridge University Press, 1991.
[4] Calogero, F.; Degasperis, A. - Spectral Transform and Solitons I, NorthHolland Publishing Company, 1982.
[5] Marchioro, C.; Pulvirenti, M. - Mathematical Theory of Incompressible
Nonviscous Fluids, Springer-Verlag, 1992.
[6] Chorin, A. J.; Marsden, J.E. - A Mathematical Introduction to Fluid
Mechanics, Springer-Verlag, 1993.
[7] Bernardini, C.; Ragnisco, O.; Santini, P.M.; - Metodi Matematici della
Fisica, Carocci, 1993.
[8] Arnold, V. I.; Metodi Matematici della Meccanica Classica, Editori
Riuniti, 1989.
[9] Zakharov, V. E.; What is Integrability?, (Ed.) Springer, Heidelberg, 1990.
[10] Degasperis, A. - Resource Letter Sol-1: Solitons, Am. J. Phys. 66, 486497 (1998).
[11] Taniuti, T.; Yajima, N. - Perturbation method for a nonlinear wave
modulation. I, J. Math. Phys. 10, 1369-1372 (1969); Suppl. Prog. Theor.
Phys. 55, 1974 (special issue devoted to the Reductive Perturbation Method
for Nonlinear Wave Propagation).
214
BIBLIOGRAFIA
[12] Kelley, P. L. - Self-Focusing of Optical Beams, Phys Rev. Lett. 15,
1005 (1965); D. J. Benney and A. C. Newell, J. Math. and Phys. (now
Stud. Appl. Math.) 46, 133-139 (1967); V. E. Zakharov, Instability of
self-focusing of light Soviet Phys. JETP 26, 994-998 (1968); H. Hasimoto and H. Ono, Nonlinear Modulation of Gravity Waves, J. Phys. Soc.
Japan 33,805 (1972); A. Hasegawa and F. Tappert, Transmission of stationary nonlinear optical pulses in dispersive dielectric fibers. I. Anomalous
dispersion, Appl. Phys. Lett. 23, 142 (1973).
[13] Calogero, F.; Eckhaus, W. - Necessary conditions for integrability,
Inverse Probl. 3, L27-L32 (1987).
[14] Calogero, F. - Why are certain nonlinear PDEs both widely applicable
and integrable?, In [1], pp. 1-62.
[15] Calogero, F.; Degasperis, A. - Spectral Transform and Solitons. Vol. I,
North Holland, Amsterdam, 1982; Ablowitz, M.J.; Clarkson, P.A. - Solitons, Nonlinear Evolution Equations and Inverse Scattering, Cambridge
U.P., Cambridge, 1991.
[16] Zakharov, V. E.; Shabat, A. B. - Exact theory of two-dimensional selffocusing and one-dimensional self-modulation of waves in nonlinear media,
Soviet Phys. JETP 34, 62-69 (1972) [Russian original: Zh. Eksp. Teor. Fiz.
61, 118-134 (1971)].
[17] Zakharov, V. E.; Kuznetsov, E. A. - Multiscale Expansion in the Theory
of Systems Integrable by the Inverse Scattering Transform, Physica 18D,
455-463 (1986).
[18] Gardner, C. S.; Greene, J. M.; Kruskal, M. D.; Miura, R. M. - Method
for solving the Korteweg-de Vries equation, Phys. Rev. Lett. 19, 1095-1097
(1967).
[19] Murdock, J.A. - Perturbations, John Wiley & Sons, Inc., New York,
1991.
[20] Calogero, F.; Degasperis, A. - Reduction technique for matrix nonlinear
evolution equations solvable by the spectral transform, J. Math.Phys. 22,
23-31 (1981).
[21] Kraenkel, R. A.; Manna, M. A.; Pereira, J. G. - The Korteweg-de Vries
hierarchy and long water-waves, J. Math. Phys. 36, 307 (1995).
BIBLIOGRAFIA
215
[22] Kodama, Y.; Mikhailov, A. V. - Obstacle to asymptotic integrability,
In: Algebraic Aspects of Integrable Systems: in memory of Irene Dorfman,
edited by A. S. Fokas and I. M. Gelfand, Birkhauser, Boston, 1996, pp.
173-204.
[23] Calogero, F.; Degasperis, A.; Xiaoda, Ji - Nonlinear Schroedinger-type
equations from multiscale reduction of PDEs. I. Systematic derivation, J.
Math. Phys. 41, 6399-6443 (2000).
[24] Calogero, F.; Desgasperis, A.; Xiaoda, Ji - Nonlinear Schroedinger-type
equations from multiscale reduction of PDEs. II. Necessary conditions of
integrability for real PDEs, J. Math. Phys. 42, 2635-2652 (2001).
[25] Ramani, A. - (private communication).
[26] Conte, R. - (private communication).
[27] Yajima, N.; Oikawa, M. - Formation and Interaction of Sonic-Langmuir
Solitons, Prog. Theor. Phys. 56, 1719-1739 (1976).
[28] Degasperis, A.; Manakov,S. V.; Santini, P. M. - Multiple-scale perturbation beyond the Nonlinear Schroedinger Equation. I, Physica D100,
187-211 (1997).
[29] Degasperis, A.; Procesi, M. - Asymptotic Integrability In: Symmetry
and Perturbation Theory, edited by A. Degasperis and G. Gaeta, World
Scientific, Singapore, 1999, pp. 23-37.
[30] Camassa, R.; Hom, D. D. - Phys. Rev. Lett. 71, 1661-1664 (1993).
[31] Degasperis, A.; Holm, D. D.; Hone, A. N. W. - A new integrable equation
with peakon solutions, Theoretical and Mathematical Physics (2002) 133,
pp. 1463-1474.
[32] Fermi, E.; Pasta, J. R.; Ulam, S. M. - Studies of nonlinear problems, Los
Alamos Scientific Laboratory Report LA-1940 (1955); anche in Collected
Works of Enrico Fermi , II (University of Chicago Press, Chicago, Ill.,
1965).
[33] Zakharov, V. E; Shabat, A. B. - Sov. Phys. JETP , 34, 62 (1972),
tradotto da Z. Eksp. Teor. Fiz , 61, 118 (1971).
[34] He, Guang S.; Liu, Song H. - Physics of Nonlinear Optics, World
Scientific (1999).
216
BIBLIOGRAFIA
[35] Boyd, Robert - Nonlinear Optics, Academic Press, University of
Rochester (New York) - (Ed.) Harcourt Brace Jovanovich (1992).
[36] He, Guang S.; Liu, Song H. - Physics of Nonlinear Optics, World
Scientific (1999).
[37] McCall, S. L.; Hahn, E. L. - Self-Induced Transparency, Physical Review,
183, n°2 - pag. 457 (1969).
[38] McCall, S. L.; Hahn, E. L. - Self-Induced Transparency by pulsed
coherent light, Physical Review, 18, n°21 - pag. 908 (1967).
[39] Gibbs, H. M.; Slusher, R. E. - Peak amplification and breakup of a coherent optical pulse in a simple atomic absorber, Physical Review, 24, n°12
- pag. 638 (1970).
[40] Dodd, R. K.; Eilbeck, J. C.; Gibbon, J. D.; Morris, H. C. - Solitons and
Nonlinear Wave Equations, Academic Press (London) LTD (1982).
[41] Lamb, G. L. - Analytical description of Ultrashort Optical Pulse Propagation in a Resonant Medium, Reviews of Modern Physics, 43, n°2 - pag.
99 (1971).
[42] Ablowitz, M. J.; Segur, H. - Solitons and the Inverse Scattering
Transform, SIAM, Philadelphia (1981).
[43] Steudel, H.; Zabolotskii, A. A. - Solitons of the reduced Maxwell-Bloch
equations for circularly polarized light, Journal of Physics A: Mathematical
and General, 37 - pp. 5047-5055 (2004).
[44] Lamb, G. L. Jr. - Phase Variation in Coherent-Optical-Pulse
Propagation, Physical Review Letters, 31, n°4 - pag. 196-199 (1973).
[45] Ablowitz, M. J.; Clarkson, P. A. - Solitons, Nonlinear Evolution Equations and Inverse Scattering, Cambridge University Press, Cambridge
(1991).
[46] R.K. Dodd, J.C. Eilbeck, J.D. Gibbon, H.C. Morris, Solitons and
Nonlinear Wave Equations,Academic Press, 1982
[47] N.W. Ashcroft, N.D. Mermin, Solid State Physics, Brooks/Cole, 1976
[48] C. Mencuccini, V. Silvestrini, Fisica II, Liguori editore, 1998
[49] B.D. Josephson, Phys. Lett. 1, 251, 1962
BIBLIOGRAFIA
217
[50] V.L. Ginzburg, L.D. Landau, Zh. Eksp. Teor. Fiz. 20, 1064, 1950
[51] J. Bardeen, L.N. Cooper, J.R. Schrieffer, Phys. Rev. 108, 1175, 1957
[52] L.N. Cooper, Phys. Rev. 104, 1189, 1957
[53] V.B. Matveev, M.A. Salle, Darboux Transformations and Solitons,
Springer-Verlag, 1990
[54] D.A. Jacobson, Ginzburg-Landau equations and the Josephson effect,
Phys. Rev. 138, 1066, 1965
[55] Cai Hao, Shi Jing, Tian De-Cheng, Huang Nian-Ning, Darboux transformation method for solving the Sine-Gordon equation in a laboratory
reference, Chin. Phys. Lett. 19, 908, 2002
[56] C. Bernardini, O. Ragnisco, P.M. Santini, Metodi matematici della
Fisica, Roma, Ed. Carocci 1993.
[57] V.B. Matveev, Lett. Math. Phys. 3, 213, 1979
[58] G. Darboux, Compt. Rend. 94, 1456, 1882