Onde non lineari e solitoni - Dipartimento di Fisica
Transcript
Onde non lineari e solitoni - Dipartimento di Fisica
Università degli Studi di Roma “La Sapienza” Facoltà di Scienze Matematiche, Fisiche e Naturali Dipartimento di Fisica Laurea Specialistica in Fisica Corso di Fisica Teorica: Onde Nonlineari e Solitoni Prof. Antonio Degasperis Dispense del Corso A cura di Giorgio Ferrari, Dario Dell’Arciprete last update: 1 marzo 2008 Anno Accademico 2006-2007 2 3 “ Lo scienziato non studia la natura perché sia utile farlo. La studia perché ne ricava piacere; e ne ricava piacere perché è bella. Se la natura non fosse bella, non varrebbe la pena di conoscerla e la vita non sarebbe degna di essere vissuta.” Jules Henri Poincaré 4 Sommario Questo lavoro è la rielaborazione degli appunti del corso di Fisica Teorica: Onde Nonlineari e Solitoni tenuto dal prof. Antonio Degasperis nell’A.A. 2006/2007. Nella prima parte, si è affrontato lo studio di sistemi iperbolici e dispersivi nonlineari. Il metodo delle caratteristiche ci ha permesso di trattare il problema di Cauchy associato ad equazioni iperboliche nonlineari, mentre quello perturbativo del multiscala di ricavare delle equazioni d’onda dispersive nonlineari integrabili di generale interesse applicativo. Nella seconda parte, abbiamo studiato il metodo della trasformata spettrale, generalizzazione nonlineare della trasformata di Fourier e quello della trasformazione di Darboux. Questi due metodi permettono di investigare alcune Equazioni Differenziali alle Derivate Parziali Nonlineari Integrabili (NLPDEs) di notevole interesse fisico, tra le quali l’equazione di Schrödinger nonlineare (NLS), l’equazione di Korteweg-de Vries (KdV), l’equazione di sine-Gordon (SG), le equazioni ridotte di Maxwell-Bloch (RMB). Nelle ultime tre parti, sono raccolti alcuni lavori di approfondimento su argomenti specifici in forma di tesine prodotte dagli studenti. Tali argomenti riguardano i campi dell’Ottica Nonlineare e della Superconduttività. Lo studio qui presentato dei fenomeni fisici - ovvero, di alcuni modelli che li descrivono - sottolinea la potenza e l’utilità dei metodi matematici studiati durante il corso (metodo perturbativo multiscala, trasformata spettrale, trasformata di Darboux). Indice I Onde Non Lineari 10 1 Propagazione ondosa 1.1 Onde dispersive ed iperboliche: una prima classificazione 1.2 Esempi sulla determinazione della ω(k) . . . . . . . . . . 1.2.1 L’equazione di Schrödinger . . . . . . . . . . . . . 1.2.2 L’equazione di Klein-Gordon (K-G) . . . . . . . . 1.2.3 L’equazione di Korteweg-de Vries (KdV) . . . . . 1.3 L’equazione di continuità . . . . . . . . . . . . . . . . . . 1.4 Equazione delle onde e propagazione iperbolica lineare . 1.4.1 Propagazione iperbolica lineare con dissipazione . 1.5 Flusso quadratico e onde di shock . . . . . . . . . . . . . 1.5.1 Tempo critico . . . . . . . . . . . . . . . . . . . . 2 L’equazione di Burgers 2.1 Verso l’equazione di Burgers 2.1.1 Tempo critico . . . . 2.2 L’equazione di Burgers . . . 2.3 Gerarchia di Burgers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Propagazione ondosa in fluidi e solidi 3.1 Meccanica dei Fluidi e Curve Caratteristiche 3.2 Esempi . . . . . . . . . . . . . . . . . . . . . 3.2.1 L’onda di shock . . . . . . . . . . . . 3.2.2 Un’equazione lineare . . . . . . . . . 3.3 Onde sonore in un fluido . . . . . . . . . . . 3.4 Propagazione del suono in un solido elastico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 11 13 13 13 14 15 16 19 21 22 . . . . 24 24 25 26 29 . . . . . . 33 33 35 35 36 37 39 4 Caratteristiche 40 4.1 Caso scalare : N = 1 . . . . . . . . . . . . . . . . . . . . . . . 40 4.1.1 Vantaggi del metodo delle caratteristiche . . . . . . . . 41 4.2 Caso vettoriale . . . . . . . . . . . . . . . . . . . . . . . . . . 42 6 INDICE 4.2.1 4.2.2 4.2.3 A e B matrici N × N diagonali . . . . . . . . . . . . . 42 A e B matrici N × N generiche . . . . . . . . . . . . . 43 Gli Invarianti di Riemann . . . . . . . . . . . . . . . . 45 5 Leggi di conservazione 47 6 Multiscale expansion and integrability of dispersive wave equations 51 6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 6.2 Nonlinear Schroedinger type model equations and integrability 62 6.3 Higher order terms and integrability . . . . . . . . . . . . . . . 73 7 Onde elettromagnetiche nei mezzi nonlineari 7.1 Modello classico di dielettrico . . . . . . . . . 7.1.1 Teoria perturbativa e la NLS . . . . . . 7.2 L’equazione VNLS . . . . . . . . . . . . . . . 7.2.1 Caso di un’onda risonante . . . . . . . 7.2.2 Caso di due onde non risonanti . . . . 7.3 Generazione della 2a armonica : 2HG . . . . . 7.4 Caso di due onde risonanti: 3WRI . . . . . . . . . . . . . . . . . . . . . 8 Dielettrico quantistico 9 Derivazione dell’equazione di Korteweg-de Vries II Solitoni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 77 79 86 86 89 90 91 97 105 109 10 Il Metodo della Trasformata Spettrale 110 10.1 Introduzione alla trasformata spettrale . . . . . . . . . . . . . 110 10.1.1 La trasformata inversa di Fourier come problema RH . 111 10.1.2 Dipendenza parametrica dal tempo . . . . . . . . . . . 114 10.2 La trasformata spettrale . . . . . . . . . . . . . . . . . . . . . 116 10.2.1 Problema spettrale diretto . . . . . . . . . . . . . . . . 120 10.2.2 Problema spettrale inverso . . . . . . . . . . . . . . . . 121 10.2.3 Problema RH corrispondente . . . . . . . . . . . . . . 122 10.2.4 Formulazione alternativa del problema inverso attraverso le equazioni di Fredholm . . . . . . . . . . . . . . . 125 10.2.5 Dipendenza parametrica di u(x) dal tempo t . . . . . . 126 INDICE 7 11 Il Metodo di Darboux 129 11.1 La trasformata di Darboux . . . . . . . . . . . . . . . . . . . . 129 11.2 Alcune equazioni non lineari integrabili di interesse applicativo: loro Coppia di Lax e soluzione solitonica . . . . . . . . . . 132 III SIT & IST Self-Induced Transparency and Inverse Scattering Transform 136 12 Propagazione di impulsi ultracorti in mezzi risonanti 139 12.1 Effetti nonlineari coerenti di transiente . . . . . . . . . . . . . 139 12.2 Fenomenologia SIT . . . . . . . . . . . . . . . . . . . . . . . . 141 13 Derivazione delle equazioni SIT 144 13.1 Equazioni di Maxwell-Bloch . . . . . . . . . . . . . . . . . . . 144 13.2 Equazioni SIT . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 13.2.1 Sharp line limit: l’equazione di sine-Gordon . . . . . . 149 14 Inverse Scattering Transform 14.1 Introduzione al metodo . . . . . . . . . . . . . . . . . . . 14.1.1 La coppia di Lax . . . . . . . . . . . . . . . . . . 14.1.2 Il problema di Zakharov e Shabat . . . . . . . . . 14.2 Problema Diretto . . . . . . . . . . . . . . . . . . . . . . 14.3 Problema Inverso . . . . . . . . . . . . . . . . . . . . . . 14.4 Dipendenza temporale e soluzione a singolo solitone . . . 14.5 SIT come sistema di Zakharov e Shabat e soluzione finale 14.6 Osservazioni finali . . . . . . . . . . . . . . . . . . . . . . IV Sull’Equazione di Sine-Gordon Giunzione Josephson e soluzione ad un solitone . . . . . . . . . . . . . . . . 150 . 150 . 151 . 152 . 156 . 162 . 167 . 171 . 173 174 15 Lo stato superconduttivo 177 15.1 Proprietà dei superconduttori . . . . . . . . . . . . . . . . . . 177 15.2 Proprietà elettriche : Temperatura critica e conducibilità infinita178 15.3 Proprietà magnetiche : Effetto Meissner e Campo critico . . . . 179 15.4 Teoria BCS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 15.5 La teoria di Landau-Ginzburg . . . . . . . . . . . . . . . . . . 181 15.6 Supercorrente di tunneling : Gli Effetti Josephson . . . . . . . . . . . . . . . . . . . . . . . 182 8 INDICE 16 Sine-Gordon e Giunzione Josephson 183 16.1 Derivazione fisica della Sine-Gordon [46] . . . . . . . . . . . . 184 17 Equazione di Sine-Gordon e Trasformazione di Darboux 191 17.1 Il Metodo di Darboux . . . . . . . . . . . . . . . . . . . . . . 191 17.2 Soluzione ad un solitone per l’ Equazione di Sine-Gordon . . . 192 A Metodo della fase stazionaria 199 B Osservazioni sull’integrazione numerica: la discretizzazione delle PDE 201 C Coefficienti di Trasmissione e Riflessione di un’onda elettromagnetica 205 D Il Problema RH 209 Elenco delle figure 1.1 1.2 1.3 1.4 Grafico 3D della soluzione u dell’equazione ut + c ux = 0, con c = 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Curve di livello della soluzione u dell’equazione ut + c ux = 0, con c = 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Grafico della soluzione u dell’equazione ut + c ux = 0, con c = 2. Curve di livello della soluzione u dell’equazione ut + c ux = 0, con c = 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 18 19 20 12.1 Schema del processo di assorbimento indotto ed emissione stimolata. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 12.2 Evoluzione di impulsi-2π per diverse intensità. . . . . . . . . 143 16.1 Una giunzione Josephson. . . . . . . . . . . . . . . . . . . . . 184 16.2 La curva chiusa d’ integrazione C. . . . . . . . . . . . . . . . . 185 16.3 Giunzione Josephson come sistema quantistico a due stati. . . 186 17.1 soluzione di kink per la Sine Gordon con parametri : x1 = 0 , κ001 = 2.5 , λ001 = 1.5 (polo in ζ = 2i). . . . . . . . . . 198 17.2 soluzione di antikink per la Sine Gordon con parametri : x1 = 0 , κ001 = 2.5 , λ001 = 1.5 (polo in ζ = 2i). . . . . . . . . . 198 Parte I Onde Non Lineari Capitolo 1 Propagazione ondosa 1.1 Onde dispersive ed iperboliche: una prima classificazione Un’onda può essere vista come un segnale che si trasferisce da una parte di un mezzo ad un altro con una definita velocità di propagazione. Il segnale è un disturbo di qualsiasi genere che può cambiare le sue caratteristiche come velocità, ampiezza, pur rimanendo ad ogni istante di tempo facilmente localizzabile [1]. Sebbene questa definizione possa sembrare un po’ vaga, è per il momento soddisfacente; in seguito avremo modo di approfondirla e completarla. Possiamo già dare una prima classificazione delle onde. Queste si dividono in due grandi classi [1]: le onde della prima classe sono matematicamente formulate in termini di equazioni alle derivate parziali di tipo iperbolico e pertanto ci riferiremo ad esse col nome di onde iperboliche. La forma più generale di sistema iperbolico quasi lineare 1 è A(U, x, t) Ut + B(U, x, t) Ux + φ(U, x, t) = 0 , (1.1) dove l’incognita U = U(x, t) è un vettore (genericamente di dimensione N ), φ è un vettore dato e A e B sono matrici N × N . D’ora in poi adotteremo la 2 , Ux ≡ ∂U , Uxx ≡ ∂∂tU notazione Ut ≡ ∂U 2 , etc . . . . Le variabili x e t hanno ∂t ∂x significato di coordinata spaziale e temporale, rispettivamente. Delle onde della seconda classe è difficile dare una definizione generale. Come primo esempio, consideriamo, tuttavia, la generica equazione differen1 Un sistema quasi lineare è un sistema di equazioni alle derivate parziale dove le derivate più alte del vettore incognito U entrano in modo lineare. 12 Propagazione ondosa ziale scalare alle derivate parziali P u = 0, dove µ P =P (1.2) ∂ ∂ , ∂t ∂x ¶ è un polinomio (formale) a coefficienti costanti nelle derivate spaziotemporali. Diremo che l’equazione (1.2) è dispersiva [2] se: 1. Essa ammette soluzioni in forma d’onda piana u(x, t) = A eiθ(x,t) θ(x, t) = kx − ωt, dove k, ω = cost. In tal caso, le quantità k (numero d’onda = sono radici dell’equazione implicita 2π ) λ (1.3) (1.4) ed ω (pulsazione = P (−iω, ik) = 0 2π ) T (1.5) che localmente definisce la relazione di dispersione ω = ω(k) . (1.6) Ove per tale relazione sia possibile scegliere tra diverse soluzioni dell’equazione (1.5), si parla in tal caso di diversi rami della relazione di dispersione. 2. La relazione di dispersione è a valori reali, ω(k) ∈ R, ed inoltre d2 ω(k) = ω 00 (k) 6= 0, 2 dk q.o. . (1.7) La funzione ω 00 (k) prende il nome di dispersione. Possiamo anche definire la dispersione come la derivata prima rispetto a k della velocità di gruppo vg : vg (k) = dω(k) dk (1.8) che è la velocità rilevante nella descrizione della dinamica di un ‘gruppo’ di onde con una definita distribuzione di numeri d’onda. 1.2 Esempi sulla determinazione della ω(k) 13 Osservazione. La linearità della (1.2) ci consente di cercarne soluzioni nella forma di combinazione lineare di esponenziali complessi. Le equazioni che descrivono la propagazione di onde dispersive in un mezzo nonlineare possono avere la forma P u = f (u, ux , ut , . . .) che differisce dalla (1.2) perchè il termine a destra non è nullo ma è una funzione nonlineare dell’incognita u e delle sue derivate. 1.2 Esempi sulla determinazione della ω(k) Vogliamo ora riportare alcuni esempi di equazioni dispersive lineari per le quali andremo a ricavare l’espressione della relazione di dispersione. 1.2.1 L’equazione di Schrödinger L’equazione di Schrödinger libera descrive la dinamica di una particella quantistica di massa m non soggettta ad alcuna forza. Essa ha la forma ~2 i~ ut + uxx = 0 (1.9) 2m ed ammette come soluzione esponenziali complessi: u = A ei(kx−ω(k)t) (1.10) con A costante. Sostituendo la (1.10) nella (1.9), notiamo che questa è soluzione a patto che valga la relazione di dispersione ω(k) = ~ 2 k . 2m (1.11) Osserviamo che in base alla definizione (1.7), la dispersione è non nulla; il carattere dispersivo dell’onda è garantito dalla presenza del coefficiente immaginario. 1.2.2 L’equazione di Klein-Gordon (K-G) L’equazione di K-G è storicamente la prima generalizzazione dell’equazione di Schrödinger nell’ambito di una teoria quantistico-relativistica. Essa ha la forma utt − c2 uxx + ν 2 u = 0 (1.12) 14 Propagazione ondosa dove c ha le dimensioni di una velocità, ν quelle di una frequenza e u(x, t) è un campo scalare. Ripetendo gli stessi ragionamenti svolti per l’equazione di Schrödinger, otteniamo la relazione di dispersione: √ ω(k) = ± c2 k 2 + ν 2 (1.13) che presenta due rami1 . 1.2.3 L’equazione di Korteweg-de Vries (KdV) L’equazione di Korteweg-de Vries (KdV) è un valido modello nella descrizione della dinamica di onde d’acqua con lunghezza d’onda molto maggiore della profondità del canale. Essa è un’equazione non lineare della forma ut + uxxx = −uux . (1.14) Essendo il termine non lineare uux di ordine quadratico, la dinamica di piccole perturbazioni v dalla posizione di equilibrio u0 = cost, ovvero u(x, t) = u0 + v(x, t), può essere descritta dalla KdV linearizzata: vt + vxxx + u0 vx = 0 (1.15) che presenta la relazione di dispersione ω(k) = −k 3 + u0 k . (1.16) L’onda è pertanto dispersiva con velocità di gruppo vg = −3k 2 + u0 . Osservazione. La distinzione sinora condotta fra onde iperboliche ed onde dispersive non è netta, nè restrittiva, nel senso che vi sono casi in cui le equazioni di evoluzione possono essere viste contemporaneamente come iperboliche e dispersive. Questo è il caso dell’equazione di K-G (1.12) che possiamo riscrivere fattorizzando l’operatore di D’Alembert come (∂t − c∂x )(∂t + c∂x ) u + ν 2 u = 0 . (1.17) Chiamando v = ut + c u x , la (1.17) diventa vt − c v x + ν 2 u = 0 . 1 La radice negativa della (1.13) è causa nell’ambito della teoria di campo relativistica di problemi interessanti. 1.3 L’equazione di continuità 15 Le ultime due equazioni definiscono un sistema di due equazioni accoppiate alle derivate parziali nelle incognite u e v, che possiamo riscrivere nella forma (1.1) con: µ ¶ µ ¶ µ ¶ µ ¶ u 1 0 c 0 −v U= , A= , B= , φ= . v 0 1 0 −c ν2 u 1.3 L’equazione di continuità Consideriamo nuovamente un generico sistema iperbolico nella forma (1.1). Ci chiediamo: perchè nella (1.1) compaiono solo le derivate prime del vettore incognito rispetto al tempo e rispetto allo spazio e non anche derivate di ordine superiore, come ci si potrebbe aspettare da una generalizzazione della legge di Newton f = ma? La risposta a questa domanda la si trova osservando che in fisica parecchi modelli iperbolici derivano direttamente dalla fluidodinamica che molto spesso si basa su leggi di conservazione o di continuità, ossia su relazioni differenziali del primo ordine della forma ρt (x, t) + jx (x, t) = 0 (1.18) dove i campi ρ(x, t) e j(x, t) sono rispettivamente definiti come densità lineare e corrente di densità anche nota come flusso. L’equazione (1.18) prende il nome di equazione di continuità ed esprime la conservazione della densità ρ nel tempo. Supponiamo difatti che sia assegnato un campo di densità di massa ρ(x, t). Ciò significa che ρ(x, t)dx è la massa che compete al volume dx attorno al punto x. Sia (α, β) un intervallo dell’asse reale x. La conservazione della massa implica che la sua variazione nell’unità di tempo sia esprimibile come la differenza tra il flusso entrante (in α) e quello uscente (in β): Z Z β d β ρ(x, t) dx = −j(β, t) + j(α, t) = − jx (x, t) dx . (1.19) dt α α che è, non dipendendo gli estremi d’integrazione dal tempo: Z β [ ρt + jx ] dx = 0 . (1.20) α Dovendo valere la (1.20) per ogni volume infinitesimo dx, si ottiene l’espressione dell’equazione di continuità (1.18): ρt + jx = 0 (1.21) In seguito, partiremo proprio dalla (1.21) per descrivere vari modelli di fenomeni fisici, semplicemente variando la natura del flusso j. 16 Propagazione ondosa 1.4 Equazione delle onde e propagazione iperbolica lineare Consideriamo la più nota fra le equazioni iperboliche lineari: l’equazione delle onde nel caso unidimensionale: utt − c2 uxx = 0 (1.22) in cui u è un campo scalare o vettoriale dello spazio-tempo. Notiamo anzitutto che possiamo riscrivere la (1.22) in termini delle due nuove variabili α = x − ct e β = x + ct in modo che diventi uαβ = 0 . di cui la soluzione generale si ricava subito per integrazione: u = F (α) + G(β) = F (x − c t) + G(x + c t) (1.23) dove F e G sono funzioni arbitrarie di classe C 1 delle due nuove variabili α e β. Osservando la forma della (1.23), si comprende immediatamente che questa è la combinazione di due onde che viaggiano con velocità c nei due versi opposti dell’asse x senza modificare nel tempo il proprio profilo. Se si vuole studiare la propagazione di una sola onda è sufficiente notare [1] che la (1.22) si fattorizza in (∂t − c ∂x ) (∂t + c ∂x ) u = 0 (1.24) (come già mostrato nella (1.17)) e tener conto di uno solo di questi due fattori. Dunque, il più semplice problema iperbolico lineare è dato da ut + c u x = 0 (1.25) u(x, 0) = f (x) dove la c è ancora la velocità di propagazione dell’onda. Osserviamo che se u è soluzione della ((1.25)), data la omogeneità nelle derivate, anche u0 ≡ uξ con ξ = x − ct sarà soluzione. La soluzione del problema ((1.25)) è allora u(x, t) = f (x − c t) .1 1 (1.26) É ovvio che nel caso in cui scegliessimo nella ((1.25)) il primo fattore per il quale c ha segno negativo, l’onda traslerebbe verso valori negativi delle x, cioè verso sinistra. 1.4 Equazione delle onde e propagazione iperbolica lineare 17 Difatti se f 0 = fξ con ξ = x − c t, allora: ut + c ux = −c f 0 + c f 0 = 0 (1.27) u(x, 0) = f (x) Dal momento che la relazione di dispersione associata alla ((1.25)) è ω(k) = c k , l’onda non è dispersiva essendo d2 ω(k) = 0. d2 k Riportando l’andamento della u(x, t) nello spazio delle fasi Ω ≡ (x, t), si osserva che le linee di livello sono rette parallele, ognuna delle quali parte da un diverso punto dell’asse delle x con pendenza data dal valore della velocità di propagazione c. Nelle figure 1.1 e 1.3, riportiamo due andamenti delle soluzioni della ((1.25)) insieme alle corrispondenti curve di livello in 1.2 e 1.4: si osservi il cambiamento di pendenza dovuto ad una differente scelta del valore della velocità di propagazione c. 20 10 0 -10 -20 -10 10 5 0 -5 -5 0 5 10 -10 Figura 1.1: Grafico 3D della soluzione u dell’equazione ut + c ux = 0, con c = 1. 18 Propagazione ondosa 10 5 0 -5 -10 -10 -5 0 5 10 Figura 1.2: Curve di livello della soluzione u dell’equazione ut + c ux = 0, con c = 1. A volte il problema della ricerca delle giuste condizioni iniziali e delle corrette condizioni al contorno è di grande importanza e di non semplice risoluzione: può capitare infatti che una scelta inappropriata porti al contrastare dell’equazione stessa con le condizioni assegnate o a situazioni di incompatibilità tra le condizioni al contorno e quelle iniziali. Ritorneremo comunque più avanti su questo punto. Cercando un’estensione non lineare della ((1.25)), il più semplice esempio lo si ottiene considerando la velocità c come funzione del disturbo locale u [1]. In tal caso, la ((1.25)) si modifica in ut + c(u) ux = 0 (1.28) e dallo studio di quest’equazione, che sarà oggetto di discussione nel paragrafo 1.5, si possono derivare tutte le idee ed i risultati essenziali riguardo le onde iperboliche non lineari. 1.4 Equazione delle onde e propagazione iperbolica lineare 10 19 10 0 5 -10 -10 0 -5 -5 0 5 10 -10 Figura 1.3: Grafico della soluzione u dell’equazione ut + c ux = 0, con c = 2. 1.4.1 Propagazione iperbolica lineare con dissipazione Modifichiamo la ((1.25)) aggiungendovi un termine dissipativo sorgente o forzante σ(x, t): ut + c ux + τ1 u = σ(x, t) 1 τ u ed una (1.29) u(x, 0) = F (x) Il termine τ1 u(x, t), con [τ ] = [t−1 ], si presenta come un termine dissipativo. Immaginiamo difatti, per il momento, che σ(x, t) = 0. Allora dalla (1.28) possiamo cercare una soluzione nella forma Z +∞ u(x, t) = Ak ei(k−ω(k)t) dk . −∞ Essenso la relazione di dispersione associata alla (1.28) ω(k) = ck + abbiamo Z +∞ u(x, t) = −∞ i , τ t Ak ei(kx−ckt) e− τ Fb(k) dk , 20 Propagazione ondosa 10 5 0 -5 -10 -10 -5 0 5 10 Figura 1.4: Curve di livello della soluzione u dell’equazione ut + c ux = 0, con c = 2. Ossia un pacchetto di onde che al crescere del tempo diminuiscono esponenzialmente la propria ampiezza. τ è il tempo dopo cui l’ampiezza si è ridotta di un fattore 1/e. Dalla sorgente possiamo invece aspettarci la formazione di altre onde dalla forma che caso per caso dovrà essere specificata. Il metodo di risoluzione parte da una trasformazione di coordinate capace di porre l’equazione (1.29) in una forma più semplice e conveniente. Passiamo allora dalle vecchie variabili (u, x) alle nuove (w, y) definite da: t u(x, t) = e− τ w(y, t) (1.30) y = x − ct lasciando invariata la variabile temporale t. Sostituendo le (1.30) nella (1.29), una volta operate le opportune derivate nelle variabili t ed x, otteniamo t wt = e τ σ(y + c t, t) . Integriamo la (1.31) per ricavare la w: Z t t0 w(y, t) = F (y) + dt0 e τ σ(y + ct0 , t0 ) . 0 (1.31) (1.32) 1.5 Flusso quadratico e onde di shock 21 Sfruttando la (1.30) ritorniamo alla u, ottenendo la soluzione generale della (1.29): Z u(x, t) = e − τt t F (x − ct) + dt0 e− t−t0 τ σ(x − c(t − t0 ), t0 ) . (1.33) 0 1.5 Flusso quadratico e onde di shock Riprendiamo ora l’equazione di continuità (1.21) 1 e consideriamo il caso in cui il flusso presenti termini lineari e quadratici in u: ut + jx = 0, con j = c u + a 2 u . 2 Un flusso che dipende dal quadrato della densità u non è una pura complicazione matematica del problema, ma è ciò che realmente accade nella dinamica dei fluidi. Esplicitiamo allora la forma dell’equazione di continuità sostituendo a j la sua espressione polinomiale in u ed otteniamo il problema al valore iniziale ut + c ux + au ux = 0 (1.34) u(x, 0) = u e(x) Osserviamo che i primi due termini del membro di sinistra dell’equazione sono quelli già incontrati nella ((1.25)). Il nostro interesse è dunque capire l’effetto del terzo termine non lineare u ux . Prima di procedere coi calcoli, osserviamo che possiamo riscrivere la (1.34) forma ut + (c + au) ux = 0, con c > 0 e a > 0 . (1.35) La (1.35) può essere vista come l’equazione di evoluzione di un’onda che viaggia con velocità lineare in u: c(u) = c + au; pertanto grandi valori di u viaggiano più velocemente di piccoli valori di u e cosı̀ la cresta dell’onda supera tutti gli altri punti. Questo fenomeno porta inevitabilmente al frangersi dell’onda - cioè, matematicamente, all’esistenza di un punto di singolarità e ad una conseguente perdita di univocità nel profilo. Esiste cosı̀ un tempo finito in cui il gradiente di u assume valore infinito. Tale tempo è detto tempo minimo di rottura ed il fenomeno associato è conosciuto come frangersi dell’onda (wave breaking). 1 Qui indicheremo la densità ρ con la lettera u. 22 Propagazione ondosa Della (1.34), possiamo cosı̀, in analogia con la soluzione della ((1.25)), dare la soluzione in forma implicita: u(x, t) = ũ(x − ct − atu) , (1.36) che evidentemente soddisfa alla condizione iniziale. La (1.36) verifica inoltre la (1.35), infatti sostituendo: ũ0 (−c − au − at ut ) + (c + a u)ũ0 (1 − at ux ) = −atũ0 (ut + c ux + au ux ) cioè ut + c ux + au ux = −atũ0 (ut + c ux + au ux ) ⇒ ⇒ (1 + at ũ)(ut + c ux + au ux ) = 0 . Dato che il primo termine è non nullo, otteniamo nuovamente l’espressione dell’equazione di partenza, e ciò conclude la verifica. 1.5.1 Tempo critico Vogliamo ora determinare il tempo critico o tempo minimo di rottura dell’onda, Tc , noto come l’istante al quale si verifica lo shock per cui ux = ∞ 2 . Matematicamente Tc è l’istante che delimita la regione massimale dello spaziotempo entro cui la soluzione del problema di Cauchy relativo alla situazione fisica può essere definita, visto che per t = Tc tale soluzione sviluppa una discontinuità e che per t ≥ Tc il profilo diventa una funzione a molti valori. Prendiamo la soluzione (1.36) e deriviamola rispetto ad x: ux = ũ0 [1 − at ux ] dalla quale si ricava ux = ũ0 , 1 + atũ0 con a > 0 e t > 0 . (1.37) Deduciamo che il comportamento futuro dipende in modo completo dalle condizioni iniziali, ovvero dal profilo iniziale dell’onda u e. 0 Se la ũ è negativa il denominatore della (1.37) può anche annullarsi. Definiamo allora min ũ0 (x) = −m, m > 0 (1.38) x∈R 2 Nel caso multidimensionale, l’ovvia estensione è ottenuta sostituendo all’operatore ∂x , l’operatore ∇. 1.5 Flusso quadratico e onde di shock 23 sostituiamo questa definizione nella (1.37) e ci chiediamo quale sia il tempo Tc tale che: 1 − aTc m = 0 , da cui l’espressione del tempo critico come tempo minimo di rottura dell’ onda: 1 Tc = . (1.39) am L’interpretazione della (1.39) è semplice: più grande è il valore della costante di accoppiamento a, quindi più è non trascurabile il contributo nonlineare, meno tempo si impiega a raggiungere lo shock; anche il profilo iniziale ha un ruolo importante nel manifestarsi del fenomeno d’urto, a seconda che descriva una forma iniziale più o meno ripida. Capitolo 2 L’equazione di Burgers 2.1 Verso l’equazione di Burgers Continuiamo col modificare l’equazione iperbolica lineare ((1.25)) aggiungendovi altri termini e cercando di capire quali siano gli effetti generati. Riprendiamo la (1.34) e teniamo conto di un ulteriore termine dissipativo 1 u: τ ut + c ux + au ux + τ1 u = 0 (2.1) u(x, 0) = u e(x) già incontrato nella (1.29). Ricordiamo che per risolvere il problema (1.29) avevamo impiegato la trasformazione di variabili (1.30) che aveva permesso di determinarne la soluzione nella forma (1.33). La difficoltà in questo caso è rappresentata dalla presenza del termine non lineare che non permette più alla trasformazione (1.30) di semplificare notevolmente il problema. La (1.30) applicata alla (2.1) restituisce difatti il problema: t wt + c wx + ae− τ w wx = 0 (2.2) w(x, 0) = w(x) e non più semplice da risolversi del (2.1) Osservazione. La (2.2) non è un’equazione autonoma, ovvero i coefficienti non sono più costanti, ma dipendono dalle varivabili indipendenti x e t. Avere un’equazione di tipo autonomo risulta essere molto comodo, infatti da questa proprietà se ne può derivare immediatamente un’altra molto importante: quella di essere invariante sotto traslazioni spazio-temporali. Conseguentemente, da questa, sfruttando il teorema di Nöether, si deduce che energia ed impulso sono conservati. 2.1 Verso l’equazione di Burgers 25 Consideriamo per il momento un’immediata generalizzazione della (2.2) t sostituendo al posto di a e− τ una generica funzione del tempo A(t): wt + c wx + A(t)w wx = 0 . (2.3) In analogia con la (1.34), proponiamo la seguente soluzione in forma implicita: w(x, t) = ũ(x − ct − B(t)w) . (2.4) Sostituendo la (2.4) nella (2.3): ũ0 [−c − Ḃw − Bwt + c (1 + Bwx ) + Aw (1 − Bwx )] = 0 , sfruttando la (2.3) ed il fatto che w(x) e = u e(x) , si ricava la condizione cui deve soddisfare B(t) affinchè la (2.4) sia soluzione del problema (2.3): Ḃ = A , cioè B(0) = 0. Z t B(t) = A(t0 )dt0 . (2.5) 0 t Riprendiamo il caso specifico in cui A(t) = a e− τ ). Dalla (2.5) segue: B(t) = t a (1 − e− τ ) τ e quindi la soluzione generale in forma implicita è ³ ´ ´ a³ − τt w(x, t) = ũ x − ct − 1−e w . τ 2.1.1 (2.6) Tempo critico Determiniamo il valore del tempo critico per il problema (2.1). Come al solito siamo interessati a trovare il primo istante di tempo in cui si presenta la singolarità. Quanto ci aspettiamo è che per un’opportuna scelta dei parametri caratteristici del problema l’effetto dissipativo riesca a frenare la formazione di un’onda di shock. Consideriamo la derivata della w rispetto ad x: t wx = ũ0 [1 − aτ (1 − e− τ )wx ], con a > 0 ed esplicitiamo in funzione della wx : wx = ũ0 t 1 + aτ (1 − e− τ )ũ0 (2.7) 26 L’equazione di Burgers Osserviamo che la (2.7) porta alla (1.37) nel limite in cui τ −→ ∞, cioè nel caso di un tempo di dissipazione infinito. Definiamo allora il minimo della derivata ricalcando la (1.38) e mast simizziamo il termine (1 − e− τ ) con 1. La singolarità sarà evitata se 1 − amτ > 0 cioè se 1 . am Se quindi la dissipazione diventa rilevante il fenomeno del frangersi dell’onda viene frenato. τ< 2.2 L’equazione di Burgers Continuiamo col modificare la forma del flusso j nell’equazione di continuità ρt + jx = 0. Aggiungiamo in j un nuovo termine dipendente dal gradiente della densità che equivale a considerare eventuali effetti diffusivi derivanti da perdite del sistema 1 . L’espressione di j è quindi 1 j = c ρ + a ρ2 − ν ρx 2 (2.8) con ν > 0. Il problema che si ottiene impiegando la (2.8) nell’equazione di continuità, ha la forma: ut + c ux + au ux = ν uxx (2.9) u(x, 0) = u0 (x) La (2.9) può essere vista come il caso unidimensionale delle ben più complesse equazioni di Navier-Stokes in grado di descrivere fenomeni di turbolenza per un fluido incomprimibile. L’equazione di Burgers rientra nell’insieme delle equazioni c-integrabili, cioè quelle equazioni non lineari che possono essere linearizzate attraverso una trasformazione lineare 2 . 1 Matematicamente, ciò vuol dire che stiamo trattando sistemi di tipo parabolico, e non più iperbolico. Immaginiamo ad esempio di lavorare con un fluido contenuto in un recipiente non ermetico. 2 Nel nostro caso la trasformazione che linearizzerà la Burgers sarà nella sola variabile dipendente u, ma per altre equazioni si possono operare trasformazioni anche sulle più coordinate. 2.2 L’equazione di Burgers 27 La (2.9) rappresenta inoltre un modello adatto alla descrizione di sistemi nei quali si combinino effetti legati alla propagazione non lineare e a quella diffusiva [1]. La ricerca della soluzione per l’equazione di Burgers consiste nell’effettuare una trasformazione linearizzante (dalle variabili di partenza u alle nuove variabili ψ che specificheremo in seguito) la quale permette di eliminare il termine non lineare e conduce ad un’equazione del tipo: ψt + c ψx = ν ψxx . (2.10) che, eliminando il termine cψx con una trasformazione di Galileo, possiamo ricondurre all’equazione del calore. Osservazione. L’equazione di Riccati. Consideriamo la seguente equazione ordinaria nella funzione y(x), nota col nome di equazione di Riccati: y 0 = c0 (x) + c1 (x) y + c2 (x) y 2 (2.11) É possibile determinare una trasformazione differenziale (non algebrica) che linearizza la (2.11) 1 . Poniamo dunque: y=α z0 d = α log(z) z dx (2.12) e sostituiamo la (2.12) nella ((14.72)), ottenendo: 02 z 00 z02 z0 2z α + α − α 2 = c0 + c1 α + c2 α 2 z z z z z 0z 0 (2.13) 02 e scelta α = − c12 , riusciamo ad eliminare il termine quadratico zz2 . Notiamo che l’ordine dell’equazione differenziale è passato dal primo al secondo e questo potrebbe farci pensare che il problema è stato solamente complicato 2 . In realtà abbiamo ottenuto un grande vantaggio: il termine non lineare, presente nella (2.11), non compare più nella (2.13); abbiamo dunque linearizzato l’equazione di partenza, ed è questo il grande vantaggio della trasformazione. Ritorniamo alla equazione di Burgers. In sostanza, il nostro problema consiste nel trovare una trasformazione che ci permetta di passare dalla (2.9) 1 La trasformazione prende spunto dalla forma della derivata di un rapporto: il termine quadratico a denominatore ottenuto dalla derivazione del rapporto, può essere sfruttato per eliminare il contributo non lineare (anch’esso quadratico) a numeratore. 2 In generale, nel caso in cui i coefficienti dell’equazione sono non costanti, non sappiamo trovare una soluzione esatta all’equazione. 28 L’equazione di Burgers alla (2.10). Notiamo innanzitutto che possiamo riscrivere la (2.9) nella forma di equazione di continuità: 1 ut = (νux − cu − au2 )x , 2 (2.14) simile alla forma dell’equazione di Riccati (2.11). Poniamo allora: u=α ψx ψ (2.15) ed andiamo a sostituire nella (2.14), ottenendo à ut = µ ¶2 ! ψxx ψx2 ψx 1 2 ψx να − να 2 − cα − α a . ψ ψ ψ 2 ψ x Scegliendo in modo opportuno il coefficiente α: α=− 2ν , a siamo in grado di eliminare i termini quadratici, arrivando a µ ¶ 2ν ψxx ψx . ut = − ν −c a ψ ψ x (2.16) Ricordando la trasformazione (2.15) ed integrando la (2.16) rispetto ad x otteniamo: ψxx ψx (log(ψ))t = ν − c + γ(t) (2.17) ψ ψ dove γ(t) è una funzione che possiamo subito eliminare attraverso una nuova definizione della variabile. Dalla (2.17), discende pertanto: ψt + c ψx = ν ψxx , l’equazione del calore. Osservazione. La trasformazione che linearizza la Burgers (e che ci porta ad una equazione simile a quella del calore a meno di un termine di propagazione) è detta trasformazione di Cole-Hopf. I passi svolti per effettuare la trasformazione sono riportati nel seguente schema: 2.3 Gerarchia di Burgers u(x, 0) Cole-Hopf 29 Burgers −→ u(x, t) ↓ ψ(x, 0) ↑ Eq.Calore −→ −1 Cole-Hopf ψ(x, t) Riassumiamo di seguito le formule di trasformazione: 2ν ψx u(x, t) = − a ψ R ψ(x, t) = Γ(t) e− 2νa xx0 u(x0 ,t)dx0 (2.18) dove Γ(t) è una funzione arbitraria. Il problema di Cauchy associato all’equazione di Burgers si risolve quindi nel modo seguente: 1. Dal dato iniziale u(x, 0) = ũ(x), si ricavaRil corrispondente dato iniziale − a x ũ(x0 )dx0 , dove x0 e Γ(0) sono della ψ, cioè ψ(x, 0) = ψ̃(x) = Γ(0) e 2ν x0 costanti arbitrarie; ad esempio, si potrebbe scegliere un profilo in cui x0 = −∞ e si potrebbe porre Γ = 1 dato che tale funzione non entra nella definizione di u; 2. Si calcola l’evoluzione temporale della ψ: ψ̃(x) −→ ψ(x, t) ; attraverso l’equazione del calore; 3. Si ritorna alla u(x, t), nota ψ(x, t), usando la trasformazione di ColeHopf inversa: 2ν ψx (x, t) . u(x, t) = − a ψ(x, t) 2.3 Gerarchia di Burgers Le proprietà di linearizzabilità non appartengono solo all’equazione di Burgers, ma è possibile individuare una classe di equazioni, o meglio, una gerarchia di equazioni linearizzabili tramite la trasformazione di Cole-Hopf. Lo 30 L’equazione di Burgers scopo ora è individuare tale gerarchia. Consideriamo nuovamente la forma dell’equazione di Burgers (2.9) “pulita”dalle costanti 1 : ut + uux = uxx , che possiamo anche riscrivere come equazione di continuità: ut = (ux + u2 )x . Come visto, la trasformazione che linearizza la Burgers è la trasformazione di Cole-Hopf: ψx u= (2.19) ψ che porta all’equazione del calore ψt = ψxx . Poichè dalla (2.19) si ricava immediatamente u= ψx −→ ψx = uψ , ψ possiamo riscrivere l’equazione del calore come un sistema di due equazioni differenziali nella sola variabile ψ: ψx = u ψ (2.20) 2 ψt = (ux + u ) ψ Notiamo però che tale sistema è sovradeterminato essendo il numero delle equazioni maggiore di quello delle incognite, ed ammette perciò come soluzione unica la banale, data da ψ = 0. Per ricercare delle soluzioni non banali, dobbiamo imporre delle condizioni particolari sulla u affinché il sistema risulti compatibile. La condizione di compatibilità è data dal teorema di Schwartz sulle derivate parziali miste 1 , ψxt = ψtx . 1 La pulizia, cioè l’opportuna ridefinizione delle costanti del problema, la si può effettuare attraverso dei cambiamenti di sistemi di riferimento ed attraverso adeguati riscalamenti delle variabili. Nel caso specifico della (2.9) abbiamo posto: c = 0 con una trasformazione di Galileo, e a = −2 e ν = 1. 1 Nel caso a più dimensioni, si considera il gradiente ∇. 2.3 Gerarchia di Burgers 31 Dalla (2.20): ψxt = ut ψ + uψt = [ut + u(ux + u2 )]ψ ψtx = [(ux + u2 )x + (ux + u2 )u]ψ e dal Lemma di Schwartz: ut = (ux + u2 )x che è proprio la Burgers. L’equazione di Burgers può essere quindi interpretata come condizione di compatibilità del sistema sovradeterminato e quindi come condizione di integrabilità della (2.20). Estendiamo tale ragionamento ad altre equazioni modificando l’equazione del calore in ψt = ψxxx , (2.21) sempre con la condizione ψx = uψ. Calcoliamo l’espressione del termine dispersivo sfruttando la trasformazione di Cole-Hopf: ψxxx = [(ux + u2 )x + (ux + u2 )u]ψ = (uxx + 3u ux + u3 )ψ In questo caso 1 , la condizione di compatibilità è ut = uxxx + 3u2x + 3u uxx + 3u2 ux . n Si può generalizzare in ψt = ∂∂xψn , trovando per ogni ordine n una nuova equazione di compatibilità del tipo µ ¶ ∂ nu ut = Fn u, ux , . . . , n . ∂x Cerchiamo ora di determinare una formulazione più compatta della gerarchia di Burgers. Esplicitiamo la trasformazione di Cole-Hopf attraverso una trasformazione di gauge sull’operatore differenziale. Partendo da u= 1 ψx = (log(ψ))x = φx . ψ Quest’equazione non ha evidenti applicazioni in Fisica, ma è speciale perchè linearizzabile con la trasformazione di Cole-Hopf. Contrariamente, la (2.9) può essere un buon modello per studiare il flusso di acqua in un canale sotto opportuni regimi (ad esempio, di grandi lunghezze d’onda, come già anticipato per la KdV, nel caso di assenza di dispersione.) 32 L’equazione di Burgers Definiamo l’operatore D = e−φ ∂x eφ , tale che D1 = φx = u D2 1 = Du = ux + u2 D3 1 = uxx + 3ux u + u3 .. . ¡ ¢n n D = e−φ ∂x eφ = e−φ ∂xn eφ L’ equazione che si ottiene all’ n-esimo ordine possiamo riscriverla di conseguenza come: ut = (Dn 1)x . L’equazione di Burgers appare pertanto come secondo membro di una gerarchia di equazioni di evoluzione, tutte linearizzabili ed integrabili, tramite una trasformazione di Cole-Hopf, e tutte caratterizzabili come condizioni di compatibilità di sistemi sovradeterminati quale il (2.20). Capitolo 3 Propagazione ondosa in fluidi e solidi 3.1 Meccanica dei Fluidi e Curve Caratteristiche Abbiamo visto come la diversa scelta della corrente j nell’equazione di continuità ci abbia portato ad equazioni ogni volta sempre differenti. A partire da ρt + jx = 0 (3.1) e scegliendo: cρ cρ + j(x) = cρ + , equazione di propagazione lineare a 2 ρ2 a 2 ρ2 + νρx , equazione di Burgers , equazione dell’ onda di shock siamo giunti a tre equazioni differenti, ognuna in grado di modellizzare sistemi fisici diversi. Nell’ambito della Fluidodinamica, è naturale interpretare la densità ρ come la densità di massa del fluido , e la corrente j come il flusso : j = ρv con v velocità delle particelle costituenti il sistema. La relazione di continuità ci permette cosı̀ di legare i due campi di densità e di velocità del fluido: ρt + (ρ v )x = 0 (3.2) 34 Propagazione ondosa in fluidi e solidi Tuttavia perchè i due campi possano essere determinati univocamente occorre introdurre un’altra relazione. Se il fluido non è soggetto a forze esterne, possiamo pensare che un’altra grandezza conservata sia la densità di quantità di moto q: q = ρv soddisfacente anch’essa ad un’equazione di continuità del tipo: (ρ v )t + (ρ v 2 )x = 0 (3.3) Abbiamo cosı̀ un sistema di due equazioni che possiamo sperare di risolvere nei due campi incogniti di densità di massa e di velocità. Sfruttando le due equazioni a disposizione riscriviamo il sistema nella forma: ρ(x, 0) = ρ0 (x) ρt + (ρ v )x = 0 , (3.4) vt + v v x = 0 , v(x, 0) = v0 (x) di due equazioni accoppiate. La seconda equazione è proprio l’equazione dell’onda di shock di cui conosciamo la soluzione implicita: v(x, t) = v0 (x − v(x, t) t) (3.5) con v0 profilo iniziale dell’onda. Nota la v(x, t) possiamo procedere con l’integrare la prima delle (3.4): ρt + ρ v x + v ρx = 0 (3.6) Cerchiamone una del tipo: ρ = ρ(x(s), t(s)) tale che la derivata totale della ρ rispetto al parametro caratteristico s sia data da dρ dx dρ dt dρ = + (3.7) ds dx ds dt ds Notiamo che la variazione totale di ρ rispetto ad s è uguale a − vx ρ solo se valgono le: dx dt = v(x(s), t(s)) , = 1 (3.8) ds ds Le curve x = x(t) e t = t prendono il nome di curve caratteristiche del sistema e rappresentano le traiettorie seguite dalle particelle del fluido nel piano (x, t). 3.2 Esempi 35 Lungo le traiettorie vale cosı̀: dρ = − ρ(x(t), t) vx (x(t), t) dt (3.9) che, nota v(x(t), t) dalla (3.5), può essere integrata restituendo la soluzione della (3.4): Rt 0 0 0 (3.10) ρ(x(t), t) = ρ (x(0), 0) e 0 dt vx (x(t ),t ) Se lungo le curve caratteristiche la densità di massa è costante, l’idea è quella di fissare un punto nel piano (x, t), seguire la caratterisica che vi passa fino a che questa non si interseca con l’asse delle ascisse t = 0 e determinare cosı̀ il valore che la ρ assume in (x, t), noto il valore del dato iniziale ρ (x, 0). 3.2 3.2.1 Esempi L’onda di shock Esercizio: Ricavare la soluzione implicita 3.5 del problema al valore iniziale: vt + v v x = 0 v(x, 0) = f (x) servendosi del metodo delle caratteristiche. Soluzione : Parametrizziamo il campo delle velocità come: v = v(x(s), t(s)) e calcoliamone la derivata totale rispetto al parametro s: dv dv dx dv dt = + ds dx ds dt ds che risulta nulla se e solo se: dt = 1, ds dx = v ds da cui: t = s, x(t) = v t + x0 Sappiamo che il campo presenta un profilo iniziale f (x) = v(x, 0) che calcolato lungo le caratteristiche restituisce: v(x0 , 0) = f (x0 ) = f (x − v t) = v(x, t) 36 Propagazione ondosa in fluidi e solidi essendo la velocità costante lungo le curve caratteristiche. Notiamo che la caratteristica x(t) è una retta nel piano (x, t) con coefficiente angolare dato dal valore della velocità nel punto dell’ asse delle ascisse (x0 , 0). Pertanto ogni curva presenterà un proprio coefficiente angolare in generale diverso da quello dell’altra potendo variare il parametro x0 da −∞ a +∞. Esisterà cosı̀ un punto in cui due o più curve caratteristiche verranno ad intersecarsi: al valore dell’ordinata di tale punto diamo il nome di tempo minimo di rottura dell’onda: Tc . Da questo istante in poi il profilo dell’onda diventa a molti valori. Questa polidromia non è in generale accettabile da un punto di vista fisico. L’evoluzione del sistema per t > Tc puo’ essere descritta da un’opportuna soluzione debole (discontinua), ad un sol valore. 3.2.2 Un’equazione lineare Esercizio: Ricavare la soluzione del problema al valore iniziale: ut + τ1 (x u)x = 0 u(x, 0) = f (x) servendosi del metodo delle caratteristiche. Soluzione: Come nell’esempio precedente parametrizziamo la funzione incognita: u = u(x(s), t(s)) ed eseguiamone la derivata totale rispetto ad s ottenendo il sistema di equazioni ordinarie: dt = 1 , t(0) = 0 ds dx = xτ , x(0) = 0 ds du = − uτ , u(x(0), 0) = f (x0 ) ds da cui t x = x0 e τ , t u = f (x0 ) e− τ , t = s, che restituisce immediatamente t t u(x, t) = f (x e− τ ) e− τ . 3.3 Onde sonore in un fluido 3.3 37 Onde sonore in un fluido Nel paragrafo precedente abbiamo visto come la dinamica di un fluido possa essere descritta dal sistema (3.4). Abbiamo però anche notato come l’equazione per il campo delle velocità presenti un problema non banale: la formazione di onde di shock e la conseguente polidromia del profilo dell’onda. Possiamo cosı̀ pensare di modificare il modello aggiungendo un termine forzante che permetta di domare la formazione di singolarità. Come scegliere però tale forcing? Possiamo ipotizzare che le forze siano solo di contatto, cioè esercitate da porzioni di fluido su di altre porzioni di fluido infinitesimamente vicine tra loro. Se inoltre richiediamo che lo sforzo, cioè l’azione elementare di contatto, sia puramente normale alla superficie di separazione fra due strati contigui di fluido, otteniamo il sistema di equazioni 1 [6]: ρt + (ρ v )x = 0 vt + v vx = − ρ1 px (3.11) p = p (ρ) con p funzione scalare della densità cui diamo il nome di pressione. L’equazione per il campo delle velocità è la versione unidimensionale dell’Equazione di Eulero per i fluidi 2 . Sfruttando l’ultima delle (3.11) possiamo riscrivere: ρt + (ρ v )x = 0 (3.12) dp vt + v vx = − ρ1 ( dρ ) ρx Notiamo che la derivata di p rispetto a ρ ha le dimensioni di una velocità al quadrato e pertanto chiamiamo: dp = c2 (ρ) dρ 1 La richiesta che lo sforzo sia puramente normale si traduce nel richiedere che l’energia del sistema sia una costante del moto. Assumere che la forza di contatto contenga anche una componente parallela alla superficie di separazione delle due porzioni di fluido, permette di passare dall’Equazione di Eulero a quella di Navier-Stokes [5]. 2 In generale la pressione potrebbe dipendere anche dalla temperatura ma se si ammette che, a causa di condizioni ambientali stazionarie e di una sufficiente lentezza del moto, la temperatura rimanga costante, possiamo supporre che la pressione dipenda solamente dalle densità del fluido. 38 Propagazione ondosa in fluidi e solidi Introducendo il vettore a 2 componenti µ ¶ ρ u= , v possiamo riscrivere il sistema (3.12) nella forma: µ ¶ v ρ ut + ux = 0 . 1 2 c (ρ) v ρ (3.13) Rispetto al (3.4), il problema è ora ben piu’ complicato essendo le due equazioni ora accoppiate in maniera non banale. Possiamo però pensare di estrarre dal problema informazioni comunque interessanti linearizzando le (3.13) e studiando la dinamica di una piccola perturbazione apportata allo stato di equilibrio: ρ = ρ0 , v = 0. Scriviamo cosı̀: ρ = ρ0 + r(x, t) (3.14) v = 0 + v(x, t) con r(x, t) e v(x, t) ordine ε. Trascurando i termini O (ε2 ) otteniamo il sistema: rt + ρ0 vx = 0 v + t 1 ρ0 (3.15) c2 (ρ0 ) rx = 0 che restituisce immediatamente l’equazione delle onde per la densità r(x, t): rtt − c2 (ρ0 ) rxx = 0 (3.16) Osserviamo subito che la velocità di propagazione del disturbo è la derivata della pressione rispetto alla densità calcolata per ρ = ρ0 ; segue quindi che in un fluido incomprimibile, come ad esempio l’acqua, la perturbazione si propaga ad una velocità molto alta. Se supponiamo la validità di una legge di stato del tipo: p = A ργ ³ con γ = è data da: cP cV ´ > 1, allora la velocità dell’onda, ad esempio di un’onda sonora, c = p A γ ρ0 γ−1 . Il punto u = (ρ0 , 0) è quindi un punto di equilibrio stabile essendo la densità limitata nel tempo superiormente dal valore ρ = ρ0 . 3.4 Propagazione del suono in un solido elastico 3.4 39 Propagazione del suono in un solido elastico Nei solidi la forza che mantiene gli atomi nelle posizioni cristalline è in prima approssimazione elastica. Sia u(x, t) il campo degli spostamenti degli ioni dalla loro posizione di equilibrio x al tempo t. Se identifichiamo, servendoci della Legge di Hooke: ut = v p = −λux e sostituiamo nella seconda delle (3.11), otteniamo: utt + ut uxt − 1 uxx = 0 ρ (3.17) che linearizzata restituisce: utt − λ uxx = 0 . ρ0 (3.18) La dinamica del disturbo u(x, t) della soluzione di equilibrio u = 0 è pertanto di tipo ondoso con velocità di propagazione legata alla costante elastica di Lamé λ dalla relazione: s λ c = ρ0 Capitolo 4 Caratteristiche Nel paragrafo 3.1 abbiamo introdotto la nozione di curve caratteristiche nell’ambito dello studio della dinamica di un fluido ideale non sottoposto ad alcuna forza, ed abbiamo osservato come le curve caratteristiche rappresentino la traiettoria delle particelle costituenti il fluido. Vogliamo ora soffermarci in maniera più dettagliata sul metodo delle caratteristiche nel caso più generale di un sistema iperbolico quasilineare mono e pluri dimensionale. Ci soffermeremo sui vantaggi del metodo ed introdurremo la nozione di Invarianti di Riemann. [1] Abbiamo già notato, cfr. § 1.1, che riferirsi ad un sistema iperbolico quasilineare significa assegnare una legge di evoluzione per il campo u (x, t) del tipo : A(u, x, t) ut + B(u, x, t) ux + φ(u, x, t) = 0 (4.1) con A e B, nel caso piu’ generale, matrici N × N e ϕ ed u vettori ad N componenti. Il sistema (4.1) è quindi un sistema di N equazioni nelle N componenti del vettore u. 4.1 Caso scalare : N = 1 Analizziamo come primo caso quello in cui tanto le grandezze A e B, quanto ϕ ed u sono degli scalari. La (4.1) diventa cosı̀ una sola equazione quasilineare nel campo scalare u(x, t) che vogliamo risolvere, in analogia con quanto fatto per la Meccanica dei Fluidi, servendoci del metodo delle caratteristiche: A(u, x, t) ut + B(u, x, t) ux + φ(u, x, t) = 0 , u (x, 0) = f (x) (4.2) 4.1 Caso scalare : N = 1 41 Introduciamo la traformazione: x = ξ(s) , t = τ (s) , La condizione per cui la (4.2) sia una è dξ = B(q, ξ, τ ) ds dτ = A(q, ξ, τ ) ds dq = −ϕ(q, ξ, τ ) ds u (ξ(s), τ (s)) = q(s) (4.3) derivata totale rispetto al parametro s , ξ (0) = x0 , τ (0) = 0 , q (0) = f (x0 ) (4.4) che è un sitema di tre equazioni alle derivate ordinarie nelle tre incognite ξ (s), τ (s) e q (s). Integrando le (4.4), siamo in grado di risolvere le (4.3). 4.1.1 Vantaggi del metodo delle caratteristiche Notiamo subito dalle (4.4) uno dei vantaggi introdotti dal metodo delle caratteristiche: siamo passati da un’equazione quasilineare alle derivate parziali ad un sistema di equazioni alle derivate ordinarie, in genere più conveniente sebbene il numero di equazioni da integrare sia triplicato 1 . Il secondo vantaggio apportato dal metodo delle caratteristiche trova applicazione nel campo dell’analisi numerica: la conoscenza delle curve caratteristiche e, di conseguenza, del loro andamento, suggerisce un’utile griglia in cui suddividere il piano Ω per la risoluzione di equazioni iperboliche con tecniche di calcolo numerico. Cerchiamo ora di capire qual è l’altro grande vantaggio apportato al metodo delle caratteristiche. Sappiamo che perchè la soluzione di una PDE sia unica occorre assegnare il problema di Cauchy associato: bisogna cioè definire le condizioni iniziali e le condizioni al contorno, delle quali queste ultime non sempre semplici da scegliere. Il metodo delle carateristiche ci permette di risolvere anche questo problema. Immaginiamo che la condizione iniziale sia definita nell’intervallo dell’asse x reale: (a, b) e che le condizioni al contorno corrispondano all’aver assegnato i valori del campo u agli estremi. Attraverso il metodo delle caratteristiche siamo in grado di poter conoscere il valore della soluzione u (x, t) in ogni punto del piano (x, t) a patto che questo appartenga al dominio d’ influenza, cioè alla regione di piano 1 Chiaramente risolvere il sistema (4.4) non sarà sempre più semplice che risolvere la PDE di partenza. 42 Caratteristiche contenuta fra le curve caratteristiche passanti per i due estremi a e b. Ci chiediamo a questo punto: come posso determinare la soluzione in un punto P = (x, t) di qualche interesse fisico, se questo non appartiene al dominio d’influenza? Con le condizioni al contorno che abbiamo assegnato non c’è modo di determinare il valore del campo in P . Il metodo delle caratteristiche, però, ci permette di costruire le giuste condizioni al contorno per trovare risposta al nostro problema. Se, ad esempio, x > b e t < 0, noto il grafico delle curve caratteristiche possiamo pensare di assegnare come condizione al contorno il valore del campo u sulla semiretta verticale x = b sperando sull’esistenza di una particolare traiettoria che parte da un punto di tale retta e passa per il punto P. Studiando il sistema caratteristico riesco quindi ad assegnare le giuste condizioni al contorno tali da garantire l’esistenza della soluzione inn ogni punto del piano (x, t). 4.2 4.2.1 Caso vettoriale A e B matrici N × N diagonali Iniziamo col considerare il caso in cui il campo reale u non sia un campo scalare, bensı̀ un campo vettoriale ad N componenti definito nello spazio tempo (x, t). Il passaggio da uno spazio unidimensionale ad uno N dimensionale complica molto il problema che risulta ora definito da N equazioni alle derivate parziali accoppiate: la presenza delle matrici A e B fa in generale svanire la possibilità di riscrivere ciascuna delle PDEs di partenza come una derivata totale rispetto ad un parametro caratteristico. Scriviamo il problema nella forma: N X (k) (j) = 0 [Ajk ut + Bjk u(k) x ]+ϕ (4.5) j=1 ed assumiamo, per semplicità, che le matrici A e B siano diagonali ad autovalori reali cosicchè il carattere iperbolico del sistema venga garantito: Ajk = Aj δjk Bjk = Bj δjk (4.6) dove δjk è l’elemento jk della matrice di Kronecker. Con tale assunzione l’equazione per la componente j del vettore u diventa (j) Aj ut (j) + Bj u(j) = 0 x + ϕ (4.7) 4.2 Caso vettoriale 43 Per ogni componente j posso cosı̀ introdurre la curva nel piano Ω: x = ξj (sj ) , t = τj (sj ) (4.8) che permette di riscrivere l’equazione di partenza nella forma: du(j) + ϕ(j) = 0 dsj (4.9) a patto che valgano le dξj = Bj , dsj dτj = Aj dsj (4.10) Sebbene l’assunzione di partenza che le matrici in gioco fossero diagonali ha facilitato notevolmente i conti portandoci a considerare la dinamica di una componenete del campo u per volta, non ha tuttavia ancora completamente risolto il problema. Notiamo che nell’equazione (4.9) compare come termine forzante la jesima componente del vettore N dimensionale ϕ, in generale dipendente da tutte le altre N − 1 componenti del vettore incognito u. La soluzione della (4.9) sarà quindi funzione tanto della j-esima coordinata sj quanto di tutte le altre N − 1 coordinate caratteristiche. Siamo cosı̀ passati da N equazioni alle derivate parziali a 3N equazioni ancora alle derivate parziali, in generale non più semplici da risolvere di quelle di partenza. É chiaro tuttavia che i vantaggi introdotti dal metodo delle caratteristiche discussi nel § 4.1.1 restano, sebbene, in questo caso specifico il metodo non abbia semplificato di molto il problema differenziale originario. 4.2.2 A e B matrici N × N generiche Consideriamo ora il caso in cui u sia un vettore reale di N componenti e A e B generiche matrici N × N . Richiediamo ancora una volta che gli autovalori di A e B siano reali in maniera tale che il carattere iperbolico del sistema non venga meno. Il fatto che le matrici in gioco non presentino forma diagonale fa sı̀ che risulti difficile interpretare i coefficienti delle derivate temporali e spaziali del campo u come componenti del vettore tangente alla curva caratteristica. Possiamo però pensare di studiare la dinamica del sistema in un qualche sottospazio di Rn , cioè di proiettare l’equazione su un vettore non nullo v di Rn , sperando che il problema si semplifichi notevolmente. 44 Caratteristiche Se vale A ut + B ux + ϕ = 0 , allora vale anche hv | A ut + B ux + ϕi = 0 , (4.11) hA† v | ut i + hB † v | ux i + hv | ϕi = 0 (4.12) cioè dove l’espressione hv | ui identifica l’operazione di prodotto scalare tra i due vettori. Supponiamo di poter determinare un vettore w tale che † A v = τ0 w (4.13) † 0 B v = ξ w 0 0 con τ e ξ numeri reali. Il sistema (4.13) può essere pertanto riscritto nella forma: (ξ 0 A† − τ 0 B † ) v = 0 (4.14) che ammette soluzione non banale se e solo se £ ¤ det ξ 0 A† − τ 0 B † = 0 Osserviamo che il sistema (4.14) è in realtà un problema agli autovalori del tipo: (M − λI ) v = 0 (4.15) a patto di identificare −1 M ≡ A† B † , −1 I ≡ A† A† , λ ≡ τ0 ξ0 che ammette, nel caso in cui le matrici A e B non siano singolari, per il Teorema fondamentale dell’Algebra, N autovalori. La richiesta iniziale che gli autovalori siano tutti reali definisce il sistema originario come completamente iperbolico. A partire dagli N autovettori v possiamo determinare i vettori w semplicemente invertendo una delle (4.13). L’equazione (4.11) diventa cosı̀ hw | τ 0 ut + ξ 0 ux i + hv | ϕi = 0 (4.16) 4.2 Caso vettoriale 45 Si potrebbe pensare di costruire curve nel piano (x, t): x = ξ(sj ) tali che: (4.17) t = τ (sj ) dξ = ξ 0 j (ξ, τ, u) , dsj dτ = τ 0 j (ξ, τ, u) dsj in cui l’indice j si riferisce all’autovalore j-esimo del problema (4.14). Notiamo che l’integrazione delle equazioni precedenti non è immediata in quanto ξ 0 e τ 0 dipendono oltre che da ξ e τ , anche dal campo incognito u; possiamo difatti riscrivere la (4.16) nella forma hw(j) | du i + hv(j) | φi = 0 dsj che comporta la derivazione di tutte le componenti non conosciute del campo u rispetto al j-esimo parametro caratteristico. Questo approccio del problema iniziale non porta ad alcuna soluzione significativa; abbandoneremo perciò questa strada per passare al Metodo degli invarianti di Riemann. 4.2.3 Gli Invarianti di Riemann Ripartiamo dall’equazione: hw(j) | du i + hv(j) | ϕi = 0 dsj (4.18) dove l’indice j si riferisce al j-esimo autovettore del problema (4.14) e quindi alla j-esima curva caratteristica. Fissiamo ora il valore dell’indice j o, equivalentemente, osserviamo una particolare curva caratteristica: hw | du i + hv | ϕi = 0 ds (4.19) i assume la forma della potenza Riemann notò 1 che il termine hw | du ds associata ad una forza a patto di identificare : w = f e du = v, con f forza ds agente sul sistema e v velocità delle particelle costituenti il fluido. 1 B. Riemann si interessò del problema delle caratteristiche nel 1858 nella sua tesi di dottorato studiando un problema bidimensionale di gasdinamica. 46 Caratteristiche In completa analogia col richiedere che la forza sia conservativa, poniamo: µ ¶ ∂µ ∂µ ∂µ w = λ ∇µ ≡ λ , , . . . , (n) (4.20) ∂u(1) ∂u(2) ∂u con u(i) componente i-esima del vettore incognito u. Le funzioni λ e µ saranno chiaramente funzioni di u e delle coordinate spazio temporali x e t. Tale assunzione restituisce immediatamente per la (4.19) la forma h∇u µ | du i + hv | ϕi = 0 ds (4.21) che, valendo per ognuno degli N autovettori w(j) , è λj dµj + hv(j) | ϕi = 0 dsj (4.22) Con l’ipotesi aggiuntiva che la forzante ϕ sia nulla 2 , otteniamo che le µj sono costanti lungo le curve di parametro sj e pertanto prendono il nome di Invarianti di Riemann. In generale le µj sono conosciute come variabili di Riemann. Vale il seguente risultato: 1. per N = 2 le variabili di Riemann esistono sempre: il sistema è un sistema di due equazioni nelle due incognite λ e µ introdotte dalla trasformazione 4.20; 2. per N > 2 non sempre esistono le variabili di Riemann: il sistema risulta sovradeterminato. Note le variabili di Riemann µ(j) si ricostruiscono le u(j) a partire dalla trasformazione (4.20). 2 Tale ipotesi fu adottata da Riemann nel lavoro del 1858. Capitolo 5 Leggi di conservazione Il Teorema di Arnold-Liouville ci dice che se un sistema hamiltoniano ad n gradi di libertà ammette n integrali primi del moto indipendenti ed in involuzione (le cui mutue parentesi di Poisson siano nulle), allora è integrabile [8]. Il problema che vogliamo trattare in questo capitolo è la determinazione di leggi di conservazione associate a sistemi ad infiniti gradi di libertà. Per una generica equazione alle derivate parziali: ∆(x, t, u(x, t)) = 0 dove t ∈ R, x ∈ R sono le variabili temporali e spaziali e u(x, t) ∈ R la variabile dipendente, una legge di conservazione è un’equazione della forma Dt Ti + Dx Xi = 0 che è soddisfatta da tutte le soluzioni u(x, t) della PDE in esame. Ti (x, t) è detta densità conservata e Xi (x, t) flusso conservato e sono in genere funzioni dello spazio-tempo, del campo u e delle sue derivate. [3] Consideriamo, ad esempio, l’equazione delle onde per il campo scalare u(x, t) (1.22). Sappiamo che l’equazione è integrabile ed ammette come soluzione onde di traslazione: u(x, t) = F (x − ct) + G(x + ct) per due generiche funzioni F e G due volte differenziabili. 48 Leggi di conservazione Ci potremmo aspettare pertanto che, essendo il sistema in considerazione ad infiniti gradi di libertà, per una generalizzazione del Teorema di ArnoldLiouville, questa possa ammettere infinite leggi di conservazione. Sappiamo inoltre che l’equazione è invariante per traslazioni temporali e spaziali, pertanto, per il Teorema di Noether, sia l’energia che la quantità di moto totale risulteranno conservate. Come poter determinare però le altre infinite attese leggi di conservazione? Consideriamo di nuovo il sistema 3.15 rt + ρ0 vx = 0 v + t 1 ρ0 c2 (ρ0 ) rx = 0 che restituisce immediatamente l’equazione delle onde per i campi densità r(x, t) e velocità v(x, t). Introducendo il vettore a 2 componenti µ ¶ r u= v Possiamo riscrivere il sistema nella forma (3.12): µ ¶ 0 ρ0 ut + ux = 0 1 c2 0 ρ0 0 cioè ut = M u con µ M = − 0 1 c2 ρ0 0 ρ0 0 ¶ ∂x La struttura matematica con cui abbiamo a che fare è quella di un’evoluzione regolata da un’algebra non commutativa, in generale non commutando la matrice M con le altra matrici e ∂x con gli operatori moltiplicativi. Tralasciamo per il momento il caso particolare del sistema (3.15) ed occupiamoci di una generica dinamica del tipo: ut = M u con M generica matrice N × N non singolare ed u(x, t) vettore di L2 (R). Dati due vettori u1 ed u2 ne definiamo il prodotto scalare come: Z +∞ hu1 | u2 i ≡ dx u1 (x, t) u2 (x, t) (5.1) −∞ 49 Vogliamo determinare dei funzionali c(u), definiti come prodotti scalari (quindi quadratici nell’argomento), tali che ċ(u) = 0. Costruiamoli cosı̀ nella forma quadratica in u: c(u) = hu | Γ ui (5.2) con Γ operatore lineare costante nel tempo da determinare imponendo la condizione ċ(u) = 0: ċ(u) = hut | Γ ui + hu | Γ ut i = = hM u | Γ ui + hu | Γ M ui = ¡ ¢ = hu | M † Γ + Γ M ui = 0 (5.3) Dal momento che il vettore u è completamente arbitrario, la (5.3) deve valere per ogni u, da cui l’equazione operatoriale M† Γ + Γ M = 0 . (5.4) Essendo M noto perchè caratterizzante l’equazione di evoluzione in considerazione, la (5.4) si presenta come un’equazione nell’operatore Γ. Se Γ è soluzione della (5.4) anche Γ(n) = ΓM n (5.5) è soluzione per ogni n ∈ N. Infatti, sostituendo nella 5.4, si ottiene M † Γ(n) + Γ(n) M = M † Γ(n) M n + Γ(n) M n+1 = 0 che restituisce la (5.4) per ogni matrice non singolare M ¡ † (n) ¢ M Γ + Γ(n) M M n = 0 . Da tali osservazioni, segue che abbiamo trovato infinite quantità conservate cn (u) = hu | ΓM n ui (5.6) che assumeranno, dipendentemente dal problema in esame, forme diverse. Riprendiamo come esempio proprio il sistema (3.15) e cerchiamo gli operatori Γ che permettono di definire le quantità conservate (5.6). Essendo M ¶ µ 0 ρ0 ∂x M = − 1 c2 0 ρ0 0 50 Leggi di conservazione e data l’antihermitianità dell’operatore di derivazione otteniamo µ ¶ 0 ρ10 c0 2 † M = ∂x ρ0 0 La (5.4) prende la forma µ ¶ µ 0 ρ10 c0 2 ∂x Γ − Γ ρ0 0 0 1 c2 ρ0 0 ρ0 0 ¶ ∂x = 0 Richiediamo per semplicità che Γ non sia un operatore differenziale, ma una matrice a coefficienti costanti: µ ¶ ¶ µ 0 ρ10 c0 2 0 ρ0 =0 Γ−Γ 1 c2 0 ρ0 0 ρ0 0 che cerchiamo del tipo µ Γ= γ1 0 0 γ2 ¶ da cui, sfruttando la (5.4), si ottiene: µ 2 ¶ c0 0 Γ= 0 ρ20 Le altre infinite quantità conservate deriveranno direttamente dalla (5.5): µ 2 ¶n n ¶µ ∂ 0 ρ0 c0 0 (n) n Γ = (−) . 1 2 2 c 0 0 ρ0 ∂xn ρ0 0 Capitolo 6 Multiscale expansion and integrability of dispersive wave equations [Lectures given at the Euro Summer School “What is integrability?”, 13-24 August 2001, Isaac Newton, Cambridge, U. K..] 6.1 Introduction The propagation of nonlinear dispersive waves is of great interest and relevance in a variety of physical situations for which model equations, as infinitedimensional dynamical systems, have been investigated from various perspectives and to different purposes. In the ideal case in which waves propagate in a one-dimensional medium (no diffraction) without losses and sources particular progress has been made due to the discovery of integrable models whose investigation has provided important contributions to such matters as stability, wave-collisions, long-time asymptotics among others. On the mathematical side, such progress on integrable models has considerably contributed also to our present (admittedly not concise) answer to the question in the title of this School. The same question can be found in [9], and a partial guide to the vaste literature on the theory of Solitons is given in [10]. It is plain that integrable models, though both useful and fascinating, remain exceptional: nonlinear partial differential equations (PDEs) in 1+1 variables (space+time) are generically not integrable. The aim of these notes is to show how an algorithmic technique, based on perturbation theory, may be devised as a tool to establish how far is a given PDE from being integrable. This approach [11] has been known in applicative contexts [12] since 52 Multiscale expansion and integrability of dispersive wave equations several decades as it provides approximate solutions when only one, or a few, monochromatic “carrier waves” propagate in a strongly dispersive and weakly nonlinear medium. More recently [13] it has proved to be also a simple way to obtain necessary conditions which a given PDE has to satisfy in order to be integrable, and to discover integrable PDEs as well [14]. The basic philosophy of this approach is to derive from a nonlinear PDE one or many other PDEs whose integrability properties are either already known or easily found. In this respect, a general remark on this method of reduction is the following. Integrability is not a precise notion, and different degrees of integrability can be attributed to a PDE within a certain class of solutions and boundary conditions, according to the technique of solving it. For instance, C-integrable are termed those nonlinear equations which can be transformed into linear equations via a change of variables [14], and S-integrable are those equations whose solution requires the method of the spectral (or scattering) transform (see, f.i., [15]). Examples of C-integrability are the equations (ut = ∂u/∂t, ux = ∂u/∂x etc.) ut + a1 ux − a3 uxxx = a3 (3uux + u3 )x , u = u(x, t) ut + a1 ux − a3 uxxx = 3a3 c(u2 uxx + 3uu2x ) + 3a3 c2 u4 ux , (6.1) u = u(x, t) (6.2) which are both mapped to their linearized version vt + a1 vx − a3 vxxx = 0 , v = v(x, t) (6.3) the first one, 6.1, by the (Cole-Hopf) transformation u = vx /v (6.4) and the second one, 6.2, by the transformation [14] u = v/(1 + 2cw)1/2 , wx = v 2 (6.5) Well-known examples of S-integrable equations are the modified Kortewegde Vries (mKdV) equation ut + a1 ux − a3 uxxx = 6a3 cu2 ux , u = u(x, t) (6.6) and the nonlinear Schroedinger (NLS) equation ut − ia2 uxx = 2a2 ic|u|2 u , u = u(x, t) (6.7) whose method of solution is based on the eigenvalue problem ψx + ikσψ = Qψ , ψ = ψ(x, k, t) (6.8) 6.1 Introduction 53 where ψ is a 2-dim vector, σ is the diagonal matrix diag(1, -1) and Q(x, t) is the off-diagonal matrix µ ¶ 0 u Q= (6.9) −cu 0 for the mKdV equation 6.6 and (the asterisk indicates complex conjugation) µ ¶ 0 u Q= (6.10) −cu∗ 0 for the NLS equation 6.7. Here k is the spectral variable and c is a real constant. In any case, whatever type of integrability is involved, we adopt in our treatment the “first principle” (axiom) that integrability is preserved by the reduction method. Though in some specific cases, where integrability can be formulated as a precise mathematical property, one can give this principle a rigorous status, we prefer to mantain it throughout our treatment as a robust assumption. Its use, according to contexts, may lead to interesting consequences. One is that the implication that a PDE derived by the reduction method from an integrable PDE is itself integrable provides a way to obtain other (possibly new) integrable equations. On the othe hand, if a PDE, which has been obtained by reduction from a given PDE, is proved to be nonintegrable, then from our first principle it there follows that that given PDE cannot be integrable, and this implication leads to quite a number of necessary conditions of integrability. Some of these conditions are found simple and, therefore, of ready practical use. Others conditions are instead the results of lengthy algebraic manipulations which require a rather heavy computer assistance. Finally, this way of reasoning leads to the following observation, which has been clearly pointed out in [14]. Suppose the same PDE is obtained by reduction from any member of a fairly large family of PDEs; so we can call it a “model PDE”. Then the principle stated above explains why a model PDE can be at the same time widely applicable (because it derives from a large class of different PDEs) and integrable (because it suffices that just one member equation of that large family of PDEs be integrable). The most widely known example of such case is the NLS equation 6.7 which is certainly a model equation (as shown also below) with many applications (f.i. nonlinear optics and fluid dynamics [12]), and whose integrability has been discovered in 1971 [16] but it could have been found even earlier by reduction from the KdV equation ut + uxxx = 6uux (the way to infer the S-integrability of the NLS equation from the S-integrability of the KdV equation has been first pointed out in [17]), whose integrability has been unveiled in 1967 [18]. The method of reduction which we now introduce is a perturbation technique based on three main ingredients : i) Fourier expansion in harmonics, 54 Multiscale expansion and integrability of dispersive wave equations ii) power expansion in a small parameter ², iii) dependence on a (finite or infinite) number of “slow” space and time variables, which are first introduced via and ²-dependent rescaling of x and t and are then treated as independent variables. Because of this last feature this approach is also referred to as multiscale perturbation method. In order to briefly illustrate how these basic ingradients naturally come into play in the simpler context of ordinary differential equations (ODEs), let us consider the well-known Poincaré-Lindstedt perturbation scheme to construct small amplitude oscillations of an anharmonic oscillator around a stable equilibrium position. Thus our one-degree dynamical system is given by the nonlinear equation (q̇ ≡ dq/dt) q̈ + ωo2 q = c2 q 2 + c3 q 3 + . . . . , q = q(t, ²) (6.11) where the small perturbative parameter ² is here introduced as the initial amplitude, q(0, ²) = ² , q̇(0, ²) = 0 (6.12) The equation of motion 6.11 is autonomous as all coefficients ω0 , c2 , c3 , . . . . , are time-independent, and it has been written with its linear part in the lhs and its nonlinear (polynomial or, more generally, analytic) part in the rhs. In this elementary context,the model equation which is associated with this family of dynamical systems, is of course the harmonic oscillator equation, q̈ + ω02 q = 0, which obtains when the amplitude ² is so small that all nonlinear terms can be neglected. In fact, the purpose of the Poincaré- Lindstedt approach is to capture the deviations from the harmonic motion which are due to the nonlinear terms in the rhs of 6.11. Since, for sufficiently small ², the motion is periodic, namely ¶ µ 2π ,² , (6.13) q(t, ²) = q t + ω(²) it is natural to change the time variable t into the phase variable θ, θ = ω(²)t , q(t, ²) = f (θ, ²) , (6.14) even if the frequency ω(²) is not known as it is expected to depend on the initial amplitude ². Then the equations 6.11 and 6.12 now read (f 0 ≡ df /dθ) ω 2 (²)f 00 + ω02 f = c2 f 2 + c3 f 3 + . . . , f (0, ²) = ², f 0 (0, ²) = 0 (6.15) and we look for approximate solutions via the power expansions ω 2 (²) = ω02 + γ1 ² + γ2 ²2 + . . . , (6.16) 6.1 Introduction 55 f (θ, ²) = ²f1 (θ) + ²2 f2 (θ) + . . . . (6.17) We note that the periodicity condition f (θ) = f (θ + 2π) implies that ω(0) = ω0 ; inserting the expansions 6.16 and 6.17 in the differential equation 6.15 and equating the lhs coefficients with the rhs coefficients of each power of ², yields an infinite system of differential equations, the first one, at O(²), is homogeneous, while all others, at O(²n ) with n > 1, are nonhomogeneous, i.e. 00 f1 + f1 = 0 f1 (0) = 1 O(²) : (6.18) 0 f1 (0) = 0 O(²n ) : 00 fn + fn = {−n, −n + 1, . . . , −1, 0, 1, . . . , n − 1, n} fn (0) = 0 0 fn (0) = 0 (6.19) The notation in this last equation refers to harmonic expansion and it has the following meaning. Since each function fn (θ) is periodic in the interval (0, 2π), one can Fourier-expand it; however, because of the differential equaions they satisfy, only a finite number of the Fourier basis functions exp(iαθ), α being an integer, enters in their representation. This is easily seen by recursion: f1 (θ) = 21 (exp(iθ) + exp(−iθ)), and since fn (θ), for n > 1, satisfies the forced harmonic oscillator equation where the forcing term in the rhs of 6.19 is an appropriate polynomial of f1 , f2 , . . . , fn−1 , its expansion can only contain the harmonics exp(iαθ) with |α| ≤ n. Thus, the integers in the curly bracket in the rhs of 6.19 indicate the harmonics which enter in the Fourier expansion of the forcing term, and this implies that fn (θ) itself has the Fourier expansion fn (θ) = n X fn(α) exp(iαθ), n≥1 (6.20) α=−n (α) where the complex numbers fn have to be recursively computed. To this aim, it is required that also the coefficents γn in the expansion 6.16 be computed, and the way to do it is to use the periodicity condition fn (θ) = fn (θ + 2π), or, equivalently, the condition that the ²-expansion 6.17 be uniformly asymptotic (note that we do not address here the problem of conver- 56 Multiscale expansion and integrability of dispersive wave equations gence of the series 6.17 but we limit ourselves to establish uniform asymptoticity). The point is that, for each n ≥ 2, the forcing term in 6.19 contains the fundamental harmonics exp(iθ) and exp(−iθ) which are solutions of the lhs equation (i.e. of the homogeneous equation), and are therefore secular (or, equivalently, at resonance). At this point, and for future use, we observe that, in a more general setting, if v 0 (θ) − Av(θ) = w(θ) + u(θ) (6.21) is the equation of the motion of a vector v(θ) in a linear (finite or infinite dimensional) space and A is a linear operator, then, if the vector w(θ) solves the homogeneous equation, w0 (θ) − Aw(θ) = 0 (6.22) then the forcing term w(θ) in 6.21 is secular. This is apparent from the θ-dependence of the general solution of 6.21, which reads v(θ) = ṽ(θ) + θw(θ) (6.23) where ṽ(θ) is the general solution of the equation ṽ 0 (θ) − Aṽ(θ) = u(θ). In our present case, the occurence of the harmonics exp(iθ) and exp(−iθ) in the rhs of 6.19 forces the solution fn (θ) to have a nonperiodic dependence on θ, and therefore the condition that the coefficients of exp(iθ) and exp(−iθ) must vanish should be added to our computational scheme. In fact, this condition fixes the value of the coefficient γn−1 and this completes the recurrent procedure of computing, at each order in ², both the frequency ω(²) = ²0 + ω1 ² + ω2 ²2 + . . . , (6.24) and the solution f (θ, ²), see 6.17. As an instructive exercise, we suggest the reader to compute the frequency ω(²) up to O(²2 ) (answer: ω1 = 0, ω2 = −(10c22 + 9ω02 c3 )/24ω03 ). This approach has been often used in applications with the aim of computing approximate solutions; in that context the properties of the series 6.16 and 6.17 of being convergent, or asymptotic, and also uniformly so in t, is of crucial importance (see, f.i., [19] and the references quoted there), particularly when one is interested also in the large time behaviour. Our emphasis here is instead in the formal use of the double expansion (see 6.17 and 6.20) n X X q(t, ²) = ²n exp (iαθ)fn(α) (6.25) n=1 α=−n 6.1 Introduction 57 where θ = ω0 t + ω1 ²t + ω2 ²2 t + . . . and therefore here and in the following we drop any question related to convergence and approximation. Let us consider now the propagation of nonlinear waves, and let us apply the Poincaré-Lindstedt method to PDEs. For the sake of simplicity, here and also below throughout these notes, we focus our attention on the following family of first order in time equations Du = F [u, ux , uxx , . . .] , u = u(x, t), (6.26) with the assumptions that this equation be real, that the linear differential operator D in the lhs have the expression D = ∂/∂t + iω(−i∂/∂x) , (6.27) where ω(k) is a real odd analytic function, X ω(k) = a2m+1 k 2m+1 , (6.28) m=0 and that F in the rhs be a nonlinear real analytic function of u and its x derivates. For instance, the subfamily ω(k) = a1 k + a3 k 3 , F = cu3x + (c2 u2 + c3 u3 + . . .)x , (6.29) contains three S-integrable equations, i.e. the KdV equation (c = 0, cn = 0 for n ≥ 3), the mKdV equation 6.6 and the equation [20] £ ¤ ut + a1 ux − a3 uxxx = −a3 α sinh u + β (cosh u − 1) + u2x /8 ux . (6.30) Since the linearized version of the PDE 6.26, Du = 0, has the harmonic stationary wave solution u = exp[i(k0 x − ω̃0 t)] , ω̃0 = ω(k0 ) , (6.31) one way to extend the Poincaré-Lindstedt approach to the PDE 6.26 is to look for solutions, if they exist, which are periodic plane waves, u(x, t) = f (θ, ²), θ = k(²) x − ω̃(²) t, f (θ, ²) = f (θ + 2π, ²) , (6.32) together with the power expansions f (θ, ²) = ²f1 (θ)) + ²2 f2 (θ) + . . . , k(²) = k0 + k1 ² + k2 ²2 + . . . , ω̃(²) = ω̃0 + ω̃1 ²2 + ω̃2 ²2 + . . . (6.33) 58 Multiscale expansion and integrability of dispersive wave equations This approach can be easily carried out as for the anharmonic oscillator since the function f (θ, ²) does now satisfies the real ODE £ ¤ −ω̃(²)f (1) (θ, ²) + iω(−ikd/dθ)f (θ, ²) = F f, kf (1) , k 2 f (2) , . . . , k = k(²), (6.34) (j) j j where f ≡ d f (θ, ²)/dθ . Periodic plane waves in fluid dynamics have been investigated along these lines and , though exact solutions are known for instance for water waves models (such as the KdV equation) in terms of Jacobian elliptic functions (cnoidal waves), approximate expressions have been found more than a century ago (Stokes’s approximation) [1]. The class of periodic plane-wave solutions (if they exists) is too restrictive to our purpose. In fact their construction requires going from the PDE 6.26 to the ODE 6.34, a step which implies loss of information about the PDE itself. Therefore we now turn our attention to the class of solutions of the wave equation 6.26 whose leading term in the perturbative expansion is a quasi-monochromatic wave, namely a wave-packet whose Fourier spectrum is not one point but is well localized in a small interval of the wave number axis, (k − ∆k, k + ∆k), where k is a fixed real number and ∆k/k is small, Z +∞ u(x, t) ' ∆k dηA(η) exp{i[x(k + η∆k) − tω(k + η∆k)]} + c.c.; (6.35) −∞ here the amplitude A(η) is sharply peaked at η = 0, and the additional complex conjugated term is required by the condition (which we mantain here and in the following) that u(x, t) is real, u = u∗ . The perturbation formalism which is suited to deal with this class of solutions is still close to the Poincaré-Lindstedt approach to the anharmonic oscillator. In fact, let us go back to the two-index series 6.25 and substitute θ with the expansion θ = ω0 t + ω1 t1 + ω2 t2 + . . ., where we have formally introduced the rescaled ”slow” times tn = ²n t; then the formal expansion 6.25 reads q(t, ²) = n X X ²n E α qn(α) (t1 , t2 , . . .) , E ≡ exp(iω0 t) , (6.36) n=1 α=−n (α) where the functions qn depend only on the slow-time variables tn . The scheme of computation based on the expansion 6.36 is equivalent to that shown above, and it goes with inserting the expansion 6.36 into the equation 6.11, and by treating the time variables tn as independent variables. In particular the derivative operator d/dt takes the ² - expansion ¡ ¢ ¡ ¢ d E α qn(α) /dt = E α iαω0 + ²∂/∂t1 + ²2 ∂/∂t2 + . . . qn(α) , (6.37) 6.1 Introduction 59 and similarly expanding the lhs and rhs of 6.11 in powers of ² and of E finally yields a system of PDEs whose solution (after eliminating secular terms) gives the same result as the (much simpler) frequency-renormalization method based on 6.14 and 6.16. In this case the service of the multiscale technique is merely to display the three ingredients of the approach we use below for PDEs, i.e. the power expansion in a small parameter ², the expansion in harmonics and the dependence on slow variables. Let us now proceed with applying the multiscale perturbation approach to solutions of the PDE 6.26 along the line discussed above. As a preliminary observation, in the case the PDE 6.26 is linear, i.e. F = 0, the expression 6.35 is exact as it yields the Fourier representation of the solution. If we introduce the harmonic solution E(x, t) ≡ exp[i(kx − ωt)] , ω = ω(k) , (6.38) the small parameter ² ≡ ∆k/k and the slow variables ξ ≡ ²x, tn ≡ ²n t for n ≥ 1, the Fourier integral takes the expression of a “carrier wave” whose small amplitude is modulated by a slowly varying envelope u(x, t) = ²E(x, t)u(1) (ξ, t1 , t2 , . . .) + c.c. . (6.39) Since the envelope function is (see 6.35) Z +∞ £ ¤ (1) u (ξ, t1 , t2 , . . .) = k dη A(η) exp i(kηξ − kω1 ηt1 − k 2 ω2 η 2 t2 − . . .) , −∞ (6.40) it satisfies the set of PDEs ∂tn u(1) = (−i)n+1 ωn ∂ξn u(1) , n = 1, 2, . . . (6.41) In order to write down these equations, we have assumed that the dispersion function ω(k) is analytic at k, so that its Taylor series ω(k + ²ηk) = ∞ X n=0 ωn η n k n ²n , ωn (k) = 1 dn ω(k) , n! dk n (6.42) is convergent. This shows that one has to ask that u(1) depends on as many rescaled times tn as the number of nonvanishing coefficients ωn in the expansion 6.42; f.i. if ω(k) is a polynomial of degree N , the multiscale method requires the introduction of at most N new independent time variables, this being a rule which holds also in the nonlinear case. More interestingly, we note that in the linear case, because of the hierarchy of compatible evolution 60 Multiscale expansion and integrability of dispersive wave equations equations 6.41 with respect to the slow times, the commutativity property [∂tn , ∂tm ] = 0 is trivially satisfied, whereas, in the nonlinear case this commutativity condition is of paramount importance and is strictly related to integrability in more than one way. Indeed, the purpose of section 3 is to show that the picture we have outlined in the linear case can be extended to the nonlinear case under appropriate conditions. The main consequence of nonlinearity is, of course, the generation of higher harmonics in addition to the fundamental one 6.38, together with the occurrence of undesired secular terms which force the amplitudes to grow with time. Killing the secular terms to keep the amplitudes bounded for all times is the basic way to derive a number of evolution equations. An old result in this direction, first derived in nonlinear optics and in fluid dynamics [12], is the dependence of the lead(1) ing order amplitude u1 (ξ, t1 , t2 ) of the fundamental harmonic on the first (1) two slow times t1 and t2 , namely u1 traslates with respect to t1 with the group velocity ω1 and evolves in t2 according to the NLS equation. Thus, at this order, the solution u(x, t) of the PDE 6.26 is approximated by the expression where u(x, t) = ² v(ξ − ω1 t1 , t2 ) E(x, t) + c.c. + O(²2 ) , (6.43) ¡ ¢ vt2 = iω2 vξξ − 2c|v|2 v ≡ K2 (v) . (6.44) Thus the natural point to start from is the harmonic expansion of the solution u(x, t), u(x, t) = +∞ X u(α) (ξ, t1 , t2 , . . .)E α (x, t) , (6.45) α=−∞ where E(x, t) si defined by 6.38 and, because of the reality of u, the coefficients u(α) satisfy the reality condition u(α)∗ = u(−α) . (6.46) As for the slow variables, and guided by the approximate expression 6.35 where we set ∆k = ²p k, with p > 0, we define ξ = ²p x , tn = ²np t , p > 0 , n = 1, 2, . . . . (6.47) As a consequence, the differential operators ∂t and ∂x , as acting on the expansion (1.39), are replaced by the power expansions ∂x → ∂x + ²p ∂ξ , ∂t → ∂t + ²p ∂t1 + ²2p ∂t2 + . . . . (6.48) 6.1 Introduction 61 Inserting these expansions in the linear operator D, see 6.27, yield the formula £ ¤ D u(α) E α = E α D(α) u(α) , (6.49) which defines the differential operator D(α) acting only on the slow variables 6.47. Moreover, like the operators 6.48, also the differential operator D(α) has a power expansion in ², (α) (α) (α) D(α) = D0 + ²p D1 + ²2p D2 + . . . , (6.50) the first term being just the multiplication by the constant (α) D0 = i [ ω(αk) − α ω(k)] , (6.51) (α) since DE α = D0 E α . Let us consider now the nonlinear part, namely the rhs of the PDE 6.26. Since F is supposed to be an analytic function, its decomposition in harmonics, F [u, ux , uxx , . . .] = +∞ X h i (β) (β) F (α) u(β) , uξ , uξξ , . . . E α , (6.52) α=−∞ which is implied by the expansion 6.45, defines the functions F (α) of the amplitudes u(0) , u(±1) , u(±2) , . . . and their derivatives with respect to ξ. For future reference, we note that the functions F (α) have the gauge property of transformation F (α) → exp(iαθ)F (α) when the amplitude u(α) in its arguments is replaced by exp(iαθ)u(α) , where θ is an arbitrary constant. Combining now the expansion 6.45, and the definition 6.49, with the expansion 6.52 shows that the PDE 6.26 is equivalent to the (infinite) set of equations D(α) u(α) = F (α) , (6.53) which, since also F (α) obviously satisfies the reality condition F (α)∗ = F (−α) , (6.54) needs to be considered only for nonnegative α, α ≥ 0. In the following sections, the equations 6.53 will be investigated after expanding the amplitudes u(α) in power of ². In this respect, it should be pointed out that the approximate expression 6.35 of the solution u(x, t) clearly shows that the smallness of u may originates in two ways, one from ∆k/k 62 Multiscale expansion and integrability of dispersive wave equations and the other from the amplitude A. In fact, we find it convenient to define ² by requiring that u itself be O(²), and this explains why we have introduced the so far arbitrary parameter p in the rescaling 6.47 which define the slow variables. In section 2, since we will look at the equations 6.53 at the lowest order in ², only few harmonics will be considered. This analysis, when carried out in a systematic way, eventually yields a certain number of model PDEs in the slow variables, whose integrability properties, if known, lead to formulate necessary conditions of integrability for the original PDE 6.26. In the third section we tackle instead the problem of pushing the investigation of 6.53 to higher orders in the ²- expansion. This analysis displays interesting connections with integrability and it gives a way to set up an entire hierarchy of necessary conditions of integrability. We end this introduction with few remarks. First, for pedagogical reasons, we have constrained the family of PDEs considered here to satisfy appropriate conditions in order to simplify the formalism. These limitations are mainly technical and do not play an essential role. Fore instance, extensions of the family of PDEs 6.26 may include differential equations of higher order in t for complex vector, or matrix, solutions in higher spacial dimensions. Second, we have confined our interest to the multiscale technique which yields, by reduction, model equations of nonlinear Schroedinger type. Similar arguments, however, do apply also to the weakly dispersive regime where the prototypical model equation is instead the KdV equation [21], or to the resonant, or nonresonant, interaction of N wavers [14]. Finally, a different approach which similarly yields necessary conditions for integrability, and has common features with the one described in Section 3, has been introduced by Kodama and Mikhailov [22]. There the perturbation expansion is combined with the property of integrable systems of possessing symmetries, and the order-by-order construction of such symmetries is the core of the method. 6.2 Nonlinear Schroedinger type model equations and integrability In this section we investigate the basic equations 6.53 which have been obtained via the harmonic expansion 6.45 of a quasi - monochromatic solution of the PDE 6.26. Here we consider only the lowest significant order in the small parameter ², but before illustrating our computational scheme, which is mainly based on [23], [24] that the interested reader should consult for 6.2 Nonlinear Schroedinger type model equations and integrability 63 details and generalizations, we point out first the main ideas and aims of our approach. Consider first that, once the ²- expansion is introduced into the equation 6.53, the linear operator D(α) takes the expression 6.50 whose coefficients, in addition to the first one 6.51, are easily found to be Dn(α) = ∂tn − (−i)n+1 ωn (αk)∂ξn , n≥1 , (6.55) where the function ωn (k) is defined by 6.42. Then, at the lowest order in (α) ², the operator D(α) in 6.53 should be replaced by the coefficient D0 = (α) i[ω(αk) − αω(k)]; therefore, if D0 is not vanishing, the equation 6.53 for u(α) becomes merely an algebraic equation whose solution is readily obtained. Because of this simple property, we term “slave harmonics” those harmonics (α) such that, for their corresponding integer α, the quantity D0 does not vanishes, i.e. ω(αk) − α ω(k) 6= 0. (6.56) (α) If instead α is such that D0 = 0, then we say that its corresponding harmonic is at resonance or, shortly, that α is a “resonance”. The important feature of resonant harmonics is that their amplitude satisfies a differential equation in the slow variables (see 6.55) rather than an algebraic equation as for slave harmonics. Of course, the harmonics α = 0, ±1 are always (i.e. for any wave-number k) at resonance (recall that ω(k) is on odd function, (α) ω(−k) = −ω(k)). However it may well happen that D0 = 0 for |α| 6= 0, 1 for a particular value of k; in this case also their corresponding harmonics are accidently (i.e. not for all values of k) at resonance and their amplitudes are expected to satisfy differential equations which may be coupled to the equations for the fundamental harmonics amplitude. The repeated application of this argument to the next term of the expansion of D(α) will be shown below to lead to the introduction of weak and strong resonances, and the systematic investigation of all resonant cases does finally produce a list of ten model PDEs of nonlinear Schroedinger type. These evolution equations are reported and discussed below in this secion, together with the implication of these findings with respect to integrability. The starting ansatz is the ²-dependence at the leading order of the amplitude u(α) in 6.45, u(α) = ²1+γα ψα , α = 0, ±1, ±2, . . . , (6.57) where the parameters γα are nonnegative, γα ≥ 0, and, of course, even, γ−α = γα , with the condition γ1 = 0, (6.58) 64 Multiscale expansion and integrability of dispersive wave equations which fixes the small parameter ². Looking only at the lowest order in ² greatly simplifies our analysis in two ways: it restricts our attention only to the first harmonics |α| = 0, 1, 2 and, secondly, it allows the amplitudes ψα , see 6.57, to be considered as functions only of the slow variables ξ, t1 and t2 . Moreover, since ξ and t1 are of the same order in ² (see 6.47), it turns ont convenient to replace the slow space coordinate ξ with the new coordinate ξ = ²p (x − V t) (6.59) in the frame moving with the group velocity, V = dω(k)/dk = ω1 (k) (6.60) of the fundamental harmonics (|α| = 1), so that the amplitudes ψα depend throughout this section only on two variables, ψα = ψα (ξ, τ ) , τ ≡ t2 = ²2p t. (6.61) As an additional remark, the following treatment suggests that it is convenient to take advantage of the fact that the nonlinear function in the rhs of the PDE 6.26 under investigation could be an x-derivative of a (polynomial or analytic) function, namely that it could be written as ∂xh F (u, ux , uxx , . . .), where it is advisable to choose for the integer h its highest possible value. This is only a technical point as the final results can be also derived, though more painfully, by starting with a lower value of h or by setting tout court h = 0, as in 6.26. Thus we rewrite the PDE 6.26 Du = (∂/∂x)h F [u, ux , uxx , . . .], (6.62) where F [u, ux , uxx , . . .] = ∞ X ∞ X ∞ X m=2 j1 =0 j2 =j1 ... ∞ X (m) cj1 ,...,jm u(j1 ) u(j2 ) . . . u(jm ) , (6.63) jm =jm−1 with u(j) ≡ (∂/∂x)j u(x, t). Thus the family of PDEs we consider below is fully characterized by the following parameters: the real coefficients a2m+1 defining the dispersion function ω(k), see 6.27 and 6.28, the integer h (see (m) 6.62) and the real coefficients cj1 ,...,jm , see 6.63. The method described here provides necessary conditions which these parameters have to satisfy in order that the PDE 6.62 be integrable. By taking into account the x-derivative in the rhs of 6.62 together with the ansatz 6.57, we first rewrite the equation 6.53 in the form ²1+γα D(α) ψα = (iαk + ²p ∂ξ )h F (α) . (6.64) 6.2 Nonlinear Schroedinger type model equations and integrability 65 We obtain thereby nontrivial evolution equations for the quantities ψα (ξ, τ ) by first taking the limit ² → 0 (after having made an appropriate choice for the exponents γα and p) and then by performing some algebraic calculations and also some “cosmetic rescalings” on the dependent and independent variables, so as to present the results in neater form. Let us first treat the linear part, namely the left-hand-side of 6.62. Clearly we get M X D(α) = ²2p ∂/∂τ + i ²pm Aα(m) (k) (−i∂/∂ξ)m (6.65) m=0 and A(0) α (k) = ω(αk) − α ω(k) , (6.66) A(1) α (k) = ω1 (αk) − ω1 (k) , 1 ds A(s) (k) = ω(q)|q=αk , s ≥ 2. α s! dq s (6.67) (6.68) (s) Here we evidenced the coefficients Aα (k) with s = 0, 1 because of the special role they play in the following. Note that by definition (0) (1) A1 = A1 = 0 ; (6.69) this corresponds to the pivotal role of the component ψ1 (ξ, τ ) which is the amplitude of the fundamental harmonic. It is indeed clear from 6.64 and 6.65 that the value of γα which is determined by the requirement to match the dominant terms as ² → 0 of the quantities in the right-hand-side of 6.64, (1) (0) tends to be smaller if Aα vanishes and even smaller if in addition also Aα vanishes and so on. Of course the smaller is the value of γα , the larger is the role that the component ψα (ξ, τ ) plays in the regime of weak nonlinearity (small ²). This qualitative notion is given quantitative substance below; but already at this stage it indicates that the different possibilities discussed below emerge from various different assumptions about the vanishing of some (s) of the quantities Aα (k); a vanishing which might occur for all values of k, as it were for structural reasons, or it might happen only for some special value of k, on which attention may then be focussed. For these reasons, in the following the harmonic α is called weak resonance (0) (1) if Aα (k), but not Aα (k), vanishes, (1) A(0) α (k) = 0 , Aα (k) 6= 0, (6.70) while we say that the harmonic α is a strong resonance if, in addition to (0) (1) Aα (k), also Aα (k) vanishes, (1) A(0) α (k) = Aα (k) = 0. (6.71) Multiscale expansion and integrability of dispersive wave equations 66 Of course, one could consider also the case of even stronger resonances by (2) requiring that, in addition to 6.71, also the condition Aα (k) = 0 be satisfied. However these cases are obviously less generic, and they will be not treated here. Let us now consider the nonlinear rhs of 6.64. Inserting the ansatz 6.57 in the rhs of 6.63 yields the expression F (α) = µ X ²m−1 fα(m) + O(²µ ), (6.72) m=2 with fα(m) = X {α1 ≤α2 ≤...≤αm ; Pm j=1 ²Γ {g(α1 , α2 , . . . , αm )ψα1 . . . ψαm + O(²p )} ; αj =α} (6.73) here Γ ≡ γα 1 + γα 2 + . . . + γα m , (6.74) and for the constants g we get g(α1 , . . . , αm ) = X (m) (ik)J cj1 ,...,jm {0≤j1 ≤...≤jm } X m Y (αρ )jρ , (6.75) P (α1 ,...,αm ) ρ=1 P where J = j1 + j2 + .. + jm , and the notation P (α1 ,...,αm ) indicates the sum over all permutations of the indices α1 , . . . , αm having different values. Additional, drastic simplifications occur when further steps are taken towards implementing the ² → 0 limit; indeed in this context we shall generally need to consider only the quadratic and cubic terms of F in 6.62, because the contribution of all other terms turn out to be negligible. Hence 6.64 can now be written, in more explicit form, as follows: h i £ (2) ²2p ψ1,τ − iA1 ψ1,ξξ = (ik)h ²1+γ0 g(0, 1)ψ0 ψ1 + + ²1+γ2 g(−1, 2)ψ1∗ ψ2 + ¤ + ²2 g(1, 1, −1)|ψ1 |2 ψ1 £ (1) ²γ0 +p [A0 ψ0,ξ + ²p ψ0,τ ] = (∂/∂ξ)h ²hp ²1+2γ0 g(0, 0)ψ02 + + ²g(−1, 1)|ψ1 |2 + ¤ + ²1+2γ2 g(−2, 2)|ψ2 |2 (6.76) (6.77) 6.2 Nonlinear Schroedinger type model equations and integrability 67 h i (0) (1) (2) ²γ2 {iA2 ψ2 + ²p A2 ψ2,ξ + ²2p ψ2,τ − iA2 ψ2,ξξ } = ¤ £ = (2ik)h ²g(1, 1)ψ12 + ²1+γ0 +γ2 g(0, 2)ψ0 ψ2 . (6.78) The coefficients g which appear in these PDEs are found, via the formula 6.75, to have the expressions (2) g(0, 0) = c0,0 , (2) g(0, n) = 2c0,0 + (6.79) ∞ ∞ X X (2) (2) (−1)j (nk)2j c0,2j + i (−1)j (nk)2j+1 c0,2j+1 , n 6= 0 , j=1 j=0 (6.80) µ g(n1 , n2 ) = 1 1 − δn1 n2 2 +i ∞ X ¶ "X j ∞ ³ 0 ´ X 0 (2) 2j−j 0 j 0 j 2j (−1) k cj 0 ,2j−j 0 nj1 n2j−j + n n + 2 1 2 j 0 =0 j=0 (−1)j k 2j+1 j X (2) cj 0 ,2j+1−j 0 ³ 0 0 nj1 n2j+1−j 2 + 0 j0 n2j+1−j n2 1 ´ # , j 0 =0 j=0 (6.81) con n1 6= 0, n2 6= 0 . The equations 6.76, 6.77 and 6.78 contain terms of different order in the small parameter ε, and this requires some explaning. In the first place, many other terms which might have been present have been omitted because they are of higher order in ε than terms which are present. This is for instance the case for cubic terms in the right-handside of 6.76 involving ψ0 , ψ2 , which are of higher order than quadratic terms which are present. Of course this argument, and analogous ones below, are applicable only if the relevant dominant terms are indeed present, namely provided they are not absent. Note that such an absence might happen for some “accidental reason (possibly only for some special value of k) or for a “structural reason, for instance if the original equation 6.62 contains nonlinear terms only of cubic order and higher, but no quadratic terms. The second point that must be emphasized about 6.76, 6.77 and 6.78 is that these equations generally contain contributions of different orders in ε, and only those of lowest order are relevant. The identification of these depends of course on the assignments of specific numerical values to p (of course p > 0) and to the paramenters γα (of course γα ≥ 0, α = 0, 1, 2). These assignments are dictated by the structure of these equations 6.76, 6.77, 6.78 and by assumptions which have to be made about the vanishing or (m) nonvanishing of the quantities Aα (k), m = 0, 1, 2, α = 0, 1, 2, appearing in 68 Multiscale expansion and integrability of dispersive wave equations the left-hand-side of 6.77 and 6.78; hence one must consider many subcases, according to which resonance are present. Let us reemphasize that, in this treatment which yields the results reported here, the assumption is made that all nonlinear terms which might be present at the lowest order in ε are indeed present, namely that no nonlinear terms are missing due to “accidental” cancellations or “structural” causes. Whenever this hypothesis turns out not to hold, the analysis leading to the assignment of the exponents p and γα must be performed anew by taking into account higher order terms in ε. This analysis can be based on the equations 6.76, 6.77 and 6.78 only if all the relevant higher order terms are already present in the r.h.s. of these equations, otherwise account of additional terms in the ε-expansion is necessary. Explicit instances of this phenomenon are reported in [23]. i iϕ,t +νϕ,xx = λ|ϕ|2 ϕ ii iϕ,t +νϕxx = λ(1) ψ0 ϕ iii v (6.84) (2) χ,x = λ ϕ 2 iϕ,t +νϕ,xx = λ(1) ψ0 ϕ + λ(2) χϕ∗ ψ0,x = λ(3) |ϕ|2 χ,x = λ(4) ϕ2 (6.85) iϕ,t +νϕ,xx = λ(1) ψ0 ϕ vi (6.83) ψ0,x = λ(2) |ϕ|2 iϕ,t +νϕ,xx = λ(1) χϕ∗ iv (6.82) (6.86) ψ0,t = λ (2) ψ02 (3) + λ |ϕ| 2 iϕ,t +νϕ,xx = λ(1) ψ0 ϕ (6.87) ψ0,t = λ (2) 2 (|ϕ| )x 6.2 Nonlinear Schroedinger type model equations and integrability vii iϕ,t +νϕ,xx = λ(1) |ϕ|2 ϕ + λ(2) ψ0 ϕ viii ix (6.88) (3) 2 ψ0,t = λ (|ϕ| )xx iϕ,t +νϕ,xx = λ(1) ψ0 ϕ + λ(2) χϕ∗ ψ0,t = λ(3) (|ϕ|2 )x χ,x = λ(4) ϕ2 (6.89) iϕ,t +ν (1) ϕ,xx = λ(1) χϕ∗ x 69 (6.90) iχ,t +ν (2) (2) χ,xx = λ ϕ 2 iϕ,t +ν (1) ϕ,xx = λ(1) ψ0 ϕ + λ(2) χϕ∗ ψ0,t = λ(3) ψ02 + λ(4) |ϕ|2 + λ(5) |χ|2 iχ,t +ν (2) χ,xx = λ(6) ψ0 χ + λ(7) ϕ2 (6.91) Let us emphasize that the coefficients ν and λ appearing in different equations are different quantities, even if they have the same symbol. Note moreover that the equations featuring in the left-hand-side the zeroth harmonic ψ0 are real , hence all coefficients (both ν and λ) appearing in them are real; while for the other equations the coefficients ν are real, the coefficients λ are generally complex. It should be also clear that the structure of these equations reflects the existence of structural and/or accidental resonances. In fact, since the fundamental harmonic α = 1 is, by definition, strongly at resonance, its amplitude ϕ always satisfies a PDE which is firs-order in time and second-order in space; on the other hand, the zeroth harmonic is always weakly resonating and either it does not appear at all when h ≥ 1 (because the first-order differential equation it satisfies can be explicity integrated) or, when h = 0, it couples to the other resonating harmonics through a first-order differential equation which can be either in x or in t depending on whether it is weakly or, respectively, strongly resonanting. Similarly for the amplitude χ of the second harmonic: if this harmonic is slave, it does not appear in the model equation, otherwise it satisfies a coupled differential equation which is first-order in x if it is only weakly resonanting, and is first-order in t and second order in x if it is also strongly at resonance. 70 Multiscale expansion and integrability of dispersive wave equations The derivation by reduction of these ten nonlinear Schroedinger type model equations is the starting point to make contact with integrability. Indeed, from the knowledge that a model equation is not integrable we deduce that that particular original PDE in the class 6.62, from which the model equation follows by reduction, cannot be integrable. To the aim of illustrating the way to convert this general statement in concrete results we select out of the ten equations (2.22-31) the following four PDEs, whose integrability properties are already known (for more details and examples, see [24]). (1) (2) Equation (2.22): this is the NLS equation which obains if A0 (k) 6= 0, A1 (k) 6= (0) (2) 0 , A2 (k) 6= 0 and h ≥ 1, with ν = A1 (k) and, if h = 1, h (2) (1) λ = − k A0 (k)g(0, 1)g(−1, 1) + 2kA0 (k)g(−1, 2)g(1, 1) i (1) (2) (1) (2) (6.92) + A0 (k)A0 (k)g(−1, 1, 1) /A0 (k)A0 (k) This equation is known to be S-integrable if Im(λ) = 0. (6.93) (1) (2) Equation (2.23): it corresponds to h = 0, and A(0) (k) 6= 0 and A1 (k) 6= 0; (2) in this case ν = A1 (k), and (1) λ(1) = g(0, 1) , λ(2) = g(−1, 1)/A0 (k); (6.94) this system of equations has been found [25] to pass the Painlevé type test only if λ(1) λ(2) = 0, (6.95) namely, if it effectively linearizes. Equation (2.24): this obtains if h ≥ 1 and if, for some real nonvanishing value (0) (2) (1) (2) k = k̃, A2 (k̃) = 0, A1 (k̃) 6= 0 and A2 (k̃) 6= 0. In this case ν = A1 (k̃) and, if h = 1, (1) λ(1) = −k̃g(−1, 2) , λ(2) = 2ik̃g(1, 1)/A2 (k̃), (6.96) where, of course, the coefficients g(−1, 2) and g(1, 1) are valued here at k = k̃. Also this equation has been found [26] to pass the Painlevé-type test only if 6.95 holds. Equation (2.27): this is the case if h = 1, and if, for some real nonvanishing (1) (2) (2) value k = k̃, A0 (k̃) = 0 and A1 (k̃) 6= 0. Then ν = A1 (k̃) and λ(1) = ik̃g(0, 1), λ(2) = g(−1, 1), (6.97) 6.2 Nonlinear Schroedinger type model equations and integrability 71 where g(0, 1) and g(−1, 1) are evaluated at k = k̃. This system has been proved to be S-integrable [27] only if Imλ(1) = Imλ(2) = 0. (6.98) With this information in our hands we are now in the position to formulate necessary conditions of integrability. For a systematic exploration of the various cases in which such conditions arise and apply, the reader is refereed to [24], while we limit ourselves to give here only few instances of our method, and of its potentialities. We first observe that the integrability conditions for the four equations we have selected, i.e. (4 dei 10 sistemi)(2.22), (2.23), (2.24) and (2.27), involve (n) both the linear part (through the coefficients Aα , see 6.66, 6.67 and 6.68) and the nonlinear part (through the coefficients g, see 6.79, 6.80, 6.81 and (n) 6.63) of the PDE 6.62 we wish to test, and that both the coefficients Aα and g are functions of the real parameter k. It is then clear that the integrability conditions (such as 6.93 and 6.95) which hold for an arbitrary value of k produce a number of necessary conditions (for the PDE 6.62) which is larger than the number of necessary conditions which originates from expressions such as 6.96 and 6.97 since these hold only for special values (if any) of k (say k̃). Let us first assume that the PDE 6.62 we are going to test by our method is in the class with h = 0, namely its nonlinear term is not a derivative. Then, if the appropriate reduced equation is (2.23), the requirement that g(0, 1) or g(−1, 1) vanish for all real values of k entails, via 6.80 and 6.81, quite explicit restrictions only on the nonlinear part of 6.62. This is made explicit by the following: Lemma 1. A necessary condition for the integrability of a nonlinear evolution PDE of type (2.8) with h = 0 is that either (2) c0n = 0 , n = 0, 1, 2, . . . , or n X (6.99) (2) (−1)j cj2n−j = 0, n = 0, 1, 2, . . . , (6.100) j=0 namely (2) (2) (2) (2) (2) (2) c00 = 0, c02 − c11 = 0, c04 − c13 + c22 = 0, (6.101) and so on. Clearly the condition 6.99 comes from the requirement that g(0, 1) vanish, while 6.58 comes from the requirement that g(−1, 1) vanish, see 6.95 (2) and 6.94. Since they both require that c00 vanish we obtain the following remarkably neat result: 72 Multiscale expansion and integrability of dispersive wave equations Lemma 2. Every nonlinear PDE of type 6.62 with h = 0 featuring in its (2) nonlinear part a term c00 u2 is not integrable. Consider now the class of PDEs 6.62 with h = 1, and assume that the appropriate reduced model equation is the NLS equation 6.82. The requirement 6.93 with 6.92 for S-integrability involves both quantities related to the linear and nonlinear parts of the original equation 6.62, but in many cases it amounts to the requirements that (i) the quantity g(0, 1) be real (note that g(−1, 1) is always real, see 6.81); (ii) the quantities g(−1, 2) and g(1, 1) be both real or both imaginary; (iii) the quantity g(−1, 1, 1) be real. Given the arbitrariness of k, the first of these three conditions clearly entails the (2) vanishing of all the coefficients c0n with n odd; the second condition entails (2) (2) (2) the vanishing of c12 , c14 and c23 and many other relations for the coefficients (3) (2) cnm with n + m odd; the third condition entails the vanishing of c001 and (3) many other relations for the coefficients cnmj with n + m + j odd. These are very stringent, and quite explicit, conditions on the nonlinear part of 6.62 (the case in which h > 1 can be similarly treated [24]). Assume now that the original PDE 6.62, with h = 1, has passed the test based on the conditions specified above, namely that all conditions entailed by the requirement 6.93, with 6.92, are satisfied. Since these conditions are only necessary, no much information is gained, a part from a definite hint that our PDE may indeed turn out to be integrable. However, we can still push our method to look for additional conditions to be satisfied. This is in fact the case if a special value of k, k = k̃, exists such that either the (0) condition A2 (k̃) = 0 holds, this being appropriate to obtain the model (1) equation 6.84, or the condition A0 (k̃) = 0 holds, this being the case for the model equation 6.87. In the first case, a necessary condition for the integrability of a PDE of type 6.62 with h = 1 is that, for such special value fo k, k = k̃, at least one of the two quantities g(−1, 2), g(1, 1) vanish, see 6.95 with 6.96. The applicability and potency of this result is of course somewhat reduced relative to the conditions previously found, due to the requirement to restrict consideration to only those real values k̃ of k (if any) which satisfy the appropriate equality and inequalities specified above. Yet there clearly is a large class of nonlinear evolution PDEs to which these necessary conditions are applicable [24]. In the second case, namely that in which the model equation is 6.87, a necessary condition for the integrability of a PDE 6.62 with h = 1 is that, for the appropriate special value of k, i.e. k = k̃ such that the zeroth harmonic is strongly resonating, the quantity g(0, 1) be imaginary (or vanish), Re[g(0, 1)] = 0 , k = k̃. (6.102) 6.3 Higher order terms and integrability 73 This requirement follows from 6.98, 6.97 and from the property of g(−1, 1) to be always real. This result is analogous to the previous one inasmuch as it requires focussing on special values k̃ of k. Let us state again that we have presented here only some of the necessary conditions which can be established by the multiscale reduction method and that more instances and applications are discussed in [24] where a distinction between necessary conditions for C-integrability and for S-integrability is also made. We also observe that various extensions are possible and worth of further research; for examples, different classes of PDEs, other than 6.62 can be investigated, say for vector or matrix solutions as well as with more spacial variables; and/or different model equations, other than the four equations considered here, can be taken as starting points for the derivation of other necessary conditions for integrability. 6.3 Higher order terms and integrability In this section our perturbative analysis of the original PDE 6.26 is extended to terms of higher order in ². This extension is based on the expansion in powers of ² of the amplitude u(α) in the equation 6.53, with the implication that computations become rather heavy. To the aim of simplifying the formalism by avoiding unessential complications, we add two assumptions which we mantain throughout this section. First we ask that the nonlinear part of our equation 6.26, namely its rhs F , be an odd function of u, F → −F if u → −u. (6.103) As it is easily verified, this parity property allows us to consistenly assume that the amplitudes of all even harmonics be vanishing, u(2α) = 0 , |α| ≥ 0. (6.104) Therefore, from now on, we will have to deal only with the odd harmonic amplitudes u(2α+1) . For instance, this condition on F is satisfied by the mKdV equation 6.6, the C-integrable equation 6.2 and by the class of PDEs 6.26 with 6.29 if c2n = 0. Our second assumption is that, in contrast with the analysis carried out in the previous section, no resonance occurs besides the fundamental harmonics (α) α = ±1. In other words, the resonance condition D0 = 0, see 6.51, should hold only in the trivial case |α| = 1. These assumptions imply that all harmonics ±(2α + 1) with α > 0 are slave and that the coefficients of their ²-expansion, X u(α) = ²n u(α) (n), |α| > 1, (6.105) n=1 74 Multiscale expansion and integrability of dispersive wave equations are therefore expressed as differential polynomials of the coefficients u(n) of the expansion of the fundamental harmonics (α = 1) X u(1) ≡ u = ²u(1) + ²2 u(2) + . . . = ²n u(n). (6.106) n=1 Here, and also in the following, we drop the harmonic upper index in the coefficients of this expansion because of the very special role played by the function u(1) in this scheme (it is the only amplitude which satisfies a differential equation). Moreover, as additional implications which can be easily retrieved from the basic equation 6.53, the leading order of each harmonic amplitude comes from the rule u(α) (n) = 0 , for n < |α|, (6.107) which is equivalent to setting γ2α+1 = 2α for α ≥ 0 in the notation (2.3); the slow variables ξ and tn are here defined as in (1.41) with p = 1, i.e. ξ = ²x, tn = ²n t , n = 1, 2, . . . (6.108) In order to perform all operations required by our approach the functions u(n), n = 1, 2, . . . , are required to be smooth in the real variable ξ, namely they are differentiable to any order in the whole ξ-axis. The first step is inserting in the equation 6.53 with α = 1 the appropriate ²-expansions, namely that of the linear opertor D(1) ≡ D, see 6.50 with α = 1 and p = 1, D = ²D1 + ²2 D2 + . . . , (6.109) that of the amplitude u(1) ≡ u, see 6.106, and finally the expansion of the nonlinear term, F (1) ≡ F = ²3 F3 + ²4 F4 + . . . ; (6.110) let us reemphasize here that, since the differential operators Dn , see 6.55 with α = 1, have the expression Dn = ∂tn − (−i)n+1 ωn (k) ∂ξn , n ≥ 1, (6.111) there is no need to introduce the slow time tn if it happens that ωn (k) = 0. Thus, if the dispersion relation ω(k) is a polynomial of degree N > 1, the expansion 6.109 turns out to be a polynomial in ² of degree N with the implication that only N slow times enter into play. We also note that, because of the parity condition 6.103, the expansion 6.110 of the nonlinear term starts from the third order. In conclusion, the basic equation 6.53 with α = 1, i.e. D(1) u(1) = F (1) , (6.112) 6.3 Higher order terms and integrability 75 obviously yields the triangular system of convolution type D1 u(n) + D2 u(n − 1) + . . . + Dn u(1) = Fn+1 , (6.113) where each term is, of course, of O(²n+1 ). Here, and in the following treatment, it is convenient to consider Fn as an element of the finite-dimensional vector space Pn defined as the set of all differential polynomials in the functions u(m) and u∗ (m) of order n and gauge 1. The meaning of this terminology is rather obvious: each monomial appearing in an element of Pn is a product of some u(m), u∗ (k) and their ξ-derivatives with the understanding that order(uj (m)) = order(u∗j (m)) = m + j, (6.114) where we use the short-hand definition uj (m) ≡ ∂ξj u(m). (6.115) On the other hand, by requiring that each polynomial in Pn be of gauge 1 we understand that such polynomials, say Fn , possess the transformation property Fn → eiθ Fn if u(m) → eiθ u(m), (6.116) θ being an arbitrary real constant. By following these rules, the reader may easily verify that P2 is empty, dim (P3 ) = 1, the basis of P1 being the single monomial |u(1)|2 u(1), while dim (P4 ) = 4 where its basis may be given by the following four monomials: |u(1)|2 u(2), u(1)2 u∗ (2), |u(1)|2 u1 (1), u(1)2 u∗1 (1). Therefore, each nonlinear term Fn+1 in the rhs of 6.113 is a linear combination of the basis vectors (f.i. monomials) of the vector space Pn+1 , where the complex coefficients of such combination are determined by the nonlinear function in the rhs of our original PDE 6.26 (see the expansion 6.63 with m running only on the odd integers). The next step aims to eliminating all secular terms which may enter in the system 6.113. Our analysis is briefly described below, and the reader who is interested in a detailed investigation of this point is referred to [28]. Consider first the equation 6.113 for n = 1, i.e. D1 u(1) = 0 since F2 = 0 (see 6.110); because of the expression 6.111, D1 = ∂t1 + ω1 ∂ξ , the function u(1) depends on t1 through the variable ξ − ω1 t1 . The next equation, say 6.113 with n = 2, reads (see 6.111) ¤ £¡ ¢ (6.117) D1 u(2) = − ∂t2 − iω2 ∂ξ2 u(1) − F3 , where its rhs plays the role of the nonhomogeneous (forcing) term with respect to the t1 -evolution. On the other hand, this term depends on t1 through 76 Multiscale expansion and integrability of dispersive wave equations the variable ξ − ω1 t1 (recall that F3 ²P3 ) and it satisfies therefore the homogeneous equation D1 f = 0. This implies that the rhs of 6.117 is secular and its elimination requires that u(1) satisfies, with respect to t2 , the evolution equation (∂t2 − iω2 ∂ξ2 )u(1) = F3 , namely just the NLS equation, which has been derived in the previous section. As a result of killing the secular term in 6.117, also u(2) as u(1) depends on t1 through the variable ξ − ω1 t1 . This argument can be easily repeated for each integer n in 6.113 and,together with taking into accounts the structure of the differential polynomial Fn+1 , it recursively leads to conclude that the coefficients u(n) all satisfy with respect to the time t1 the same (trivial) equation D1 u(n) = (∂t1 + ω1 ∂ξ ) u(n) = 0, n ≥ 1. (6.118) The time t1 plays no essential role and the system 6.113 reduces to D2 u(n − 1) + D3 u(n − 2) + . . . + Dn u(1) = Fn+1 , n ≥ 2 , whose first equation (i.e. for n = 2) is the NLS equation ¡ ¢ ∂t2 u(1) = iω2 ∂ξ2 u(1) − 2c|u(1)|2 u(1) ≡ K2 [u(1)] ; (6.119) (6.120) the rhs of this equation defines the nonlinear operator K2 and we have set F3 = −2iω2 c|u(1)|2 u(1). Capitolo 7 Onde elettromagnetiche nei mezzi nonlineari In questo capitolo vogliamo soffermarci sullo studio di alcuni modelli in grado di spiegare effetti nonlineari osservati in Ottica Fisica. Analizzeremo il modello di un dielettrico classico, e nel prossimo capitolo quello di un dielettrico quantistico. Tramite l’applicazione del Metodo Multiscala saremo poi in grado di ricavare equazioni modello capaci di dare spiegazione a fenomeni ottici sperimentalmenete verificati. 7.1 Modello classico di dielettrico Se P(x, t) è la densità di dipolo elettrico nella materia, la densità di carica elettrica è data da ρ(x, t) = −∇ · P(x, t) mentre la densità di corrente è della forma J(x, t) = Pt (x, t) . Sfruttando le precedenti, otteniamo le equazioni di Maxwell in presenza di materia: ∇ · E = − ²10 ∇ · P ∇·B=0 ∇ × E = − ∂B ∂t , , ∂E ∂t = c2 ∇ × B − (7.1) 1 P ²0 t che restituiscono immediatamente l’equazione per il campo elettrico : 1 Ett − c2 ∇2 E + c2 ∇ · (∇ · E) = − Ptt ²0 (7.2) 78 Onde elettromagnetiche nei mezzi nonlineari Supponiamo ora che il mezzo dielettrico che stiamo studiando sia un vetro omogeneo ed isotropo. Per il principio di causalità, la relazione tra il vettore di polarizzazione P ed il campo elettrico E sarà della forma Z t P(x, t) = ²0 dt1 χ(1) (t − t1 ) E(x, t1 ) + (7.3) −∞ Z Z t + ²0 Z t dt1 −∞ t dt2 −∞ dt3 χ(3) (t−t1 , t−t2 , t−t3 ) [E(x, t2 )·E(x, t3 )] E(x, t1 ) −∞ L’omogeneità implica che le due funzioni χ(1) , suscettibilità lineare, e χ(3) , suscettibilità non lineare, non dipendano dal vettore posizione x; l’isotropia implica invece l’assenza della nonlinearità quadratica e, per l’invarianza per rotazioni, la dipendenza dalle sole variabili vettoriali E, (E · E) E. In generale le funzioni suscettibilità sono tensori a più indici, a due indici χ(1) , a tre indici χ(2) e a quattro indici χ(3) . Un materiale generico (non omogeneo e non isotropo) avrebbe cosı̀ 32 + 33 + 34 = 117 funzioni suscettibilità tutte da determinare sperimentalmente! Possiamo pensare che la materia sia un insieme di oscillatori di densità δ e carica q per cui P(x, t) = δq r(x, t) (7.4) dove r(x, t) è lo spostamento al tempo t dell’oscillatore dalla posizione di equilibrio x. L’oscillatore è legato al campo elettrico tramite una forza di richiamo centrale e non lineare: r(x, t)tt + ω0 2 r(x, t) = α|r(x, t)|2 r(x, t) + q E(x, t) (7.5) Vogliamo ora riscrivere la (7.5) in forma integrale; sia g(t, t0 ) = θ(t − t0 ) 1 sin[ω0 (t − t0 )] ω0 la Funzione di Green Ritardata dell’oscillatore armonico. La (7.5) assume cosı̀ la forma Z +∞ r(x, t) = q Z 0 0 0 +∞ dt g(t, t ) E(x, t ) + α −∞ −∞ dt0 g(t, t0 ) |r(x, t0 )|2 r(x, t0 ) (7.6) 7.1 Modello classico di dielettrico 79 Della (7.6) cerchiamo una soluzione approssimata risolvendola perturbativamente rispetto al parametro α proprio di ciascun materiale. Otteniamo cosı̀ R +∞ 0 r (x, t) = q dt g(t, t0 )E(x, t0 ) 0 −∞ R +∞ r1 (x, t) = r0 (x, t) + α −∞ dt0 g(t, t0 )|r0 (x, t0 )|2 r0 (x, t) (7.7) .. . Sfruttando la (7.7) e la (7.4) abbiamo quindi: P(x, t) = δ q r1 (x, t) + O(E5 ) che insieme alle (7.7), (7.4) permette di determinare esplicitamente la forma delle funzioni di suscettibilità in funzione della funzione di Green dell’oscillatore. Conviene tuttavia, indipendentemente dal modello meccanico che si è costruito, considerare χ(1) (t1 ) e χ(3) (t1 , t2 , t3 ) come dati fenomenologici nel vetro. Ad esempio, (1) χ b (ω) = 3 X j=1 ω2 Bj , − ω2j + γ 2 con Bj ed ωj fissati con un best-fit dei dati sperimentali. 7.1.1 Teoria perturbativa e la NLS Per evitare complicazioni tecniche dovute al fatto che x ed E sono vettori di R3 , studiamo il più semplice modello unidimensionale : Ett − c2 Exx = − 1 Ptt ²0 (7.8) con Z t dt1 χ(1) (t − t1 ) E(x, t1 ) + ²0 χ(3) E 3 (x, t) P (x, t) = ²0 −∞ in cui abbiamo posto: Z (1) +∞ χ (t) = −∞ dω (1) χ b (ω)e−iωt , 2π χ(3) = cost. . (7.9) 80 Onde elettromagnetiche nei mezzi nonlineari Sostituendo la (7.9) nella ((7.8)) otteniamo cosı̀ · ¸ Z t £ ¤ (1) E(x, t) + dt1 χ (t − t1 ) E(x, t1 ) − c2 Exx = −χ(3) E 3 (x, t) tt −∞ tt (7.10) Sappiamo che per poter applicare il metodo multiscala occorre che l’equazione di partenza sia un’equazione dispersiva. Vogliamo cosı̀ determinare la relazione di dispersione associata alla (7.10). Consideriamo il campo elettrico E(x, t) nella sua rappresentazione di Fourier e poniamo χ(3) = 0 (studiamo cioè la (7.10) linearizzata). Notando che Z t Z t (1) i(kx−ωt1 ) i(kx−ωt) dt1 χ(1) (t − t1 ) ei[ω(t−t1 )] dt1 χ (t − t1 ) e = e −∞ (1) = χ b (ω) e −∞ i(kx−ωt) , nella quale abbiamo sfruttato il Principio di Causalità (χ(1) (t) = 0 per t < 0), otteniamo la relazione di dispersione ω2 = c2 k 2 1+χ b1 (ω) (7.11) che è una funzione polidroma di k definita implicitamente. Osserviamo che la richiesta che χ(1) non sia costante ma una funzione del tempo sarà determinante per poter applicare la teoria perturbativa multiscala. Se difatti χ(1) fosse stata costante avremmo ottenuto la relazione di dispersione ω = ± ck propria delle onde non dispersive di D’Alembert. Conduciamo ora l’ipotesi di quasi-monocromaticità del campo con l’aggiunta delle altre armoniche generate dal termine cubico non lineare: E(x, t) = ² +∞ X E (α) (ξ, t1 , t2 , t3 , ...) eiα(k0 x−ω0 t) (7.12) α = −∞ con ξ = ²x e tn = ²n t variabili lente e ω0 e k0 soddisfacenti la relazione di dispersione (7.11). L’equazione che dobbiamo studiare è della forma L E = −χ(3) (E 3 )tt in cui L è l’operatore lineare cosı̀ definito L = ∂t2 (1 + χ(1) ∗) − c2 ∂x2 (7.13) 7.1 Modello classico di dielettrico 81 Notiamo subito che se ci trovassimo in assenza di dielettrico, dunque nel caso di propagazione dell’onda nel vuoto, riotterremmo direttamente l’equazione delle onde, divenendo l’operatore L l’operatore D’Alembertiano 2: χ(1) = 0 −→ ∂tt − c2 ∂x2 ≡ 2 . Osserviamo inoltre che l’operatore di convoluzione χ(1) ∗ commuta con l’operatore di derivazione temporale ∂t . Mostrare tale osservazione risulta assai semplice se ci trasferiamo nello spazio di Fourier trasformando entrambi gli operatori: ∂t −→ −i ω , χ(t) ∗ −→ χ b(ω) · . e notando che le trasformate sono dei semplici operatori di prodotto chiaramente commutanti. Svolgendo i calcoli esplicitamente, si ottiene: Z t 0 iωt χ∗e = dt0 χ(t − t0 )e−iωt = −∞ Z t 0 −iωt = e dt0 χ(t − t0 )e−iωt = , ponendo τ = t0 − t −∞ Z +∞ = e−iωt dτ χ(τ )e−iωτ = , con χ(τ ) = 0 , τ < 0 (causalità) Z0 +∞ = e−iωt dτ χ(τ )e−iωτ = −∞ −iωt = χ b(ω) · e Calcoliamo ora l’azione dell’operatore di convoluzione sulla funzione E (α) (ξ, t1 , t2 , t3 , ...) eiα(k0 x−ω0 t) . Eseguendo i conti: Z £ ¤ χ b(1) ∗ E (α) (ξ, t1 , t2 , t3 , . . .) eiα(k0 x−ω0 t) = t 0 = −∞ dt0 χ(1) (t − t0 ) E (α) (ξ, t01 , t02 , t03 , . . .) eiα(k0 x−ω0 t ) = Z ∞ iα(k0 x−ω0 t) =e dτ χ(1) (τ ) E (α) (ξ, t1 − ²τ, t2 − ²2 τ, . . .) eiαω0 τ . (7.14) 0 con t0n = ²n t0 e τ = t − t0 . Sviluppiamo ora la (7.14) in potenze di ² : £ ¤ χ(1) ∗ E (α) (ξ, t1 , t2 , t3 , ...) eiα(k0 x−ω0 t) = (7.15) 82 Onde elettromagnetiche nei mezzi nonlineari = eiα(k0 x−ω0 t) h (α) (α) 2 χ b(1) (αω0 ) E (α) + i²b χ(1) χ(1) ω (αω0 ) Et1 + ² (ib ω (αω0 ) Et2 + 1 (1) (α) bωω (αω0 ) Et1 t1 − χ 2 ¸ + O(²3 ) . E con l’operatore di convoluzione sviluppiamo in potenze di ² anche gli operatori differenziali 1 : ½ ∂x 7→ ∂x + ²∂ξ (7.16) ∂t 7→ ∂t + ²∂t1 + ²2 ∂t2 Otteniamo cosı̀ l’espressione dell’operatore L: 2 L = (∂t + ²∂t1 + ²2 ∂t2 + . . .) (1 + χ b(1) ∗) − c2 (∂x + ²∂ξ )2 . (7.17) Quanto dobbiamo ora calcolare è il trasformato di E (α) eiα(k0 x−ω0 t) tramite L. Sappiamo che L su di un’onda piana restituisce sempre un’onda piana; possiamo cosı̀ pensare di scrivere ¡ ¢ L E (α) (ξ, t1 , t2 , t3 , ...) eiα(k0 x−ω0 t) = E (α) (ξ, t1 , t2 , t3 , ...) eiα(k0 x−ω0 t) L(α) E (α) (7.18) (α) Con L operatore lineare che lavora solo sulle variabili lente ξ e tn . Sviluppiamo anche L(α) in potenze di ² : (α) (α) (α) L(α) = L0 + ²L1 + ²2 L1 + O(²3 ) (7.19) Sfruttando la definizione di L(α) (7.18) determiniamo la forma esplicita dello stesso : 2 L(α) = (−iαω0 + ²∂t1 + ²2 ∂t2 + ...) × (7.20) ¶¸ · µ 1 (1) 2 (1) (1) 2 (1) b (αω0 )∂t1 + × 1+χ b (αω0 ) + ² ib χω (αω0 )∂t1 + ² ib χω (αω0 )∂t2 − χ 2 ωω −c2 (iαk0 + ²∂ξ )2 , (α) da cui L0 : £ (1) ¤ £ ¤ (α) b (ω0 ) − χ b(1) (αω0 ) b(1) (αω0 ) + c2 α2 ω0 2 = α2 ω0 2 χ L0 = −α2 ω0 2 1 + χ (7.21) 1 Notiamo che nella (7.16) abbiamo sviluppato l’operatore ∂t fino all’ ordine ²2 . In realtà non sappiamo quanti sono i tempi lenti che entrano in gioco in quest’ applicazione del metodo multiscala non essendo la relazione di dispersione una funzione polinomiale in k. 7.1 Modello classico di dielettrico 83 in cui abbiamo sfruttato la relazione di dispersione (7.11). Osserviamo che (α) (α) (α) α = 0 ed α = ±1, annullando L0 , sono risonanze. Ed ancora L1 ed L2 : (α) L1 £ ¤ 2 = −2iαω0 1 + χ b(1) (αω0 ) ∂t1 −iα2 ω0 2 χ b(1) ω (αω0 ) ∂t1 − 2iαk0 c ∂ξ (7.22) £ ¤ £ ¤ (α) b(1) (αω0 ) ∂t21 − 2iαω0 1 + χ b(1) (αω0 ) ∂t2 + 2αω0 χ b(1) (αω0 )∂t21 + L2 = 1 + χ (7.23) µ ¶ 1 (1) −α2 ω0 2 ib χ(1) bωω (αω0 )∂t21 − c2 ∂ξ 2 . ω (αω0 )∂t2 − χ 2 Notiamo che le equazioni di Maxwell da cui siamo partiti sono equazioni reali e che anche χ(1) (t) è reale. Pertanto per avere una dispersione reale occorre imporre che χ b(1) (ω) = χ b(1) (−ω) La precedente ci permette di dire quindi, insieme alla (7.21), che (±1) L0 =0 (7.24) A questo punto siamo in grado di esprimere il campo elettrico nella forma (7.12). Scriviamo cosı̀: LE = ² +∞ X L(α) E (α) eiα(k0 x−ω0 t) α = −∞ = − ²3 χ(3) " +∞ X (7.25) +∞ X eiα(k0 x−ω0 t) α = −∞ # E (α−β−γ) E (β) E (γ) β,γ = −∞ tt che è +∞ X L(α) E (α) = −²2 χ(3) (−iαω0 +²∂t1 +²2 ∂t2 +. . .) E (α−β−γ) E (β) E (γ) (7.26) β,γ=−∞ Enunciamo ora alcune proprietà di notevole importanza: Proprietà di Parità : se nelle condizioni iniziali non vi sono armoniche pari: E (2α) = 0, allora tali restano ad ogni istante t > 0. Assumiamo che siano presenti a t = 0 solamente le armoniche dispari: E (2α+1) 6= 0. Proprietà di Realtà : poichè E è reale, allora ∗ E (α) = E (−α) 84 Onde elettromagnetiche nei mezzi nonlineari Ipotesi di non Risonanza : assumiamo che (α) L0 = 0 solo per α = ±1. (0) Notiamo che il fatto che L0 sia nullo non ci interessa, valendo comunque perchè vale l’ipotesi di parità. Espandiamo ora anche le ampiezze E (α) in potenze di ²: E (α) = (α) E(0) + (α) ²E(1) 2 +² (α) E(2) + ... = +∞ X (α) ²n E(n) (7.27) n=0 e discutiamo le equazioni d’evoluzione che si ottengono per α = ±1 ai primi due ordini dell’espansione in potenze di ² delle ampiezze del campo elettrico. All’ordine ² otteniamo: (1) (1) L1 E(0) = 0 (7.28) (1) cioè l’ampiezza E(0) ha propagazione iperbolica lineare: (1) E(0) con vg = (1) t1 + vg E(0) = 0 (7.29) ξ dω(k0 ) 2k0 c2 = (1) dk 2ω0 [1 + χ b(1) (ω0 )] − ω02 χ bω (ω0 ) All’ordine ²2 abbiamo invece: (1) (1) (1) (1) L1 E(1) + L2 E(0) = χ(3) ω02 X (1−β−γ) E(0) (β) (γ) E(0) E(0) (7.30) β,γ (α) Sappiamo dall’ipotesi di non secolarità che per α > 1 l’operatore L0 è non (α) nullo, pertanto si deve avere E(0) = 0 (struttura trinagolare). Bilanciando le armoniche e ricordando la precedente considerazione, la (7.30) diventa: ¯ ¯ ¯ (1) ¯2 (1) (1) (1) (1) (1) (7.31) L1 E(1) = −L2 E(0) + χ(3) ω02 ¯E(0) ¯ E(0) . (1) Soddisfacendo la (7.28), l’ampiezza E(0) risulta secolare nella (7.31). Affinchè dunque venga evitata tale secolarità occorre porre: ¯2 ¯ (1) (1) (1) (3) 2 ¯ (1) ¯ (7.32) L2 E(0) = χ ω0 ¯E(0) ¯ E(0) 7.1 Modello classico di dielettrico 85 e cioè (1) (1) L1 E(1) = 0 (7.33) (1) Notiamo cosı̀ che l’ampiezza E(1) ha propagazione iperbolica lineare rispetto (1) al tempo t1 mentre la E(0) evolve secondo la (7.32) rispetto al tempo t2 . Definiamo dω(k0 ) = vg ≡ ω 1 . dk (1) Possiamo cosı̀ riscrivere l’operatore L2 come ¸ · 1 2 2 (1) (1) (1) 2 (1) 2 2 bω (ω0 ) ω1 + ω0 ω1 χ bωω (ω0 ) − c ∂ξ2 + L2 = 1 + χ b (ω0 ) ω1 + 2ω0 χ 2 (7.34) £ ¤ (1) 2 (1) −i 2ω0 + 2ω0 χ b (ω0 ) + ω0 χ bω (ω0 ) ∂t2 . A partire dalla (7.11) definiamo : 1 d2 ω(k0 ) ≡ ω2 2 dk 2 (1) Calcolata la funzione di dispersione esprimiamo l’operatore L2 nella forma: ¡ ¢¡ ¢ (1) L2 = − ω2 ∂ξ2 + i∂t2 2ω0 + 2ω0 χ b(1) (ω0 ) + ω02 χ b(1) ω (ω0 ) che è (1) L2 = − ¢ 2c2 k0 ¡ ω2 ∂ξ2 + i∂t2 ω1 (7.35) (7.36) Possiamo cosı̀ servendoci delle precedenti riscrivere la (7.32): (1) iE(0) t2 + (1) ω2 E(0) ξξ 3ω0 ω1 (3) ¯¯ (1) ¯¯2 (1) + 2 χ ¯E(0) ¯ E(0) = 0 2c k0 (7.37) L’equazione precedente è l’Equazione di Schrödinger non lineare (1) (Non Linear Schrödinger, NLS) che determina la dipendenza di E(0) dal tempo lungo t2 . 0 ω1 Il termine ω2 è il coefficiente di dispersione, mentre 3ω χ(3) è detto 2c2 k0 autoaccoppiamento. Di questo ultimo fattore è importante il segno poichè da questo è possibile desumere la stabilità o l’instabilità del sistema considerato (-1,+1, rispettivamente). É proprio il competere, sotto opportune condizioni, dei due termini, l’uno tendente a disperdere l’onda, l’altro a focalizzarla, a provocare il fenomeno di propagazione di onde non lineari senza dispersione. 86 Onde elettromagnetiche nei mezzi nonlineari Possiamo infine “fare della cosmesi” alla NLS ridefinendo le variabili che compaiono nella (7.37) : τ = ω2 t2 r¯ ¯ ¯ ω2 k0 ¯ (1) E(0) = 2c ¯ 3ω0 ω1 χ(3) ¯φ(ξ, τ ) η = sign( 3ω0ωω21kχ0 (3) ) ottenendo NLS iφτ + φξξ + 2η|φ|2 φ = 0 (7.38) L’equazione NLS è un’equazione speciale, un’equazione modello, integrabile col Metodo della Trasformata Spettrale. É interessante notare come a partire da equazioni integrali come quelle di Maxwell, siamo giunti ad equazioni di evoluzione differenziali quali la NLS e quella iperbolica lineare. Questo è dovuto all’applicazione del metodo multiscala che ha permesso di sviluppare l’operatore integrale di convoluzione in una somma di potenze di ² di operatori differenziali (7.15). 7.2 L’equazione VNLS 7.2.1 Caso di un’onda risonante Ripartiamo direttamente dalle equazioni di Maxwell per la singola armonica in cui espandiamo l’operatore derivata seconda rispetto al tempo ed il termine cubico (tramite il prodotto di convoluzione di tre serie di Laurent): (α) L E (α) (3) = −χ 2 2 (−iαω + ²∂t1 + ² ∂t2 + . . .) +∞ X E (β1 ) E (β2 ) E (α−β1 −β2 ) β1 ,β2 =−∞ (7.39) Consideriamo ora il caso risonante in cui α = 1, 3 2 . Ancora una volta, come nel paragrafo precedente, per la proprietà di parità le armoniche corrispondenti ad α = 2n esistono solo se compaiono già nei dati iniziali. Dunque, poniamo come condizioni di risonanza (1) (3) L0 = L0 = 0 , 2 Ovviamente, sono cosı̀ compresi anche i casi delle armoniche negative, con α = −1, −3. La trattazione ed i risultati sono analoghi. 7.2 L’equazione VNLS 87 delle quali la seconda corrisponde all’affermare 3 ω(k) = ω(3k) . Andiamo ora ad analizzare i diversi ordini perturbativi. Ricordiamo le espansioni del campo elettrico E e dell’operatore L: (α) (α) (α) L(α) = L0 + ² L1 + ²2 L2 + . . . (α) (α) (α) E (α) = ² E(1) + ²2 E(2) + E(3) + . . . Ordine ²2 Otteniamo dalla (7.39), per questo ordine e nelle due armoniche, le due seguenti equazioni: Notiamo che Ordine ²3 (1) (3) (3) −→ L1 E(1) = 0 α=3 −→ L1 E(1) = 0 (1) L1 ∝ ∂t1 + v1 ∂ξ , (1) α=1 (3) L1 ∝ ∂t1 + v3 ∂ξ , con v1 = dω(k) dk con v3 = dω(3k) dk Qui otteniamo α=1→ (1) (1) L1 E(2) + (1) (1) L2 E(1) +∞ X 2 (3) = −ω χ (β ) (β ) (1−β1 −β2 ) E(1)1 E(1)2 E(1) = β1 ,β2 =−∞ 2 (3) = −ω χ ¸ · ³ ´2 ³ ´2 (1) (−1) (−1) (3) (3) (−3) (1) E(1) + 2 E(1) E(1) E(1) 3 E(1) E(1) + E(1) α=3→ (3) (3) L1 E(2) + (3) (3) L2 E(1) 2 (3) = −9 ω χ +∞ X (β ) (β ) (7.40) (3−β1 −β2 ) E(1)1 E(1)2 E(1) β1 ,β2 =−∞ ·³ ¸ ´3 ³ ´2 (1) (1) (−1) (3) (3) (−3) 2 (3) = −9 ω χ E(1) + 2 E(1) E(1) E(1) + 3 E(1) E(1) (1) Possiamo pensare la (7.40) come un’equazione nell’incognita E(2) . I ter³ ´2 (1) (1) (1) (−1) mini secolari da eliminare sono rappresentati da L2 E(1) e 3 E(1) E(1) per i quali è soddisfatta la (7.29), la soluzione della quale si può scrivere cosı̀ (1) E(1) = f (ξ − v1 t1 , t2 , t3 , . . .) . = 88 Onde elettromagnetiche nei mezzi nonlineari ³ Contrariamente, il termine (1) E(−1) ´2 (3) E(1) non è secolare e soddisfa l’equazione (1) iperbolica lineare definita dall’operatore L2 , la cui soluzione è scrivibile sempre come (3) E(1) = g(ξ − v3 t1 , t2 , t3 , . . .) . Cosı̀ se v1 6= v3 , data la realtà di E, ∗ E (α) = E (−α) , e tenendo conto delle condizioni di risonanza, si ricava ¯2 ¯ (1) (1) (1) 2 (3) ¯ (1) ¯ L2 E(1) = − 3 ω χ ¯E(1) ¯ E(1) . (1) (1) L1 E(2) 2 (3) = −ω χ ¸ ·³ ¯ ¯ ´2 ¯ (3) ¯2 (1) (3) (−1) E(1) + 2 ¯E(1) ¯ E(1) E(1) (7.41) (7.42) Le due precedenti si presentano come un sistema di due equazioni nelle (1) (1) due incognite E(1) ed E(2) che possiamo pensare di risolvere per sostituzione (3) sevendoci anche dell’espressione di E(1) . Ripercorrendo gli stessi ragionamenti per α = 3 otteniamo il sistema ¯ ¯2 (3) (3) (3) 2 (3) ¯ (3) ¯ L2 E(1) = − 27 ω χ ¯E(1) ¯ E(1) , (3) (3) L1 E(2) 2 (3) ·³ = −9ω χ (1) E(1) ´3 ¸ ¯ ¯ ¯ (1) ¯2 (3) + 2 ¯E(1) ¯ E(1) . risolubile per sostituzione. É importante notare che se le due armoniche hanno velocità di gruppo diverse, non si verificano particolari interazioni ed il fenomeno sostanzialmente è descritto da due NLS. Il caso interessante è dunque quello per cui accade che le armoniche viaggino con la stesse velocità di gruppo, cosı̀ che la risonanza porti ad effetti di scambio di energia. Imponiamo, allora come ulteriore condizione, che v1 = v3 .3 Questo implica immediatamente che (1) (3) L1 ∝ L1 3 Questa condizione può essere interpretata come una richiesta di risonanza ancora più forte con lo scopo di ottenere modelli di propagazione a più onde. 7.2 L’equazione VNLS 89 (3) (1) e dato che ora E(1) soddisfa alla stessa equazione di E(1) è necessario ridefinire opportunamente le secolarità. All’ordine ²3 , abbiamo cosı̀ le seguenti equazioni: (1) (1) L1 E(2) = 0 , (1) (1) L2 E(1) 2 (3) = −ω χ · ³ ¸ ³ ´2 ´2 (1) (−1) (−1) (3) (3) (−3) (1) 3 E(1) E(1) + E(1) E(1) + 2 E(1) E(1) E(1) . Il sistema finale che si ottiene è ·µ (1) (i ∂t2 + γ1 ∂ξ2 ) E(1) = η1 3 VNLS ·µ (3) 2 (i ∂t2 + γ2 ∂ξ ) E(1) = η2 3 ¸ ¯¶ ¯ ¯ ¯ ³ ´2 ¯ (3) ¯2 ¯ (1) ¯2 (1) (1) ∗ (3) E(1) ¯E(1) ¯ + 2 ¯E(1) ¯ E(1) + E(1) ¯ ¯ ¯ (3) ¯2 E ¯ (1) ¯ + 2 ¸ ¯ ¯¶ ³ ´2 ¯ (1) ¯2 (1) (3) (1) ∗ E(1) ¯E(1) ¯ E(1) + E(1) noto come Equazioni di Schrödinger Vettoriali (Vectorial Non Linear Schrödinger, VNLS). In generale, questo sistema non ha infinite leggi di conservazione, come invece accade per la NLS, data la sua nota integrabilità. Tuttavia per una scelta opportuna dei parametri di accoppiamento il sistema può arrivare a soddisfare tale requisito. In questo modo, però, è evidente che l’universalità e l’applicabilità alla Fisica, caratteristiche delle NLS, vengono meno. 7.2.2 Caso di due onde non risonanti Consideriamo due onde non risonanti E(x, t) = A(1) (ξ, tn ) ei(k1 x−ω1 t) + A(2) (ξ, tn ) ei(k2 x−ω2 t) ω1 = ω(k1 ) , ω2 = ω(k2 ) . In modo più generale, E(x, t) = X E (α1 ,α2 ) (ξ, tn ) eiα1 (k1 x−ω1 t) eiα2 (k2 x−ω2 t) α1 ,α2 Come al solito sarà la non linearità a generare le armoniche superiori. Scriviamo allora l’equazione di Maxwell direttamente per le componenti di E: L(α1 ,α2 ) E (α1 ,α2 ) = − χ(3) (−iα1 ω1 − iα2 ω2 + ²∂t1 + ²∂t1 + . . .) × X × E (β1 ,β2 ) E (γ1 ,γ2 ) E (α1 −β1 −γ1 ,α2 −β2 −γ2 ) β1 ,β2 ,γ1 ,γ2 90 Onde elettromagnetiche nei mezzi nonlineari Studiamo i casi con (1,0) L0 (0,1) = 0 = L0 in cui le due onde si propagano singolarmente nel mezzo e da cui discende che (1,0) (0,1) E(1) 6= 0 6= E(1) , mentre per tutte le altre si ha (α ,α2 ) E(1)1 = 0, se α1 , α2 ≥ 2 . Come nel paragrafo precedente, il caso interessante lo si ha quando le velocità di gruppo sono uguali, v1 = v2 , il che determina l’accoppiamento delle onde. Quest’ultima equazione rappresenta anche la Condizione Necessaria e Sufficiente affinchè si possa ricavare la VNLS: µ ¯ ¯ ¯ ¯¶ ¯ (1,0) ¯2 ¯ (0,1) ¯2 (1,0) (1,0) (1,0) i E(1) + γ1 E(1) = α̃1 ¯E(1) ¯ + α̃2 ¯E(1) ¯ E(1) t2 ξξ . VNLS µ ¯ ¯2 ¯ ¯2 ¶ ¯ (1,0) ¯ ¯ (0,1) ¯ (0,1) (0,1) (0,1) + γ2 E(1) = β̃1 ¯E(1) ¯ + β̃2 ¯E(1) ¯ E(1) i E(1) t2 7.3 ξξ Generazione della 2a armonica : 2HG Vogliamo ora concentrarci sull’effetto provocato dalla presenza della seconda armonica. In precedenza, la seconda armonica non compariva poichè avevamo ipotizzato che il dielettrico fosse isotropo e, dunque, per ragioni di simmetria, questa doveva essere necessariamente nulla. Ipotizziamo, invece, di avere un mezzo dielettrico anisotropo caratterizzato da un coefficiente di suscettibilità non lineare quadratico. Riprendiamo allora l’equazione di Maxwell (7.8): ¡ ¢ Ett − c2 Exx + χ(1) ∗ Ett = − χ(2) E 2 tt . Ipotizziamo la risonanza per le sole prima e seconda armonica: (1) (2) L0 = 0 = L0 , ovvero ω(2k) = 2ω(k) 7.4 Caso di due onde risonanti: 3WRI 91 per un opportuno valore di k. Ricordiamo che vale anche (0) L0 = 0 che si configura come una terza onda risonante. Vediamo qual è il comportamento ad ordine ²2 . α=1 −→ (1) (1) L1 E(1) 2 +∞ X (2) = ω χ (β) (1−β) E(1) E(1) β=−∞ (2) (−1) = 2 ω 2 χ(2) E(1) E(1) α=2 −→ (2) (2) L1 E(1) 2 (2) = 4ω χ +∞ X (β) (1−β) E(1) E(1) β=−∞ ´2 ³ (1) = 4 ω 2 χ(2) E(1) La struttura delle equazioni è 1 (1) (1) (2) (1) ∗ E + v 1 E(1) = γ1 E(1) E(1) (1) t1 ξ 2HG ´2 ³ E (2) + v2 E (2) = γ2 E (1) (1) (1) (1) t1 ξ Queste equazioni sono note con il nome di 2HG (2nd Harmic Generation), fenomeno tipico in Ottica non lineare che consiste per l’appunto nella generazione dell’armonica α = 2 dato un termine ³ ´quadratico di sorgente espresso (1) tramite la prima armonica α = 1, cioè E(1) 7.4 2 . Caso di due onde risonanti: 3WRI Questo fenomeno di risonanza si può avere in cristalli anisotropi con un coefficiente χ non lineare quadratico. Riprendiamo allora le equazioni di Maxwell nel caso di dielettrico con coefficiente quadratico. ¢ ¤ ¡ ¢ £ ¡ L E = ∂tt 1 + χ(1) ∗ − c2 ∂x2 E = χ(2) E 2 tt (7.43) 1 Si osserva che la struttura può essere ricondotta alla classe delle equazioni iperboliche, dato che compaiono solo derivate prime nel tempo e nello spazio ed una funzione generica φ; si veda la (1.1). 92 Onde elettromagnetiche nei mezzi nonlineari Siamo interessati al caso di due onde risonanti. Consideriamo la seguente espressione per E nella forma più generale dello sviluppo delle armoniche: +∞ X E(x, t) = ² E (α1 ,α2 ) ei[α1 (k1 x−ω1 t)+α2 (k2 x−ω2 t)] . (7.44) α1 ,α2 =−∞ Ricordiamo la condizione di realtà cui devono soddisfare le componenti di E ∗ E (α1 ,α2 ) = E (−α1 ,−α2 ) . ed il fatto che dipendano dalle sole variabili lente: E (α1 ,α2 ) = E (α1 ,α2 ) (ξ, t1 , t2 , . . .) Inoltre nel limite lineare la soluzione dell’equazione (7.43) si riduce alla sovrapposizione di due armoniche (ipotesi di quasi-monocromaticità): ei(k1 x−ω1 t) ed ei(k2 x−ω2 t) . Espandiamo nelle armoniche α e guardiamo all’espressione dell’equazione precedente per le componenti del campo E 1 : ¡ ¢2 L(α1 ,α2 ) E (α1 ,α2 ) (ξ, t1 , . . .) = χ2 −i(α1 + α2 ) ω + ²∂t1 + ²2 ∂t2 + . . . × X (7.45) × E (β1 ,β2 ) E (α1 −β1 ,α2 −β2 ) β1 ,β2 dove (α1 ,α2 ) L(α1 ,α2 ) = L0 (α1 ,α2 ) + ² L1 (α1 ,α2 ) + ²2 L 2 + ... Quindi ai vari ordini, avremo (α1 ,α2 ) L0 (α1 ,α2 ) L1 £ ¤ = −(α1 ω1 + α2 ω2 )2 1 + χ b(1) (α1 ω1 + α2 ω2 ) + c2 (α1 k1 + α2 k2 )2 £ ¤ = −2i(α1 ω1 + α2 ω2 ) 1 + χ b(1) (α1 ω1 + α2 ω2 ) ∂t1 + 2 − i(α1 ω1 + α2 ω2 )2 χ b(1) ω (α1 ω1 + α2 ω2 )∂t1 − 2i(α1 k1 + α2 k2 )c ∂ξ ... (7.46) Poniamo le condizioni di risonanza (±1,0) L0 1 (0,±1) = L0 (±1,±1) = L0 (±0,0) = L0 = 0. Ai fini della nostra trattazione ci limiteremo a considerare la sola dipendenza di E (α) da t1 , sebbene quest’ultima sia funzione anche degli altri tempi lunghi. 7.4 Caso di due onde risonanti: 3WRI e quelle di non risonanza (α1 ,α2 ) L0 93 6= 0 per tutti i casi diversi dai precedenti (cioè per (α1 , α2 ) 6= (0, 0), (±1, 0), (0, ±1), (±1, ±1)). Considerando la componente di armoniche (α1 = ±1, 0) possiamo ricavare la relazione di dispersione in forma implicita: ¡ ¢ (α ,0) b(1) (ω1 ) − c2 (iα1 k1 )2 ⇒ L0 1 = 0 = (−iαω1 )2 1 + χ c2 k 2 1+χ b(1) (ω) Contrariamente al caso della derivazione della VNLS in cui è necessario porre che le onde si propaghino con la stessa velocità di gruppo (altrimenti non si verifica alcuna interazione), poniamo che le onde abbiano v1 6= v2 , dunque risultino del tutto disaccoppiate. Le armoniche non schiave sono ⇒ ω2 = E (1,0) , E (0,1) , E (1,1) , E (0,0) ed, ovviamente, quelle con −α dalla richiesta di realtà del campo. Notiamo che al primo ordine in ² si ricava che la E (0,0) è del tutto disaccoppiata dalle altre armoniche non schiave, rispondendo ad un’equazione banale di propagazione. Le cose interessanti si osservano direttamente al secondo ordine. Andiamo a studiare gli altri tre termini E (1,0) , E (0,1) , E (1,1) nel caso di risonanza. Poniamo che k = α1 k1 + α2 k2 , ω = α1 ω1 + α2 ω2 in modo che attraverso questa combinazione lineare si possano esprimere tutte le armoniche. Facciamo l’ipotesi che nel reticolo definito attraverso questa combinazione lineare di ω1 ed ω2 , esista un’armonica identificabile con un punto in cui k ed ω(k) soddisfino alla condizione di risonanza ω(α1 k1 + α2 k2 ) = α1 ω(k1 ) + α2 ω(k2 ) . Questa richiesta è molto speciale e negli esperimenti è di difficile riproduzione. Esistono comunque dei materiali caratterizzati da due indici α1 ed α2 per i quali questo fenomeno è osservabile. Il caso che vogliamo trattare è quello per α1 = 1 = α2 da cui ω(k1 ) + ω(k2 ) = ω(k1 + k2 ). Notiamo che se k1 = k2 , si riottiene il caso della 2HG da un formalismo completamente diverso. Considerando dunque il secondo ordine, possiamo derivare le seguenti equazioni per le tre componenti del campo elettrico E (1,0) , E (0,1) ed E (1,1) ripartendo dalla (7.45). 94 Onde elettromagnetiche nei mezzi nonlineari Cominciamo dalla prima: X (β ,β ) (1−β ,1−β ) (1,0) (1,0) 2 L1 E(1) = −χ(2) ω12 E(1)1 2 E(1) 1 = β1 ,β2 h (1,0) (0,0) (0,1) (1,−1) = −χ(2) ω12 E(1) E(1) + E(1) E(1) (1,1) (0,−1) i + 2E(1) E(1) Di questi tre termini (prodotti di due componenti di E), l’unico non nullo (1,1) (0,−1) è l’ultimo, 2E(1) E(1) (il fattore 2 deriva dai due casi di coppie (1, 1) e (0, −1)); il primo si annulla perchè vale (0,0) L1 (0,0) E(1) = 0 . Essendo infatti la velocità di gruppo nulla per k = 0, quanto otteniamo è (0,0) che l’operatore L1 viene a coincidere con l’operatore di derivata rispetto al tempo lungo t1 . Ora, dato che non vogliamo la dipendenza da t1 , richiediamo (0,0) che ad essere nullo sia E(1) . Il secondo si annulla poichè non soddisfa alla condizione di risonanza (1,0) k1 + k2 , ma contribuisce attraverso k1 − k2 . Dunque, per il termine E(1) si ha (1,0) (1,0) (1,1) (0,−1) L1 E(1) = −2ω1 2 χ(2) E(1) E(1) . Per le restanti due componenti, operando analoghe considerazione sulla corrispondenza delle armoniche e degli ordini di ², si ricava (0,1) L1 (1,1) L1 (1,1) E(1) (0,1) (1,1) (−1,0) (β ,β2 ) E(1) E(1) = −2ω2 2 χ(2) E(1) E(1) = −ω3 2 χ(2) X E(1)1 , (1−β1 ,1−β2 ) β1 ,β2 2 (2) = −2ω3 χ (1,0) (0,1) E(1) E(1) . Possiamo allora esplicitare la forma dell’operatore L nelle tre diverse componenti (tenendo conto del prodotto di convoluzione come nelle (7.15)): i h (1,0) (1) 2 (1) χ b (ω ) (∂t1 + v1 ∂ξ ) L = −i 2 ω + 2 ω χ b (ω ) + ω 1 1 1 1 1 ω 1 i h (1) (0,1) bω (ω2 ) (∂t1 + v2 ∂ξ ) L1 = −i 2 ω2 + 2 ω2 χ b(1) (ω2 ) + ω22 χ i h (1) 2 (1) L(1,1) = −i 2 ω3 + 2 ω3 χ χ b (ω ) (∂t1 + v3 ∂ξ ) b (ω ) + ω 2 3 1 3 ω dove vj = dω(kj ) , dk j = 1, 2, 3 7.4 Caso di due onde risonanti: 3WRI 95 è la velocità di gruppo corrispondente al vettore d’onda kj . Poniamo allora 1 d2 ω(k) ≡ a(k) , 2 dk 2 a(k) = c2 (1) 2ω + 2ω χ b(1) (ω) + ω 2 χ bω (ω) e ωj2 (2) (1,0) (0,1) (1,1) χ a(kj ) , E(0) ≡ E1 , E(0) ≡ E2 , E(0) ≡ E3 . c2 Ricordiamo che le E sono funzioni complesse di due variabili reali. Possiamo scrivere dunque un sistema di tre onde risonanti interagenti (3 Waves Resonant Interaction, 3WRI) che ha origine da due onde risonanti: (∂t1 + v1 ∂ξ ) E1 = i c1 E3 E2∗ (∂t1 + v2 ∂ξ ) E2 = i c2 E3 E1∗ 3WRI (7.47) (∂t1 + v3 ∂ξ ) E3 = i c3 E1 E2 cj ≡ 2 Osserviamo che non esistono accoppiamenti dei campi con se stessi, cioè termini quadratici di una stessa componente e che la non linearità è data dal prodotto di due ampiezze 1 ; contrariamente, nella NLS ricordiamo che tali autoaccoppiamenti si verificano e le non linearità discendono da termini cubici. La linearizzazione del sistema 3WRI ci porta alla triviale situazione di tre onde che si propagano senza interagire tra loro. Notiamo inoltre che possiamo riottenere dalle 3WRI le 2HG, quando k1 = k2 e quindi k3 = 2k1 . k1 è tale che ω(2k1 ) = 2ω(k1 ) , (ω3 = 2ω1 ) . L’equazione con E1 = E2 , v1 = v2 e c1 = c2 , diventa (∂t1 + v1 ∂ξ ) E1 = i c1 E2∗ E3 . (∂t1 + v3 ∂ξ ) E3 = i c3 E12 In generale, il sistema (7.47) non è integrabile, però sotto opportune condizioni può diventarlo. Tali condizioni riguardano i coefficienti complessi cj : cj = sj |cj | eiφ , sj 2 = 1 1 Possiamo pensare di sfruttare tale fenomeno nel caso in cui volessimo generare delle somme di armoniche o degli amplificatori. 96 Onde elettromagnetiche nei mezzi nonlineari dove sj è il segno di c, eiφ è la fase indipendente da j, quindi la stessa per tutti e tre i coefficienti 2 . Una determinata scelta dei coefficienti può portare ad osservare due comportamenti diversi, l’uno esplosivo l’altro, più comune, non esplosivo. Per completezza, facciamo notare che per la seguente scelta dei segni dei coefficienti cj , si osserva il comportamento non esplosivo: (s1 , s2 , s3 ) = (1, −1, 1) . 2 Anche per la NLS abbiamo delle condizioni di integrabilità: i coefficienti c che compaiono nell’equazione ³ ´ 2 iEt2 + c Eξξ + s |E| E = 0 , devono essere reali: c ∈ R . Capitolo 8 Dielettrico quantistico Nel caso di un’onda elettromagnetica che si propaga lungo l’asse x le equazioni di Maxwell si possono semplificare nel modello in 1+1 dimensioni, ottenendo 1 Ett − c2 Exx = − Ptt , (8.1) ²0 dove E(x, t) è una componente del campo elettrico trasversale e P (x, t) è il campo di polarizzazione indotto nel mezzo da questa onda. Per legare la polarizzazione P al campo E occorre introdurre un modello meccanico del dielettrico e della sua interazione con il campo elettrico. A questo scopo facciamo l’ipotesi che il mezzo sia costituito da un un insieme di densità costante di atomi (o ioni) disaccoppiati tra loro e che la dinamica di questi atomi segua le regole della meccanica quantistica 1 . La situazione in cui l’atomo non interagisce col campo elettromagnetico è descritta ovviamente da una hamiltoniana del sistema coincidente con la sola hamiltoniana dell’atomo dipendente dalle posizioni xj ed impulsi pj di ogni j-esima particella: H = Hat (xj , pj ) . Se introduciamo l’interazione dell’atomo col campo, dobbiamo tener conto dei potenziali vettoriale A e scalare V attraverso i quali esprimiamo il manifestarsi del campo stesso. Dunque X H = Hat (xj , pj + qj Aj (xj , t)) + qj V (xj , t) . j Possiamo trascurare l’interazione dell’atomo col campo magnetico corrispondente al termine in A (poichè molto piccola) e concentrarci sul contributo dato dall’interazione col campo elettrico in V . 1 Sebbene il dielettrico è inteso quantizzato, ciò non è assunto anche per il campo elettromagnetico. Ci limitiamo, per semplicità, ad una descrizione classica del campo. 98 Dielettrico quantistico Un’ulteriore semplificazione si ottiene supponendo che solo lo stato fondamentale ed un livello eccitato del singolo atomo prendano parte all’interazione con il campo elettromagnetico (atomo a due livelli) 2 . Sia quindi H = Hat + V l’operatore hamiltoniano totale del sistema “atomo-campo elettrico”, dove V è il potenziale elettrico dell’onda. Prendendo dell’espansione in multipoli del potenziale solo il termine di dipolo, si ottiene V = −p · E(x, t) dove p è l’operatore momento di dipolo dell’atomo e, quindi, proiettando lungo la direzione parallela a quella di E, si ottiene in forma operatoriale H = Hat − p E . (8.2) Nell’approssimazione di atomo a due livelli il vettore di stato |ψi dell’atomo è una combinazione lineare dei due autostati normalizzati dell’operatore hamiltoniano Hat dell’atomo, lo stato fondamentale |0i e lo stato eccitato |1i, ovvero |ψi = u(0) |0i + u(1) |1i , Hat |ji = ~ωj |ji , hj|mi = δjm , j, m = 0, 1 . Queste formule si riferiscono al singolo atomo che si trova in x al tempo t e quindi i coefficienti u(j) della combinazione lineare sono funzioni della coordinata spaziale e del tempo: u(j) = u(j) (x, t). Inoltre l’evoluzione temporale di questi coefficienti è data dall’equazione di Schrödinger i~ d |ψi = H |ψi dt che riscriviamo per i due coefficienti u(0) ed u(1) , proiettando sui bra h0| e h1|: (0) iut = ω0 u(0) − βEu(1) 2 (8.3) (1) iut = ω1 u (1) − βEu (0) Si potrebbe pensare che in base a tale semplificazione il modello considerato è insoddisfacente, poichè sappiamo che per E > 0 lo spettro è continuo, mentre per E < 0 è quantizzato. Ricordiamo però che siamo interessati ad osservare processi ai quali è associato un valore di probabilità di occorrenza elevato; i rimanenti processi non partecipano invece cosı̀ attivamente alla dinamica del sistema. 99 Queste equazioni si ottengono con l’ipotesi che gli autostati |ji dell’atomo b Pb] = 0) con l’implicazione sono anche autostati dell’operatore di parità ([H, che h0|p|0i = h1|p|1i = 0 , mentre la costante β è definita dalla relazione ~β = h0|p|1i = h1|p|0i. Notiamo subito nella (8.3) che il termine di dipolo accoppia u(0) ed u(1) . É conveniente ora introdurre le variabili · ¸ i . (j) ψ (x, t) = exp (ω0 + ω1 )t u(j) (x, t) , per j = 1, 2 . 2 per arrivare al sistema di equazioni (0) ψt = 2i Ω ψ (0) + iβE ψ (1) (1) ψt = − 2i Ω ψ (1) + iβE ψ (8.4) (0) dove ~Ω = ~ (ω1 − ω0 ) è la differenza di energia tra i due livelli atomici. Questo passaggio ci permette di eliminare la dipendenza banale dal tempo introdotta dalle costanti ω0 ed ω1 : in sostanza annulliamo la traccia della matrice associata al sistema (8.3). Per legare queste equazioni all’equazione di Maxwell (7.1) è necessario ora esprimere il campo di polarizzazione P (x, t) in funzione delle variabili ψ (j) (x, t). Per semplicità trascuriamo la media statistica che lega proprietà su scala atomica al campo macroscopico P (x, t), il fatto che gli atomi interagenti con l’onda E del campo elettrico possano emettere o assorbire fotoni, l’allargamento dello spettro di energie degli atomi del mezzo dovuto all’effetto Doppler causato dal moto termico dei singoli atomi 1 . In questa approssimazione, P (x, t) = ρ φ(x, t) , (8.5) dove ρ è la densità costante di atomi e φ(x, t) = hψ|p|ψi è il valor medio del momento di dipolo dell’atomo che si trova in x al tempo t (infatti il valor medio dell’energia d’interazione è hψ|V |ψi = −Eφ). Quindi si ha ¢ ¡ (8.6) P = ρ hψ|p|ψi = ~βρ ψ (0)∗ ψ (1) + ψ (1)∗ ψ (0) . 1 Ciò che vogliamo affermare è che la polarizzazione che compare nelle (7.1) è sostanzialmente diversa dalla polarizzazione a rhs della (8.5): fra le due esiste un vero e proprio mapping basato sulle frequenze dell’onda in cui è necessario considerare il picco corrispondente all’armonica fondamentale ed in aggiunta a questo una distribuzione (ad esempio gaussiana) delle armoniche successive. Noi non calcoleremo queste medie, supponiamo già mediata la grandezza P . 100 Dielettrico quantistico Notiamo che in queste espressioni lo stato |ψi è normalizzato, cioè hψ|ψi = ¯ (0) ¯2 ¯ (1) ¯2 ¯ψ ¯ + ¯ψ ¯ = 1. Infine notiamo anche che, utilizzando le equazioni (8.4), si ottiene h ¡ ³¯ ¯2 ´i ¯2 ¯ ¢ Ptt = −~βρΩ Ω ψ (0)∗ ψ (1) + ψ (1)∗ ψ (0) + 2βE ¯ψ (1) ¯ − ¯ψ (0) ¯ Riconosciamo nella derivata temporale seconda di P due contributi: il primo riconducibile a quello di un oscillatore armonico, il secondo relativo alla densità di popolazione di atomi nello stato fondamentale od in quello eccitato (miscela di due tipi di atomi). Dunque, questo modello di interazione di un’onda elettromagnetica con un mezzo fatto di atomi a due livelli è descritto dalle equazioni di MaxwellBloch (semplificate) £ ¡ ¢ ¡ ¢¤ Ett − c2 Exx = ²10 ~βρ Ω Ω ψ (0)∗ ψ (1) + ψ (1)∗ ψ (0) + 2βE |ψ (1) |2 − |ψ (0) |2 (0) MB ψt = 2i Ω ψ (0) + iβE ψ (1) ψ (1) = − i Ωψ (1) + iβE ψ (0) t 2 (8.7) In questo sistema, il campo elettrico nella direzione trasversale E(x, t) è una funzione reale, mentre i coefficienti ψ (0) (x, t) e ψ (1) (x, t) del vettore di stato dell’atomo sono funzioni complesse, per cui questo sistema è di cinque equazioni reali. In alcuni contesti risulta più conveniente riscrivere questo sistema per quattro funzioni reali introducendo le nuove variabili dipendenti reali R(x, t), Q(x, t) ed N (x, t) secondo la definizione seguente: R = ψ (0)∗ ψ (1) + ψ (1)∗ ψ (0) , Q = iψ (0)∗ ψ (1) − iψ (1)∗ ψ (0) , (8.8) ¯2 ¯2 ¯ ¯ N = ¯ψ (1) ¯ − ¯ψ (0) ¯ . Per queste nuove funzioni il sistema di Maxwell-Bloch diventa Ett − c2 Exx = ²10 ~βρ Ω Qt Rt = −Ω Q Qt = Ω R + 2βE N Nt = −2βE Q (8.9) 101 La (8.9) è dunque un sistema di 4 equazioni reali in quattro incognite, dove le linearità sono quadratiche nel peggiore dei casi, diversamente dal (8.7) in cui compaiono termini non lineari cubici. Vediamo ora come queste equazioni si possono ulteriormente semplificare per arrivare a due modelli di propagazione che sono serviti di base per spiegare alcuni fenomeni non lineari tra cui quello della trasparenza autoindotta (Self-Induced Transparency, SIT) dovuta alla risonanza tra l’onda elettromagnetica e la transizione atomica. Approssimazione sull’operatore. Cominciamo con l’ipotesi che il campo elettrico si propaghi lungo una sola direzione, per esempio quella positiva. Poichè l’operatore di D’Alembert ∂t2 − c2 ∂x2 = (∂t + c∂x )(∂t − c∂x ) descrive la propagazione nelle due direzioni, si può tenere l’operatore di propagazione lungo la direzione positiva ∂t +c∂x , (c > 0) e fare la sostituzione ∂t − c∂x ' 2∂t , ovvero (∂t2 − c2 ∂x2 )E ' 2(∂t + c∂x )Et . Se si fa ora questa sostituzione nella prima equazione del sistema (8.9) e si integra una volta nella variabile t, si ottiene il più semplice modello di propagazione di un’onda elettromagnetica in un mezzo di atomi a due livelli che è il sistema delle quattro equazioni nonlineari reali del primo ordine Et + c Ex = 2²10 ~βρ Ω Q Rt = −Ω Q RMB (8.10) Q = Ω R + 2βE N t Nt = −2βE Q noto come equazioni Ridotte di Maxwell-Bloch. Queste equazioni, oltre ad avere interesse applicativo, hanno la proprietà matematica di essere integrabili e di essere quindi trattabili con i metodi della teoria dei solitoni. Multiscala. Un secondo modello, anch’esso integrabile e di notevole interesse applicativo, si ottiene con il metodo multiscala dall’equazioni di partenza (8.7) nell’ipotesi che il campo elettrico sia descritto da un’onda quasimonocromatica con frequenza ω e con ampiezza piccola (di ordine ², essendo ² il parametro perturbativo, vedi le lezioni sul metodo multiscala), e nella condizione di risonanza ω = Ω. L’ingrediente fondamentale della derivazione 102 Dielettrico quantistico del modello è l’ipotesi che gli atomi risonanti del mezzo siano solo una piccola frazione di tutti gli atomi e che gli altri atomi, cioè la maggior parte, non siano risonanti. Questo è il caso, ad esempio, del rubino in cui gli ioni Cromo Cr+3 risonanti (cioè la loro frequenza di eccitazione coincide con la frequenza del campo elettrico) sono sparsi in un cristallo di molecole di ossido di Alluminio Al2 O3 non risonanti che costituisce il dielettrico di fondo. Per descrivere questa situazione, nelle equazioni di Maxwell-Bloch semplificate (8.7), la velocità di fase c va sostituita con la velocità di fase v = c/n(ω) nel dielettrico di fondo con costante dielettrica n = n(ω) , mentre la costante 1 ~βρ ¿ 1 è molto piccola, ²10 ~βρ = ²2 γ , e determina la scala di “piccolezza” ²0 che compare nel metodo perturbativo multiscala. Scegliamo quindi che il parametro ² sia adimensionale e che γ sia un parametro di ordine O(1). Poichè le equazioni che ci interessano si ottengono all’ordine O(²2 ) e poichè il campo elettrico è di ordine O(²) mentre le componenti ψ (0) e ψ (1) del vettore di stato dell’atomo risonante sono di ordine O(1) (si ricordi infatti che vale ¯ ¯2 ¯ ¯2 la condizione di normalizzazione ¯ψ (0) ¯ + ¯ψ (1) ¯ = 1), è sufficiente porre E(x, t) = ² (A(ξ, τ ) exp [i(kx − ωt)] + A∗ (ξ, τ ) exp [−i(kx − ωt)]) , ¢ Ωt , 2 ψ (0) (x, t) = A(0) (ξ, τ ) exp ¡i ψ (1) (x, t) = A(1) (ξ, τ ) exp ¡i 2 (8.11) ¢ Ωt exp[i(kx − ωt)] , nelle equazioni (8.7) che, riscritte secondo le ipotesi sopra specificate, diventano h ¡ ³¯ ¯ ¯ (0) ¯2 ´i ¢ 2 2 (0)∗ (1) (1)∗ (0) (1) ¯2 ¯ ¯ψ ¯ E − v E = ² γΩ Ω ψ ψ + ψ ψ + 2βE ψ − tt xx (0) i (0) (1) ψt = 2 Ω ψ + iβE ψ (1) ψt = − 2i Ω ψ (1) + iβE ψ (0) (8.12) Teniamo conto degli sviluppi per il campo elettrico E e per le due funzioni complesse ψ (j) , con j = 0, 1, sino al secondo ordine: altri termini esistono ma i contributi di queste armoniche sono trascurabili. Ordine ² Espandiamo direttamente il d’alembertiano che agisce su E nella (8.12): ∂t2 −v 2 ∂x2 = (−iω + ²∂τ )2 −v 2 (ik + ²∂ξ )2 = −ω 2 +v 2 k 2 −2i²(ω∂τ +kv 2 ∂ξ )+O(²2 ) . 103 Consideriamo dunque le equazioni che ricaviamo per le tre funzioni. Per il campo elettrico E (che è già all’ordine ²), si ricava, bilanciando i termini in ², la relazione di dispersione che lega ω a k: −ω 2 + v 2 k 2 = 0 −→ ω = vk Per ψ (0) , ricordando l’espansione dell’operatore ∂t Ω ∂t = i + ² ∂ τ , 2 si ottiene l’identità iΩ/2 = iΩ/2 che non dà alcuna informazione. Per ψ (1) , invece si ricava la condizione di risonanza: Ω Ω i − iω = −i −→ Ω = ω . 2 2 Ordine ²2 All’ordine successivo, si ricavano le seguenti equazioni. Per E, si ha −2iω(∂τ + v ∂ξ ) A = γΩ2 A(0)∗ A(1) . Per ψ (0) , si ottiene A0τ = iβA∗ A(1) . Per ψ (0) , risulta A1τ = iβAA(0) . Queste ultime tre equazioni sono il sistema che cercavamo applicando il multiscala. Riscrivendo opportunamente la prima delle tre equazioni otteniamo: Aτ + v Aξ = 2i γΩ A(0)∗ A(1) (0) (8.13) Aτ = iβ A∗ A(1) (1) Aτ = iβ AA(0) Se assumiamo ulteriormente che l’ampiezza A sia immaginaria e che A(0) e A(1) siano reali, queste tre equazioni diventano equivalenti alla sola equazione scalare reale. Vale allora che A = i B , B = B ∗ , A(0) = A(0)∗ , A(1) = A(1)∗ . Cosı̀ il sistema (8.13) diventa Bτ + v Bξ = 2i γΩ A(0) A(1) (0) Aτ = β BA(1) (1) Aτ = β BA(0) (8.14) 104 Dielettrico quantistico (0) (1) Ora è evidente che le ultime due equazioni in Aτ ed Aτ possono essere interpretate come le equazioni dell’oscillatore armonico e tenendo conto anche della condizione imposta dalla normalizzazione, scriviamo che A(0) = sin(Φ/2) , A(1) = cos(Φ/2) Dunque, si definisce φτ = 2β B e risostituendo nella (8.14), si ricava un’unica equazione scalare (del secondo ordine) nota col nome di equazione di Sine-Gordon: φτ τ + v φτ ξ = γ Ω sin(φ) 4 Con una semplice trasformazione X = vτ , T = τ − (2/v) ξ , F (X, T ) = Φ(ξ, τ ) . si riesce ad esprimere la derivata mista attraverso una derivata seconda nello spazio, ricavando la forma nota dell’equazione (iperbolica) S-G FT T − v 2 FXX + m2 sin(F ) = 0 . (8.15) Questa è un’equazione integrabile che ha applicazioni anche in altri campi come la fisica dello stato solido e la geometria differenziale. Capitolo 9 Derivazione dell’equazione di Korteweg-de Vries L’equazione di Korteweg-de Vries (KdV) nel campo scalare u(x, t): ut − a uxxx − b ux = c uux (9.1) è un’equazione modello non lineare alle derivate parziali perchè si ottiene con metodi perturbativi da un gran numero di equazioni d’onda non lineari. Essa possiede le seguenti proprietà: 1. è reale; 2. è integrabile; 3. è debolmente non lineare, cioè i termini non lineari sono polinomi del campo o delle sue deruvate: u, ux , uxx , . . .; 4. è debolmente dispersiva, cioè l’equazione linearizzata ut − auxxx − bux = 0 possiede soluzioni in forma d’onda piana A ei(kx−ωt) , con funzione di dispersione ω = ω(k) = ω ∗ (k) = −ω(−k) ad esempio polinomiale con potenze dispari. La particolare scelta: ω(0) = 0 restituisce una funzione costante che è soluzione; 106 Derivazione dell’equazione di Korteweg-de Vries 5. la funzione costante è soluzione dell’equazione non lineare di partenza (9.1). L’equazione linearizzata, se ω = ω(k) è la relazione di dispersione, è della forma ut = −iω(−i∂x ) u . Difatti ad esempio, la scelta di: ω(k) = c1 k + c3 k 3 (9.2) restituisce l’equazione dispersiva lineare ut = −c1 ux + c3 uxxx . Una classe di equazioni d’onda non lineari che soddisfa le condizioni precedenti si può ottenere sostituendo ad ogni operatore ∂x l’operatore f (u) ∂x . Cosı̀, per esempio, l’equazione (9.2) diventa ut = f0 (u) ux + f1 (u) [f2 (u)[f3 (u) ux ]x ]x , dove fi , con i = 1, 2, 3, sono funzioni analitiche di u. Ovviamente u(x, t) = ū = cost. è soluzione della precedente. Questa equazione si riscrive convenientemente nella forma ut = f0 ux + F1 uxxx + F2 ux uxx + F3 u3x , dove si è posto (con f 0 ≡ F 1 = f1 f2 f3 , df ) du F2 = f1 (f20 f30 + 3f2 f30 ) , F3 = f1 (f2 f300 + f20 f30 ) . Se ² è un parametro (piccolo) e il campo è espresso in termini della soluzione costante ū perturbata: u = ū + ²v(x, t) , allora il rumore v(x, t) soddisfa l’equazione vt = f0 (ū+²v) vx +F1 (ū+²v) vxxx +² F2 (ū+²v) vx vxx +²2 F3 (ū+²v) vx3 , (9.3) Si cerca una soluzione v(x, t) della (9.3) tale che: 1. sia una serie di potenze di ² v = v(0) + ² v(1) + ²2 v(2) + . . . (9.4) 107 2. ogni coefficiente dell’espansione (9.4) sia una funzione delle variabili riscalate √ √ √ √ ξ = ² x , t1 = ² t , t 2 = ² ² t , t 3 = ²2 ² t , . . . (9.5) v(n) = v(n)(ξ, t1 , t2 , . . .) Sviluppiamo in potenze di ² gli operatori differenziali: √ √ √ √ ∂x = ² t , ∂t = ² ∂t1 + ² ² ∂t2 + ²2 ² ∂t3 + . . . (9.6) ed andiamo a sostituire gli sviluppi (9.4), (9.5), (9.6) nella (9.3), ricavando ¡ ¢ ∂t1 + ²∂t2 + ²2 ∂t3 + . . . (v(0) + ² v(1) + . . .) = [f0 (ū) + ² v(0)f00 (ū) + . . .] + ² [F1 (ū) + ² v(0)F10 (ū) + . . .] (v(0)ξξξ + ² v(1)ξξξ + . . .) + ²2 [F2 (ū) + ² v(0)F20 (ū) + . . .] (v(0)ξ + ² v(1)ξ + . . .) (v(0)ξξ + ² v(1)ξξ + . . .) + ¡ ¢ ²3 [F3 (ū) + ² v(0)F30 (ū) + . . .] v(0)3ξ + 3² v(1)ξ v(0)2ξ + . . . (9.7) = + + + Per gli ordini ²0 ed ²1 , avremo: Ordine ²0 : v(0)t1 = f0 (ū) v(0)ξ (9.8) Ordine ²1 : v(1)t1 + v(0)t2 = f0 (ū) v(1)ξ + f00 (u) v(0)v(0)ξ + F1 (ū) v(0)ξξξ (9.9) Se riscriviamo le (9.8) e (9.9), posto L1 ≡ ∂t1 − f0 (ū) ∂ξ , come L1 v(0) = 0 , L1 v(1) = −v(0)t2 + F1 (ū) v(0)ξξξ + f00 (ū) v(0)v(0)ξ , allora la soluzione generale di questa seconda equazione L1 v(1) = g1 , g1 = −v(0)t2 + F1 (ū) v(0)ξξξ + f00 (ū) v(0)v(0)ξ , è secolare. Possiamo difatti scrivere: v(1)(ξ, t1 , t2 ) = h (ξ + f0 (ū)t1 , t2 , t3 , . . .) + t1 g1 (ξ, t1 , t2 , . . .) 108 Derivazione dell’equazione di Korteweg-de Vries essendo già la forzante g1 soluzione dell’omogenea L1 g1 = 0. Per evitare la secolarità, cioè la crescita lineare in t1 della soluzione, deve essere g1 = 0, cioè v(0)t2 = F1 (ū) v(0)ξξξ + f00 (ū) v(0)v(0)ξ che è l’equazione di KdV per v(0) (9.1) con a = F1 (ū) , b=0 , c = f00 (ū) . L’equazione di Korteweg-da Vries è stata ricavata per la prima volta nel 1895 da Korteweg e de Vries che studiarono la dinamica di onde lunghe in acqua poco profonda ignorando eventuali effetti d’attrito. Tuttavia tale situazione era già stata analizzata sperimentalmente da J. Scott Russel (1838) e teoricamente da Boussinesq (1877). D’altra parte l’equazione “modello ”di Korteweg-de Vries compare anch in altri contesti della fisica: dalla fisica dei plasmi a quella dei solidi, q auella dei circuiti, fatto questo che, insieme alla sua proprietà fondamentale di integrabilità, la rende una delle equazioni fondamentali della fisica matematica moderna. Parte II Solitoni Capitolo 10 Il Metodo della Trasformata Spettrale 10.1 Introduzione alla trasformata spettrale Sappiamo che un modello matematico che vuole descrivere la propagazione ondosa si fonda su due costituenti fondamentali: (1°) un profilo iniziale ben determinato dell’onda e (2°) una legge di evoluzione. In sostanza è ciò che chiamiamo generalmente col nome di Problema di Cauchy. Questi due ingredienti - attraverso i quali partiamo per trattare molti fenomeni fisici, sono intimamente connessi l’uno all’altro (almeno per quanto riguarda le equazioni d’onda che ci interessano). La ragione di tale connessione si fonda sul metodo di analisi di Fourier: in tale metodo, lo studio del moto ondoso rispetto alle coordinate spaziali consiste nell’esprimere il profilo dell’onda come una somma di esponenziali oscillanti che, più precisamente, sono quelle funzioni moltiplicate per un fattore di fase dipendente dal tempo in modo tale da soddisfare le equazioni di evoluzione. In questi casi, la proprietà di linearità dell’equazione di evoluzione gioca un ruolo fondamentale nell’estensione dell’applicabilità della trasformata di Fourier alle onde lineari: infatti, l’analisi di Fourier non può essere applicata nel caso nonlineare. Anche deboli nonlinearità possono dar vita ad effetti sostanziali per tempi lunghi nel profilo dell’onda, dato che questi tendono ad accumularsi nell’intervallo di evoluzione. Tuttavia esiste una trasformata - la trasformata spettrale, per l’appunto - che si applica alle equazioni di evoluzione nonlineari in un modo che è piuttosto simile a quello della trasformata do Fourier. Una delle caratteristiche principali di questa trasformata è quella di dar luogo ad uno spettro discreto che va a sommarsi a quello ordinario continuo connesso al pac- 10.1 Introduzione alla trasformata spettrale 111 chetto d’onda, nel quale sono contenute, come casi speciali, le soluzioni solitoniche (come avremo modo di approfondire in seguito). Il contesto matematico in cui sviluppiamo il metodo della trasformata spettrale è quello del “problema inverso”, ovvero la ricostruzione di una funzione u(x) a partire da un insieme di dati spettrali in aggiunta ad un operatore d2 − dx 2 + u(x). L’importanza di tali argomenti è dovuta a molteplici studi: dagli esperimenti numerici affettuati da Fermi, Ulam e Pasta [32] (sull’equipartizione dell’energia in una catena di oscillatori debolmente anarmonici) cui seguono quelli di Zabusky e Kruskal che derivano da tale sistema la KdV, a quelli di Gardner, Greene, Kruskal e Miura [18] i quali mostrano che i metodi appropriati per investigare le proprietà dei solitoni sono quelli spettrali già introdotti nel contesto del problema inverso. Inoltre, i lavori di Zakharov e Shabat [33] hanno mostrato che usando una data trasformata spettrale anche la NLS può essere risolta con tale metodo. Vogliamo ora ricordare alcuni aspetti fondamentali della teoria delle trasformate spettrali. Se un’equazione d’evoluzione nonlineare (una PDE, una ODE o un’equazione integro-differenziale scalare o matriciale in n variabili spaziali ed una temporale, cioè dimensione (n + 1)) può essere ridotta ad un’equazione di evoluzione lineare attraverso il metodo della trasformata spettrale, allora essa possiede molte proprietà importanti, come ad esempio infinite leggi di conservazione, una struttura hamiltoniana, etc... e per tali motivi è detta integrabile. Con ciò, notiamo che le equazioni di evoluzione nonlineari sono molto speciali e che una generica equazione di evoluzione nonlineare non può essere a priori analizzata attraverso il metodo spettrale. In aggiunta, non è ancora noto un metodo generale che ci permetta di sapere se un’equazione d’evoluzione nonlineare è integrabile o meno, d’altra parte, però, si conosce una tecnica per generare equazioni di evoluzione nonlineari integrabili attraverso il metodo della trasformata spettrale. I due ingredienti base della trasformata spettrale sono (i) un’equazione differenziale lineare contenente parametri spettrali complessi ed (ii) il problema di Riemann-Hilbert (RH) (si veda l’appendice (D)). 10.1.1 La trasformata inversa di Fourier come problema RH Al fine di mostrare la relazione tra i due argomenti ((i),(ii)) base della trasformata spettrale, discutiamo la formulazione della trasformata inversa di Fourier sotto forma di un problema RH. Consideriamo una funzione u(x) reale (o complessa) che vogliamo analiz- 112 Il Metodo della Trasformata Spettrale zare usando la trasformata e che verifica Z +∞ dx |u(x)| < ∞ . −∞ Consideriamo un’equazione differenziale lineare appropriata nella quale inseriamo la nostra funzione u(x): ψx − ik ψ = u(x) , con ψ = ψ(x, k) . (10.1) Questa è un’equazione differenziale non omogenenea del primo ordine contenente un parametro spettrale k. Dato che u(x) si annulla per |x| → ∞ ogni soluzione della (10.1), per |x| grande, è proporzionale all’esponenziale eikx e queste costanti di proporzionalità sono ad x = ±∞ i dati spettrali rilevanti. É allora conveniente introdurre le soluzioni “sinistra” e “destra” della (10.1) sotto le relative condizioni asintotiche: ψL (x, k) → eikx , per x → −∞ , (10.2) ψR (x, k) → eikx , per x → +∞ . (10.3) Risolvendo esplicitamente la (10.1), si trovano le seguenti espressioni delle ψL e ψR ove compare la u(x): ¸ · Z x −iky ikx dy u(y)e , (10.4) ψL (x, k) = e 1+ −∞ · ikx ψR (x, k) = e Z +∞ 1− ¸ −iky dy u(y)e , (10.5) x i comportamenti asintotici delle quali si esprimono cosı̀: ψL (x, k) → eikx [1 + u b(k)] , con x → +∞ , =(k) = 0 , (10.6) ψR (x, k) → eikx [1 − u b(k)] , con x → −∞ , =(k) = 0 , (10.7) dove abbiamo cosı̀ definito la trasformata di Fourier della funzione u(x): Z +∞ u b(k) = dx u(x) e−ikx , con =(k) = 0 . −∞ Il problema diretto consiste nell’integrare la (10.1) su tutto l’asse x usando le condizioni (10.2) e (10.3) e nel ricavare dagli andamenti asintotici (10.6) e (10.7) la costante u b(k) per ogni valore reale di k: cosı̀ operiamo il passaggio u(x) → u b(k). 10.1 Introduzione alla trasformata spettrale 113 La soluzione del problema inverso, cioè la ricostruzione della u(x) a partire dalla u b(k) (b u(k) → u(x)) può essere ottenuta risolvendo il problema RH (si rimanda all’appendice (D)). Al fine di formulare il problema RH associato alla trasformata di Fourier, definiamo una funzione φ(x, k) della variabile complessa k tale che: φ(x, k) = ψ(x, k)L − eikx , =(k) > 0 , φ(x, k) = ψ(x, k)R − eikx , =(k) > 0 . In riferimento alle (10.4) e (10.5), osserviamo che la funzione ψ(x, k) è analitica in tutto il piano complesso k con la unica eccezione dell’asse x (=(k) = 0), sul quale la discontinuità è data dalla formula φ(+) (x, k) = φ(−) (x, k) + u b(k) eikx , in cui φ(±) (x, k) = φ(x, k ± i0) sono i valori al bordo dell’asse reale (dall’alto e dal basso). La funzione φ(x, k) è di grado −1 per k = ∞, dato che lim [ik φ(x, k)] = −u(x) . (10.8) k→∞ Dunque, il problema della determinazione di φ(x, k) è un problema RH scalare, non omeogeneo con G = 1 e Γ coincidente con tutto l’asse reale (di nuovo, rimandiamo all’appendice (D)). Tale problema è esplicitamente risolto impiegando le formule di Plemelj-Sakhotski (PS) e la sua soluzione è 1 φ(x, k) = 2πi Z +∞ −∞ 0 eik x dk u b(k ) 0 k −k 0 0 (10.9) Osserviamo che, in questo problema, la x è un parametro reale e che la soluzione (10.9) del problema RH fornisce una rappresentazione spettrale delle soluzioni ψL e ψR dell’equazione diferenziale (10.1), data da ψL (x, k) = e ikx ψR (x, k) = e ikx 1 + 2πi 1 + 2πi Z +∞ −∞ Z +∞ −∞ 0 eik x dk u(k ) 0 k − k − i² 0 0 , =(k) = 0 , , =(k) = 0 , 0 eik x dk u(k ) 0 k − k + i² 0 0 in cui integriamo rispetto alla variabile spettrale k invece che la x come nelle (10.4) e (10.5). 114 Il Metodo della Trasformata Spettrale Per concludere l’analisi spettrale della funzione u(x), ovvero per ricavare la trasformata inversa di Fourier, sostituiamo l’espressione spettrale della soluzione (10.9) nel membro di sinistra della (10.8): 1 u(x) = 2π Z +∞ dk u b(k) eikx . −∞ Estensione ad altre trasformate Riprendendo quanto fatto per la trasformata di Fourier, possiamo introdurre per analogia altre trasformate spettrali seguendo un metodo che generalizza il precedente schema. Si ha infatti che l’analisi spettrale delle equazioni di evoluzione nonlineari richiede che l’equazione differenziale (10.1) sia sostituita da una omogenea, lineare, di ordine maggiore o eventualmente da un sistema di equazioni. Il tipo di sostituzione da effettuare è legato anche alla dimensionalità del sistema: nel caso (1 + 1) il problema spettrale corrisponde ad un problema RH omogeneo, dove h(s) = 0 nella D.4; nel caso (2 + 1) è necessaria una generalizzazione del problema RH (si passa ad una relazione integrale tra le φ(+) e φ(−) ). 10.1.2 Dipendenza parametrica dal tempo Poniamo che la funzione u(x) che compare nella (10.1), dipenda parametricamente dal tempo t: u = u(x, t). Da questo, deduciamo che anche ψ dipende da t; poniamo, inoltre, che questa dipendenza temporale di u dal tempo sia tale che la ψ soddisfi la seguente equazione differenziale lineare nella variabile temporale t: ψt = A(x, k, t) ψ + B(x, k, t) , con ψ = ψ(x, k, t) , (10.10) la quale fornisce una soluzione generale della (10.1); poniamo allora che ψ(x, k, t) = ψL (x, k, t) + γ(k, t) eikx . Le condizioni cha abbiamo imposto sono molto forti e determinano una classe di equazioni di evoluzione per u(x, t) cosı̀ come per la relatica trasformata spettrale u b(k, t). Tali equazioni si ottengono molto facilmente dalla condizione di compatibilità ψxt = ψtx 10.1 Introduzione alla trasformata spettrale 115 tra le equazioni (10.1) e (10.10) che, data la arbitrarietà della funzione ψ, restituisce due equazioni: Ax = 0 ut = uA + Bx − ikB (10.11) Assumiamo i seguenti sviluppi dei coefficienti A e B: A = c(ik, t) = M +1 X cm (t)(ik)m , M ≥ 0 m=0 B = M X b(m) (x, t) (ik)m . (10.12) m=0 Dalla (10.11), sostituendovi le due precedenti, otteniamo b(m) (x, t) = M −m X cn+m+1 (t) Dn u(x, t) , m = 0, 1, 2, . . . , M , (10.13) n=0 dove D ≡ ∂ . ∂x Dunque abbiamo ut = M +1 X cn (t) Dn u = c(D, t) u , (10.14) n=0 dove il coefficiente c(D, t) è indipendente dalla variabile x. L’equazione di evoluzione per u b(k, t) si può ricavare dalla (10.10) per ψ quando x → ±∞ e notando che, in tale limite, B(x, k, t) → 0 (come suggeriscono le (10.12) e (10.13)). Per x = −∞, otteniamo γt = (1 + γ) A mentre, per x = +∞ abbiamo γt + u bt = (1 + γ + u b) A . Combinando queste due ultime equazioni, otteniamo l’equazione di evoluzione per la trasformata u b: u bt (k, t) = u b(k, t) M +1 X cn (t) (ik)n = c(ik, t) u b(k, t) . (10.15) n=0 Possiamo cosı̀ risolvere il problema al valor iniziale: u(x, 0) → u(x, t), associato all’equazione (10.14) operando i seguenti passi (illustrati nello schema nella pagina seguente): 116 Il Metodo della Trasformata Spettrale 1. u(x, 0) → u b(k, 0), risolvendo il problema diretto; 2. u b(k, 0) → u b(k, t), integrando l’equazione differenziale lineare ordinaria (10.15) da cui otteniamo l’evoluzione della trasformata di u(x, t): Rt u bk,t = u b(k, 0) e 0 dt0 c(ik,t0 ) ; 3. u b(k, t) → u(x, t), risolvendo il problema spettrale inverso. prob. dir. u(x, 0) u(x, t) ↓ ↑ u b(k, 0) ev. trasf. −→ prob. inv. u b(k, t) Osserviamo, dunque, che l’analisi spettrale delle soluzioni dell’equazione di evoluzione lineare (10.14), basata sulla trasformata di Fourier, è un utile schema risolutivo che, dopo aver apportato varie modifiche e generalizzazioni, può essere impiegato per trattare le equazioni di evoluzione nonlineari. 10.2 La trasformata spettrale Il nostro scopo è ora modificare l’analisi spettrale basata sulla trasformata di Fourier per trattare le equazioni di evoluzione nonlineari. Contrariamente a quanto accade per la trasformata di Fourier, la quale può essere generalizzata facilmente allo scopo di studiare funzioni dipendenti da un numero arbitrario di variabili, l’estensione della trasformata spettrale da una a due (o più) variabili spaziali richiede l’applicazione di nuove tecniche ed idee. Cominciamo col considerare il più semplice esempio di equazione di evoluzione nonlineare di interesse applicativo, integrabile col metodo spettrale, ovvero la KdV per la funzione u = u(x, t) 1 : ut + uxxx − 6uux = 0 1 (10.16) I coefficienti dei tre termini nella (10.16) possono assumere qualsiasi valore costante, previo riscalamento delle variabili dipendenti ed indipendenti u, x e t. 10.2 La trasformata spettrale 117 Facciamo notare innanzitutto che il metodo spettrale che andiamo a descrivere è limitato alla classe di soluzioni della (10.16) che soddisfano la seguente relazione: Z +∞ dx (1 + |x|) |u(x, t)| < ∞ , (10.17) −∞ per ogni valore di t. Questo ci dice che la funzione u(x, t) deve essere localmente assolutamente integrabile e che deve annullarsi nel limite per x → ±∞. Cominciamo dunque col sostituire all’equazione differenziale non omogenea del primo ordine (10.1), l’equazione differenziale omogenea del secondo ordine ψx − ik ψ = u(x) −→ ψxx + k 2 ψ = u(x, t) ψ con ψ = ψ(x, k, t) , (10.18) dove t e k compaiono come semplici parametri. Questa equazione è il punto di partenza dell’analisi spettrale della funzione u(x, t) della variabile x per un t fissato. Prima di procedere con questa analisi, osserviamo che l’equazione di KdV (10.16) si ottiene richiedendo che la funzione ausiliaria ψ soddisfi un’equazione di evoluzione lineare che gioca lo stesso ruolo della (10.10) ed ha la seguente forma: £ ¤ ψt = [c − ux (x, t)] ψ+2 2k 2 + u(x, t) ψx , , con ψ = ψ(x, k, t) , (10.19) dove c è una costante che non dipende da x, ma dalla particolare soluzione ψ della (10.18). Infatti, la condizione di compatibilità tra la (10.18) e la (10.19), cioè ψxxt = ψtxx , restituisce precisamente la KdV (10.16) per il coefficiente u(x, t). Nell’analisi spettrale che andiamo ad operare su u, abbiamo che le dipendenze rilevanti sono date da x e t, mentre quella esplicita da t sarà omessa. Consideriamo inizialmente le proprietà di analiticità delle soluzioni particolari dell’equazione (10.18) come funzioni della variabile spettrale k. In analogia con le soluzioni (10.2) e (10.3), introduciamo anche qui le soluzioni destra e sinistra ψR e ψL , note anche con il nome di soluzioni di Jost, definite nelle condizioni asintotiche: ψL (x, k) → e−ikx , per x → −∞ , =(k) = 0 , (10.20) ψR (x, k) → eikx , per x → ∞ , =(k) = 0 , (10.21) 118 Il Metodo della Trasformata Spettrale consistenti con la condizione (10.17) e definite univocamente per =(k) = 0. Trasformiamo l’equazione differenziale (10.18) in una equazione integrale applicando il metodo della funzione di Green. Usando le soluzioni di Jost, otteniamo dalla (10.18) due equazioni integrali di Volterra: Z 1 x −ikx ψL (x, k) = e + dy sin [k(x − y)] u(y) ψL (y, k) , (10.22) k −∞ Z 1 +∞ ikx ψR (x, k) = e − dy sin [k(x − y)] u(y) ψR (y, k) . (10.23) k x Notiamo dunque che le funzioni ψL e ψR sono olomorfe nel semipiano =(k) > 0. Tale risultato si ottiene chiaramente riscrivendo le equazioni integrali (10.22) e (10.23) definendo le funzioni µL (x, k) ≡ eikx ψL (x, k) , (10.24) µR (x, k) ≡ e−ikx ψR (x, k) . (10.25) Queste danno dunque: 1 µL (x, k) = 1 + 2ik 1 µR (x, k) = 1 + 2ik Z 0 £ ¤ dy e−2iky − 1 u(y + x) µL (y + x, k) , (10.26) −∞ Z +∞ £ ¤ dy e2iky − 1 u(y + x) µR (y + x, k) , (10.27) 0 le quali implicano che le funzioni µL e µR dipendenti da k (per x fissato) sono di grado nullo all’infinito e più precisamente verificano lim µL (x, k) = 1 , k→∞ lim µR (x, k) = 1 . k→∞ (10.28) Affrontiamo ora i problemi spettrali diretto ed inverso associati all’equazione (10.18). In questo contesto, una nozione molto importante è quella di spettro che sappiamo essere definito come l’insieme dei valori della variabile complessa k al quale corrispondono soluzioni dell’equazione differenziale (10.18) che sono funzioni limitate ovunque di x. La condizione di tali funzioni di essere limitate è molto importante ed è una proprietà chiave delle equazioni spettrali ausiliarie le quali giocano un ruolo chiave nell’analisi spettrale. Lo spettro associato alla (10.18) ed alla condizione (10.17) è composto da due parti, una componente continua ed una discreta. Quella continua è l’asse reale, −∞ < k < +∞: tale parte è due volte degenere dato che, per ogni valore di k, sia la soluzione di Jost destra che quella 10.2 La trasformata spettrale 119 sinistra, definite dalle (10.20) e (10.21), sono soluzioni limitate linearmente indipendenti della (10.18). Inoltre, dato che l’equazione differenziale (10.18) è invariante sotto la trasformazione k → −k, ma non le condizioni al bordo (10.20) e (10.21), anche le funzioni ψL (x, −k) e ψR (x, −k) sono soluzioni limitate. Da queste considerazioni, traiamo la conclusione che esistono ben quattro soluzioni, ma la teoria generale delle equazioni differenziali ci dice che tali equazioni, vista l’equazione trattata, devono essere connesse tramite delle relazioni lineari: tra le possibili relazioni scegliamo la seguente: T (k) ψL (x, k) = ψR (x, −k) + R(k) ψR (x, k) , =(k) = 0 , (10.29) nella quale si definiscono, per ogni valore di k, i coefficienti T (k) ed R(k) di trasmissione e di riflessione, rispettivamente. Il modo con cui calcoliamo questi due coefficienti per un dato valore di k consiste nell’integrare l’equazione differenziale (10.18) partendo da sinistra, cioè per valori negativi di x molto grandi sotto la condizione (10.20) che definisce la ψL . In seguito all’integrazione sull’intero asse reale x, guardiamo il comportamento oscillante delle soluzioni ψL (x, k) a destra, cioè per valori positivi di x grandi, dal quale finalmente estraiamo i coefficienti T (k) ed R(k) in base alla formula asintotica ψL (x, k) −→ 1 −ikx R(k) ikx e + e T (k) T (k) , per x → +∞ , (10.30) derivabile dalla (10.29) e dalla (10.21). In questo modo, stabiliamo un mapping da u(x) ad R(k) e T (k) con la proprietà che le funzioni complesse R(k) e T (k) non sono indipendenti l’una dall’altra, ma soddisfano alla condizione di unitarietà: R(k)R(−k) + T (k)T (−k) = 1 , la quale deriva direttamente dal teorema del wronskiano · ¸ dψL (x, −k) dψL (x, k) d ψL (x, k) − ψL (x, −k) = 0, dx dx dx unito alle condizioni asintotiche (10.20) e (10.30). Osserviamo che le informazioni sulla funzione u(x) contenute in R(k) e T (k) possono non essere in generale sufficienti per invertire il mapping e quindi poter ricostruire la u(x): quanto detto accade quando altri valori complessi di k appartengono allo spettro. Contrariamente se poniamo u = u∗ , allora può esistere solo un numero finito di autovalori discreti, tutti sull’asse immaginario positivo della forma k = ipn , con pn > 0 ed n = 1, 2, . . . , N , che appartengono allo spettro discreto. Notiamo che anche se lo spettro 120 Il Metodo della Trasformata Spettrale continuo esiste sempre, quello discreto non è detto che esista: lo spettro può non contenere alcun autovalore, ad esempio nel caso di una funzione u(x) che assume solo valori non negativi. La soluzione della (10.18) corrispondente ad autovalori discreti k = ipn è per definizione limitata ovunque, decrescente esponenzialmente per x = ±∞, e ciò implica che ψL e ψR sono proporzionali l’uno all’altro: ψL (x, ipn ) = λn ψR (x, ipn ) , n = 1, 2, . . . , N , (10.31) dato che non possono esistere due soluzioni indipendenti che si annullano all’infinito. Infatti, è conveniente definire la seguente soluzione: φ(n) = √ ρn ψ(R) (x, ipn ) , (10.32) dove il parametro positivo ρn è fissato dalla condizione di normalizzazione Z ∞ £ ¤2 dx φ(n) (x) = 1 . (10.33) −∞ Come mostreremo più avanti, il parametro ρn che può essere definito tramite il limite £ ¤2 lim epn x φ(n) = ρn , (10.34) x→∞ è uno dei dati spettrali necessari per la ricostruzione della u(x). 10.2.1 Problema spettrale diretto Il problema spettrale diretto può essere interpretato come il calcolo, effetuato integrando la (10.18), della funzione complessa R(k) per ogni valore reale di k, e dei 2N numeri positivi pn e ρn , con n = 1, 2, . . . , N . Questo insieme di quantità è, per definizione, la trasformata spettrale S[u] della funzione reale u(x): S[u] = {R(k), −∞ < k < +∞; pn , ρn , n = 1, 2, . . . , N } . (10.35) Questa può essere interpretata come una generalizzazione della trasformata di Fourier. Dal punto di vista dell’applicazione, è importante ricordare che due proprietà sono, però, sostanzialmente differenti da quelle riferite alla trasformata di Fourier: (i) la prima è che il mapping che porta da u(x) da S[u] è nonlineare e (ii) la seconda consiste nell’emergere di una componente discreta ρn nello spettro discreto pn . Come sarà più chiaro in seguito, la prima proprietà conferisce alla trasformata spettrale la capacità di trasformare equazioni di evoluzione nonlineare in equazioni lineari, mentre la seconda 10.2 La trasformata spettrale 121 è connessa alle speciali soluzioni delle equazioni di evoluzione nonlineari, ovvero i solitoni. Inoltre, nell’ipotesi in cui la trasformata spettrale di u(x) è sufficientemente piccola, allora l’approssimazione lineare della trasformata spettrale è R(k) ∼ 1 u b(2k) , 2ik (10.36) dove u b(k) è la trasformata di Fourier di u(x), e questo giustifica il fatto che la trasformata spettrale generalizzi, in una veste nonlineare, la trasformata di Fourier. 10.2.2 Problema spettrale inverso Il problema spettrale inverso consiste nella ricostruzione di una funzione u(x) dalla sua trasformata spettrale (10.35). Per operare tale ricostruzione, dobbiamo prima di tutto ricordare alcune proprietà del coefficiente di trasmissione T (k). Contrariamente al coefficiente di riflessione R(k) che generalmente è definito solo per valori reali di k, il coefficiente di trasmissione T (k) può essere prolungato analiticamente sull’asse reale nel semipiano positivo, dove tutti i suoi poli sono semplici e coincidono con lo spettro discreto, cioè k = ipn con n = 1, 2, . . . , N . I residui in tali poli sono dati da lim [(k − ipn ) T (k)] = i k→ipn ρn , λn (10.37) dove ρn è il parametro spettrale definito nella (10.33) e (10.34), mentre λn è la costante di proporzionalità introdotta nella (10.31). Infine, la funzione T (k) ha grado nullo all’infinito ed in particolare lim T (k) = 1 . k→∞ (10.38) Ora siamo in grado di formulare il problema RH corrispondente e di ricavare le equazioni integrali del problema inverso. 122 Il Metodo della Trasformata Spettrale 10.2.3 Problema RH corrispondente Introduciamo innanzitutto la funzione f (k) vettoriale bidimensionale sezionalmente meromorfa, definita come T (k) µL (x, k) , per =(k) > 0 f (k) = (10.39) µR (x, k) µR (x, k) f (k) = , per =(k) < 0 (10.40) T (−k) µL (x, −k) dove µL e µR sono le funzioni (10.26) e (10.27): µL (x, k) ≡ eikx ψL (x, k) , µR (x, k) ≡ e−ikx ψR (x, k) , e la variabile spaziale x è un semplice parametro fisso. Considerando assieme le (10.29) (sull’asse reale) e (10.26) e (10.27), otteniamo la seguente uguaglianza: T (k) µL (x, k) = µR (x, −k) + R(k) e2ikx µR (x, k) , =(k) = 0 , dalla quale possiamo ricavare i valori al contorno di f (±) (k) sull’asse reale: f (±) (k ± i0). L’equazione soddisfatta da tale funzione è f (+) (k) = G(k) f (−) (k) , dove G(k) = =(k) = 0 , 1 − R(k)R(−k) R(k) e2ikx −R(−k) e −2ikx (10.41) . (10.42) 1 Da quanto detto concludiamo che f (k) è soluzione del seguente problema di RH: f (k) è un vettore bidimensionale sezionalmente meromorfo nel piano complesso diviso in due sezioni dall’asse reale, in cui i valori al contorno f (±) (k ± i0) soddisfano l’equazione (10.41) con G(k) espresso dalla (10.42) ed in particolare f (k) assume il seguente valore asintotico: µ ¶ 1 lim f (k) = (10.43) 1 k→∞ 10.2 La trasformata spettrale 123 (che segue dalle (10.38), (10.28), (10.39) e (10.40)) e 2N poli semplici in k = ipn , con n = 1, 2, . . . , N , coi residui lim [(k ± ipn ) f (k)] = Rn(±) (10.44) k→±ipn dove µ Rn(±) −2pn x = ±iρn e µR (x, ipn ) χ± , con χ+ = 1 0 ¶ µ , χ− = 0 1 ¶ . (10.45) è dato dalle (10.39) e (10.40), (10.37), (10.31), (10.24) e (10.25). Osserviamo che tale problema è un po’ più generale di quello considerato nell’appendice (D): in quel caso la sezione f (k) è sezionalmente olomorfa, mentre in questo caso è sezionalmente meromorfa. L’esistenza e l’unicità della soluzione f (k) sono garantite dalla condizione (10.43), dalla realtà del parametro x, dall’annullamento di R(k) per k → ±∞ e da quello dell’indice totale ν (vedi appendice (D)) che è dovuto alla proprietà della matrice G(k): det(G(k)) = 1 . Questo problema RH non può essere risolto esplicitamente in generale e lo si affronta molto più facilmente derivando da esso un’equazione integrale e studiando quest’ultima. Come discusso nell’appendice (D), la rappresentazione integrale relativa al problema RH, si può ricavare dalle formule PS (Plemelj-Sakhotski) combinandovi la funzione di discontinuità f (+) (k) − f (−) (k) = H(k) f (−) (k) , H(k) = G(k) − I , =(k) = 0 , che ha la seguente rappresentazione integrale: " # µ ¶ N (+) (−) X Rn Rn 1 f (k) = + + + 1 k − ipn k + ipn n=1 1 + 2πi Z +∞ −∞ · ¸ H(s) ds f (−) (s) , =(k) 6= 0 . (10.46) s−k Da queste due ultime formule partiamo per la nostra derivazione dell’equazione integrale del problema inverso che va a sostituire il problema RH. Consideriamo la prima componente del vettore in entrambi i membri dell’uguaglianza (10.46) e facciamone il limite per k tendente all’asse reale dal basso, cioè per =(k) < 0. 124 Il Metodo della Trasformata Spettrale Otteniamo cosı̀ le due seguenti equazioni integrali accoppiate per µR (x, k) nei casi =(k) = 0 e k = ipn : N · X ¸ ρn µR (x, k) = 1 −i e−2pn x µR (x, ipn ) + k + ip n n=1 ¸ · Z +∞ 1 R(s) e2isx µR (x, s) , + ds 2πi −∞ s + k + i² N · X ¸ ρn µR (x, ipm ) = 1 −i e−2pn x µR (x, ipn ) + p + p n m n=1 · ¸ Z +∞ R(s) 1 ds + e2isx µR (x, s) , 2πi −∞ s + ipm (10.47) per =(k) = 0 (10.48) per m = 1, 2, . . . , N . Osserviamo che - come deve accadere - i dati che forniamo e che compaiono in queste equazioni sono proprio le quantità spettrali R(k), pn e ρn che definiscono la trasformata spettrale della u(x) come nella (10.35). Una volta risolte le (10.47) e (10.48), possiamo cercare di ottenere la u(x) dalla soluzione µR (x, k). A tale scopo notiamo che la soluzione µR (k) soddisfa, come conseguenza della sua definizione ((10.24) e (10.25)) e della (10.18), la seguente equazione differenziale: µR xx + 2ik µR x = u(x) µR . (10.49) Tenendo conto dell’espansione asintotica di µR (x, k) per valori grandi di |k|: µR (x, k) = 1 + µ(1) (x) µ(2) (x) + + ... 2ik (2ik)2 e della (10.49), ricaviamo che µ(1) x (x) = u(x) . (10.50) Osserviamo però che la rappresentazione spettrale dei coefficienti µ(1) è derivata dall’espansione per grandi valori di |k| del membro di destra della (10.47), e tale rappresentazione inserita nella (10.50), ci fornisce l’espressione per u(x): " N # Z +∞ X 1 d 2 ρn e−2pn x µR (x, ipn ) + dk R(k) e2ikx µR (x, k) . u(x) = dx π −∞ n=1 (10.51) 10.2 La trasformata spettrale 125 Abbiamo cosı̀ completato il metodo di risoluzione del problema inverso. Per riassumere, la risoluzione del problema inverso consiste nell’effettuare i seguenti passi ciascuno dei quali consiste di sole operazioni lineari: S[u] −→ {µR (x, k), µR (x, ipn )} −→ u(x) . 10.2.4 Formulazione alternativa del problema inverso attraverso le equazioni di Fredholm Una forma alternativa equivalente al problema inverso può essere ricavata facendo uso delle equazioni integrali di Fredholm. Questa si ottiene sostituendo la funzione incognita µR (x, k) nelle (10.47) e (10.48) con la corrispondente trasformata inversa di Fourier rispetto alla veriabile spettrale k (ricordiamo che qui la x è un semplice parametro), in base alle seguenti definizioni Z +∞ 1 dk [µR (x, k) − 1] eik(x−y) , (10.52) K(x, y) = 2π −∞ Z +∞ µR (x, k) = 1 + dy K(x, y) eik(x−y) . (10.53) x É bene notare che l’olomorfismo della µR (x, k) nel semipiano superiore (=(k) > 0) implica che K(x, y) = 0 se y < x (da questo si giustifica il fatto che l’integrazione della (10.53) vada da x ad ∞). Riscriviamo ora le equazioni integrali (10.47) e (10.48) per la funzione incognita K(x, y) usando le definizioni (10.52) e (10.53), ricavando Z ∞ K(x, y) + M (x + y) + dz K(x, z) M (z + y) = 0 per y ≥ x , (10.54) x ove abbiamo introdotto la nuova funzione M (x) definita come M (x) = N X n=1 −pn x ρn e 1 + 2π Z +∞ dk R(k) eikx , (10.55) −∞ la quale è direttamente connessa alla trasformata spettrale (10.35) della u(x). Osserviamo allora che, per ogni x fissato la (10.54) è un’equazione integrale di Fredholm con nucleo M (y + z). Per concludere, usando nuovamente le trasformazioni (10.52) e (10.53), l’espressione (10.51) della u(x) diventa semplicemente d (10.56) u(x) = −2 K(x, x) , dx 126 Il Metodo della Trasformata Spettrale dove K(x, x) è il valore di K(x, y) sul bordo x = y nel limite in cui y → x per y > x. Riassumiamo anche qui quanto fatto nei seguenti passi: 1. Per una data trasformata spettrale S[u] ((10.35)), calcoliamo la funzione M (x), come nella (10.55); 2. risolviamo l’equazione integrale (10.54) (di Marchenko) per la funzione incognita K(x, y) (per x fissato); 3. concludiamo usando la (10.56) per ottenere la u(x). Notiamo che ora la trasformazione S[u] −→ u(x) è nonlineare; inoltre possiamo approssimare l’equazione integrale (10.54) nel caso in cui la componente discreta dello spettro di S[u] è assente e quella continua R(k) è sufficientemente piccola, come segue K(x, y) ∼ −M (x + y) , la quale implica che, considerando la (10.56), Z d 2i +∞ dk k R(k) e2ikx , u(x) ∼ 2 M (2x) = dx π −∞ formula consistente con l’approssimazione già data nella discussione del problema diretto (10.36). 10.2.5 Dipendenza parametrica di u(x) dal tempo t Poniamo che la funzione u(x) dipenda parametricamente dal tempo t: u(x) → u(x, t). Da questa assunzione segue che S[u] = S(t), cioè la trasformata spettrale dipende dal tempo. Ricordiamo ora alcune importanti proprietà: l’assunzione speciale che ogni soluzione ψ(x, k, t) della (10.18) soddisfi anche l’equazione differenziale (10.19), implica che u(x, t) sia una soluzione della KdV (10.16). Inoltre, l’equazione differenziale (10.19) ci fornisce, insieme agli andamenti asintotici (10.20) e (10.30), la corrispondente equazione di evoluzione per i coeffcienti di trasmissione e di riflessione. Dato che la funzione u(x, t) si annulla per x → ±∞, l’equazione (10.19) per ψ = ψL si riduce (usando la (10.20)) a c = 4ik 3 per x = −∞, mentre per x = +∞ dà Tt (k, t) = 0 , (10.57) Rt (k, t) = −(2ik)3 R(k, t) . (10.58) 10.2 La trasformata spettrale 127 Da queste ultime, possiamo ottenere direttamente le dipendenze temporali dei coefficienti di trasmissione e di riflessione: T (k, t) = T (k, 0) = T (k) , 3 R(k, t) = R(k, 0) e−t(2ik) . (10.59) La discussione riguardante lo spettro discreto è simile. Osserviamo innanzitutto che (n) φ(n) φt ¡ ¢ £ ¤2 = c φx(n) + {2 [φnx ]2 − 4p2n + u [φnx ]2 }x , (ottenuta dalla (10.19) con k = ipn , e dalla (10.32)) e dalla condizione di normalizzazione (10.33) abbiamo che c = 0. Allora, l’equazione di evoluzione (10.19) con ψ = φ(n) e le condizioni asintotiche (10.34) portano alle seguenti equazioni: pn (t) = pn (0) = pn , ρn t (t) = (2pn )3 ρn (t) , (10.60) (10.61) che possiamo riscrivere in unica formula (per integrazione): 3 ρn (t) = ρn (0) et(2pn ) . (10.62) Possiamo concludere allora che se il profilo iniziale u(x, 0) si evolve in accordo con l’equazionedi KdV (10.16), allora il corrispondente spettro non cambia (come è evidente dalla (10.60)), ovvero l’operatore di evoluzione d2 − dx 2 + u(x, t) è isospettrale (cioè i relativi autovalori sono costanti), e la trasformata spettrale (10.35) della u(x, t) evolve in modo semplice ed esplicito come descritto dalle formule (10.58) e (10.62), dove R(k, 0) e ρn (0) corrispondono al profilo iniziale u(x, 0). La proprietà caratterizzante la trasformata spettrale è la capacità di trasformare un sistema dinamico nonlineare e complicato (come può essere la KdV) in un insieme (infinito) di modi normali accoppiati lineari. La differenza dal caso lineare sta nel fatto che il principio di sovrapposizione nonlineare non è completamente esplicito dato che contiene la funzione ausiliaria ψ sullo spettro e consiste, oltre che ad un integrale relativo alla parte continua dello spettro (come nel caso lineare di Fourier), di una somma finita sullo spettro discreto. Quanto detto è chiaramente mostrato dalla (10.51) che riproponiamo includendovi le dipendenze temporali (10.58) e (10.62), ed usando le 128 Il Metodo della Trasformata Spettrale (10.24) e (10.25): u(x, t) = " N X d 3 2 ρn (0) e−2pn x+(2pn ) t ψR (x, ipn , t)+ dx n=1 ¸ Z +∞ 1 ikx−(2ik)3 t dk R(k, 0) e ψR (x, k, t) . + π −∞ (10.63) Una seconda espressione per la u(x, t) del tutto equivalente alla precedente è u(x, t) = −4 N X 3 pn ρn (0) e(2pn ) t ψR2 (x, ipn , t) + n=1 2i + π Z +∞ −∞ 3 dk k R(k, 0) e−(2ik) t ψR2 (x, k, t) . (10.64) Concludiamo con l’osservare che come nell’analisi di Fourier lineare, la ricostruzione di una u(x, t) per t 6= 0 può essere effettuata in modo esplicito in un numero assai limitato di casi. Tuttavia nell’analisi spettrale nonlineare, la ricostruzione di u(x, t) per ogni t può essere portata e termine in modo esplicito per un insieme grande ed interessante di trasformate spettrali. Tale classe è caratterizzata dall’annullamento del coefficiente di riflessione R(k, t) = 0, e la corrispondente soluzione u(x, t) è detta soluzione multisolitonica. Precisamente, una soluzione ad N solitoni uN (x, t) della KdV corrisponde ad N autovalori discreti e non ha componente continua: S[u] = {R(k) = 0, −∞ < k < +∞; pn , ρn , n = 1, 2, . . . , N } . Tale soluzione dipende dunque da 2N parametri arbitrari positivi (pn e ρn ). Capitolo 11 Il Metodo di Darboux 11.1 La trasformata di Darboux Il metodo della trasformata di Darboux, proposto più di cento anni fa dal matematico francese Gaston Darboux, è stato di recente riscoperto ed applicato per la risoluzione di equazioni di evoluzione nonlineari di notevole interesse fisico [53]. L’idea di base su cui poggia il metodo della Trasformata di Darboux è molto semplice. Si consideri il seguente problema agli autovalori: y 00 + [λ − u(x)] y = 0 (11.1) noto nella Meccanica Quantistica come Equazione di Schrödinger unidimensionale. Sia φ una qualche soluzione, anche banale, del problema (11.1) con autovalore λ = λ1 , e sia σ = φx φ−1 . Darboux provò [58] che la (11.1) è covariante rispetto alla seguente trasformazione detta Trasformazione di Darboux: y → yb = yx − σ y u →u b = u − 2 σx . (11.2) In altre parole yb soddisfa l’equazione di Schroedinger con potenziale u b. La trasformazione che la y induce sulla u prende anche il nome di Trasformazione di Backlund. Cambiando la y secondo la (11.2) possiamo determinare tutte le soluzioni della nuova equazione di Schroedinger con potenziale u b. Nel 1979 Matveev [57] provò che la stessa proprietà di covarianza vale anche per tutte le equazioni di evoluzione del tipo : n X ∂f ∂mf = um (x, t) m , (11.3) ∂t ∂x m=0 130 Il Metodo di Darboux con coefficienti scalari o matriciali. É cosı̀ possibile costruire infinite soluzioni esplicite di equazioni di evoluzione nonlineari applicando il metodo della Trasformata di Darboux ad una equazione iniziale integrabile. Consideriamo l’ equazione di Zakharov-Shabat generalizzata : ψx = [ −iκ σ3 + Q ] ψ con : µ σ3 = 1 0 0 −1 ¶ µ , Q = (11.4) 0 q (+) q (−) 0 ¶ (11.5) e κ parametro spettrale complesso. Notiamo preliminarmente che l’equazione di Schrödinger stazionaria è un caso particolare della (11.4) con ψ vettore complesso a due componenti, e ¶ µ 0 1 , Q = u 0 e che possiamo estendere il metodo della trasformata di Darboux ad equazioni matriciali N × N : ψx = [−iκ Σ + Q ] ψ (11.6) con σ matrice diagonale e Q matrice antidiagonale. Sia ψ(1) una qualche soluzione anche banale della (11.4), allora possiamo definire la trasformazione di Darboux : ψ(2) = A(x, κ) ψ(1) (11.7) che restituisce la soluzione ‘vestita’ ψ(2). Sostituendo nella (11.4) si ottiene facilmente : 0 = ψx (2)+iκσ3 ψ(2)−Q(2)ψ(2) = [Ax +A(−iκσ3 +Q(1))+(iκσ3 −Q(2))A]ψ(1) . (11.8) Dovendo la (11.8) essere valida per ogni soluzione fondamentale ψ(1) : Ax + iκ[σ3 , A] + A Q(1) − Q(2)A = 0 . (11.9) Facciamo ora l’ipotesi che A sia una soluzione polinomiale in κ : A(x, κ) = M X m=0 Analizziamo i vari ordini. κM A(m) (x) . (11.10) 11.1 La trasformata di Darboux 131 Se M = 0 allora chiaramente A = A(0) da cui [σ3 , A] = 0 , cioè A è diagonale. Poichè A Q(1) − Q(2)A è antidiagonale, deve essere necessariamente (0) Ax = 0, cioè A(0) = Q0 matrice costante diagonale. Dalle precedenti risulta indotta su Q una trasformazione di similitudine detta di Backlund: Q(2) = Q0 Q(1)Q−1 0 . Se M = 1, allora A = A(0) + κ A(1) da cui [σ3 , A(1) ] = 0 cioè A(1) è diagonale. All’ordine κ abbiamo definita l’equazione: (0) (1) A(1) Q(1) − Q(2)A(1) = 0 , x + i[σ3 , A ] + A poichè [σ3 , A(0) ] e A(1) Q(1) − Q(2)A(1) sono antidiagonali, allora : A(1) = Q1 matrice costante diagonale. Quindi : (0) −1 Q(2) = Q1 Q(1)Q−1 1 + i[σ3 , A ]Q1 . Poichè ci interessa una trasformazione di Darboux modulo nella precedente conviene scegliere Q1 = I, da cui : Q(2) = Q(1) + i[σ3 , A(0) ] , (11.11) (0) (0) = 0. A(0) x + A Q(1) − Q(2)A (11.12) Ipotizziamo ora che A(0) sia funzione di un proiettore P , tale che P 2 = P , nella forma : A(0) = −α + (α − β)P , (11.13) con α e β complessi e diversi fra loro. Sostituendo tale definizione di A(0) otteniamo : Q(2) = Q(1) + i(α − β)[σ3 , P ] , (11.14) 132 Il Metodo di Darboux Px = [−iβσ3 + Q(1)]P − P [−iασ3 + Q(1)] + i(β − α)P σ3 P . (11.15) Sia ora P φ = φ; derivando questa si ottiene : P [φx − (−iβσ3 + Q(1))φ] = φx − [−iβσ3 + Q(1)]φ . (11.16) Se ora ipotizziamo che φ è il sottospazio degli autovettori unidimensionali : φx − (−iβσ3 + Q(1))φ = µφ , il problema è praticamente risolto. Difatti dal momento che µ è eliminabile con la trasformazione φ → eµφ , questo può essere posto a zero ed otteniamo che φ è soluzione (nota) della equazione di partenza : φx = (−iβσ3 + Q(1))φ . Conosciuta φ è immediato determinare il proiettore P e quindi A e Q(2) : P = 11.2 φ φT , φT φ (11.17) A = κ − α + (α − β)P , (11.18) Q(2) = Q(1) + i(α − β)[σ3 , P ] . (11.19) Alcune equazioni non lineari integrabili di interesse applicativo: loro Coppia di Lax e soluzione solitonica 1. Equazione di Korteweg-de Vries (KdV) ut + uxxx − 6uux = 0 , u = u(x, t) ∈ R ψxx = [u(x, t) − κ2 ]ψ (11.20) 2 ψt = −ux (x, t)ψ + [2u(x, t) + 4κ ]ψx u(x, t) = − con p e ξ reali ed arbitrari. 2p2 cosh2 [p(x − 4p2 t − ξ)] 11.2 Alcune equazioni non lineari integrabili di interesse applicativo: loro Coppia di Lax e soluzione solitonica 133 2. Equazione di Schroedinger nonlineare (NLS) (focusing) iut + uxx + 2|u|2 u = 0 , µ ¶ 0 −u∗ ψx = [−iκσ3 + ]ψ u 0 µ 2 2 ψt = [(2iκ − i|u| )σ3 + u = u(x, t) ∈ C 0 2κ u∗ + iu∗x −2κ u + iux 0 ¶ ]ψ (11.21) 2 u(x, t) = 2 a exp[i(bx − (b − a )t + θ)] cosh[a(x − 2bt − ξ)] con a, b, ξ, θ reali ed arbitrari e σ3 terza matrice di Pauli. 3. Equazione di Schroedinger nonlineare (NLS) (defocusing) iut + uxx − 2|u|2 u = 0 , µ ¶ ∗ 0 u ]ψ ψx = [−iκσ3 + u 0 µ 2 2 ψt = [(2iκ + i|u| )σ3 + u = u(x, t) ∈ C 0 −2κ u∗ − iu∗x −2κ u + iux 0 ¶ ]ψ (11.22) ¾ v v2 2 2 u(x, t) = [iρ + a tanh[a(x − vt)]] exp −i[(ρ − )x + (3ρ + 2a − ρ v + )t] 2 4 ½ con a, ρ, v reali ed arbitrari. Questo solitone è un kink (grey se ρ 6= 0, dark se ρ = 0). 4. Equazione di Korteweg-de Vries modificata (mKdV) ut + uxxx + 6u2 ux = 0 , u = u(x, t) ∈ R µ ¶ 0 −u ]ψ ψx = [−iκσ3 + u 0 ψt = [(4(iκ)3 + 2iκ u2 )σ3 − 2iκ ux σ1 + i(4(iκ)2 u + uxx + 2u3 )σ2 ]ψ (11.23) 2p u(x, t) = cosh[2p(x − 4p2 t − ξ)] con p e ξ reali ed arbitrari e σi i-esima matrice di Pauli. 134 Il Metodo di Darboux 5. Equazione di Sine-Gordon (SG) (sul cono-luce) uxt = sin(u) u(x, t) = 0 , x≈∞ u(x, t) = nπ , x ≈ −∞ µ ¶ 0 −1 1 ψx = [−iκσ3 + ux ]ψ 2 1 0 ψt = µ i 4κ cos(u) sin(u) sin(u) − cos(u) u(x, t) = 4η arctan[exp[−2p(x + (11.24) (11.25) ¶ ]ψ t − ξ)]] 4p2 con p > 0 e ξ reale ed arbitrario. Per η = +1 la soluzione è un kink, per η = −1 è un antikink. Riportiamo oltre la precedente soluzione solitonica anche la soluzione ‘breather’ per la Sine-Gordon : a sin[bx − a2 +bbt2 +θ ] u(x, t) = 4 arctan[ ] t b cosh[a(x + a2 +b 2 − ξ) con a e b positivi e ρ e θ reali arbitrari. 6. Equazioni di Maxwell-Block ridotte (RMB) Et (x, t) = v(x, t) vx (x, t) = ω u(x, t) + E(x, t)q(x, t) qx (x, t) = −E(x, t)v(x, t) ux (x, t) = −ω v(x, t) (11.26) I campi E(x, t), v(x, t) e u(x, t) vanno a zero per |x| → ∞, mentre il campo q(x, t) = q± = costanti per |x| → ∞. ω è un parametro reale costante. Riportiamo di seguito la Coppia di Lax del sistema : µ ¶ 0 −1 1 ]ψ ψx = [−iκσ3 + 2 E 1 0 (11.27) ψt = 2i 4κ21−ω2 [2κ(qσ3 + vσ1 ) − ωuσ2 ]ψ 11.2 Alcune equazioni non lineari integrabili di interesse applicativo: loro Coppia di Lax e soluzione solitonica 135 Le soluzioni del sistema sono della forma : 2a E(x, t) = cosh[a(x−wt−ξ)] v(x, t) = awE(x, t) tanh[a(x − wt − ξ)] qx (x, t) = q∞ + 12 E 2 (x, t) u(x, t) = ω wE(x, t) (11.28) 1 dove abbiamo definito w = −q∞ a2 +ω 2 , con a, ξ e q∞ reali ed arbitrari. 7. Equazioni delle tre onde risonanti (3WRI) ut + Cux = (Cu∗ ) × u∗ con u = (u1 , u2 , u3 ) vettore a componenti complesse e C = diag[c1 , c2 , c3 ] = C ∗ matrice costante delle velocità caratteristiche. La coppia di Lax del sistema è : b1 0 0 0 u3 −u∗2 u1 ]ψ ψx = [−iκ 0 b2 0 + −u∗3 0 ∗ u2 −u1 0 0 0 b3 0 c3 u3 −c2 u∗2 a1 0 0 0 c1 u1 ]ψ ψ = [iκ 0 a2 0 − −c3 u∗3 t ∗ 0 0 a3 c2 u2 −c1 u1 0 (11.29) con ai e bi per i = 1, 2, 3 costanti reali tali che : (a1 − a2 )(a1 − a3 )(a2 − a3 ) 6= 0 (b1 − b2 )(b1 − b3 )(b2 − b3 ) 6= 0 Siano poi per n = 1, 2, 3 : n+1 −an+2 cn = abn+1 −bn+2 un = i(q ∗ − q)(bn+1 − bn+2 )hn+1 h∗n+2 (11.30) h(x, t) = v(x,t) ||v(x,t)|| −iq(b x−a t) 1 1 e 0 0 (γ1 , γ2 γ3 )T v(x, t) = 0 e−iq(b2 x−a2 t) 0 −iq(b3 x−a3 t) 0 0 e (11.31) con q e γi parametri complessi arbitrari. Parte III SIT & IST Self-Induced Transparency and Inverse Scattering Transform 137 Università degli Studi di Roma “La Sapienza” Facoltà di Scienze Matematiche, Fisiche e Naturali Dipartimento di Fisica Laurea Specialistica in Fisica Corso di Onde Nonlineari e Solitoni Prof. Antonio Degasperis SIT & IST Self-Induced Transparency & Inverse Scattering Transform Dario Dell’Arciprete 30 maggio Anno Accademico 2006-2007 138 Sommario Obiettivo di questo lavoro è lo studio del fenomeno della trasparenza autoindotta - noto anche con l’acronimo SIT, dall’inglese Self-Induced Transparency. Qui, poniamo maggiore enfasi sull’aspetto matematico del modello adottato nella descrizione del fenomeno naturale, ovvero l’Inverse Scattering Transform - in breve, IST. In particolare, nel 1° capitolo, discutiamo brevemente i fenomeni riguardanti la propagazione di impulsi ultracorti nei dielettrici risonanti e la fenomenologia SIT; nel 2° capitolo, deriviamo le equazioni SIT applicando il metodo perturbativo multiscala alle equazioni di Maxwell-Bloch e da queste l’equazione di sine-Gordon; nel 3° capitolo, sviluppiamo l’IST per il problema di Zakharov e Shabat, mostriamo come è possibile ricondursi a questo sistema partendo dalle SIT ed, infine, ricaviamo la soluzione a singolo solitone. Capitolo 12 Propagazione di impulsi ultracorti in mezzi risonanti In questo capitolo, introduciamo il fenomeno della trasparenza auto-indotta includendolo tra quelli che riguardano la propagazione di impulsi ultra-corti in mezzi risonanti assorbenti ed esprimendo alcune condizioni generali di esistenza per tali effetti. Successivamente, riportiamo una descrizione fenomenologica della trasparenza auto-indotta ed accenniamo ad alcune proprietà degli impulsi. 12.1 Effetti nonlineari coerenti di transiente L’interazione di un impulso laser molto breve ed intenso - o di un campo laser rapidamente variabile - con un materiale dielettrico risonante caratterizzato da una definita capacità di assorbimento, permette l’osservazione di molteplici effetti ottici nonlineari coerenti di transiente. Tali effetti sono detti di transiente perchè il periodo dell’interazione è molto piccolo se confrontato coi tempi caratteristici di rilassamento del sistema molecolare. Il termine coerente, d’altra parte, si riferisce al tipo di interazione: il periodo temporale considerato è cosı̀ breve che tutte le molecole del mezzo sono in grado di reagire in sincrono al campo ottico applicato e gli effetti di rilassamento legati all’emissione spontanea sono perciò trascurabili. Tra questi processi, i più noti e studiati sono - [36]: 1. la trasparenza auto-indotta; 2. l’eco fotonico; 3. la nutazione ottica. 140 Propagazione di impulsi ultracorti in mezzi risonanti L’osservabilità di tali fenomeni richiede che siano soddisfatte specifiche condizioni sia sull’impulso incidente che sul mezzo assorbente. Tra quelle generalmente verificate, possiamo ricordare: la frequenza dell’impulso di luce deve essere uguale - o comunque vicina (ad esempio, secondo una distribuzione nota) - alla frequenza di risonanza del mezzo; la durata dell’impulso - o della variazione del campo - deve essere più piccola del tempo di rilassamento del sistema molecolare assorbente; il campo ottico deve essere abbastanza intenso. In questa situazione, la variazione della distribuzione delle popolazioni tra due stati ottici correlati ed il rilassamento di fase delle popolazioni degli stati eccitati del mezzo possono essere essenziali per comprendere l’evoluzione del fenomeno. Ciò che si osserva in generale è che la risposta del mezzo non dipende solamente dal valore istantaneo della funzione E(t) che descrive il campo ottico applicato, ma dal valore integrale di questa su di un certo intervallo temporale. Lo studio di tali fenomeni consente quindi di approfondire i meccanismi di interazione coerente nella fase transiente tra il campo ottico impulsivo ed il mezzo risonante, e di misurare quantità importanti come i parametri di rilassamento del sistema, gli elementi di matrice corrispondente al momento di dipolo, etc... Inoltre, da un punto di vista prettamente sperimentale 1 , tali argomenti di ricerca portano al crescente sviluppo di tecniche particolareggiate, incentrate sulla manipolazione di impulsi ottici, sui metodi di conteggio, di amplificazione - [39], di trasmissione senza perdite, etc... che trovano immediato campo di applicazione nella costruzione di circuiti logici e, dunque, nell’optical computing. In questo lavoro, approfondiremo lo studio del fenomeno della trasparenza auto-indotta servendoci di un opportuno modello matematico. In breve, questo comportamento dei mezzi risonanti consiste - sotto opportune condizioni, oltre a quelle sopra citate - nel mostrare una completa trasparenza (trasmittività T = 1) al passaggio di determinati impulsi luce chiamati 2πpulse (impulsi-2π, la cui origine sarà spiegata nel prossimo paragrafo § 12.2), consentendo cosı̀ una trasmissione senza perdite di forma e di energia del segnale (da cui il modello a solitoni). 1 L’effetto SIT è stato verificato sperimentalmente nel caso di un campione di rubidio irradiato da luce impulsiva laser-rubidio - [37] e [38]. 12.2 Fenomenologia SIT 12.2 141 Fenomenologia SIT Vogliamo qui dare una descrizione fenomenologica del SIT per chiarire fisicamente quali sono le fasi di cui si compone il processo durante il quale l’impulso ultra-corto coerente interagisce col dielettrico assorbente risonante - [37]. Innanzitutto è bene notare che gli effetti derivanti dall’assorbimento di radiazione coerente - od incoerente - debole sono sostanzialmente differenti da quelli che possono essere osservati nell’assorbimento di radiazione molto intensa. Nel primo caso, il processo di assorbimento trova una corretta interpretazione utilizzando un approccio dispersivo lineare, in particolar modo se il livello energetico dello stato fondamentale del mezzo assorbente subisce una diminuzione minima della popolazione a causa della radiazione incidente. A poco a poco che l’intensità della radiazione risonante aumenta, il problema lineare può essere perturbato per tener conto di una debole nonlinearità. D’altra parte, considerando radiazioni impulsive coerenti di grande intensità, l’ampiezza temporale dell’impulso ha un effetto critico se risulta essere comparabile - o eventualmente più piccola - del tempo di smorzamento del mezzo risonante: la variazione della popolazione degli stati diviene marcatamente nonlineare e dipendente dal tempo. Consideriamo per semplicità un sistema a due soli livelli energetici, non degenere, come modello del mezzo assorbente risonante (per approfondimenti si veda [40]). Poniamo che il mezzo abbia dimensioni molto più grandi dell’impulso luce, ovvero che la lunghezza d’onda della radiazione sia molto più piccola delle dimensioni del mezzo e che quest’ultimo non sia contenuto in alcuna cavità. Quando un impulso entra ed attraversa il mezzo nella parte iniziale, una frazione di energia dell’impulso viene assorbita e trattenuta come energia di eccitazione del sistema a due livelli; dopo poche lunghezze di assorbimento, l’intensità dell’impulso decresce seguendo la legge di assorbimento di Beer 1 . Sebbene i dipoli risultino eccitati dopo che l’impulso è passato, essi non sono in grado di irradiare l’energia di eccitazione acquisita poichè velocemente si sfasano a causa dello spettro di frequenze verso il quale sono stati eccitati. Fino al momento in cui è presente un dato gruppo di dipoli eccitati coerentemente dall’impulso, l’assorbimento viene indotto dalla risonanza grazie La legge empirica di (Lambert-)Beer afferma che T = IIout = e−kλ l , dove T è la in trasmittività, Iin è l’intensità della radiazione incidente, Iout di quella uscente, kλ è il coefficiente di estinzione ed l è la lunghezza del mezzo attraversato. 1 142 Propagazione di impulsi ultracorti in mezzi risonanti Eccitato Assorbimento Emissione Fondamentale Figura 12.1: Schema del processo di assorbimento indotto ed emissione stimolata. alla quale un contributo del campo elettrico irradiato dai dipoli contrasta il campo elettrico dominante. Comunque, se l’intensità dell’impulso iniziale è sufficiente per eccitare i dipoli risonanti verso uno stato saturo energeticamente prima che l’impulso stesso svanisca, una certa quantità di energia della radiazione dell’emissione indotta è riacquisita coerentemente dalla parte rimanente dell’impulso. Ne segue che il campo elettrico generato dalla polarizzazione indotta va a sommarsi a quello dominante. Una volta che il processo di emissione si instaura all’ordine più basso, esso diventa sempre più favorito a mano a mano che l’impulso si propaga nel mezzo, sino a che non viene raggiunta la condizione di equilibrio: l’energia dell’emissione indotta, trasferita al fascio di luce durante l’ultima metà dell’impulso, diventa uguale all’energia dell’assorbimento indotto, trasportata dal fascio di luce durante la prima metà. Questa è la dinamica della trasparenza auto-indotta. La condizione perchè questa si mantenga si riassume nella proprietà del sistema di far seguire all’assorbimento coerente indotto dell’energia dell’impulso durante la prima metà di questo, un’emissione coerente stimolata della stessa quantità di energia lungo la direzione del fascio di luce nella seconda metà dell’impulso. In figura 12.1, riportiamo lo schema del processo appena descritto. In questa descrizione, abbiamo assunto molto piccole le attenuazioni causate dagli smorzamenti o dalle perdite per diffusione, ma sostanzialmente gli effetti di trasparenza risultano pressochè inalterati se l’ampiezza temporale dell’impulso è piccola rispetto al tempo di smorzamento. Nel caso di un’onda piana, la stabilità è raggiunta se l’impulso entrante si evolve secondo una funzione secante iperbolica (come avremo modo di mostrare analiticamente) nelle variabili temporale e spaziale, e soddisfa ad una seconda proprietà - da cui deriva il nome, spesso usato in letteratura, 12.2 Fenomenologia SIT 143 Figura 12.2: Evoluzione di impulsi-2π per diverse intensità. di impulso-2π: se andiamo, infatti, a calcolare l’integrale Rtemporale di tale ∞ impulso, in opportune unità di misura, il risultato è 2π: 2P E(t) dt = 2π, } −∞ dove P è l’elemento della matrice di dipolo ed } è la costante di Planck divisa per 2π (vedi § 13.1). La velocità dell’impulso nel mezzo attenuatore è minore rispetto a quella della luce non risonante a causa del continuo assorbimento di energia dal picco iniziale dell’impulso e dell’emissione dell’energia verso la restante parte. Facciamo notare infine che il fenomeno della trasparenza non si verifica solamente nel caso speciale della trasmissione di un singolo impulso: in generale, quando lo smorzamento è piccolo, un singolo impulso di sufficiente intensità (ovvero, con un’area estesa, corrispondente all’integrale temporale del campo elettrico associato) può suddividersi in due o più impulsi-2π autopropagantisi, accompagnati eventualmente da radiazione che decade in modo esponenziale. All’uscita dal mezzo, l’impulso finale può essere caratterizzato da una sovrapposizione di impulsi-2π con varie ampiezze, fasi, tempi di ritardo e frequenze centrali. Tali comportamenti sono stati osservati negli esperimenti di Slusher e Gibbs - [39]. In figura 12.2, sono mostrati i risultati di una serie di osservazioni (grafico a sinistra) e simulazioni (grafico a destra) in cui l’intensità iniziale dell’impulso (linea tratteggiata) assume diversi valori (la linea continua corrisponde all’impulso finale): per il più basso (a), si ha il semplice assorbimento dell’impulso; nei casi (b) e (c), si osserva il formarsi dell’impulso-2π, mentre per intensità ancora più elevate, casi (d) ed (e), l’impulso iniziale si suddivide in due e tre impulsi-2π, rispettivamente. Capitolo 13 Derivazione delle equazioni SIT In questo capitolo, deriviamo le equazioni SIT: partendo dalle equazioni di Maxwell-Bloch (MB) che esprimono l’interazione tra il campo elettrico incidente ed il dielettrico, sviluppiamo il metodo perturbativo multiscala dal quale ricaviamo le equazioni SIT - [42]. Successivamente, mostriamo come l’equazione di sine-Gordon (SG) emerga dalle SIT in assenza di distribuzione disomogenea delle risonanze. 13.1 Equazioni di Maxwell-Bloch Come discusso in § 12.2, il SIT è un fenomeno che si verifica quando un materiale dielettrico assorbente è irradiato da un campo elettrico (ad esempio, un fascio laser) ad una frequenza vicina a quella di risonanza del mezzo. Al fine di ricavare le equazioni del modello, consideriamo la versione più semplice di materiale dielettrico che consiste in un sistema quantistico a due livelli - [40], nel quale si riconoscono, quindi, uno stato fondamentale ed uno eccitato. Supponiamo che non ci sia alcuna degenerazione dei livelli e che gli atomi si trovino inizialmente nel loro stato fondamentale, cioè che il mezzo si comporti da attenuatore 1 . Il campo elettrico incidente ha una frequenza prossima a quella di risonanza degli atomi ed in tali condizioni riesce ad eccitarli. Il trasferimento di energia dal campo elettrico al mezzo è di solito irreversibile ed è in grado di privare l’impulso di tutta la sua energia. Il tasso di energia assorbita da parte del mezzo è dato dalla legge di Beer (§ 12.2). Per far sı̀ che il fenomeno si verifichi è necessario che un impulso ultracorto e sufficientemente intenso assuma un particolare profilo temporale in 1 Nel caso opposto, in cui gli atomi si trovano nello stato eccitato, si parla di mezzo amplificatore. Per il caso degenere, si faccia riferimento a [42]. 13.1 Equazioni di Maxwell-Bloch 145 modo tale che il fronte dell’onda possa cedere energia (in modo coerente) al mezzo, il quale a sua volta la mantiene per un certo intervallo di tempo per poi restituirla (sempre coerentemente) alla seconda parte dell’impulso. Per una particolare scelta dell’impulso, accade che il sistema di atomi si mantiene nel suo stato fondamentale, non si riscontra alcuna perdita di energia e l’impulso si propaga con una velocità ridotta attraverso il mezzo, il quale può dirsi a tutti gli effetti trasparente. Consideriamo, allora, le equazioni di Maxwell. Per un materiale dielettrico ideale queste si riducono a 1 Ett + µ0 Ptt + ∇ × ∇ × E = 0 . c2 (13.1) Qui, E è il campo elettrico incidente, P è la polarizzazione totale del materiale, dovuta sia ai dipoli risonanti che a quelli non risonanti; c è la velocità della luce nel mezzo e µ0 è la permeabilità magnetica del vuoto. Nella nostra descrizione assumiamo per convenienza che P rappresenti solo la polarizzazione legata ai dipoli risonanti e a quelli vicini alla risonanza. Tale interpretazione è valida se poniamo che c coincida con la velocità di fase della luce nel mezzo quando i dipoli risonanti (o vicini alla risonanza) sono assenti. Ponendoci, ad esempio, nelle condizioni dell’esperimento di McCall ed Hahn - [37] e [38], condotto su un campione di rubidio (Rb), la frazione di ioni risonanti di Cr3+ , presenti nell’Al2 O3 , è molto piccola: in questa situazione, c è la velocità di fase della luce nell’Al2 O3 e P è la polarizzazione dovuta ai soli ioni di Cr3+ . Assumiamo che i dipoli risonanti siano ditribuiti in modo tale da interagire col campo elettrico incidente, ma senza alcuna interazione mutua dipolodipolo. Sotto queste condizioni, sia p(x, t; ω) la polarizzazione di un singolo dipolo (di modulo p) nello schema a due livelli con frequenza di transizione ω e sia ηe(x, t; ω) la differenza tra le densità normalizzate di popolazioni dello stato eccitato e di quello fondamentale. Vale, dunque, che |e η | ≤ 1 e che ηe = −1 se tutti i dipoli con frequenza ω si trovano nello stato fondamentale (assumiamo inoltre che tale situazione sussista anche per t → −∞). Da considerazioni legate alla natura quantistica del processo - [41] (in particolare l’appendice A), si può mostrare che p, ηe ed E sono legati attraverso le seguenti relazioni: µ ¶ 1 2ωP 2 ptt + ω p = − E ηe , (13.2) 3 h µ ¶ 2 ηet = (13.3) E · pt , hω 146 Derivazione delle equazioni SIT dove h è la costante di Planck e P è l’elemento della matrice di dipolo per una data transizione ed è dell’ordine P = O(qr̄) in cui q è la carica dell’elettrone ed r̄ è il raggio medio dei dipoli. Notiamo che per il nostro problema (1+1)-dimensionale, il fattore 31 nella (13.2) viene omesso poichè tiene conto di tutte le possibili orientazioni spaziali permesse per il sistema a due livelli. Come già anticipato in § 12.2, i termini di smorzamento e di rilassamento lento possono essere inclusi nelle (13.2), (13.3) (come mostrano le simulazioni e le osservazioni effettuate da Slusher e Gibbs - [39]). Pur omettendo tali effetti nella descrizione del fenomeno, dobbiamo ricordarci però del fatto che il nostro modello non sarebbe più valido se ciascun dipolo rimanesse eccitato per un tempo comparabile a quello di rilassamento del sistema molecolare (ad esempio, nel caso dei vapori di Rb usati nell’esperimento di Slusher e Gibbs, il tempo più breve è circa 3 × 10−8 sec - [39]). Abbiamo assunto che vi fossero dipoli esattamente risonanti ed altri vicini alla risonanza. Per descrivere questa situazione in cui alcuni dipoli non cadono precisamente sulla frequenza del campo incidente, introduciamo il modello della distribuzione disomogenea in cui le frequenze di transizione dei dipoli risonanti non sono identiche, ma distribuite (secondo una funzione di distribuzione normalizzata, ad esempio una gaussiana od una lorentziana) attorno alla frequenza centrale di risonanza ω0 . Tale situazione, che viene a crearsi negli esperimenti, è dovuta allo spostamento delle frequenze per effetto Doppler (Doppler frequency shift) nel caso dei gas, ed ai campi elettrostatico all’interno del cristallino e magnetico nel caso dei solidi. Richiediamo dunque che |ω − ω0 | ¿ ω0 , come condizione di quasi-risonanza. Se vi sono N0 dipoli risonanti (costanti) per unità di volume, la polarizzazione totale P si può scrivere cosı̀: Z +∞ P = N0 p(x, t; ω) g(ω) dω = N0 hpi , (13.4) −∞ dove g(ω) è la densità di probabilità (il termine R ∞che rappresenta la distribuzione disomogenea) normalizzata all’unità: −∞ g dω = 1. Le parentesi R∞ acute h. . .i rappresentano l’operazione di integrazione −∞ (. . .) g(ω) dω sullo spettro disomogeneo di frequenze . Riassumendo, le (13.1)→(13.4) sono le equazioni di Maxwell-Bloch. Osserviamo che tali equazioni sono integrabili e dunque godono di proprietà speciali (§§ 14.1, 14.6). 13.2 Equazioni SIT 13.2 147 Equazioni SIT Una caratteristica importante del SIT consiste nel fatto che la distribuzione disomogenea dei dipoli permette di assumere che la polarizzazione totale P sia debole. In formule, stiamo affermando che, nella (13.1), vale ¯ ¯ ¯ ¯1 ¯ Ett ¯ À |µ0 Ptt | , ¯ ¯ c2 cosicchè la parte di backscattering, cioè di ritorno dell’impulso, possa essere trascurata. Si mostra - [42], che un’altra appropriata misura di questa distribuzione di dipoli è N0 P 2 c 2 µ 0 2 ² = ¿ 1, 2hω0 che può essere interpretata come un rapporto di energie. Tale quantità è importante perchè da questa dipende la validità del metodo perturbativo multiscala applicato alle equazioni MB dalle quali ricaviamo le equazioni SIT. Le equazioni SIT emergono nel limite di campo debole. Richiediamo che ¶ µ hω0 |E| = O ² P e che il campo elettrico assuma la forma di un’onda trasversa di debole intensità alla frequenza ω0 con un inviluppo lentamente variabile propagantesi lungo la direzione x (approssimazione “svea”, ovvero slowly varying envelope amplitude). Trattiamo il caso di un campo polarizzato linearmente (per la polarizzazione circolare non si verificano cambiamenti sostanziali - [43]). Essendo in (1+1)-dimensioni, avremo o ¤ hω0 n b £ E∼ ² j E(χ, τ ) eiθ + E ∗ (χ, τ ) e−iθ + ²2 E1 , 2P dove θ = k0 x − ω0 t , χ = ²k0 x , τ = ²ω0 t . Le nuove variabili χ e τ rappresentano le variabili lente (o riscalate) spaziale e temporale, caratteristiche dell’approccio multiscala. Consistentemente con le equazioni (13.1)→(13.4), assumiamo i seguenti sviluppi: ω = ω0 (1 + 2²α) , ηe ∼ η0 (χ, τ ; α) + ² η1 , π π¤ Pb£ p∼ j p(χ, τ ; α) eiθ−i 2 + p∗ (χ, τ ; α) e−iθ+i 2 + ² Pp1 , 2 2hω0 P = ²2 2 hpi . cP (13.5) (13.6) (13.7) (13.8) 148 Derivazione delle equazioni SIT dove α è un parametro che in seguito giocherà il ruolo di variabile spettrale (§ 14.1.2) ed è definito dalla (13.5). Analogamente, dobbiamo assumere degli sviluppi per gli operatori differenziali: ∂x → ∂x + ² k0 ∂χ + . . . , ∂t → ∂t + ² ω0 ∂τ + . . . . Per ottenere le equazioni di nostro interesse, è sufficiente troncare lo sviluppo al secondo ordine in ². Dalla (13.1), operando gli sviluppi del caso e per l’ordine O(²), abbiamo ω2 che k02 = c20 , cioè il numero d’onda della portante è determinato dal mezzo sul quale va ad incidere, nel caso in cui gli atomi risonanti siano assenti. All’ordine successivo, O(²2 ), a meno dei termini secolari connessi al contributo E1 , otteniamo che Eχ + Eτ = hpi . Applicando tale metodo perturbativo alla (13.2) per O(1), ricaviamo l’equazione dell’oscillatore armonico, mentre per il successivo O(²), deriviamo, dopo aver rimosso al solito i termini secolari, la seguente uguaglianza pτ + 2iα p = Eη . Analogamente per la (13.3), all’ordine O(1), ricaviamo che η è costante (∂t η0 = 0) e rimuovendo nuovamente i termini secolari, otteniamo, al primo ordine O(²), l’equazione 1 (Ep∗ + E ∗ p) . 2 Per concludere, scriviamo le tre precedenti equazioni in termini delle coordinate caratteristiche χ = χ, T = τ − χ. Le equazioni SIT sono dunque ητ = − Eχ = hpi , (13.9) pT + 2iα p = Eη , (13.10) 1 ηT = − (Ep∗ + E ∗ p) . (13.11) 2 Osserviamo che tali equazioni godono dell’importante proprietà di essere integrabili. Le condizioni al contorno ed iniziali appropriate sono: E → 0 , T → ±∞, ∀χ > 0 , p → 0 , η → −1 , T → −∞ , ed inoltre E(χ = 0, T ) è noto e decresce rapidamente per T → ±∞ 1 . 1 Come avremo modo di notare nel prossimo capitolo, la scelta delle giuste condizioni per gli andamenti asintotici delle funzioni è fondamentale per l’applicabilità dell’IST e pei risultati che ne seguono. 13.2 Equazioni SIT 13.2.1 149 Sharp line limit: l’equazione di sine-Gordon É utile mostrare come l’equazione SG rappresenti un caso speciale del sistema costituito dalle equazioni SIT (13.9)→(13.11). Tale equazione si ottiene nel limite in cui le frequenze dei dipoli vanno a coincidere in un’unica frequenza di risonanza ω0 . In sostanza, ciò corrisponde ad eliminare la distribuzione disomogenea: g(ω) = δ(ω − ω0 ) . Con questa scelta, le equazioni (13.9)→(13.11) si trasformano in Eχ = p , pT = Eη , 1 ηT = − (Ep∗ + E ∗ p) . 2 (13.12) (13.13) (13.14) Per la (13.12), basta ricordare il significato delle h. . .i; per la (13.13), riprendiamo la definizione di α, data dallo sviluppo (13.5). Dalle (13.13), (13.14), ricaviamo il seguente integrale primo: η 2 + |p|2 = 1 , (13.15) Questa uguaglianza suggerisce la parametrizzazione η = cos(ϑ) , p = eiψ sin(ϑ) , ϑ = ϑ(χ, T ) . Da ciò segue che, se E ha una fase costante inizialmente, allora ψ = cost. , E = eiψ ϑT , (13.16) Infine, dalle (13.12), (13.16), ricaviamo l’equazione di sine-Gordon cono luce), le proprietà di integrabilità della quale sono note: 1 (sul ϑχT = sin(ϑ) . 1 Il fatto che l’equazione di sine-Gordon sia risolubile tramite l’IST, ci porta subito a pensare che anche le equazioni SIT, dalle quali la stessa sine-Gordon è stata ora derivata, siano risolubili applicando lo stesso metodo con opportune modifiche. Capitolo 14 Inverse Scattering Transform In questo capitolo, dopo aver presentato le origini e le idee che sono alla base dell’IST, discutiamo in dettaglio i problemi di scattering diretto ed inverso. In seguito, affrontiamo l’evoluzione temporale dei dati di scattering e la soluzione a singolo solitone rappresentante la propagazione dell’impulso2π. Concludiamo con la soluzione per il sistema di equazioni SIT ed alcune osservazioni sul metodo risolutivo adottato e sulle equazioni integrabili. 14.1 Introduzione al metodo Il metodo dell’Inverse Scattering Transform fu sviluppato ed applicato per la prima volta nella risoluzione dell’equazione di Korteweg-de Vries (KdV) da Gardner, Greene, Kruskal e Miura. Non era chiaro inizialmente se tale metodo potesse essere applicato anche ad altre equazioni importanti della Fisica - [42], [45]. Zakharov e Shabat sciolsero tale dubbio, mostrando che ciò era possibile: rifacendosi ad un tecnica introdotta da Lax, provarono che l’equazione di Schrödinger nonlineare (NLS) è legata ad un problema di scattering lineare ed applicando metodi di scattering diretto ed inverso, riuscirono a risolvere la NLS, noto il dato iniziale q(x, 0) e supponendo che tale potenziale decadesse in modo sufficientemente rapido per |x| → ∞. Questo lavoro è stato fonte di nuove idee per risolvere altre importanti equazioni: l’equazione di Korteweg-de Vries modificata (mKdV) risolta da Wadati, l’equazione SG da Ablowitz, Kaup, Newell e Segur. Tali risultati provano quindi la potenza e la versatilità dell’IST nel risolvere determinati problemi fisici connessi a delle equazioni nonlineari alle derivate parziali. 14.1 Introduzione al metodo 14.1.1 151 La coppia di Lax Ripercorriamo ora le idee essenziali che stanno alla base del metodo introdotto da Lax. Consideriamo due operatori L ed M. L è l’operatore del problema spettrale ed M è l’operatore associato all’equazione d’evoluzione temporale: Lv = λv, vt = M v . (14.1) (14.2) Nel caso particolare della KdV, il problema di scattering associato è quello di Schrödinger: L v = vxx + u(x, t) v = λ v , da cui L ≡ ∂x2 + u(x, t) , con ut + u ux + uxxx = 0 (KdV ≡ condizione di compatibilità) . Derivando la (14.1) rispetto al tempo ed assumendo λt = 0 (isospettralità dell’operatore L), abbiamo che Lt v + L vt = λ vt . Sostituendovi la (14.2), ricaviamo Lt + [ L, M ] = 0 . (14.3) In questa uguaglianza, nota come equazione di Lax, è contenuta un’equazione di evoluzione nonlineare 1 a patto che L ed M siano scelti correttamente. Se un’equazione nonlineare alle derivate parziali si presenta come condizione di compatibilità dei due operatori L ed M, allora la (14.3) è chiamata rappresentazione di Lax dell’equazione d’evoluzione nonlineare alle derivate parziali ed L ed M formano la coppia di Lax. Data L, Lax ha indicato come costruire una M associata in modo tale da non rendere triviale la (14.3). Le difficoltà nascono quando, per una data equazione alle derivate parziali, non si dispone di un metodo per determinare se esiste una rappresentazione di Lax corrispondente e quindi il modo secondo il quale determinare gli operatori associati. Tale elegante metodo presenta, dunque, le seguenti difficoltà: (i) è necessario indovinare un forma appropriata per L e poi trovare M in modo tale che soddisfino le (14.1), (14.2); (ii) può risultare difficile lavorare con degli operatori differenziali. 1 Tale equazione di evoluzione nonlineare rappresenta la condizione di compatibilità della (14.3) e nel caso di Schrödinger coincide con la KdV. 152 14.1.2 Inverse Scattering Transform Il problema di Zakharov e Shabat Una procedura alternativa è quella proposta da Ablowitz, Kaup, Newell e Segur che può essere formulata in maniera molto generale nel seguente modo. Consideriamo le due equazioni lineari vx = X v , vt = T v , (14.4) (14.5) dove v è un vettore n-dimensionale ed X e T sono delle matrici n × n. La condizione di compatibilità per queste due equazioni (vxt = vtx ) porta a Xt − Tx + [ X, T ] = 0 . (14.6) In sostanza, questo risultato è equivalente alla (14.3), ma è più generale perchè permette di introdurre una dipendenza dagli autovalori del problema rispetto alla (14.1): nell’operatore X possiamo inserire tale dipendenza (parametrica) dall’autovalore (costante nel tempo: λt = 0). Dato X, si mostra che vi è una semplice procedura per trovare T in modo tale che la (14.6) contenga un’equazione di evoluzione nonlineare 1 . Consideriamo allora il problema di scattering di Zakharov e Shabat che consiste in un problema agli autovalori 2 × 2 dato da v1 x = −ik v1 + q v2 , v2 x = ik v2 + r v1 , (14.7) (14.8) insieme alle due seguenti dipendenze lineari dal tempo v 1 t = A v 1 + B v2 , v2 t = C v 1 + D v 2 , (14.9) (14.10) dove A, B, C e D sono delle funzioni scalari di q(x, t), r(x, t) e k, indipendenti da v = (v1 , v2 ). Le (14.7), (14.8) e le (14.9), (14.10) corrispondono alle (14.4), (14.5), ed X e T sono date dal membro di destra delle (14.7), (14.8) e (14.9), (14.10), rispettivamente: µ ¶ µ ¶ −ik q A B X= , T= . r ik C D 1 Osserviamo che una soluzione completa dell’equazione nonlineare di evoluzione sull’intervallo infinito può essere trovata quando il problema di scattering completo associato è tale che il problema di scattering inverso possa essere effettivamente portato a termine. Infatti, sebbene esistano numerose equazioni nonlineari di evoluzione che soddisfino alla (14.6), una teoria completa (di scattering diretto ed inverso) per molte di queste equazioni associate non è stata ancora adeguatamente sviluppata. 14.1 Introduzione al metodo 153 Se comparissero delle derivate rispetto ad x nel membro di destra delle (14.9), (14.10), queste potrebbero essere assorbite usando le (14.7), (14.8). Vogliamo mostrare ora come sia possibile derivare dal sistema di Zakharov e Shabat alcune tra le più importanti equazioni integrabili nonlineari di evoluzione di interesse applicativo. Tali equazioni si presentano come condizioni di compatibilità del sistema di partenza, nel quale è stata operata un’opportuna scelta dei potenziali e dei coefficienti che emergono dallo sviluppo polinomiale troncato al grado n-esimo (che specificheremo caso per caso) delle funzioni scalari A, B, C e D. Osserviamo, prima di sviluppare, che, ad esempio, per r = −1, le (14.7), (14.8) si riducono al problema di scattering per l’equazione di Schrödinger: ¡ ¢ v2 xx + k 2 + q v2 = 0 , (k 2 ≡ −λ) . La compatibilità delle (14.7), (14.8) con le (14.9), (14.10) impone che siano verificate una serie di condizioni su A, B, C e D. Richiedendo allora che (vi tx ) = (vi xt ) con i = 1, 2 ed assumendo l’isospettralità dell’operatore X (ovvero kt = 0), troviamo le seguenti equazioni per A, B, C e D: Ax Bx + 2ik B Cx − 2ik C −Dx = = = = qC −rB, qt − (A − D) q , rt + (A − D) r , qC −rB. Senza perdere in generalità, possiamo porre D = −A. Dunque, otteniamo tre equazioni della forma Ax = q C − r B , Bx + 2ik B = qt − 2A q , Cx − 2ik C = rt + 2A r . (14.11) (14.12) (14.13) A questo punto, formalmente, non rimane che risolvere tale sistema per A, B e C. Ciò che si trova in generale è che il sistema può essere risolto se un’ulteriore condizione è soddisfatta: questa condizione è proprio l’equazione di evoluzione. Procediamo, allora, con l’espansione polinomiale dei coefficienti A, B e C nel parametro libero k (l’autovalore): A= n X j=0 Aj k j , B= n X j=0 Bj k j , C= n X Cj k j . j=0 Sostituiamo questi sviluppi polinomiali ed uguagliamo i coefficienti delle potenze di k. Da calcoli diretti, per k 3 abbiamo che B2 = C2 = 0 ((14.12), 154 Inverse Scattering Transform (14.13)). Per k 2 , la (14.11) restituisce A2 = a2 = cost.; la (14.12) dà B1 = ia2 q; la (14.13), invece, C1 = ia2 r. Per k, la (14.11) porta a A1 = a1 = cost.: per semplicità, poniamo che a1 = 0 (se mantenessimo a1 6= 0, otterremmo un’equazione ancor più generale); la (14.12) dà B0 = −a2 qx /2; dalla (14.13), otteniamo che C0 = a2 rx /2. Infine, per k 0 , la (14.11) dà A0 = a2 qr/2 + a0 , e poniamo di nuovo per semplificare, che a0 = cost. = 0; le (14.12), (14.13) restituiscono, invece, 1 qt = a2 q 2 r − a2 qxx , 2 1 rt = −a2 qr2 + a2 rxx . 2 (14.14) (14.15) Se poniamo r = ±q ∗ , allora le (14.14), (14.15) sono compatibili se a2 = iα, con α ∈ R . Inoltre, posto α = 2, otteniamo la NLS (focusing e defocusing, a seconda del segno)1 : i qt = qxx ± 2 q 2 q ∗ . D’altra parte, se lo sviluppo è basato sulle potenze inverse di k, è possibile ricavare la SG: assumendo A = a(x, t)/k, B = b(x, t)/k, C = c(x, t)/k, otteniamo che ax = i/2 (qr)t , qxt = −4ia q, rxt = −4ia r; con le scelte speciali: a = i/4 cos(u), b = c = i/4 sin(u), q = −r = −ux /2, ricaviamo la SG sul cono luce: uxt = sin(u). Osserviamo che un altro modo di scrivere in forma compatta il sistema (14.7), (14.8) è il seguente: vx = [−ikσ3 + Q] v , (14.16) dove si fa uso della matrice di Pauli σ3 e della matrice dei potenziali Q: µ σ3 = 1 0 0 −1 ¶ µ , Q= 0 q r 0 ¶ . Di seguito, riportiamo alcune equazioni d’evoluzione nonlineari integrabili, accompagnate dalla loro coppia di Lax e dalla soluzione a singolo solitone. 1 In modo del tutto analogo, è possibile ricavare altre importanti equazioni, come la KdV o la mKdV - [42]. 14.1 Introduzione al metodo 155 Equazione NLS (focusing) irt + rxx + 2|r|2 r = 0 , r = r(x, t) ∈ C , µ ¶ 0 −r∗ vx = [−ikσ3 + ]v, r 0 µ ¶ 0 2kr∗ + irx∗ 2 2 vt = [(2ik − i|r| )σ3 + ]v, −2kr + irx 0 2 2 aei[bx−(b −a )t+θ] , r(x, t) = cosh[a(x − 2bt − ξ)] (14.17) dove a, b, ξ, θ ∈ R sono parametri arbitrari. Equazione NLS (defocusing) irt + rxx − 2|r|2 r = 0 , r = r(x, t) ∈ C , ¶ µ 0 r∗ ]v, vx = [−ikσ3 + r 0 µ ¶ 0 −2kr∗ − irx∗ 2 2 vt = [(2ik + i|r| )σ3 + ]v, −2kr + irx 0 h −i r(x, t) = {iρ + arctan[a(x − vt)]} e (ρ− v2 )x+ “ ”i 2 3ρ2 +2a2 −ρv+ v4 t ,(14.18) dove a, b, ρ, v ∈ R sono parametri arbitrari 1 . Equazione SG rxt = sin(r) , µ ¶ rx 0 −1 vx = [−ikσ3 + ]v, 1 0 2 µ ¶ i cos(r) sin(r) vt = v, sin(r) − cos(r) 4k · ”¸ “ −2p x+ t 2 −ξ 4p r(x, t) = 4η arctan e , dove r(x, t) → 0 per x → +∞; r(x, t) → nπ per x → −∞; 0; p > 0 e ξ ∈ R, arbitrari 2 . 1 2 (14.19) R∞ −∞ Questo solitone è un kink; è detto gray se ρ 6= 0, dark altrimenti. Per η = +1, r è un kink, mentre per η = −1 un anti-kink. dx sin[r(x, t)] = 156 Inverse Scattering Transform Equazioni MB (espresse in forma ridotta) Et = v , vx = ωu + Eq , qx = −Ev , ux = −ωv , µ ¶ E 0 −1 vx = [−ikσ3 + ]v, 1 0 2 µ ¶ i 1 vt = [2k(qσ3 + vσ1 ) − ωσ2 ] v , 2 4k 2 − ω 2 2a 1 E(x, t) = , w = −q∞ 2 , cosh[a(x − wt − ξ)] a − ω2 v(x, t) = awE(x, t) tanh[a(x − wt − ξ)] , u(x, t) = ωwE(x, t) , dove E, v, u, q sono funzioni di x e t, ed ω = cost. ∈ R ; E, v, u → 0 e q tende a valori costanti per x → ±; inoltre, q(x, t) = q∞ + 21 wE 2 (x, t) ed a, ξ, q∞ ∈ R arbitrari; σ1 , σ2 sono le matrici di Pauli. 14.2 Problema Diretto Vogliamo ora concentrarci sul problema dello scattering diretto che consiste nel trasferire il potenziale q(x, t = 0) nella corrispondente trasformata S(k, 0). Cominciamo con l’assumere che i due potenziali q ed r nelle (14.7), (14.8) decrescano rapidamente per |x| → ∞. Notiamo da subito che tale assunzione è di fondamentale importanza, dato che una teoria dello scattering con differenti condizioni al contorno (quali sono quelle date per i potenziali) porta a risultati sostanzialmente differenti. Definiamo, allora, le autofunzioni φ(x, k), φ̄(x, k), ψ(x, k) e ψ̄(x, k) 3 (vettori a due componenti, e.g. φ(x, k) = (φ1 , φ2 )(x, k)) associate al sistema di Zakharov e Shabat (14.7), (14.8), fornendo le rispettive condizioni al contorno - [45]: µ ¶ µ ¶ 1 0 −ikx φ∼ e , φ̄ ∼ eikx , per x → −∞ , (14.20) 0 −1 µ ¶ µ ¶ 0 1 ikx ψ∼ e , ψ̄ ∼ e−ikx , per x → +∞ . (14.21) 1 0 Tali soluzioni asintotiche sono definite ad un tempo fissato (ad esempio all’istante t = 0) e tutta la teoria dello scattering di cui discuteremo in questo 3 Per chiarezza, facciamo osservare che φ̄ non è il complesso coniugato di φ; per indicare il complesso coniugato di φ, useremo φ∗ . 14.2 Problema Diretto 157 paragrafo sarà ad un istante di tempo fissato; in § 14.4, vedremo come ottenere le autofunzioni dipendenti dal tempo che soddisfano alle (14.7)→(14.10). In questo paragrafo, la variabile tempo t (declassata a parametro) è, dunque, omessa nella notazione. In modo del tutto generale, se u(x, k) e v(x, k) (vettori colonna a due componenti: u(x, k) ≡ (u1 (x, k), u2 (x, k))T , ed analogamente per v) sono due soluzioni delle (14.7), (14.8), abbiamo che d W (u, v) = 0 , dx dove W (u, v) è il wronskiano di u e v definito come W (u, v) = u1 v2 − u2 v1 . In base alle condizioni al contorno (14.20), (14.21), desumiamo che W (φ, φ̄) = W (ψ, ψ̄) = −1 = −W (φ̄, φ) = −W (ψ̄, ψ). Le soluzioni ψ e ψ̄ sono d’altra parte linearmente indipendenti, perciò possiamo scrivere φ(x, k) = a(k) ψ̄(x, k) + b(k) ψ(x, k) , φ̄(x, k) = −ā(k) ψ(x, k) + b̄(k) ψ̄(x, k) , (14.22) (14.23) dove abbiamo introdotto le funzioni a(k), b(k), ā(k) e b̄(k). Usando le (14.22), (14.23) e W (φ, φ̄) = −1, ricaviamo l’uguaglianza a(k) ā(k) + b(k) b̄(k) = 1 . (14.24) Introduciamo per convenienza (comportamento asintotico semplice e proprietà di analiticità notevoli), le funzioni M(x, k) = φ(x, k) eikx , M̄(x, k) = φ̄(x, k) e−ikx , N(x, k) = ψ(x, k) e−ikx , N̄(x, k) = ψ̄(x, k) eikx , (14.25) (14.26) le quali verificano (consistentemente con le (14.20), (14.21)) µ ¶ µ ¶ 1 0 M(x, k) ∼ , M̄(x, k) ∼ , per x → −∞ , 0 −1 µ ¶ µ ¶ 0 1 N(x, k) ∼ , N̄(x, k) ∼ , per x → ∞ . 1 0 Osserviamo che dalle definizioni (14.25), (14.26) e (14.22), (14.23) derivano le relazioni M(x, k) = N̄(x, k) + ρ(k) e2ikx N(x, k) , (14.27) a(k) M̄(x, k) = −N(x, k) + ρ̄(k) e−2ikx N̄(x, k) , (14.28) ā(k) 158 Inverse Scattering Transform dove ρ(k) = b(k) a(k) , ρ̄(k) = b̄(k) . ā(k) 1 sono i coefficienti di riflessione e di trasmissione, Qui, ρ(k) e t(k) = a(k) rispettivamente. Facciamo notare che i casi fisici importanti si verificano quando r è proporzionale a q ∗ o a q. Nel caso r = ±q ∗ di maggiore interesse, dalle (14.7), (14.8), ricaviamo le seguenti relazioni di simmetria ∗ N2∗ ψ2 (x, k ∗ ) = N̄ , (x, k ∗ ) ; ψ̄(x, k) = ±ψ1∗ ±N1∗ (14.29) ∓φ∗2 ∓M2∗ ∗ (x, k ) ; (x, k ∗ ) = M̄ , φ̄(x, k) = −φ∗1 −M1∗ le quali implicano (ricordando che a = W (φ, ψ)) che ā(k) = a∗ (k ∗ ) , b̄(k) = ∓b∗ (k ∗ ) , ρ̄(k) = b̄(k) = ∓ρ∗ (k ∗ ) ā(k) Un risultato analogo si ha per r = ±q (è sufficiente sostituire k ∗ con −k). In base a queste relazioni di simmetria, è semplice mostrare che i coefficienti di trasmissione e di trasmissione soddisfano l’uguaglianza (si osservi la 14.24) |ρ(k)|2 + |t(k)|2 = 1 . Al fine di studiarne le proprietà di analiticità, le funzioni M, M̄, N ed N̄ possono essere espresse in forma di equazioni integrali. Queste rappresentazioni integrali sono molto convenienti per diverse ragioni: ad esempio, l’equazione integrale include direttamente le condizioni al contorno, mentre nel caso di un’equazione differenziale tali condizioni sono date separatamente; inoltre, in generale, l’operatore integrale corrispondente è compatto (contrariamente a quello differenziale) cosicchè il problema può essere risolto servendosi di metodi iterativi per approssimazioni successive (sfruttando il teorema delle contrazioni). A riguardo, riesprimiamo le (14.7) e (14.8) nella forma (v1 eikx )x = q v2 eikx , (v2 e−ikx )x = r v1 e−ikx . 14.2 Problema Diretto 159 Integrando le precedenti e facendo uso delle condizioni al contorno precedenza, otteniamo le seguenti equazioni integrali: µ ¶ Z ∞ 1 M(x, k) = + G+ (x − ξ, k) Q(ξ) M(ξ, k) dξ , 0 −∞ µ ¶ Z ∞ 0 e + (x − ξ, k) Q(ξ) N(ξ, k) dξ , N(x, k) = + G 1 µ ¶ −∞ Z ∞ 0 M̄(x, k) = + G− (x − ξ, k) Q(ξ) M̄(ξ, k) dξ , −1 −∞ µ ¶ Z ∞ 1 e − (x − ξ, k) Q(ξ) N̄(ξ, k) dξ , N̄(x, k) = + G 0 −∞ in cui µ Q(x) = 0 q(x) r(x) 0 date in (14.30) (14.31) (14.32) (14.33) ¶ e µ G+ (x, k) = e + (x, k) = G G− (x, k) = e − (x, k) = G ¶ 1 0 θ(x) , 0 e2ikx ¶ µ −2ikx e 0 θ(−x) , − 0 1 µ −2ikx ¶ e 0 θ(x) , 0 1 µ ¶ 1 0 − θ(−x) , 0 e2ikx dove θ(x) è la funzione di Heaviside (θ(x) = 1 se x > 0, θ(x) = 0 se x < 0) e e + (G− , G e − ) rappresentano i nuclei analitici nel semipiano-k superiore G+ , G (inferiore). Riconosciamo, dunque, nelle (14.30)→(14.33) quattro equazioni integrali di Volterra che ammettono soluzione unica per ogni k. Le serie di Neumann di tali equazioni convergono per Q(x) ∈ L1 (R) nel relativo semipiano, cioè per una scelta dei potenziali q ed r assolutamente integrabili. Infatti, si verifica che se ¯¶ µ¯ Z ∞ ¯ q(x) ¯ n ¯ ¯ (14.34) |x| ¯ r(x) ¯ dx < ∞ , ∀n . −∞ allora l’analiticità può essere prolungata all’asse reale k. Osserviamo infine che in queste condizioni, M ed N sono analitiche nel semipiano superiore (=(k) = η > 0), ed M̄ ed N̄ lo sono in quello inferiore 160 Inverse Scattering Transform (η < 0). Inoltre, notiamo sin da subito che queste proprietà portano ad avere che a = W (φ, ψ) = φ1 ψ2 − φ2 ψ1 (14.35) è analitica nel semipiano superiore, mentre ā = W (φ̄, ψ̄) = φ̄1 ψ̄2 − φ̄2 ψ̄1 (14.36) lo è in quello inferiore 1 . Nel caso in cui r e q decrescano più velocemente di qualsiasi esponenziale per |x| → ∞, le funzioni costruite su questi sono analitiche in tutto il piano complesso-k. Il caso speciale di un supporto compatto semplifica notevolmente lo studio dell’analiticità delle funzioni, dato che in questo caso le equazioni integrali di Volterra sono definite su un intervallo finito. Si può mostrare che tali equazioni hanno sempre soluzioni in serie di Neumann assolutamente convergenti. Per quanto concerne i coefficienti di scattering a(k), ā(k), b(k) e b̄(k), possiamo esprimerli in forma di integrali sui potenziali q(x), r(x) e sulle autofunzioni per meglio caratterizzare le rispettive proprietà di analiticità. A riguardo, definiamo ∆(x, k) = M(x, k) − a(k) N̄(x, k) . (14.37) Sostituiamo le equazioni (14.30)→(14.33) nella (14.37) e, sfruttando la condizione µ ¶ ³ ´ 1 0 e G+ − G− (x, k) = , 0 e2ikx ricaviamo Z ∞ e − (x − ξ, k) Q(ξ) ∆(ξ, k) dξ = G ¶ µ ¶ Z ∞µ 1 0 1 Q(ξ) M(ξ, k) dξ.(14.38) = [1 − a(k)] + 0 0 e2ik(x−ξ) −∞ ∆(x, k) − −∞ D’altra parte, le (14.27), (14.37) producono ∆(x, k) = b(k) e2ikx N(x, k) , (14.39) da cui, sostituendovi l’equazione integrale per N(x, k) ed usando l’uguaglianza e + (x, k) = G e − (x, k) , e2ikx G 1 Per il calcolo esplicito si veda [42]. 14.2 Problema Diretto 161 otteniamo Z ∞ ∆(x, k) − µ e − (x − ξ, k) Q(ξ) ∆(ξ, k) dξ = b(k) e G 2ikx −∞ 0 1 ¶ . (14.40) Confrontando dunque i membri di destra delle (14.38), (14.40), risulta che Z ∞ a(k) = 1 + q(x) M2 (x, k) dx , (14.41) −∞ Z ∞ b(k) = − e−2ikx r(x) M1 (x, k) dx , (14.42) −∞ in cui M1 (x, k) ed M2 (x, k) sono le componenti di M(x, k). In modo analogo, si ricavano le equazioni per i coefficienti di scattering ā(k) e b̄(k): Z ∞ (14.43) ā(k) = 1 + r(x) M̄1 (x, k) dx , −∞ Z ∞ b̄(k) = − e2ikx q(x) M̄2 (x, k) dx . (14.44) −∞ Ricordiamo che i quattro coefficienti a(k), ā(k), b(k) e b̄(k) possono essere ricavati usando le relazioni basate sul wronskiano (14.35), (14.36) (e relative per b(k) e b̄(k)). Come già fatto osservare, dalle (14.41), (14.43), deduciamo direttamente che a(k) (ā(k)) è analitico nel semipiano-k superiore (inferiore), dato che M(x, k) (M̄(x, k)) gode di tali proprietà. Poniamo ora il caso in cui il termine a(k) possieda degli zeri nel semipiano superiore (η > 0) o ā(k) ne abbia in quello inferiore (η < 0). In questa situazione, il problema di scattering (14.7), (14.8) possiede autovalori discreti (esistenza di stati legati). Indichiamo con kj , j = 1, 2, . . . , N gli zeri di a(k), dove N è il numero di stati legati. Allora, abbiamo che per k = kj , φ risulta essere proporzionale a ψ (ricordiamo che W (φ, ψ) = a), ovvero che φ = Cj ψ. Analogamente, se abbiamo k = k̄j , con j = 1, 2, . . . , N̄ , allora φ̄ = C̄j ψ̄. Abbiamo visto che con q ed r decrescenti rapidamente per |x| → ∞, i coefficienti di scattering a, b, ā e b̄ sono funzioni analitiche in tutto il piano complesso. Verificata la (14.34), a(k) (ā(k)) è analitica sull’asse reale come lo è nel semipiano superiore (inferiore). Questo ci assicura che a(k) ha solo un numero finito di zeri per =(k) ≥ 0 (cioè a(k) è analitica per =(k) ≥ 0 ed a(k) → 1 per |k| → ∞). Dunque tutti gli zeri di a(k) sono isolati e giacciono in una regione limitata. Osserviamo che per la scelta r = −q ∗ , si ha N̄ = N , k¯j = kj∗ , C̄j = ∓Cj∗ . 162 Inverse Scattering Transform Mettendo a confronto il problema (14.7), (14.8) (che verifica le condizioni asintotiche (14.20), (14.21)) con quello di Schrödinger, ci accorgiamo di alcune differenze: (i) gli zeri di a(k) (cioè gli autovalori) non sono necessariamente limitati all’asse immaginario; (ii) a(k) può avere zeri multipli; (iii) a(k) può annullarsi per =(k) = 0. Abbiamo cosı̀ concluso il problema diretto, abbiamo cioè indivuato tutti gli elementi necessari a definire S(k, 0) partendo dal potenziale iniziale q(x, 0): il coefficiente di riflessione ρ(k), gli zeri kj e le costanti Cj di normalizzazione delle autofunzioni (tutti al tempo iniziale t = 0): n o N q(x, 0) =⇒ S(k, 0) := ρ(k, 0), {kj , Cj (0)}j=1 . 14.3 Problema Inverso Vogliamo ora risolvere il problema inverso che consiste nel passaggio dalla trasformata S(k, t), già evoluta nel tempo, al potenziale q(x, t).Tale problema può essere risolto seguendo strade diverse. Il problema di Riemann-Hilbert Generalemente, lo si può scrivere come un problema di Riemann-Hilbert (problema RH). Riprendiamo allora le equazioni (14.27), (14.28). Facciamo notare che, in generale, tutti i problemi di scattering che si incontrano nello studio di equazioni alle derivate parziali unidimensionali, quali quelle che ora stiamo trattando, possono essere posti nella forma (m+ − m− ) (x, k) = V(x, k) m− (x, α(k)) , su Σ , (14.45) con m± → I , per |x| → ∞ , dove Σ è un opportuno contorno del piano-k complesso, α(k) e V(k) sono definite su Σ, V (generica componente di V) dipende esplicitamente dai dati di scattering; m± (x, k) sono funzioni meromorfe di matrici n × n di k ∈ C \Σ per =(k) ≶ 0, ed m± (x, k) ha un numero finito di poli in punti specifici k1 , k2 , . . . , kN del piano complesso, coi relativi residui. Definiamo, allora, le matrici 2 × 2 ¶ µ M(x, k) , N(x, k) , m+ (x, k) = a(k) µ ¶ M̄(x, k) N̄(x, k), − m− (x, k) = , ā(k) 14.3 Problema Inverso 163 cosicchè possiamo scrivere un problema nella forma della (14.45), equivalente alle (14.27), (14.28), dove ρ(k) ρ̄(k) ρ(k) e2ikx . V(x, k) = −2ikx ρ̄(k) e 0 Dalle equazioni integrali (14.30)→(14.33), ricaviamo le formule asintotiche per m± (x, k) quando k → ∞: R∞ q(x) 1 1 + 2ik q(ξ) r(ξ) dξ 2ik x . m± (x, k) ∼ Rx r(x) 1 − 2ik 1 − 2ik −∞ q(ξ) r(ξ) dξ Poniamo, inizialmente, che non esistano zeri di a(k) ed ā(k). Consideriamo l’operatore di proiezione P± definito da Z ∞ f (ζ) 1 dζ . P± f = 2πi −∞ ζ − (k ± i0) Con f± analitica nel semipiano superiore/inferiore e tale che f± → 0 per |k| → ∞ (con =(k) ≶ 0), il risultato dell’applicazione è P± f± (k) = ± f± (k) , P± f∓ (k) = 0 Facciamo agire l’operatore di proiezione P− sulla (14.45), ottenendo Z ∞ V(x, ζ) m− (x, ζ) 1 m− (x, k) = I + dζ , (14.46) 2πi −∞ ζ − (k − i0) che rappresenta la soluzione formale del problema. Se poniamo, ora, che a(k) = 0, allora dobbiamo aggiungere nella (14.46) i contributi dati dai poli - i quali contengono le soluzioni solitoniche. Comparando le formule asintotiche per |k| → ∞, ricaviamo R∞ q(ξ)r(ξ)dξ q(x) x = R∞ −r(x) − x q(ξ)r(ξ)dξ R∞ ρ(ζ) e2iζx N1 (x, ζ)dζ −∞ 1 =− R ∞ π −∞ ρ(ζ) e 2iζx N2 (x, ζ)dζ R∞ ρ̄(ζ) e−2iζx N̄1 (x, ζ)dζ −∞ R∞ −∞ −2iζx ρ̄(ζ) e , N̄2 (x, ζ)dζ dal quale possiamo dedurre le espressioni per i potenziali q(x) ed r(x). 164 Inverse Scattering Transform Le equazioni di Gel’fand-Levitan-Marchenko Una procedura alternativa consiste nel risolvere il problema inverso attraverso le equazioni integrali di Gel’fand-Levitan-Marchenko. Queste equazioni possono essere derivate direttamente dal problema RH. In breve, si tratta di operare una trasformata di Fourier ordinaria della trasformata spettrale. Assumiamo che µ ¶ Z ∞ 0 N(x, k) = + K(x, s) eik(x−s) ds , (14.47) 1 x µ ¶ Z ∞ 1 N̄(x, k) = + K̄(x, s) e−ik(x−s) ds . (14.48) 0 x dove K(x, s)¶ (K̄(x, s)) è un vettore colonna a due componenti: K(x, s) = µ K1 (x, s) . Il termine integrale riguardante K (K̄) rappresenta la difK2 (x, s) ferenza tra i valori al contorno per x = ∞ e le vere autofunzioni. L’osservazione fondamentale, ora, sta nel notare che i nuclei K e K̄ sono indipendenti dall’autovalore k. Per provarlo, dobbiamo sostituire le (14.47), (14.48) nel problema agli autovalori (14.7), (14.8). Ad esempio, esplicitando il conto per la (14.47), abbiamo Z ∞ eiks [ (∂x − ∂s ) K1 (x, s) − q(x) K2 (x, s) ] ds + x £ ¤ − [ q(x) + 2K1 (x, x) ] eikx + lim K1 (x, s) eiks = 0 , s→∞ (14.49) Z ∞ x eiks [ (∂x + ∂s ) K2 (x, s) − r(x) K1 (x, s) ] ds + £ ¤ − lim K2 (x, s) eiks = 0 . s→∞ Dobbiamo imporre, allora, che (∂x − ∂s ) K1 (x, s) − q(x) K2 (x, s) = 0 , (∂x + ∂s ) K2 (x, s) − r(x) K1 (x, s) = 0 , le quali sono soggette alle seguenti condizioni al contorno che ci forniscono una semplice espressione per il potenziale q(x). 1 K1 (x, x) = − q(x) , 2 lim K2 (x, s) = 0 . s→∞ (14.50) 14.3 Problema Inverso 165 Deriviamo, dunque, le equazioni integrali lineari di Marchenko per il problema inverso. Consideriamo k su un contorno C nel piano complesso che parte da k = −∞ + i0+ , passante al di sopra di tutti gli zeri di a(k) e che tende a k = +∞ + i0+ . Assumendo decadimenti rapidi per i potenziali q ed r, riprendiamo la (14.27). Sostituendovi le (14.47), (14.48), troviamo µ ¶ Z ∞ M(x, k) 1 = + K̄(x, s) e−ik(x−s) ds + 0 a(k) ·µ x ¶ ¸ Z ∞ b 0 2ikx ik(x+s) + (k) e + K(x, s) e ds . (14.51) 1 a x R 1 dk eiky per y > x, Trasformiamo ora tale espressione tramite l’operatore 2π C R 1 dk eikx , scambiamo gli integrali usiamo dunque la delta di Dirac δ(x) = 2π C ed otteniamo µ ¶ Z ∞ 0 K(x, s) F (s + y) ds , F (x + y) + I = K̄(x, y) + 1 x dove Z Z b 1 1 ikx (k) e dk = ρ(k) eikx dk F (x) = 2π C a 2π C Z 1 M(x, k) ik(y−x) I≡ e dk . 2π C a(k) (14.52) (14.53) Osserviamo che per φ eikx analitica in tutto il semipiano superiore, y > x, e tenendo conto del fatto che il contorno passa al di sopra di tutti gli zeri di a, l’integrale nella (14.53) è nullo. Allora, otteniano l’equazione desiderata: µ ¶ Z ∞ 0 K̄(x, y) + F (x + y) + K(x, s) F (s + y) ds = 0 . (14.54) 1 x Svolgendo nuovamente gli stessi conti per la (14.23) nel semipiano inferiore, ricaviamo µ ¶ Z ∞ 1 K̄(x, s) F̄ (s + y) ds = 0 , (14.55) K(x, y) − F̄ (x + y) − 0 x con 1 F̄ (x) = 2π Z b̄ −ikx 1 e dk = 2π C¯ ā Z C¯ ρ(k) e−ikx dk (14.56) dove C¯ è un contorno simile a C, ma passante al di sotto degli zeri di ā(k). 166 Inverse Scattering Transform Un caso speciale per queste formule lo si ha quando si assume che a(k) non si annulli sull’asse reale (k = k e η = 0) e possieda degli zeri semplici isolati 1 . L’integrazione lungo i contorni C, C¯ delle (14.52), (14.56) restituisce 1 F (x) = 2π 1 F̄ (x) = 2π Z ∞ ikx ρ(k) e dk − i −∞ Z ∞ N X Cj eikj x , (14.57) j=1 ρ̄(k) e−ikx dk + i −∞ N̄ X C̄j eik̄j x . (14.58) j=1 Le equazioni integrali (14.54), (14.55) possono essere scritte come un’unica equazione integrale matriciale definendo µ ¶ µ ¶ K̄1 K1 0 −F̄ K = (K̄, K) = , F= . K̄2 K2 F 0 Cosı̀, abbiamo: Z ∞ K(x, y) + F(x + y) + K(x, s) F(s + y) ds = 0 . (14.59) x Nel caso speciale e fisicamente importante r = ±q ∗ , emergono numerose relazioni di simmetria. Dalle (14.29), ricaviamo F̄ (x) = ∓F ∗ (x) , µ K̄(x, y) = K2∗ (x, y) ±K1∗ (x, y) ¶ . In base alle simmetrie ottenute, l’equazione integrale (14.59) si può ridurre a Z ∞Z ∞ ∗ K1 (x, y)±F (x+y)∓ K1 (x, z) F (z +s) F ∗ (s+y) ds dz = 0 . (14.60) x x Risolta l’equazione di Gel’fand-Levitan-Marchenko nell’incognita K1 (x, y) ed usando la (14.50), otteniamo l’espressione per il potenziale q(x): q(x) = −2K1 (x, x) . (14.61) In base a considerazioni del tutto simili, si ricava che il potenziale r(x) soddisfa l’uguaglianza r(x) = −2K̄2 (x, x) , (14.62) 1 Osserviamo di nuovo che, diversamente dal problema di scattering legato all’equazione di Schrödinger, a(k) ed ā(k) possono annularsi sull’asse reale ed avere radici multiple. 14.4 Dipendenza temporale e soluzione a singolo solitone 167 (si ripercorra il calcolo esplicito che porta alla (14.49)). Abbiamo cosı̀ concluso il problema di scattering inverso, ovvero il passaggio dalla trasformata spettrale per t > 0 al potenziale q(x, t): n o N S(k, t) := ρ(k, t), {kj , Cj (t)}j=1 =⇒ q(x, t) . 14.4 Dipendenza temporale e soluzione a singolo solitone L’aver sviluppato le equazioni di scattering inverse connesse al problema generalizzato di Zakharov e Shabat n consiste, una volta definiti i dati o di scatN b tering a tempo t > 0: S(k, t) = {kj , Cj (t)}j=1 , a (k, t) ≡ ρ(k, t) , (ovvero gli autovalori discreti, le costanti di normalizzazione ed il coefficiente di riflessione), nel risolvere - almeno in principio - l’equazione integrale associata. La soluzione dell’equazione integrale, allora, restituisce il potenziale q(x) (14.61) (r(x) - (14.62)). Tale procedura può essere eseguita per ogni tempo t che qui gioca il ruolo di un semplice parametro. Dato che siamo interessati però a risolvere un’equazione di evoluzione del sistema, procediamo come segue. Evoluzione dei dati di scattering Cominciamo col costruire le soluzioni delle (14.7)→(14.10). Dati q, r → 0 per |x| → ∞, otteniamo una larga classe di equazioni con la proprietà che A → A− (k), D → −A− (k), B, C → 0 per |x| → ∞. Le funzioni dipendenti dal tempo sono definite come φ(t) = φ eA− t φ̄(t) = φ̄ e−A− t ψ (t) = ψ e−A− t , , , ψ̄ (t) = ψ̄ eA− t , dove φ, φ̄, ψ e ψ̄ soddisfano le (14.7), (14.8) con le condizioni al contorno (14.20), (14.21). É bene notare che l’equazione di evoluzione µ ¶ temporale non 1 ammette condizioni al contorno fissate. Dunque, φ ∼ e−ikx e le altre 0 funzioni non possono soddisfare le (14.9), (14.10). Ad esempio, l’evoluzione temporale di φ(t) , µ ¶ ∂φ(t) A B = φ(t) C D ∂t 168 Inverse Scattering Transform mostra che φ soddisfa a ∂φ = ∂t µ A − A− (k) B C D − A− (k) ¶ Usando la relazione (14.22) µ ¶ µ ¶ 1 0 −ikx φ = a ψ̄ + b ψ ∼ a e +b eikx 0 1 φ. , (14.63) per x → ∞ , allora, la (14.63) per x → ∞ restituisce µ ¶ µ ¶ at e−ikx 0 = . bt eikx −2A− (k) b eikx Quindi per i coefficienti a(k) e b(k), abbiamo le seguenti equazioni di evoluzione temporale: a(k, t) = a(k, 0) , b(k, t) = b(k, 0) e−2A− (k)t . (14.64) Dalla (14.64), deduciamo che gli autovalori kj sono costanti nel tempo. In modo analogo, siamo in grado di ricavare delle equazioni di evoluzione per le costanti di normalizzazione Cj (t) (diamo direttamente l’espressione). L’evoluzione temporale è espressa da Cj (t) = Cj (0) e−2A− (kj )t , j = 1, 2, . . . , N. (14.65) Quanto effettuato per le funzioni φ e ψ, va ripetuto, ripercorrendo gli stessi conti, al fine di ricavare i dati di scattering contenuti in S̄(k, t) (sfruttando la (14.23)). Riportiamo di seguito i risultati: ā(k, t) = ā(k, 0) , b̄(k, t) = b̄(k, 0) e−2A− (k)t , C̄j (t) = C̄j (0) e−2A− (k̄j )t , j = 1, 2, . . . , N. Possiamo allora introdurre la dipendenza temporale nelle (14.57), (14.58): 1 F (x, t) = 2π Z +∞ −∞ 1 F̄ (x, t) = 2π Z N X b ikx−2A− (k)t (k, 0) e dk − i Cj (0) eikj x−2A− (kj )t , (14.66) a j=1 +∞ −∞ N̄ X b̄ (k, 0) e−ikx+2A− (k)t dk + i C̄j (0) e−ik̄j x+2A− (k̄j )t . ā j=1 (14.67) 14.4 Dipendenza temporale e soluzione a singolo solitone 169 Abbiamo cosı̀ operato l’evoluzione dei dati di scattering e dunque descritto il problema complessivo di scattering diretto ed inverso. Concludiamo, riportando lo schema che illustra i tre passi fondamentali. n o P roblema Diretto q(x, 0) =⇒ S(k, 0) := ρ(k, 0) ≡ ab (k, 0), {kj , Cj (0)}N j=1 ¿↓? n ⇓ Evoluzione Temporale o q(x, t) P roblema Inverso ⇐= S(k, t) := ρ(k, t) ≡ ab (k, t), {kj , Cj (t)}N j=1 Soluzione speciale a singolo solitone Avendo ricavato la dipendenza temporale dei dati di scattering (cioè la trasformata spettrale espressa in funzione del tempo), possiamo dedicarci a discutere le soluzioni solitoniche speciali. Consideriamo, allora, il caso r = −q ∗ e la (14.60). Per F (x), scegliamo b (t = 0) = 0, poniamo cioè che non esista il contributo connesso allo speta tro continuo, e sia N = 1: esiste un solo autovalore discreto. Dunque, (omettendo la dipendenza temporale per semplicità di scrittura) F (x) = −ic eikx , c = C1 , k = κ + iη , η > 0. (14.68) Sostituendo la (14.68) nella (14.60), otteniamo ∗ K1 (x, y) = ic∗ e−ik (x+y) + Z ∞Z ∞ ∗ ∗ − K1 (x, z) |c|2 eikz eis(k−k ) e−ik y ds dz . (14.69) x x Definiamo Z ∞ b 1 (x) = K K1 (x, z) eikz dz . x R∞ Moltiplichiamo la (14.69) per il fattore eiky e, svolgendo l’integrale x eiky dy, b 1 (x) (η > 0), la cui soluzione è data da ricaviamo un’equazione per K b 1 (x) = − K h (k − k∗) c∗ ei(k−2k 1− ∗ )x |c|2 (k−k∗ )2 e2i(k−k∗ )x Dalla (14.69), possiamo trovare K1 (x, y): K1 (x, y) = h 1− ic∗ e−ik |c|2 (k−k∗ )2 ∗ (x+y) e2i(k−k∗ )x i. i. 170 Inverse Scattering Transform Dunque, il potenziale q è dato da (si veda (14.50)) q(x) = −2K1 (x, x) = − Definendo |c|2 4η 2ic∗ e−2iκx ³ 2´ . |c| −2ηx e2ηx + 4η e 2 = e4φ , otteniamo c∗ 2η e−2ikx × sech [2 (ηx − φ)] , |c| soluzione a singolo solitone per tutte le equazioni di evoluzione che rispettano r = −q ∗ , soggette alla condizione sui coefficienti A, B, C e D discusse in precedenza. Reintroduciamo ora il tempo per avere l’espressione finale del solitone - l’impulso-2π - in funzione delle coordinate spaziale e temporale. Dalla (14.65), c = c(t) verifica c = c0 e−2A− (k)t , q(x) = −i dunque l’espressione del potenziale in cui compare esplicitamente la dipendenza dal tempo è q(x, t) = 2η e−2iκx e2i=(A− (k))t e−i(ψ0 +π/2) × sech [2ηx + 2<(A− (k))t − x0 ] , (14.70) iψ0 dove c0 ≡ |c0 | e e x0 ≡ ln(|c0 |/2η). Nel caso della NLS, abbiamo che A− (k) = 2ik 2 e la (14.70) è data da 2 −η 2 )t−i(ψ +π/2) 0 q(x, t) = 2η e−2iκx e4i(κ × sech [2ηx − 8κηt − x0 ] , dove la velocità della soluzione è data da 4κ e l’ampiezza da 2η. Nel caso della SG, quando esiste un solo autovalore appartenente all’asse 1 immaginario κ = 0, si ha <(A− (k)) = 4η e =(A− (k)) = 0. Dunque, dalla (14.70), otteniamo che (posto ψ0 = π/2) µ ¶ 1 ux q(x, t) = −2η × sech 2ηx + t + x0 = − 2η 2 e la soluzione (a singolo kink) per la SG è data da ³ ´ 1 2ηx+ 2η t+x0 u = 4 arctan e . Riesprimendo tutto nelle coordinate x = (X+T )/2, t = (X−T )/2, otteniamo che, per la SG (espressa nel sistema di riferimento del laboratorio) uT T − uXX + sin(u) = 0 , la soluzione assume la forma ´ ³ 1 1 u(X, T ) = 4 arctan e(η+ 4η )(X−X0 )+(η− 4η )T . 14.5 SIT come sistema di Zakharov e Shabat e soluzione finale171 14.5 SIT come sistema di Zakharov e Shabat e soluzione finale Vogliamo ora far osservare come dalle equazioni SIT sia possibile ricondursi al sistema di Zakharov e Shabat (mostrando cosı̀ che le SIT possono essere risolte tramite l’IST). Ricordiamo l’esistenza dell’integrale primo (13.15), connesso alle (13.10), (13.11). Possiamo fattorizzare tale integrale primo nelle due seguenti uguaglianze - [44]: p∗ 1+η v2 = = , 1−η p v1 µ ¶∗ 1+η v2 p = = , 1−η p∗ v1 (14.71) dove abbiamo introdotto le variabili v1 , v2 (le quali compaiono nel sistema (14.7), (14.8) di Zakharov e Shabat). Riesprimendo le equazioni SIT (13.10), (13.11) in termini del rapporto vv12 , otteniamo due nuove equazioni. Per la (13.10), si ricava che µ ¶2 v2 T v2 v2 v1 T v2 1 1 − = 2iα − E (14.72) − E∗ . v1 v1 v1 v1 2 v1 2 Riconosciamo nella (14.72) la forma dell’equazione di Riccati. Possiamo allora operare una trasformazione il cui fine è l’eliminazione del termine quadratico; poniamo che v1 T 1 v2 =λ+ E , v1 2 v1 (14.73) ove λ è un parametro complesso. Otteniamo dunque le due seguenti equazioni per v1 e v2 : 1 v1T = λ v1 + E v2 , 2 1 v2T = λ v2 + 2iα v2 − E ∗ v1 . 2 Possiamo scrivere queste due ultime in forma matriciale: v = Zv, con v ≡ (v1 , v2 ) e Z matrice della forma E λ 2 Z= E∗ − 2 λ + 2iα (14.74) (14.75) 172 Inverse Scattering Transform Richiediamo inoltre che Z sia una matrice a traccia nulla (in modo tale da sfruttare le proprietà derivanti dal teorema del wronskiano - § 14.2, e ricavare λ = −iα). Osserviamo che allora dalle (13.10), (13.11), siamo passati al sistema di Zakharov e Shabat. Per completare la trasformazione delle equazioni SIT, dobbiamo interessarci alla prima di queste, la (13.9). Date v1 , v2 e la (14.71), possiamo scrivere che D v1 E Eχ = hpi = (1 + η) . v2 Inoltre, dalla (13.15) e dalla (14.71), ricaviamo che ¯ ¯2 ¯ v2 ¯ ¯ ¯2 ¯ v1 ¯ − 1 ¯ v2 ¯ 1 + η ¯ ¯ = → η = . ¯ ¯2 ¯ v1 ¯ ¯ v2 ¯ 1−η ¯ v1 ¯ + 1 Infine, otteniamo per la trasformazione di (13.9), la seguente equazione D 2v v ∗ E 1 2 Eχ = . |v1 |2 + |v2 |2 Come già mostrato in § 14.1.2, assumendo le seguenti equazioni differenziali per v1 e v2 : v 1 χ = A v 1 + B v2 , v2 χ = C v 1 − A v 2 , la compatibilità tra queste ultime e le (14.74), (14.75), impone che i coefficienti A, B e C verifichino 1 (EC + E ∗ B) 2 1 BT + 2ik B = Eχ − AE 2 1 CT − 2ik C = − Eχ∗ − AE ∗ 2 AT = (14.76) (14.77) (14.78) corrispondenti alle (14.11)→(14.13) per q = 21 E = −r∗ . Comparando tali equazioni alle SIT (13.9)→(13.11) - [42], una soluzione delle (14.76)→(14.78) è Z i D η E i ∞ η(χ, T ; α) = g(ω) dω , A(χ, T ; k) = 4 k−α 4 −∞ k − α iD p E B=− , 4 k−α C = B∗ . (14.79) 14.6 Osservazioni finali 14.6 173 Osservazioni finali Abbiamo visto, dunque, che gli ingredienti base del metodo IST sono rappresentati da un’equazione differenziale lineare contenente un parametro spettrale complesso ed un problema RH anch’esso lineare; inoltre, una delle peculiarità di tale metodo è l’esistenza di uno spettro discreto (in aggiunta a quello continuo associato al pacchetto d’onda), nel quale è contenuta, come caso speciale la soluzione ad onda solitaria. Osserviamo, infine, che, in un ambito del tutto generale, se un’equazione di evoluzione nonlineare (ad esempio una PDE, un’ODE, un’equazione integro-differenziale per una funzione scalare, matriciale od una funzione ad n dimensioni spaziali ed una temporale (n+1)-dimensionale) può essere mappata in un’equazione d’evoluzione lineare attraverso il metodo dell’IST, allora, questa possibilità implica che tale equazione possegga molte importanti proprietà: ad esempio, il sistema ha infinite leggi di conservazione, può essere scritto usando una struttura hamiltoniana, . . . ed è dunque detto integrabile. Notiamo anche, però, che le equazioni d’evoluzione integrabili sono dei casi davvero speciali, e che una qualsiasi equazione d’evoluzione nonlineare non può essere analizzata attraverso questo metodo. Inoltre, un metodo generale per determinare se una data equazione d’evoluzione nonlineare è integrabile non è ancora noto. Ciò che conosciamo bene è una tecnica di generazione di classi d’equazioni d’evoluzione nonlineari integrabili per mezzo dell’IST. Ciò che sorprende (con nostra grande felicità) è che comunque un numero elevato d’equazioni integrabili (e, a seconda dei casi, le relative forme approssimate) costituisce un insieme di buoni modelli naturali. Parte IV Sull’Equazione di Sine-Gordon Giunzione Josephson e soluzione ad un solitone 175 Università degli Studi di Roma ‘La Sapienza’ Facoltà di Scienze Matematiche Fisiche e Naturali Corso di Onde nonlineari e Solitoni Anno Accademico 2006-2007 Sull’ Equazione di Sine-Gordon : Giunzione Josephson e soluzione ad un solitone Giorgio Ferrari 176 In questo lavoro vogliamo studiare il significato fisico e le proprietà d’ integrabilità dell’ equazione di Sine-Gordon (SG). Dopo una breve introduzione sullo stato superconduttivo della materia, ricaveremo l’ equazione di Sine-Gordon come equazione di evoluzione della differenza di fase nelle funzioni d’onda dei due stati superconduttivi in una Giunzione Josephson. Ci soffermeremo poi sulle proprietà d’ integrabilità dell’ equazione di SineGordon, ricavandone la soluzione ad un solitone col metodo della Trasformata di Darboux. Capitolo 15 Lo stato superconduttivo In questo primo capitolo vogliamo descrivere brevemente le proprietà dello stato superconduttivo della materia.[47] Ci soffermeremo sulle caratteristiche di un superconduttore di conducibilità elettrica infinita e di diamagnetismo perfetto ed analizzeremo i punti cardine delle teorie BCS e di Landau-Ginzburg. 15.1 Proprietà dei superconduttori In molti materiali a temperature prossime allo zero assoluto viene a stabilirsi uno stato elettronicamente ordinato, noto come stato superconduttivo della materia. Circa 20 elementi della tavola periodica possono comportarsi come superconduttori e tra questi ricordiamo l’ Alluminio, il Piombo, il Niobio, il Titanio, il Cadmio ed il Mercurio. Le caratteristiche principali dei superconduttori sono : 1. un superconduttore si comporta come se avesse resistività elettrica nulla. La corrente stabilitasi in un superconduttore può, in assenza di un campo esterno, mantenersi anche per due anni e mezzo; 178 Lo stato superconduttivo 2. un superconduttore può comportarsi come un perfetto diamagnete.[48]1 Un campione in equilibrio termico sotto l’ azione di un campo magnetico esterno non troppo intenso, definisce correnti superficiali che generano a loro volta un campo magnetico interno che cancella il campo applicato; 3. usualmente un superconduttore ha gap energetiche di ampiezza 2 ∆ centrate attorno ad ²F . Cosı̀ un elettrone di energia ² puo’ occupare ( o essere estratto da) un livello energetico solo se ² − ²F (o ²F − ²) è superiore a ∆. Lo spessore della gap è una funzione crescente in 1/T : raggiunge il suo massimo ∆(0) a temperature molto basse. 15.2 Proprietà elettriche : Temperatura critica e conducibilità infinita La transizione dall’ usuale stato metallico a quello superconduttivo è alquanto brusca : a temperature superiori ad una Temperatura critica Tc , che varia da materiale a materiale in un range che va dai 10−3 K ai 20 K, il campione si comporta come un comune metallo, mentre al di sotto di Tc iniziano a manifestarsi le proprietà superconduttive. La resistività elettrica passa dall’ avere un andamento proprio dei metalli del tipo ρ (T ) = ρ0 + B T 5 , all’ essere zero : la corrente puo’ fluire in un superconduttore senza alcuna apprezzabile dissipazione d’ energia. Esistono però alcune limitazioni : le proprietà superconduttive possono cessare sotto l’ azione di un campo magnetico abbastanza intenso da superare un campo critico Hc , che a T = 0 vive, a seconda del materiale, tra i 10 e i 1000 Gauss; se la corrente indotta dal campo esterno supera una corrente critica Ic propria del sistema (Effetto Silsbee), quest’ ultimo transisce dallo stato superconduttivo all’ usuale stato metallico; 1 Ricordiamo che un materiale diamagnetico è un materiale in cui la suscettività magnetica χm è negativa : ciò significa che il momento magnetico indotto nel materiale è diretto in verso opposto rispetto al campo inducente essendo M = χm H . 15.3 Proprietà magnetiche : Effetto Meissner e Campo critico 179 il comportamento superconduttivo a resistività nulla cessa quando la frequenza ωext di una corrente alternata applicata supera il valore ωc = ∆/~ con ∆ = ²gap . 15.3 Proprietà magnetiche : Effetto Meissner e Campo critico Se tuttavia il campo magnetico applicato dall’ esterno non supera un valore critico Hc il materiale superconduttivo si comporta come un diamagnete perfetto : Effetto Meissner-Ochsenfeld. Se un metallo normale è portato fino a temperature inferiori alla propria temperatura di transizione superconduttiva Tc , le linee di flusso del campo applicato vengono bruscamente espulse dall’ interno del campione. Ciò è dovuto alla presenza di correnti superficiali che generano un campo quasi del tutto opposto a quello esterno. Il campo esterno non è difatti completamente espulso ma penetra all’ interno della superficie del materiale fino a distanze finite λ dette lunghezze di penetrazione tipicamente dell’ ordine dei 10−5 cm. A secoda di quale sia il comportamento del campione sotto l’ azione di campi magnetici superiori per intensità ad Hc possiamo distinguere due differenti tipi di superconduttori. Appartengono al primo tipo superconduttivo tutti quei materiali che per H > Hc permettono alle linee di flusso del campo esterno di penetrare completamente. Del secondo tipo superconduttivo fanno parte invece quei materiali per i quali al di sotto di un certo campo critico Hc1 (T ) non v’è penetrazione di flusso; quando il campo applicato supera un secondo campo critico Hc2 (T ) > Hc1 (T ) il sistema transisce dallo stato superconduttivo a quello metallico. Per Hc1 < Hext < Hc2 si osserva una parziale penetrazione di flusso e nel campione sussiste uno stato microscopico piuttosto complicato detto stato misto di coesistenza tra lo stato metallico e quello superconduttivo. 15.4 Teoria BCS La prima teoria microscopica della superconduttività fu elaborata da Bardeen, Cooper e Schrieffer (BCS) nel 1957.[51] La teoria della superconduttività si basa sull’ assunzione che gli elettroni con energie prossime a quella di Fermi si attraggano l’ un l’ altro. Sebbene l’ interazione tra due elettroni sia di tipo coulombiano repulsivo, 180 Lo stato superconduttivo è possibile che, a causa della presenza degli ioni del reticolo, questa venga schermata lasciando il posto ad un potenziale efficace attrattivo tra due elettroni che differiscono in energia per non piu’ di ~ ωD . Si vengono a formare cosı̀ coppie di fermioni con spin 0 o 1, a seconda dell’ orientazione relativa degli spin delle due particelle, chiamate Coppie di Cooper o elettroni superconduttivi. Avendo spin intero tali coppie sono quasiparticelle che obbediscono alla statistica di Bose-Einstein. Sappiamo tutttavia dallo studio delle interazioni in tre dimensioni che possono formarsi stati legati solo se il potenziale è abbastanza intenso da permetterlo e la sola semplice interazione attrattiva non sarebbe in grado di generare stati legati quali le coppie di Cooper. L’ idea di Cooper [52] fu quindi quella di pensare che al processo partecipassero anche tutti gli altri N − 2 elettroni, in maniera tale da permettere al potenziale attrattivo di avere un minimo. A partire cosı̀ dalle ipotesi della teoria BCS simo in grado di costruire lo stato fondamentale per un sistema superconduttivo : si raggruppano gli N elettroni in N/2 coppie di cui ogni coppia è descritta da una funzione d’ onda φ(x1 , s1 , x2 , s2 ) dove x è la posizione elettronica ed s il numero quantico di spin. La funzione d’ onda dello stato ad N elettroni sarà cosı̀ il prodotto di N/2 identiche funzioni d’ onda di coppia : Ψ(x1 , s1 , ..., xN , sN ) = φ(x1 , s1 , x2 , s2 )...φ(xN −1 , sN −1 , xN , sN ) (15.1) Perchè abbia la giusta simmetria prescritta dal Principio di Pauli, occorre la (15.1) sia antisimmetrizzata di modo che cambi segno sotto l’ operazione di scambio di due elettroni in una coppia. Sia A l’ operatore di antisimmetrizzazione. La funzione d’ onda dello stato fondamentale prescritta dalla teoria BCS sarà cosı̀ : ΨBCS = A Ψ (15.2) Nella teoria BCS le funzioni d’ onda φ di coppia sono prese come stati di singoletto2 : i due elettroni hanno proiezione dello spin opposta e la parte radiale della funzione d’ onda φ(x1 , x2 ) è simmetrica. Se inoltre assumiamo che la parte radiale di φ sia anche invariante per traslazioni possiamo scrivere : φ(x1 , x2 ) = χ(x1 − x2 ) = 2 1 X χk ei k (x1 −x2 ) V k (15.3) Gli stati di tripletto presentano proprietà magnetiche non osservate nello stato fondamentale di un superconduttore. 15.5 La teoria di Landau-Ginzburg 181 E’ possibile calcolare ΨBCS tramite un procedimento variazionale : quanto si osserva è che l’ estensione spaziale ξ0 delle funzioni d’ onda di coppia φ è molto piu’ grande della separazione media tra gli elettroni rs . Tipicamente ξ0 è dell’ ordine dei 10−5 cm. Questo significa che nella regione di spazio occupata da una coppia si possono trovare molte altre coppie : le coppie di Cooper non sono cosı̀ delle particelle indipendenti ma sono spazialmente sovrapposte in una maniera molto complicata, indispensabile per la stabilità dello stato. 15.5 La teoria di Landau-Ginzburg Ginzburg e Landau [50] asserirono che lo stato superconduttivo poteva essere caratterizzato da un ‘parametro d’ ordine’ complesso ψ(x), che va a zero per temperarture superiori a Tc ed il cui modulo misura il grado di ordinamento superconduttivo nella posizione x per T ≤ Tc . Dalla teoria BCS il parametro d’ ordine ψ(x) può essere visto come la funzione d’ onda di una particella associata al centro di massa della Coppia di Cooper.3 Nello stato fondamentale di un superconduttore ogni coppia è invariante per traslazioni e non dipende dalle coordinate del centro di massa : il parametro d’ ordine è cosı̀ una costante. Il comportamento della ψ diventa quindi interessante quando inizia a fluire corrente nel superconduttore, cioè quando viene applicato un campo esterno. Un’ assunzione fondamentale della teoria di Ginzburg e Landau è che la corrente che passa in un superconduttore con parametro d’ ordine ψ(x) in presenza di un campo magnetico esterno di potenziale vettore A(x) è data dall’ usuale formula quantistica per la corrente di una particella di massa 2m = m∗ e carica −2e = e∗ descritta dalla funzione d’ onda ψ(x) : j = − i~e∗ ∗ (e∗ )2 2 ∗ (ψ ∇ψ − ψ∇ψ ) − |ψ| A 2m∗ m∗ (15.4) Per una funzione ψ normalizzata, la |ψ|2 può essere ben interpretata come la distribuzione, dipendente dal tempo, delle Coppie di Cooper all’ interno del materiale superconduttivo. La quantità vettoriale j è, invece, come già accennato, la corrente elettrica sorgente del campo magnetico H : ∇×H = j 3 (15.5) Poichè tutte le coppie di Cooper sono nello stesso stato a due elettroni, una sola funzione d’ onda è sufficiente per descriverte il fenomeno. 182 15.6 Lo stato superconduttivo Supercorrente di tunneling : Gli Effetti Josephson Se costruiamo una giunzione costituita da due metalli separati tra di loro solo da un sottile strato isolante, quanto si osserva, in seguito all’ applicazione di una differenza di potenziale, è una corrente di elettroni che traversano la barriera isolante e che si portano da una parte all’ altra della giunzione. E’ stato inoltre verificato che tale corrente obbedisce alla legge di Ohm. Se al posto di due semplici metalli poniamo due materiali che presentano, nelle oportune condizioni di pressione e temperatura, proprietà superconduttive, si osserva che v’è un flusso di elettroni attraverso la giunzione solo se il ∆ V applicato è pari all’ energia di gap ∆. Nel 1962 B.D. Josephson [49] pensò che in una giunzione superconduttiva oltre al normale effetto di tunneling di elettroni si potesse osservare una corrente di tunneling di coppie di Cooper : a patto che lo strato isolante non sia troppo spesso, le coppie di elettroni possono traversare la giunzione da un superconduttore ad un altro senza dissociarsi. Una conseguenza immediata della previsione di Josephson è quello che prende il nome di Effetto Josephson DC : in assenza di qualsiasi campo elettrico applicato, si osserva una supercorrente continua di coppie di Cooper che attraversano la giunzione. Tale corrente continua è tipicamente di gran lunga inferiore rispetto alla corrente critica associata al campione. Josephson predisse una grande varietà di ulteriori effetti assumendo che lo stato superconduttivo potesse essere descritto, da una parte e dall’ altra della giunzione, da un parametro d’ ordine complesso ψ(x). Egli mostrò che la supercorrente di tunneling poteva essere determinata studiando il cambio della fase del parametro d’ ordine nell’ attraversamento della barriera isolante. Tra gli effetti predetti dal fisico inglese, poi osservato sperimentalmente, v’ è il cosiddetto Effetto Josephson AC : se un potenziale costante viene applicato ai capi della giunzione, la supercorrente di coppie di Cooper che si osserva è alternata. Capitolo 16 Sine-Gordon e Giunzione Josephson In questo capitolo ricaviamo l’ equazione di Sine-Gordon come equazione di evoluzione della differenza di fase nelle funzioni d’ onda di due stati superconduttivi in una Giunzione Josephson. Consideriamo la situazione sperimentale in cui due superconduttori sono separati l’ uno dall’ altro da una barriera di materiale isolante : una Giunzione Josephson. Una tipica configurazione è quella in cui uno strato di Piombo ed uno strato di Niobio sono separati da uno di Ossido di Niobio. Sappiamo dalla Meccanica Quantistica che una particella ha una probabilità non nulla di penetrare dall’ altro lato di una barriera di potenziale che sarebbe impenetrabile per la corrispondente particella classica. Tale fenomeno di penetrazione della barriera è chiamato Effetto Tunnell. In modo del tutto analogo è possibile per una Coppia di Cooper di passare attraverso uno strato di materiale isolante frapposto tra due materiali supeconduttivi. Tale fenomeno di tunnelling superconduttivo fu considerato per la prima volta nel 1962 da Josephson per la sua tesi di dottorato a Cambridge. Considereremo ora il fenomeno nell’ ambito della teoria di Landau-Ginzburg. 184 Sine-Gordon e Giunzione Josephson Figura 16.1: Una giunzione Josephson. 16.1 Derivazione fisica della Sine-Gordon [46] Dal momento che il parametro d’ ordine ψ(x) è una quantità complessa, possiamo sempre scriverlo nella sua forma polare: 1 ψ = ρ 2 eiφ (16.1) Assumiamo che la variazione spaziale significativa nella ψ sia attraverso la 1 fase φ e non tramite il suo modulo ρ 2 . Dal momento che il modulo del parametro d’ ordine misura il grado di ordinamento superconduttivo, tale richiesta equivale a considerare perturbazioni in cui la densità di Coppie di Cooper non è apprezzabilmente alterata dal suo valore uniforme di equilibrio termico. E’ questo ad esempio il caso in cui le coppie di Cooper possono fluire ma non accumularsi o essere distrutte. Sfruttando la (16.1) riscriviamo la (15.4): j = − (e∗ )2 ρ ~ (A − ∗ ∇φ) ∗ m e (16.2) m∗ e∗ (A + ∗ 2 j) ~ (e ) ρ (16.3) che possiamo porre nella forma: ∇φ = espressione valida solo all’ interno dei superconduttori. Se definiamo ϕ come il cambiamento di fase della funzione d’ onda attraverso la barriera: ϕ(x, y, t) = φ(x, y, 0+, t) − φ(x, y, 0−, t) (16.4) 16.1 Derivazione fisica della Sine-Gordon [46] 185 il seguente semplice argomento mostra che ϕ è non nulla. Siano P e Q due punti arbitrari nella barriera e sia l’ interfaccia barrierasuperconduttore presa come il piano x − y. Figura 16.2: La curva chiusa d’ integrazione C. Integrando sulla curva C otteniamo : I e∗ m∗ ϕ(Q) − ϕ(P ) = [A + ∗ 2 j]dx ~ C (e ) ρ (16.5) con P e Q di coordinate rispettivamente (x, y, 0) e (x + ∆x, y + ∆y, 0). Vale anche : ∂ϕ ∂ϕ ϕ(Q) − ϕ(P ) = ∆x + ∆y (16.6) ∂x ∂y Per il Teorema di Stokes: I Z A · dx = C B · dS (16.7) S dove S è una qualsiasi superficie orientata che ha per frontiera C. Prendiamo allora S come il piano rettangolare in figura: S = 2l( biy ∆x − bix ∆y) (16.8) 186 Sine-Gordon e Giunzione Josephson Assumendo che B sia costante sul piano, abbiamo: Z B · dS = S · B = 2l(By ∆x − Bx ∆y) (16.9) S L’ integrale sulla curva C della corrente j è nullo dal momento che, in un materiale superconduttore, le correnti possono fluire solo vicino alla superficie esterna. Cosı̀ uguagliando la (16.9) alla (16.6) otteniamo: 2l e∗ ∂ϕ ∂ϕ (By ∆x − Bx ∆y) = ∆x + ∆y ~ ∂x ∂y da cui le due equazioni : (16.10) ∗ ∂ϕ ∂x = 2l e~ By = α By ∂ϕ ∂y = −2l e~ Bx = −α Bx ∗ (16.11) ∗ α = 2l e~ Tali equazioni ci danno informazioni sulla variazione spaziale di ϕ ma ciò che ora vogliamo conoscere è come ϕ varia nel tempo e, soprattutto, come questa sia legata alla corrente superconduttiva che attraversa la barriera. Per ottenere le informazioni cui siamo interessati possiamo pensare di schematizzare la Giunzione Josephson come un sistema quantistico a due stati. Figura 16.3: Giunzione Josephson come sistema quantistico a due stati. 16.1 Derivazione fisica della Sine-Gordon [46] 187 In ogni regione superconduttiva il sistema è descritto da una pseudo funzione d’ onda. Nella regione 1 sia ϕ(1) e nella regione 2 sia ϕ(2). Se sapessimo qualcosa a riguardo della barriera di potenziale corrispondente allo strato isolante, potremmo cercare di risolvere il problema di scattering per l’ equazione di Schroedinger fenomenologica che regola il comportamento del parametro d’ ordine : i~ ∂ψ 1 = (−i~∇ − e∗ A)2 ψ + V (x)ψ + λψ|ψ|2 ∂t 2m∗ (16.12) con V (x) potenziale scalare associato alla barriera isolante. Un modo molto semplice dovuto a Jacobson [54] è considerare un processo statico in cui la funzione d’ onda obbedisce in ogni regione superconduttiva ad un’ equazione di Schroedinger nonlineare del tipo (16.12) indipendente dal tempo con potenziale V (x). Nella regione isolante invece la funzione risponde ad una normale equazione di Schroedinger con potenziale repulsivo. Le equazioni vengono risolte in ogni regione e le soluzioni sono accordate sulle interfacce. Tuttavia risultati simili possono essere ottenuti in modo più semplice studiando l’analogia fra la situazione descritta dalla Giunzione Josephson ed un sistema quantistico a due stati1 . Supponiamo per semplicità che i due materiali superconduttivi siano dello stesso tipo. Se le due regioni non sono connesse, la funzione d’onda soddisferà in ogni regione ad un’ equazione di Schroedinger time-dependent della forma: i ~ ϕ(i)t = H0 ϕ(i) (16.13) per i = 1, 2. Supponiamo inoltre che in ogni regione il sistema si trovi in un autostato di energia U1 e U2 rispettivamente . H0 ϕ(i) = Ui ϕ(i) (16.14) Ogni coppia di Cooper è confinata nella sua particolare regione e cosı̀ la funzione d’ onda ϕ(1) è nulla nella regione 2 e viceversa. Le Ui sono le self-energies delle coppie di Cooper nei due separati dominii e non sono tra loro connesse. Consideriamo ora la situazione della Giunzione Josephson in cui lo strato isolante è poco spesso ed in cui v’ è la possibilità di tunneling quantistico. 1 L’idea di guardare la Giunzione Josephson come un sistema quantistico a due stati la si deve a R. Feynman (1969) 188 Sine-Gordon e Giunzione Josephson Le funzioni d’ onda dei sistemi interagenti sono ora non zero in entrambe le regioni e le energie Ui non sono piu’ indipendenti. Se tra un capo ed un altro della giunzione c’ è una differenza di potenziale V , allora : U2 − U1 = e∗ V (16.15) Assumiamo che la presenza dell’ isolante possa essere schematizzata come un’ hamiltoniana d’ interazione, HT , chiamata Hamiltoniana di tunneling e che il sistema globale sia descritto dall’ hamiltoniana : H = H0 + HT (16.16) Un modello particolarmente semplice possiamo ottenerlo se pensiamo che la coppia di Cooper attraversi per effetto tunnell la barriera. Pensiamo che la giunzione sia essenzialmente costituita da due stati. Uno stato, descritto dalla funzione d’ onda ϕ(1), in cui le coppie di Cooper sono sulla sinistra della barriera, ed uno stato, descritto da ϕ(2), in cui gli elettroni superconduttivi sono sulla destra dello strato isolante. Le funzioni d’ onda descriventi il sistema saranno cosı̀ una combinazione lineare di questi due stati di base : ψ = a1 ϕ(1) + a2 ϕ(2) (16.17) cosı̀ se ∂ψ = (H0 + HT )ψ (16.18) ∂t abbiamo le due equazioni di Schroedinger per i coefficienti a1 ed a2 : 1 = U1 a1 + K a2 i ~ ∂a ∂t (16.19) ∂a2 i ~ ∂t = U2 a2 + K a1 i~ nel ricavare le quali abbiamo assunto che : (ϕ(i) , HT ϕ(j)) = K (16.20) per i 6= j. Fissiamo lo zero dell’ energia a metà fra i livelli U2 ed U1 . In tal modo le 16.19 diventano : 1 = 12 e∗ V a1 + K a2 i ~ ∂a ∂t (16.21) 1 ∗ 2 i ~ ∂a = − e V a + K a 2 1 ∂t 2 Le quantità |a1 |2 ed |a2 |2 sono le probabilità di trovare la coppia di Cooper alla destra o alla sinistra dello strato isolante. 16.1 Derivazione fisica della Sine-Gordon [46] 189 Se scegliamo le fasi degli stati di base cosicchè questi siano reali, possiamo scrivere : √ ai = ρi eiθi (16.22) Identifichiamo ϕ = (θ2 − θ1 ) Sostituendo la (16.22) nelle (16.21) (separando parte reale e immaginaria) si ottiene un sistema di quattro equazioni in quattro incognite di soluzione : √ ρ1,t = K~ ρ1 ρ2 sin(ϕ) √ ρ2,t = − K~ ρ2 ρ1 sin(ϕ) q (16.23) ρ2 K e∗ V θ = cos(ϕ) − 1,t ~ ρ1 2~ q θ2,t = K ρ1 cos(ϕ) + e∗ V ~ ρ2 2~ La variazione della densità ρ di coppie di Cooper in una regione della giunzione sarà in generale proporzionale alla corrente di tunneling, cioè al numero di elettroni superconduttivi che traversano la giunzione da una parte all’ altra. Possiamo cosı̀ scrivere che la supercorrente nella regione i-esima in direzione zeta sarà data da : jiz = ρi,t (16.24) In un’usuale Giunzione Josephson ρ1 e ρ2 sono entrambi circa uguali ad un valore ρ0 quasi costante nel tempo. A prima vista quest’ ultima richiesta potrebbe sembrare in contraddizione con le equazioni (16.23), tuttavia cosı̀ non è se pensiamo che non tutte le proprietà del sistema sono state ancora considerate. Se difatti consideriamo la presenza di una batteria esterna che stabilisce una differenza di potenziale ai capi della giunzione, possiamo pensare che ben presto la corrente j1z possa raggiungere la regione 2. La corrente che circola nella batteria non è stata inclusa ed il suo effetto è quello di permettere a ρ1 e a ρ2 di stabilizzarsi al valore ρ0 . Se poniamo ρ1 = ρ2 = ρ0 dalle prime due delle (16.23) otteniamo la supercorrente totale che attraversa la barriera : jz = J¯ sin(ϕ) con J¯ = 2Kρ0 . ~ (16.25) 190 Sine-Gordon e Giunzione Josephson La (16.25) esprime quello che è conosciuto come Effetto Josephson AC : sebbene la differenza di potenziale applicata agli estremi della giunzione sia costante, quanto si osserva è una corrente alternata di coppie di Cooper attraverso la barriera. All’ interno dell’ isolante le usuali equazioni di Maxwell nella materia continuano a valere e, data la tensione V applicata, dobbiamo tener conto anche di un’ ulteriore corrente : dV jz0 = CS (16.26) dt con CS capacità della giunzione per unità di superficie. L’ equazione di Maxwell (15.5) diventa : ∂By ∂Bx − = µ0 (jz + jz0 ) (16.27) ∂x ∂y Sottraendo tra di loro le ultime due delle (16.23) e ricordando la definizione di ϕ otteniamo : ∂ϕ e∗ = V (16.28) ∂t ~ Sfruttando le (16.28), (16.27) e le (16.11) arriviamo a scrivere l’equazione di evoluzione per la differenza di fase del parametro d’ ordine attraverso la barriera : ∂ 2ϕ ∂ 2ϕ 1 ∂ 2ϕ 1 + − = 2 sin(ϕ) (16.29) 2 2 2 2 ∂x ∂y c ∂t β che è l’ Equazione di Sine-Gordon in 2 + 1 dimensioni. Abbiamo posto : ~ 1 β2 = c2 = ∗ ¯ µ0 C S l µ0 e Jl Se ci troviamo nelle condizioni sperimentali di poter trascurare la variazione di ϕ lungo y otteniamo l’ equazione di Sine-Gordon in 1 + 1 dimensioni che, come mostreremo nel capitolo seguente, ammette soluzioni ad un solitone del tipo : ϕ(x, t) = 4 arctan[exp ±(κ (x − x1 ) − λ t)] (16.30) con κ, λ e x1 parametri reali. Dal momento che per la (16.11) : ∂ϕ = α By ∂x quanto si osserva all’ interno della giuntura è il profilo sech per la componente y del campo magnetico : κ By = 2 sech[κ (x − x1 ) − λ t] (16.31) α Capitolo 17 Equazione di Sine-Gordon e Trasformazione di Darboux In questo capitolo vogliamo determinare la soluzione ad un solitone per l’ equazione di Sine-Gordon servendoci del Metodo della Trasformata di Darboux [55]. 17.1 Il Metodo di Darboux Il metodo della trasformata di Darboux, proposto piu’ di cento anni fa dal matematico francese Gaston Darboux, è stato di recente riscoperto ed applicato per la risoluzione di equazioni di evoluzione nonlineari di notevole interesse fisico [53]. L’ idea di base su cui poggia il metodo della Trasformata di Darboux è molto semplice. Si consideri il seguente problema agli autovalori : y 00 + [λ − u(x)] y = 0 (17.1) noto nella Meccanica Quantistica come Equazione di Schroedinger unidimensionale. Sia φ una qualche soluzione, anche banale, del problema (11.1) con autovalore λ = λ1 , e sia σ = φx φ−1 . Darboux provò [58] che la (11.1) è covariante rispetto alla seguente trasformazione detta Trasformazione di Darboux: y → yb = yx − σ y u →u b = u − 2 σx (17.2) In altre parole yb soddisfa l’ equazione di Schroedinger con potenziale u b. La trasformazione che la y induce sulla u prende anche il nome di Trasformazione di Backlund. 192 Equazione di Sine-Gordon e Trasformazione di Darboux Cambiando la y secondo la (17.2) possiamo determinare tutte le soluzioni della nuova equazione di Schroedinger con potenziale u b. Nel 1979 Matveev [57] provò che la stessa proprietà di covarianza vale anche per tutte le equazioni di evoluzione del tipo : n X ∂f ∂ mf = um (x, t) m ∂t ∂x m=0 (17.3) con coefficienti scalari o matriciali. E’ cosı̀ possibile costruire infinite soluzioni esplicite di equazioni di evoluzione nonlineari applicando il metodo della Trasformata di Darboux ad una equazione iniziale integrabile. 17.2 Soluzione ad un solitone per l’ Equazione di Sine-Gordon Nel sistema di riferimento del laboratorio l’ Equazione di Sine-Gordon (SG) assume la forma: θxx − θtt − sin(θ) = 0 (17.4) Quanto vogliamo fare è risolvere la (17.4) con le condizioni al contorno cos(θ) → 1 per x → ±∞ servendoci del Metodo della Trasformata di Darboux. A tal fine introduciamo le equazioni di Lax associate alla SG : ∂x F (ζ) = L(ζ) F (ζ) , ∂t F (ζ) = M (ζ) F (ζ) in cui ζ è il parametro spettrale complesso, e : 1 i L(ζ) = − 4 ζσ3 − 2 U + M (ζ) = i ζσ3 4 + 1 U 2 + i 4ζ i 4ζ (17.5) V (17.6) V Inoltre : µ ¶ cos(θ) sin(θ) V = = cos(θ) σ3 + sin(θ) σ1 , sin(θ) − cos(θ) i U = − (θx − θt ) σ2 2 (17.7) con θ soluzione della (17.4). Nel limite di x → ±∞ segue dalle definizioni U e V che : i L0 = − κ σ3 , 2 M0 = i λ σ3 2 (17.8) 17.2 Soluzione ad un solitone per l’ Equazione di Sine-Gordon 193 in cui abbiamo definito : κ = 1 (ζ − ζ −1 ) , 2 λ = 1 (ζ + ζ −1 ) 2 (17.9) Dalle (17.5) otteniamo : ∂x F0 (ζ) = L0 (ζ) F0 (ζ) , ∂t F0 (ζ) = M0 (ζ) F0 (ζ) che ammettono soluzioni di Jost : µ ¶ 1 f (ζ) 0 0 (κ x − λ t) σ −i 3 F0 (ζ) = e 2 = 0 f0−1 (ζ) 1 f0 (ζ) = e−i 2 (κ x − λ t) (17.10) (17.11) in cui σ3 è la terza matrice di Pauli. Le (17.11) corrispondono alla soluzione a zero solitoni della Sine-Gordon. Possiamo costruire la soluzione ad un solitone F1 (ζ) definendo una matrice di Darboux 2 × 2 D1 (ζ) tale che : F1 (ζ) = D1 (ζ) F0 (ζ) (17.12) e che assumiamo avere un solo polo nel piano complesso ζ. Per le (17.5) vale : ∂x F1 (ζ) = L1 (ζ) F1 (ζ) (17.13) Sfruttando la (17.12) e le (17.10) otteniamo, per ogni soluzione fondamentale F0 (ζ) : ∂x D1 (ζ) = L1 (ζ) D1 (ζ) − D1 (ζ) L0 (ζ) (17.14) in cui L1 (ζ) è la L(ζ) associata al caso di un solitone1 . Seguendo gli stessi ragionamenti : ∂t D1 (ζ) = M1 (ζ) D1 (ζ) − D1 (ζ) M0 (ζ) (17.15) Sia ζ1 il polo nel piano complesso della matrice di Darboux che scegliamo della seguente forma : D1 (ζ) = I + 1 I A1 ζ − ζ1 Possiamo costruire iterativamente la soluzione ad n solitoni secondo la : Fn (ζ) = Dn (ζ) Fn−1 (ζ) (17.16) 194 Equazione di Sine-Gordon e Trasformazione di Darboux con A1 matrice indipendente da ζ. Poichè dalle (17.6) vale : L† (ζ) = −L(ζ) , M † (ζ) = −M (ζ) (17.17) in cui il simbolo di croce e la barra indicano rispettivamente l’ Hermitiano coniugato ed il complesso coniugato, allora : e quindi : F † (ζ) = F −1 (ζ) (17.18) D1† (ζ) = D1−1 (ζ) (17.19) Chiaramente D1 (ζ) D1−1 (ζ) = I, cosı̀ dalla definizione di D1 (ζ) (17.16) calcolandone il residuo per ζ = ζ1 si ha : A1 [I + I A†1 ] = 0 ζ1 − ζ 1 (17.20) D’ altra parte calcolando il residuo per ζ = ζ1 a partire dalla (17.12) (sfruttando la (17.16) ed il fatto che det[F0 (ζ1 )] = 1) si ottiene che A1 è una matrice singolare ovvero a determinante nullo. Possiamo pertanto esprimere A1 come un proiettore (δ1 , γ1 )T (β1 , α1 ). Sostituendo quest’ ultima nella (17.20) vogliamo determinare la relazione che intercorre fra (β1 , α1 ) e (δ1 , γ1 ). Arriviamo cosı̀ a scrivere: µ ¶ ζ1 − ζ 1 β1 A1 = (β1 , α1 ) (17.21) α1 |β1 |2 + |α1 |2 Il prossimo passo è determinare α1 e β1 . Partiamo dalla (17.13) e sostituiamoci le (17.12) e (17.16) : ∂x [D1 (ζ) F0 (ζ)] = L1 (ζ) D(ζ) F0 (ζ) (17.22) che nel limite per ζ che tende a ζ1 diventa: ∂x [A1 F0 (ζ1 )] = L1 (ζ1 ) A1 F0 (ζ1 ) (17.23) Dalla definizione (17.21) di A1 notiamo che quest’ ultima non cambia se mandiamo (β1 , α1 ) in γ (β1 , α1 ) con γ costante. Ciò che conta è cosı̀ il rapporto di (β1 , α1 ). Se scegliamo: (17.24) (β1 , α1 ) = (b1 , 1) F0−1 (ζ1 ) con b1 costante si può facilmente verificare che la (17.23) risulta soddisfatta. 17.2 Soluzione ad un solitone per l’ Equazione di Sine-Gordon 195 Valendo la (17.12) possiamo scrivere : i 1 (ζ − ) D1 (ζ) σ3 D1−1 (ζ) 4 ζ (17.25) Nel limite di |ζ| → 0, la matrice di Darboux D1 (ζ) tende a D1 (0), mentre per |ζ| → ∞ D1 (ζ) ≈ I + ζ −1 A1 . Abbiamo pertanto per |ζ| → 0 : [∂x F1 (ζ)]F1−1 (ζ) = L1 = D1x (ζ) D1−1 (ζ) − L1 = i D1 (0) σ3 D1−1 (0) + O(1) 4ζ (17.26) i i 1 ζ σ3 − [A1 , σ3 ] + O( ) 4 4 |ζ| (17.27) mentre nel limite |ζ| → ∞ : L1 = − Costruiamo la funzione di ζ : i i i ζ σ3 − [A1 , σ3 ] + D1 (0) σ3 D1−1 (0)] 4 4 4ζ (17.28) che è per costruzione analitica in tutto il piano complesso inclusi ζ = 0 e ζ = ∞. Inoltre f (ζ) tende a zero per |ζ| → ∞. Per il Teorema di Liouville essa è pertanto nulla : f (ζ) = 0. Arriviamo cosı̀ a scrivere l’ operatore di Lax L1 (ζ) nella forma : f (ζ) = [∂x F1 (ζ)]F1−1 (ζ) − [− L1 (ζ) = i i i D1 (0) σ3 D1−1 (0) − ζ σ3 − [A1 , σ3 ] 4ζ 4 4 (17.29) ed analogamente per M1 (ζ) partendo dalla seconda equazione di Lax otteniamo : M1 (ζ) = i i i D1 (0) σ3 D1−1 (0) + ζ σ3 + [A1 , σ3 ] 4ζ 4 4 (17.30) che sottratte tra di loro restituiscono : [∂t F1 (ζ)]F1−1 (ζ) − [∂x F1 (ζ)]F1−1 (ζ) = i i [Q(x, t), σ3 ] + ζ σ3 2 2 (17.31) Nel limite in cui |ζ| → 0, sfruttando la (17.12) otteniamo : D1t (0) D1−1 (0) − D1x (0) D1−1 (0) = i [A1 , σ3 ] 2 (17.32) 196 Equazione di Sine-Gordon e Trasformazione di Darboux quindi : L1 (ζ) = i D (0) σ3 4ζ 1 D1−1 (0) − i 4 1 2 [D1t (0) D1−1 (0) − D1x (0) D1−1 (0)] [D1t (0) D1−1 (0) − D1x (0) D1−1 (0)] (17.33) Dal momento che la Coppia di Lax gode delle seguenti proprietà : M1 (ζ) = i D (0) σ3 4ζ 1 D1−1 (0) + ζ σ3 − L1 (−ζ) = L1 (ζ) , i 4 ζ σ3 + 1 2 M1 (−ζ) = M1 (ζ) (17.34) D1 (−ζ) = D1 (ζ) (17.35) possiamo scrivere : F1 (−ζ) = F1 (ζ) , che si traducono nel dire che D1 (0) è una matrice reale : D1 (0) = D1 (0) (17.36) Dalla (17.19) valutata per ζ = 0 ricaviamo inoltre che D1 (0) ha determinante quadro pari ad uno. Possiamo cosı̀ scrivere in generale : θ θ ) − sin( ) cos( 2 2 −iπ −i θ2 σ2 D (0) = e = (−) 1 θ θ sin( 2 ) cos( 2 ) (17.37) θ θ cos( ) sin( ) 2 2 † D (0) = (−) 1 θ θ − sin( 2 ) cos( 2 ) da cui è semplice trovare: ¶ cos(θ) sin(θ) = e σ3 = cos(θ) σ3 + sin(θ) σ1 = sin(θ) − cos(θ) (17.38) Da tale definizione della matrice di Darboux segue immediatamente che: † (∂x D1 (0)) D1 (0) = − 2i θx σ2 (17.39) † i (∂t D1 (0)) D1 (0) = − 2 θt σ2 D1 (0) σ3 D1† (0) µ −i θ σ2 Ricordando che D1† (0) = D1−1 (0) sostituendo nella (17.33), otteniamo le espressioni per L1 (ζ) e M1 (ζ) : i i −iθσ2 i σ3 L1 (ζ) = − 4 ζ σ3 − 4 (θt − θx ) σ2 + 4ζ e (17.40) M1 (ζ) = − 4i ζ σ3 − 4i (θx − θt ) σ2 + 4ζi e−iθσ2 σ3 17.2 Soluzione ad un solitone per l’ Equazione di Sine-Gordon 197 che sono proprio le definizioni della Coppia di Lax che abbiamo riportato nelle (17.6). F1 (ζ, x, t), trasformato di F0 (ζ, x, t) secondo D1 (ζ), è pertanto soluzione delle equazioni di Lax. Chiediamo ora che il polo della matrice di Darboux D1 (ζ) si trovi sull’asse immaginario : ζ1 = iζ100 . Tale condizione corrisponde a ricercare una soluzione solitonica per la SG. Come già notato nel caso di un solitone solo i valori relativi dei due termini nella (17.24) contano. Poniamo dunque : β1 = α1−1 = eΘ1 (17.41) 1 00 00 Θ1 = − 2 [κ1 (x − x1 ) − λ1 t] in cui abbiamo introdotto i parametri reali κ001 = 1 + ζ100 , 00 ζ1 λ001 = − 1 + ζ100 00 ζ1 con ζ100 = =(ζ1 ). Con questa riscrittura di β1 ed α1 possiamo esprimere la matrice di Darboux D1 (0) nella forma : 1 − Γ e2Θ1 −Γ − cos( 2θ ) sin( 2θ ) = D1 (0) = θ θ −2Θ1 −Γ 1 − Γe − sin( 2 ) − cos( 2 ) Γ = 1 ζ1 − ζ 1 = sech(2 Θ1 ) ζ1 2 cosh (2 Θ1 ) (17.42) Uguagliando tra di loro gli elementi 12 delle due matrici otteniamo la soluzione ad un solitone per l’Equazione di Sine-Gordon: θ(x, t) = − 2 arcsin [sech (κ001 (x − x1 ) − λ001 t)] (17.43) Vale inoltre la formula trigonometrica 1 − cos( 2θ ) θ tan( ) = − 4 sin( 2θ ) da cui sfruttando l’uguaglianza degli elementi 11 o 22 delle due matrici otteniamo l’usuale espressione della soluzione ad un solitone della SineGordon: 00 00 θ(x, t) = 4 arctan [e ± (κ1 (x − x1 )− λ1 t) ] (17.44) 198 Equazione di Sine-Gordon e Trasformazione di Darboux La soluzione (17.44) col segno positivo dell’esponenziale viene chiamata in letteratura ‘kink’ poichè rappresenta un ‘giro completo’ nella variabile θ che passa dall’ assumere il valore 0 al valore 2π. La soluzione col segno negativo nell’ esponenziale prende invece il nome di ‘antikink’. Figura 17.1: soluzione di kink per la Sine Gordon con parametri : x1 = 0 , κ001 = 2.5 , λ001 = 1.5 (polo in ζ = 2i). Figura 17.2: soluzione di antikink per la Sine Gordon con parametri : x1 = 0 , κ001 = 2.5 , λ001 = 1.5 (polo in ζ = 2i). Appendice A Metodo della fase stazionaria Assegnato un generico problema lineare al valore iniziale ¡ ∂¢ u=0 ut + iω −i ∂x u(x, 0) = A(x) sappiamo che la soluzione generale è esprimibile nella forma di integrale di Fourier Z ∞ u(x, t) = dk A(k) ei[kx−ω(k)t] (A.1) −∞ con A(k) trasformata di Fourier del dato iniziale ed ω(k) relazione di dispersione. Sebbene la (A.1) restituisca l’esatta soluzione del problema, in certi casi è interessante studiare il comportamento della soluzione per tempi grandi t À 1. Se l’onda è dispersiva (ω 00 (k) 6= 0) possiamo pensare che ogni singolo pacchetto si sia disperso nello spazio, cosicchè anche x À 1. Richiediamo pertanto che xt = O(1) che significa seguire l’onda alla velocità di gruppo. Riscriviamo cosı̀ la (A.1) come Z ∞ u(x, t) = dk A(k) eitφ(k) ¡x¢ −∞ con φ(k) = [k t − ω(k)] fase dell’onda. Possiamo cosı̀ applicare il metodo della fase stazionaria [1], [56], dovuto a Lord Kelvin, per studiare il comportamento dell’onda a tempi grandi. Immaginiamo di avere un integrale del tipo Z b I(t) = q(k) dk eitp(k) a (A.2) 200 Metodo della fase stazionaria Per grandi valori della t, l’integrando oscilla molto rapidamente causando la cancellazione dei contributi di quasi tutto l’intervallo di integrazione. Fanno eccezione gli estremi di integrazione, se finiti, per mancanza di simmetria, e gli zeri di p0 (k), perchè p(k) varia abbastanza lentamente nell’intorno di tali punti stazionari. Punti stazionari Immaginiamo che k0 ∈ (a, b) sia un punto stazionario di p(k), tale che p0 (k0 ) = 0. L’integrando della (A.2) nell’intorno di k0 è approssimativamente 1 2 eit[p(k0 )+ 2 (k−k0 ) p00 (k0 )] q(k0 ) a patto che q(k0 ) e p00 (k0 ) siano non nulli. La (A.2) diventa cosı̀ Z k0 +δ 1 2 00 q(k0 ) dk eit[p(k0 )+ 2 (k−k0 ) p (k0 )] q(k0 ) I(t) ∼ k −δ Z 0+∞ 1 2 00 ∼ q(k0 ) dk eit[p(k0 )+ 2 (k−k0 ) p (k0 )] q(k0 ) −∞ e sfruttando il risultato dell’integrale gaussiano: s 2π 1 ±i π4 I(t) ∼ q(k0 ) eitp(k0 ) e ∼ O( 1 ) t p00 (k0 ) t2 col ± dato dal segno di p00 (k0 ). Chiaramente se i punti stazionari sono più di uno la stima dell’integrale sarà data dalla somma di tutti i loro contributi. Estremi Se invece consideriamo il contributo dato da un estremo, ad esempio a, otteminamo che l’integrando per k ∼ a è 0 eit [p(a)+(k−a)p (a)] q(a) che ammette primitiva 0 eit [p(a)+(k−a)p (a)] q(a) , ikp0 (a) con p0 (a) 6= 0 che nel limite in cui k −→ a diventa eit p(a) q(a) 1 I(t) ∼ ∼ O( ) ikp0 (a) t (A.3) L’espressione asintotica di I(t) sarà data pertanto dalla somma dei contributi dei punti stazionari e dei punti estremali dell’intervallo di integrazione. Tuttavia, confrontando la (A.2) con la (A.3), notiamo che i contributi dati dagli estremi sono trascurabili rispetto a quelli dei punti stazionari, essendo i primi O( 1t ) e questi ultimi O( √1t ). Appendice B Osservazioni sull’integrazione numerica: la discretizzazione delle PDE Il problema della discretizzazione di un’equazione differenziale è un passaggio obbligato quando si cerca una soluzione numerica di una PDE. Il modo col quale si effettua questa discretizzazione è in alcuni casi vincolante al fine di ottenere delle soluzioni sensate e, comunque, ben approssimate a quella esatta. Le variabili in gioco sono il tempo e lo spazio, e sul computer queste devono essere entrambe discretizzate. In seguito, riportiamo dei casi in cui si opera la discretizzazione della sola variabile spaziale e ci si sofferma sugli effetti che ne seguono. Per capire i motivi che portano ad avere modelli discreti affidabili, si impiega l’analisi di Fourier. Cominciamo col considerare il problema differenziale più semplice: quello dell’onda di traslazione soluzione della (1.25). Usiamo la rappresentazione integrale di Fourier della soluzione u(x, t): Z ∞ u(x, t) = A(k, t) eikx dk . (B.1) −∞ e sostituiamo questa rappresentazione nella (1.25), ottenendo At + ikc A = 0 che ha per soluzione A(k, t) = ũ(k)eikct (B.2) Osservazioni sull’integrazione numerica: la discretizzazione delle 202 PDE Concludiamo sostituendo la (B.2) nella (B.1) Z ∞ u(x, t) = ũ(k) eik(x−ct) dk . −∞ con ũ(k) trasformata di Fourier del dato iniziale u(x). Osserviamo, dunque, che non c’è dispersione, poiché ω = ω(k) = ck −→ d2 ω = 0. dk 2 Derivata Ordinaria Discretizziamo ora l’equazione di partenza nella sola variabile spaziale x lasciando continua quella temporale t. Sostituiamo alle derivate spaziali il rapporto incrementale: ux (x, t) −→ u(x + ², t) − u(x, t) , ² con ² parametro reale arbitrariamente piccolo. un’equazione differenziale funzionale nella forma ut (x, t) + Cosı̀ facendo, otteniamo c [u(x + ², t) − u(x, t)] = 0 . ² É ovvio che se ² → 0, allora, ricadiamo nell’equazione continua (1.25). É bene inoltre sottolineare che la differenza nelle soluzioni è apprezzabile per valori dell’ordine di ². Consideriamo nuovamente la trasformata di Fourier dell’equazione discretizzata; questa volta si ottiene Ȧ + c ik² (e − 1) A = 0 ² che ha per soluzione c A(t) = ũ(k)e−i ² (e ik² −1) t . Sostituendo quest’ultima espressione nella (B.1), otteniamo: Z ∞ c ik² u(x, t) = ũ(k) ei[kx− ² (e −1)t] dk . (B.3) −∞ Possiamo notare che nell’argomento dell’esponenziale della (B.3) compare un termine dissipativo che non deriva da alcuna considerazione legata alla fisica del sistema, ma semplicemente dal modo col quale è stata effettuata la discretizzazione. 203 La (B.3) mostra infatti perchè il metodo di discretizzazione adottato non restituisce risultati affidabilio comunque coerenti con quelli dell’equazione continua (1.25): sviluppando l’esponenziale complesso eik² tramite la rappresentazione di Eulero, otteniamo un contributo del tipo c e+ ² sin(k²) di smorzamento o divergente (a seconda del segno di c) che rende inaffidabile il risultato di un tale calcolo numerico per questo specifico problema. Derivata Simmetrica Per risolvere questo problema è evidente che è necessario adottare una diversa discretizzazione dello spazio, ovvero definire differentemente la derivata spaziale. Scegliamo allora la derivata simmetrica e vediamo a quale risultato arriviamo ripercorrendo i passaggi precedenti. L’espressione della derivata simmetrica è ∂x −→ u(x + ², t) − u(x − ², t) . 2² Sostituiamo nella (1.25): ut + c [u(x + ², t) − u(x − ², t)] = 0 . 2² Sfruttando l’analisi di Fourier otteniamo: Z ∞ Z ct i²k ikx − 2² (e −e−i²k ) ũ(k) e e u(x, t) = dk = −∞ ∞ ũ(k) ei[kx− ² ct sin(²k)] dk −∞ Dall’ultimo membro, notiamo che ora compare un semplice termine oscillante e non c’è più alcuna dissipazione: bensı̀ osserviamo l’introduzione di un termine dispersivo con relazione di dispersione: ω(k) = c sin(²k) ² dal quale ricaviamo subito la dispersione dvg d2 ω = = −² c sin(²k) . 2 dk dk (B.4) Dalla (B.4) osserviamo che la dispersione è tanto più significativa quanto π . Una corretta modellizzazione del problema sarà allora ottenibile più k ∼ 2² scegliendo λ À ², in maniera che non si tenga conto dei dettagli del sistema. Reticolo Per concludere passiamo effettivamente al discreto introducendo un reticolo: per semplicità possiamo considerare il caso monodimensionale Osservazioni sull’integrazione numerica: la discretizzazione delle 204 PDE in cui si considera una sequenza di punti disposti su una retta a distanza ² l’uno dall’altro. Dunque xn = n² e u(x, t) → u(n², t) = un (t) In tal modo, il campo u è definito in base a due parametri (n,²) e ad una variabile continua (t) (anche se nella realtà, nel processo di discretizzazione è inclusa anche la variabile temporale). L’equazione che si ottiene è un’equazione a 3 punti (n − 1, n, n + 1) alle differenze finite (nello spazio) e differenziale (nel tempo): u̇n + c [un+1 − un−1 ] = 0 , 2² (B.5) che possiamo pensare di integrare numericamente sevendoci, ad esempio, del metodo di Runge-Kutta troncato all’ordine desiderato. Per risolvere analiticamente la (B.5), si può impiegare la tecnica della serie di Fourier. Potremmo pensare di cercare una soluzione della forma un (t) = A(t) z n dove A dev’essere una funzione limitata e contenuta in un cerchio di raggio ² nel piano complesso. Da cui, sostituendo nell’equazione B.5, si ricava che µ ¶ c 1 Ȧ + z− =0 2² z che ha soluzione da cui A(t) = A(0) e− 2² (z− z ) t , c 1 un (t) = A(0) e− 2² (z− z ) t z n . c 1 Appendice C Coefficienti di Trasmissione e Riflessione di un’onda elettromagnetica In questo paragrafo vogliamo determinare la forma dei coefficiente di riflessione e di trasmisione di un’onda elettromagnetica in un mezzo. Partiamo dalle equazioni di Maxwell in presenza di materia: ∇·D=ρ ∇ × E = − ∂B ∂t , ∇·B=0 , ∇×H = J+ (C.1) ∂D ∂t Assumendo che il campo elettrico sia una funzione della sola variabile spaziale x e del tempo, otteniamo, direttamente dalle equazioni Maxwell, l’equazione delle onde non omogenea 1 Ett − c2 Exx = − Ptt (C.2) ε0 dove P è il vettore di polarizzazione elettrica, definito come il momento di dipolo elettrico per unità di volume posseduto dal mezzo, c la velocità di propagazione dell’onda nel mezzo ed ε0 la costante dielettrica del vuoto. Assumiamo inoltre che il vettore di polarizzazione risulti lineare nel campo elettrico, tramite un coefficiente di proporzionalità non costante detto suscettività elettrica χ: Z t P = ε0 χ(x, t − t0 )E(x, t0 )dt0 . (C.3) −∞ L’equazione (C.2) diventa pertanto Z t 2 Ett − c Exx = − χ(x, t − t0 )Ett (x, t0 )dt0 −∞ (C.4) Coefficienti di Trasmissione e Riflessione di un’onda elettromagnetica 206 Cerchiamone una soluzione del tipo E(x, t) = ψ(x)e−iωt da cui l’equazione per la ψ(x): Z 2 2 2 t −ω ψ(x) − c ψxx (x) = ω ψ(x) 0 χ(x, t − t0 )eiω(t−t ) dt0 (C.5) −∞ Cambiando variabile: τ = t − t0 , l’integrale precedente assume la forma Z ∞ χ(x, τ )eiωτ ) dτ ≡ χ b(ω, τ ) 0 che non è altro che la trasformata di Fourier della suscettività χ. Segue cosı̀: ψxx = − ω2 (1 + χ b)ψ . c2 (C.6) Il modello più semplice che possiamo costruire è quello di uno specchio posto in x = 0 non perfettamente riflettente. Assumiamo cosı̀ che la χ b possa essere scritta come: bs = cost. , se x < 0 χ χ b(x, ω) = (C.7) 0 , se x > 0 Le condizioni al contorno più naturali che possiamo scegliere sono quelle di un’onda proveniente da +∞ in parte riflessa ed in parte trasmessa in x = 0: iω x −iω x e c + R(ω)e c , se x ∼ ∞ ψ(x) = (C.8) √ χs i ωc 1+b , se x ∼ −∞ T (ω)e Notiamo che nel definire le condizioni al contorno abbiamo già fissato le due costanti a disposizione derivanti dal fatto che l’equazione per la ψ(x) è un’equazione alle derivate ordinarie del secondo ordine: abbiamo difatti imposto che l’ampiezza dell’onda incidente fosse 1 e quella dell’eventuale onda proveniente da meno infinito fosse nulla. I coefficienti di trasmissione T (ω) e di riflessione R(ω) risultano pertanto già fissati e possiamo determinarli imponendo la continuità della funzione d’onda e delle sua derivata in x = 0. La prima richiesta si traduce in 1+R=T , 207 mentre la seconda in 1−R= p 1+χ bs T che prese insieme formano un sistema di due equazioni nelle due incognite T ed R: √ χs 1− 1+b R(ω) = 1+√1+bχs (C.9) T (ω) = √2 1+ 1+b χs Dalle precedenti osserviamo che nel momento in cui abbiamo a che fare con uno specchio ideale perfettamente riflettente, χ bs −→ ∞, il coefficienete di riflessione tende a uno, mentre quello di trasmissione tende a zero. Sappiamo che in Meccanica Quantistica i coefficienti di trasmissione e di riflessione sono legati l’uno all’altro dalla conservazione della densità di probabilità di trovare una particella quantistica in un punto x dello spazio al tempo t. Vogliamo ora determinare quale è la relazione che lega R(ω) a T (ω) per un’onda elettromagnetica. A tale scopo ci serviremo del Teorema del Wronskiano: Teorema 1 (del wronskiano). Siano ψ1 (x) e ψ2 (x) soluzioni dell’equazione differenziale ordinaria: A(x)ψx + B(x)ψ = 0 Allora il funzionale wronskiano µ W (ψ1 , ψ2 ) = ψ1 ψ2 x − ψ2 ψ1 x = det ψ1 ψ2 ψ1 x ψ2 x ¶ soddisfa l’equazione Wx = A(x)W che ammette soluzione W (x) = W (0) e Rx x0 A(y)dy . Nel nostro caso, cosı̀ come nell’equazione di Schrödinger, la funzione A(x) è nulla, pertanto il wronskiano è costante nello spazio. Essendo l’equazione per la ψ(x) un’equazione reale, se ψ(x) è soluzione lo è anche la sua complessa coniugata ψ ∗ (x). Identificando ψ = ψ1 e ψ ∗ = ψ2 , otteniamo W = ψψx∗ − ψ ∗ ψx 208 Coefficienti di Trasmissione e Riflessione di un’onda elettromagnetica Imponendo l’uguaglianza di W (x) per x negativi e per x positivi abbiamo: p |R|2 + 1 + χ bs | T |2 = 1 (C.10) che non è altro che la conservazione dell’energia del sistema. Appendice D Il Problema RH Il problema di Riemann-Hilbert (RH) riguarda funzioni complesse f (k) (o matrici e vettori complessi) della variabile complessa k. Cominciamo con una definizione: Una funzione f (k) si dice sezionalmente olomorfica (o olomorfa) se l’intero piano-k complesso è diviso in sezioni curve continue a tratti ed f (k) è analitica (cioè olomorfica) in ogni sezione ed ha limite nel valor al contorno quando k si avvicina ai due lati di tale curva. I bordi delle sezioni sono curve orientate. Inoltre il grado all’infinito di una funzione f (k) sezionalmente olomorfica è l’intero n tale che f (k) = ck n [1 + O(1/k)] , per |k| → ∞ , dove c è una costante non nulla. Al fine di ottenere una rappresentazione di una funzione sezionalmente olomorfica, osserviamo che un’informazione di base ci è fornita dalla discontinuità f (+) − f (−) sui bordi. Per usare tale informazione, facciamo uso delle formule di Plemelj-Sakhotski. Sia Γ una curva orientata nel piano complesso che insieme alla sua tangente è continua e sia g(s) una funzione di Hölder su Γ, ovvero α |g(s0 ) − g(s)| < γ |s0 − s| , allora, la funzione 1 f (k) = 2πi per 0 < α ≤ 1, γ > 0 , Z ds Γ g(s) s−k è olomorfica in tutto il piano complesso coll’eccezione della curva Γ che ne rappresenta la discontinuità. 210 Il Problema RH Le formule di Plemelj-Sakhotski ci forniscono i valori della f (k) al bordo, ed hanno la seguente espressione: Z 1 g(s0 ) 1 (±) f (s) = P ds0 0 ± g(s) , per s ∈ Γ , (D.1) 2πi Γ s −s 2 dove il simbolo P dinanzi l’integrale significa che si vuol considerare il valor principale (o di Cauchy) dell’integrale, ed i valori f (±) dipendono dall’orientazione della curva Γ. Notiamo che quest’ultima espressione implica che la discontinuità di f (k) su Γ è precisamente g(s), ovvero f (+) (s) − f (−) (s) = g(s) , per s ∈ Γ . (D.2) L’uso di queste formule fornisce una rappresentazione esplicita di una funzione f (k) che soddisfa le seguenti condizioni: f (k) è olomorfica eccetto per 1. k = ∞, dove si comporta come un polinomio P (k); 2. k = km , m = 1, 2, . . . , N che sono poli semplici nei quali f (k) ha residui Rm : lim [(k − km ) f (k)] = Rm , per m = 1, 2, . . . , N ; k→km 3. k = s ∈ Γ dove f (k) ha una discontinuità g(s) di Hölder. Si trova allora che f (k) è data dall’espressione unica. N X Rm 1 f (k) = P (k) + + k − km 2πi m=1 Z ds Γ g(s) , s−k per k ∈ / Γ, (D.3) Tali risultati si estendono anche ai casi in cui si considerino matrici e vettori: consideriamo una curva Γ continua con la sua tangente, una funzione matrice G(s) non-singolare N × N , i cui elementi sono hölderiani su Γ, un vettore N -dimensionale h(s), anch’esso con componenti hölderiani, ed un intero n. La soluzione del problema RH è una funzione vettore N -dimensionale f (k), la quale è olomorfica nel piano complesso eccetto che per k = ∞ dove ha grado n e sulla curva Γ dove i valori al bordo f (±) devono soddisfare l’equazione algebrica nonomogenea f (+) (s) = G(s) f (−) (s) + h(s) , per s ∈ Γ . (D.4) Notiamo innanzitutto che come per i sistemi di equazioni differenziali del primo ordine, il problema RH può essere risolto in una forma esplicita solo 211 per il caso scalare, N = 1. Benchè il problema RH assuma forma matriciale in tutte le applicazioni dell’analisi spettrale, sfruttiamo la risolubilità del caso scalare per sottolineare alcuni aspetti generali. (Un ruolo cruciale per l’esistenza e l’unicità della soluzione del problema RH è giocato dal grado n all’infinito.) Per n = 1, la soluzione esiste, ma non è unica dato che dipende da due parametri c0 e c1 in base all’espressione: Z 1 h(s) f (k) = c0 + c1 k + ds , per k ∈ / Γ. 2πi Γ s − k Per n = −1, la soluzione esiste unica: Z h(s) 1 ds f (k) = , 2πi Γ s − k per k ∈ / Γ. Per n = −2, la soluzione in genere non esiste ed esiste se e solo se il termine nonomogeneo h(s) soddisfa la condizione Z ds h(s) = 0 . Γ Nel caso più interessante, nei quali G(s) 6= 1 e Γ è una curva chiusa, esiste un altro intero che può decidere dell’esistenza e dell’unicità della soluzione: questo intero è chiamato “indice totale” indicato con ν e dall’espressione ν ≡ ind [det (G)] = 1 z d ds det (G(s)) . 2πi ds Γ Questo indice discende dal fatto che il numero complesso det (G(s)) cambia continuamente quando s varia attorno a Γ, ma non necessariamente la sua fase, la quale può cambiare dopo un giro completo di un multiplo di 2π. Tuttavia nelle applicazioni ν = 0, e quindi non ci interessiamo dei casi in cui questo non si annulla. Osserviamo, dunque, che l’uso delle formule di Plemelj-Sakhotski ci permette di trasformare il problema RH in un’equazione integrale. In questo contesto, il ruolo giocato dalle formule PS corrisponde a quello giocato dalle funzioni di Green nella teoria delle equazioni differenziali, dato che trasformano equazioni differenziali in equazioni integrali. Per semplicità, consideriamo il problema RH omogeneo, con h(s) = 0 e poniamo che H(s) = G(s) − 1. Possiamo esprimere la discontinuità di f (k) su Γ come f (±) (s) − f (−) (s) = H(s) f (−) (s) , 212 Il Problema RH cosicchè se la curva Γ coincide con l’asse reale (come in molte applicazioni), il grado all’infinito si annulla, ovvero n = 0, e cosı̀ f (k) → c, per |k| → ∞. Allora, viste le (D.3) e (D.2), si ha 1 f (k) = c + 2πi Z +∞ ds H(s) −∞ f (−) (s) , s−k per k ∈ / Γ. Otteniamo allora l’equazione integrale per la funzione f (−) (s) definita sull’asse reale facendo tendere k verso l’asse reale dal basso nella precedente espressione: Z +∞ 1 f (−) (s0 ) (−) f (s) = c + ds0 H(s0 ) 0 , 2πi −∞ s − s + i² nella quale il limite per ² → 0 con ² > 0, ci dà la formula esplicita Z +∞ 1 f (−) (s0 ) 1 (−) f (s) = c + P ds0 H(s0 ) 0 − H(s)f (−) (s) , 2πi −∞ s −s 2 come comportano le formule di PH (D.1). Bibliografia [1] Whitham, G. B. - Linear and NonLinear Waves, Jonh Wiley & Sons, 1974. [2] Angilella, G. G. N. - Appunti dei corsi, Università degli studi di Catania, Dottorato di ricerca in fisica, XI ciclo. [3] Ablowitz, M. J.; Clarkson, P. A. - Solitons, Nonlinear Evolution Equations and Inverse Scattering, Cambridge University Press, 1991. [4] Calogero, F.; Degasperis, A. - Spectral Transform and Solitons I, NorthHolland Publishing Company, 1982. [5] Marchioro, C.; Pulvirenti, M. - Mathematical Theory of Incompressible Nonviscous Fluids, Springer-Verlag, 1992. [6] Chorin, A. J.; Marsden, J.E. - A Mathematical Introduction to Fluid Mechanics, Springer-Verlag, 1993. [7] Bernardini, C.; Ragnisco, O.; Santini, P.M.; - Metodi Matematici della Fisica, Carocci, 1993. [8] Arnold, V. I.; Metodi Matematici della Meccanica Classica, Editori Riuniti, 1989. [9] Zakharov, V. E.; What is Integrability?, (Ed.) Springer, Heidelberg, 1990. [10] Degasperis, A. - Resource Letter Sol-1: Solitons, Am. J. Phys. 66, 486497 (1998). [11] Taniuti, T.; Yajima, N. - Perturbation method for a nonlinear wave modulation. I, J. Math. Phys. 10, 1369-1372 (1969); Suppl. Prog. Theor. Phys. 55, 1974 (special issue devoted to the Reductive Perturbation Method for Nonlinear Wave Propagation). 214 BIBLIOGRAFIA [12] Kelley, P. L. - Self-Focusing of Optical Beams, Phys Rev. Lett. 15, 1005 (1965); D. J. Benney and A. C. Newell, J. Math. and Phys. (now Stud. Appl. Math.) 46, 133-139 (1967); V. E. Zakharov, Instability of self-focusing of light Soviet Phys. JETP 26, 994-998 (1968); H. Hasimoto and H. Ono, Nonlinear Modulation of Gravity Waves, J. Phys. Soc. Japan 33,805 (1972); A. Hasegawa and F. Tappert, Transmission of stationary nonlinear optical pulses in dispersive dielectric fibers. I. Anomalous dispersion, Appl. Phys. Lett. 23, 142 (1973). [13] Calogero, F.; Eckhaus, W. - Necessary conditions for integrability, Inverse Probl. 3, L27-L32 (1987). [14] Calogero, F. - Why are certain nonlinear PDEs both widely applicable and integrable?, In [1], pp. 1-62. [15] Calogero, F.; Degasperis, A. - Spectral Transform and Solitons. Vol. I, North Holland, Amsterdam, 1982; Ablowitz, M.J.; Clarkson, P.A. - Solitons, Nonlinear Evolution Equations and Inverse Scattering, Cambridge U.P., Cambridge, 1991. [16] Zakharov, V. E.; Shabat, A. B. - Exact theory of two-dimensional selffocusing and one-dimensional self-modulation of waves in nonlinear media, Soviet Phys. JETP 34, 62-69 (1972) [Russian original: Zh. Eksp. Teor. Fiz. 61, 118-134 (1971)]. [17] Zakharov, V. E.; Kuznetsov, E. A. - Multiscale Expansion in the Theory of Systems Integrable by the Inverse Scattering Transform, Physica 18D, 455-463 (1986). [18] Gardner, C. S.; Greene, J. M.; Kruskal, M. D.; Miura, R. M. - Method for solving the Korteweg-de Vries equation, Phys. Rev. Lett. 19, 1095-1097 (1967). [19] Murdock, J.A. - Perturbations, John Wiley & Sons, Inc., New York, 1991. [20] Calogero, F.; Degasperis, A. - Reduction technique for matrix nonlinear evolution equations solvable by the spectral transform, J. Math.Phys. 22, 23-31 (1981). [21] Kraenkel, R. A.; Manna, M. A.; Pereira, J. G. - The Korteweg-de Vries hierarchy and long water-waves, J. Math. Phys. 36, 307 (1995). BIBLIOGRAFIA 215 [22] Kodama, Y.; Mikhailov, A. V. - Obstacle to asymptotic integrability, In: Algebraic Aspects of Integrable Systems: in memory of Irene Dorfman, edited by A. S. Fokas and I. M. Gelfand, Birkhauser, Boston, 1996, pp. 173-204. [23] Calogero, F.; Degasperis, A.; Xiaoda, Ji - Nonlinear Schroedinger-type equations from multiscale reduction of PDEs. I. Systematic derivation, J. Math. Phys. 41, 6399-6443 (2000). [24] Calogero, F.; Desgasperis, A.; Xiaoda, Ji - Nonlinear Schroedinger-type equations from multiscale reduction of PDEs. II. Necessary conditions of integrability for real PDEs, J. Math. Phys. 42, 2635-2652 (2001). [25] Ramani, A. - (private communication). [26] Conte, R. - (private communication). [27] Yajima, N.; Oikawa, M. - Formation and Interaction of Sonic-Langmuir Solitons, Prog. Theor. Phys. 56, 1719-1739 (1976). [28] Degasperis, A.; Manakov,S. V.; Santini, P. M. - Multiple-scale perturbation beyond the Nonlinear Schroedinger Equation. I, Physica D100, 187-211 (1997). [29] Degasperis, A.; Procesi, M. - Asymptotic Integrability In: Symmetry and Perturbation Theory, edited by A. Degasperis and G. Gaeta, World Scientific, Singapore, 1999, pp. 23-37. [30] Camassa, R.; Hom, D. D. - Phys. Rev. Lett. 71, 1661-1664 (1993). [31] Degasperis, A.; Holm, D. D.; Hone, A. N. W. - A new integrable equation with peakon solutions, Theoretical and Mathematical Physics (2002) 133, pp. 1463-1474. [32] Fermi, E.; Pasta, J. R.; Ulam, S. M. - Studies of nonlinear problems, Los Alamos Scientific Laboratory Report LA-1940 (1955); anche in Collected Works of Enrico Fermi , II (University of Chicago Press, Chicago, Ill., 1965). [33] Zakharov, V. E; Shabat, A. B. - Sov. Phys. JETP , 34, 62 (1972), tradotto da Z. Eksp. Teor. Fiz , 61, 118 (1971). [34] He, Guang S.; Liu, Song H. - Physics of Nonlinear Optics, World Scientific (1999). 216 BIBLIOGRAFIA [35] Boyd, Robert - Nonlinear Optics, Academic Press, University of Rochester (New York) - (Ed.) Harcourt Brace Jovanovich (1992). [36] He, Guang S.; Liu, Song H. - Physics of Nonlinear Optics, World Scientific (1999). [37] McCall, S. L.; Hahn, E. L. - Self-Induced Transparency, Physical Review, 183, n°2 - pag. 457 (1969). [38] McCall, S. L.; Hahn, E. L. - Self-Induced Transparency by pulsed coherent light, Physical Review, 18, n°21 - pag. 908 (1967). [39] Gibbs, H. M.; Slusher, R. E. - Peak amplification and breakup of a coherent optical pulse in a simple atomic absorber, Physical Review, 24, n°12 - pag. 638 (1970). [40] Dodd, R. K.; Eilbeck, J. C.; Gibbon, J. D.; Morris, H. C. - Solitons and Nonlinear Wave Equations, Academic Press (London) LTD (1982). [41] Lamb, G. L. - Analytical description of Ultrashort Optical Pulse Propagation in a Resonant Medium, Reviews of Modern Physics, 43, n°2 - pag. 99 (1971). [42] Ablowitz, M. J.; Segur, H. - Solitons and the Inverse Scattering Transform, SIAM, Philadelphia (1981). [43] Steudel, H.; Zabolotskii, A. A. - Solitons of the reduced Maxwell-Bloch equations for circularly polarized light, Journal of Physics A: Mathematical and General, 37 - pp. 5047-5055 (2004). [44] Lamb, G. L. Jr. - Phase Variation in Coherent-Optical-Pulse Propagation, Physical Review Letters, 31, n°4 - pag. 196-199 (1973). [45] Ablowitz, M. J.; Clarkson, P. A. - Solitons, Nonlinear Evolution Equations and Inverse Scattering, Cambridge University Press, Cambridge (1991). [46] R.K. Dodd, J.C. Eilbeck, J.D. Gibbon, H.C. Morris, Solitons and Nonlinear Wave Equations,Academic Press, 1982 [47] N.W. Ashcroft, N.D. Mermin, Solid State Physics, Brooks/Cole, 1976 [48] C. Mencuccini, V. Silvestrini, Fisica II, Liguori editore, 1998 [49] B.D. Josephson, Phys. Lett. 1, 251, 1962 BIBLIOGRAFIA 217 [50] V.L. Ginzburg, L.D. Landau, Zh. Eksp. Teor. Fiz. 20, 1064, 1950 [51] J. Bardeen, L.N. Cooper, J.R. Schrieffer, Phys. Rev. 108, 1175, 1957 [52] L.N. Cooper, Phys. Rev. 104, 1189, 1957 [53] V.B. Matveev, M.A. Salle, Darboux Transformations and Solitons, Springer-Verlag, 1990 [54] D.A. Jacobson, Ginzburg-Landau equations and the Josephson effect, Phys. Rev. 138, 1066, 1965 [55] Cai Hao, Shi Jing, Tian De-Cheng, Huang Nian-Ning, Darboux transformation method for solving the Sine-Gordon equation in a laboratory reference, Chin. Phys. Lett. 19, 908, 2002 [56] C. Bernardini, O. Ragnisco, P.M. Santini, Metodi matematici della Fisica, Roma, Ed. Carocci 1993. [57] V.B. Matveev, Lett. Math. Phys. 3, 213, 1979 [58] G. Darboux, Compt. Rend. 94, 1456, 1882