Caratterizzazione della superdiffusione della luce in vetri di

Transcript

Caratterizzazione della superdiffusione della luce in vetri di
Università degli Studi di Firenze
FACOLTÀ DI SCIENZE MATEMATICHE, FISICHE E NATURALI
Corso di Laurea in Fisica
Tesi di laurea triennale
Caratterizzazione della superdiffusione della luce
in vetri di Lévy
Candidato:
Relatore:
Lorenzo Pattelli
Dr. Diederik S. Wiersma
Correlatore:
Prof. Massimo Inguscio
Anno Accademico 2007–2008
Indice
Introduzione
1 Dal
1.1
1.2
1.3
1.4
1.5
1.6
1.7
iii
moto browniano ai voli di Lévy
Moto browniano . . . . . . . . . . . . . . . . . . .
Cammini casuali . . . . . . . . . . . . . . . . . .
Dai cammini casuali all’equazione della diffusione
Il teorema del limite centrale . . . . . . . . . . . .
Distribuzioni stabili . . . . . . . . . . . . . . . . .
Il teorema del limite centrale generalizzato . . . .
Diffusione anomala . . . . . . . . . . . . . . . . .
2 Cammini di Lévy per la luce
2.1 Modelli a tempo continuo: i cammini di Lévy
2.2 Vetri di Lévy . . . . . . . . . . . . . . . . . .
2.3 Preparazione dei campioni . . . . . . . . . . .
2.4 Effetti del troncamento . . . . . . . . . . . . .
2.5 Apparato sperimentale . . . . . . . . . . . . .
2.6 Misure di profilo . . . . . . . . . . . . . . . .
2.7 Considerazioni sui materiali . . . . . . . . . .
2.8 Misure di profilo preliminari . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
1
3
4
5
7
11
12
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
15
15
17
20
22
23
25
26
31
Conclusioni
35
Bibliografia
37
i
Indice
ii
Introduzione
Nel linguaggio di tutti i giorni siamo abituati a chiamare “casuali” tutti quei fenomeni
sui quali non abbiamo un controllo diretto, e sul cui esito non possiamo dunque fare
previsioni. Ciò nonostante, per quanto possa sembrare sorprendente, tutto il valore
epistemologico della teoria della probabilità si fonda sul fatto che la ripetizione su larga
scala di fenomeni casuali smette di comportarsi in modo aleatorio manifestando al
contrario una forte regolarità [1]. Il concetto stesso di probabilità matematica realizza
il suo significato nella frequenza con cui si verifica un dato evento entro un numero
crescente di ripetizioni, ovvero in altre parole nel concetto di convergenza ad un limite.
Nell’estate del 1905 comparve più o meno in questi termini fra le pagine della rivista
Nature un famoso scambio di lettere tra Karl Pearson e Lord Rayleigh [2]. Pearson
stava studiando a quel tempo la velocità con cui la malaria riusciva a diffondersi
per mezzo delle zanzare, e sperava di poter risolvere questo problema integrando la
probabilità di trovarsi ad una certa distanza da un punto di partenza percorrendo passi
di uguale lunghezza in direzioni casuali. Non essendo riuscito a ricavare un’espressione
esplicita oltre il secondo passo pensò di chiedere aiuto ai lettori della rivista coniando
per l’occasione il famoso esempio di un uomo ubriaco che si sposti barcollando, e
con esso il termine di random walk. Tra le molte risposte che ricevette — una delle
quali dimostrava che con l’uso di integrali ellittici era in realtà possibile spingersi
fino al terzo passo — quella più inaspettata giunse da parte di Lord Rayleigh: nel
numero della settimana successiva egli affermò di aver già studiato e risolto il problema
equivalente della propagazione di un’onda sonora in un mezzo omogeneo ricavando la
soluzione esplicita nel limite di infiniti passi, il che portò a riconsiderare completamente
l’approccio tentato fino ad allora nello studio dei cammini casuali.
Un’analoga operazione di limite è applicabile al modo in cui si propaga la luce: nel
suo tragitto dal Sole attraverso l’atmosfera terrestre essa incontra un numero enorme
di atomi, molecole e particelle distribuite in modo disordinato e omogeneo che ne
complicano la propagazione, altrimenti rettilinea, con fenomeni assolutamente casuali
di riflessione, rifrazione, diffrazione, assorbimento e riemissione. In questo modo, la
luce che percepiamo di solito può avere caratteristiche anche molto diverse da quelle
di partenza, e dal loro studio è possibile dedurre molte informazioni.
I cammini casuali che si ottengono in questo modo vengono studiati da oltre un
secolo in ambiti che vanno ben oltre la semplice propagazione della luce [3], in quanto
con questo modello si può tenere conto, tramite opportune ipotesi, di molte proprietà
di sistemi complessi. Queste ipotesi riguardano sostanzialmente la probabilità che gli
incrementi abbiano certe caratteristiche, espressa dalla loro funzione di distribuzione.
Per molto tempo, le assunzioni che era necessario fare sulla distribuzione dei “passi”
iii
Introduzione
del cammino casuale sono rimaste le stesse, in quanto erano sufficientemente generali
da riuscire a descrivere e trovare applicazione in una vasta gamma di situazioni. Se
ad esempio, come nel caso dell’ubriaco di Pearson, gli incrementi sono indipendenti e
tutti più o meno della stessa entità, il cammino casuale risultante ha comunque delle
caratteristiche apparentemente spiazzanti: poiché non esistono direzioni preferenziali
per i vari spostamenti la posizione raggiunta dopo un certo numero di passi tenderà a
coincidere con quella di partenza1 . Ciò nonostante, col passare del tempo, seguendo
questo tipo di cammino si avrà modo di esplorare tutta lo spazio circostante passando
infinite volte per ogni punto della superficie in cui avviene il moto. Alla traiettoria
appena descritta ci si riferisce di solito col nome di moto browniano, e la lenta crescita
della distanza esplorata in media dal camminatore che la percorre risulta da ipotesi
tanto generali da prendere il nome di diffusione normale.
La prima parte di questa tesi è dedicata alla presentazione dei concetti di teoria alla
base dell’esperienza di laboratorio svolta, esposti seguendo l’impostazione comunemente
adottata in questi casi. Prendendo come punto di partenza il concetto di cammino
casuale come somma di variabili indipendenti identicamente distribuite cercheremo di
mostrarne la connessione con i fenomeni della diffusione normale e di spiegare il perché
questo sia effettivamente il caso che ci aspettiamo di trovare di solito. Successivamente,
facendo riferimento alla generalizzazione di Lévy-Gnedenko del Teorema del limite
centrale, il nostro principale interesse diventerà quello di estendere il nostro punto di
vista e rendere conto della diffusione normale come di un caso limite della classe più
ampia di fenomeni di diffusione anomala. Questa categoria contempla la possibilità di
diffondere in modo molto più veloce, ed è legata ad un tipo di traiettorie chiamate voli
di Lévy che, pur avendo caratteristiche molto diverse da quelle del moto browniano,
stanno trovando applicazione nella descrizione di un numero crescente di sistemi.
Nella seconda parte del lavoro cercheremo di applicare questi concetti al caso della
luce, descrivendo brevemente il modo in cui il modello matematico del cammino casuale
viene solitamente adattato al caso fisico dei fotoni. Sulla base di una rielaborazione
della referenza [4] discuteremo quindi la possibilità di superare i limiti imposti dalla
diffusione standard modificando la distribuzione dei passi. A tal fine abbiamo realizzato
una serie di campioni seguendo la tecnica proposta nella referenza [5] con lo scopo di
indagare quale sia la nostra reale capacità di influenzare il tipo di traiettorie seguite
dai fotoni e con esse la crescita dello spostamento quadratico medio nel tempo.
Nel fare questo, presenteremo una serie di misure accompagnate da una discussione
dettagliata dei fattori in gioco nel determinarne la riuscita, con particolare attenzione
agli aspetti critici della realizzazione dei campioni e delle condizioni da soddisfare.
Come conseguenza di questa analisi, considereremo l’opportunità di applicare alcuni
cambiamenti nella scelta dei materiali e nella tecnica di di realizzazione, presentando
anche le prime misure realizzate a sostegno di questa ipotesi.
1
iv
Pearson parafrasò ironicamente la soluzione di Rayleigh intuendo che il posto dove è più probabile
ritrovare un ubriaco è vicino a dove lo si è lasciato.
1 Dal moto browniano ai voli di Lévy
1.1 Moto browniano
Nel De Rerum Natura di Lucrezio è contenuta una dettagliatissima descrizione del
moto della polvere nell’aria di una stanza [6]. Questa è forse la prima testimonianza
dell’osservazione diretta di quello che, solo dopo molti secoli, prenderà il nome di moto
Browniano. Questo fenomeno deve il suo nome al botanico Robert Brown che nel
1827 riportò di aver osservato alcuni granuli di polline muoversi casualmente in una
sospensione fluida apparentemente in quiete [7]. In un primo momento pensò che i
granuli potessero essere in qualche modo “animati” ma, avendo riottenuto lo stesso
risultato con della semplice polvere, concluse che questi spostamenti casuali fossero
dovuti al moto di agitazione interno del fluido.
Nonostante la grande accuratezza e ricchezza di particolari con cui vennero raccolte
queste osservazioni, esse rimasero relegate al ruolo di semplice curiosità ancora per
molti anni prima essere previste teoricamente e trovare dunque una spiegazione dal
punto di vista fisico in un noto articolo di A. Einstein su questo fenomeno [8]. Vale
comunque la pena di notare che 5 anni prima di questa trattazione — che storicamente
ha rappresentato anche una delle prime evidenze indirette dell’esistenza di atomi e
molecole — i concetti matematici sottostanti al “moto Browniano” erano già stati
formalizzati nella tesi di Louis Bechelier sull’andamento dei prezzi dei titoli azionari [9].
Da allora ad oggi il prototipo matematico approntato dal moto Browniano ha avuto
molte altre applicazioni nell’interpretazione di vari fenomeni. Di seguito, proveremo a
darne una semplice interpretazione facendo riferimento al concetto di cammino casuale.
Consideriamo per semplicità il modello unidimensionale di un camminatore che si
muova con passi di lunghezza costante ∆x = `x orientati in modo casuale. La posizione
raggiunta dopo N passi (partendo da x0 = 0) sarà
xN = ∆x1 + ∆x2 + · · · + ∆xN −1 + ∆xN =
N
X
∆xi
(1.1)
i=1
che elevata al quadrato dà
x2N
=
N
X
j,k=1
∆xj ∆xk =
N
X
j=1,k=j
∆x2j +
N
X
j,k=1,j6=k
∆xj ∆xk =
N `2x +
N
X
∆xj ∆xk . (1.2)
j,k=1,j6=k
Se facciamo la media su un gran numero di camminatori otteniamo lo spostamento
1
1 Dal moto browniano ai voli di Lévy
quadratico medio, definito come
*
2
xN = N `2x +
N
X
+
∆xj ∆xk
.
(1.3)
j,k=1,j6=k
Poiché è ugualmente probabile che un passo del cammino avvenga verso destra o
sinistra gli incrementi ∆xi sono variabili casuali a media nulla. I prodotti ∆xj ∆xk
sono a loro volta variabili casuali e, se assumiamo che ∆xj e ∆xk siano indipendenti,
il valor medio dei prodotti è ancora nullo. In questo modo troviamo
2
xN = N `2x ,
(1.4)
la cui radice quadrata rappresenta lo spostamento medio dopo N passi di lunghezza
`x e vale
q
√
hx2N i = `x N .
(1.5)
Anche nel caso in cui `x non sia costante per tutti i passi resta comunque possibile
darne una stima sulla base di un semplice modello. Consideriamo una particella che si
muove dentro un p
gas con velocità media hvi. La distanza percorsa tra due collisioni
successive è ` = `2x + `2y + `2z = hvi τ dove τ è il tempo trascorso tra i due eventi.
Se supponiamo che la particella sia sferica (di raggio a) e si muova dentro un gas di
densità n, troviamo che nel percorrere una distanza L subirà πa2 n collisioni, poiché
questo è semplicemente il numero di particelle incontrate nel volume spazzato durante
il percorso. In questo caso ` viene definito in modo tale che πa2 `n = 1, cioè come
la distanza media tale da contenere un solo evento di collisione, e prende il nome di
cammino libero medio. In questo modo si ottiene
`=
1
.
πa2 n
(1.6)
Con questa definizione possiamo concludere che il numero di passi N effettuati in
un tempo t sarà uguale a t/τ , da cui si trova
2
t
x = N `2x = `2x
τ
(1.7)
a cui va aggiunto un fattore 13 poiché stiamo assumendo che il cammino
avvenga in 3
dimensioni e che il gas sia isotropo ed omogeneo, ovvero h`2x i = `2y = h`2z i = 13 h`2 i.
In questo modo abbiamo
2 1 t 2 1
x =
` = hvi `t = Dt
3τ
3
(1.8)
dove D = 13 hvi ` prende il nome di coefficiente di diffusione. Questa quantità risulta
utile per caratterizzare la diffusione
(in √
questo caso di una particella) nel caso normale.
p
Si noti la proporzionalità tra hx2 i e t.
2
1.2 Cammini casuali
1.2 Cammini casuali
Un modo formalmente più corretto di studiare il problema del cammino casuale è quello
di considerare la posizione del camminatore come un vettore r e di supporre che essa
cambi per spostamenti successivi casuali ∆r. Per ora considereremo il tempo ∆t che
intercorre tra uno spostamento e l’altro come una costante: in pratica ha la funzione
di un contatore. La posizione rn del camminatore dopo n passi (corrispondenti al
tempo tn = n∆t) è data da
rn = ∆rn + ∆rn−1 + · · · + ∆r2 + ∆r1 + r0
(1.9)
dove r0 è la posizione iniziale e ∆ri è l’i-esimo passo. La posizione rn e le singole
∆ri sono stavolta tutte variabili casuali. Per specificare il problema completamente
dovremmo dunque prescrivere una densità di probabilità f∆r che ci dica quale probabilità abbiamo di avere un certo spostamento ∆ri definito in modulo, direzione e
verso. Per fare questo accetteremo per ora almeno due ipotesi su cui vale la pena
fare il punto, in quanto rivestiranno un ruolo molto importante per il resto di questa
trattazione. La prima è che tutti gli incrementi ∆ri siano distribuiti secondo la stessa
densità di probabilità: l’esempio più comune è quello del lancio di una moneta: ad
ogni ripetizione la probabilità è equidistribuita tra le due facce. Questo esempio in
particolare verifica anche la seconda delle ipotesi, e cioè che ogni evento sia indipendente dagli altri e definito solo dalle condizioni iniziali e non dalla “storia” precedente
del sistema. Processi di questo genere sono detti Markoviani, categoria che comprende
tutti quei sistemi che non mantengono una “memoria” delle condizioni precedenti.
Ammettendo dunque per ora di poter definire un’unica f∆r per gli incrementi
possiamo recuperare il concetto di spostamento quadratico medio nella forma
n
X
2
2
rn =
∆rj +
j=1,k=j
n
X
h∆rj ∆rk i ,
(1.10)
j,k=1,k6=j
dove il primo di questi due termini rappresenta la somma delle varianze di ∆ri , definite
come
Z
2
2
σ∆r = ∆rj = ∆r2 f∆r (∆r)d∆r
(1.11)
mentre il secondo è definito come la covarianza Cov(∆rj , ∆rk ) del cammino casuale, la
quale è nulla se ogni passo è indipendente dagli altri. Nel caso che stiamo esaminando
possiamo dunque scrivere che
n
X
2
2
rn =
σ∆r,j
.
(1.12)
j=1,k=j
Sulla base di questa equazione possiamo adesso riconsiderare l’esempio della sezione
2
precedente come un caso a covarianza nulla e varianza σ∆r,j
= `2 per via della lunghezza
fissata di ogni passo.
3
1 Dal moto browniano ai voli di Lévy
1.3 Dai cammini casuali all’equazione della diffusione
In questa sezione ci proponiamo di cominciare a mettere in evidenza lo stretto legame
che esiste tra i vari fenomeni governati dall’equazione della diffusione ed il concetto di
cammino casuale esposto precedentemente. Esistono molti modi, proposti in ambiti e
periodi differenti, per mostrare questa connessione. Di seguito seguiremo quello che
viene di solito menzionato come il metodo di Einstein1 , in relazione al suo famoso
articolo del 1905 [8], adattandolo ancora una volta per semplicità ad un modello
unidimensionale.
Per prima cosa cercheremo di trovare una soluzione del problema del cammino
casuale (1.9) nella forma di una distribuzione della probabilità P (r, t) = P (x, t) di
trovare la particella nella posizione x al tempo t. Per fare questo, supponiamo di
conoscere la distribuzione P (x, t − ∆t), ovvero al passo precedente (si ricordi il ruolo
di variabile muta del tempo). Possiamo mettere in relazione queste due distribuzioni
imponendo che il numero di particelle si conservi
P (x, t) = P (x − ∆x, t − ∆t)f∆x (∆x)
(1.13)
dove f∆x (∆x) è la distribuzione dei passi. Questa equazione afferma semplicemente
che la probabilità di trovarsi in x al tempo t è data dalla probabilità di provenire da
x − ∆x moltiplicata per la probabilità di fare un passo lungo proprio ∆x. Il passaggio
successivo è quello di sommare su tutti i possibili ∆x ottenendo in questo modo la
cosiddetta equazione della diffusione di Einstein (o Bachelier)
P (x, t) =
Z
∞
P (x − ∆x, t − ∆t)f∆x (∆x)d∆x.
(1.14)
−∞
Questa è l’equazione integrale che determina la soluzione P (x, t). Per cercare
di risolverla è opportuno anticipare alcune considerazioni sulle caratteristiche della
diffusione che ci forniscano qualche indicazione su quali approssimazioni sia lecito
applicare. Quello che supporremo, in particolare, è che la funzione da integrare su
tutti i valori possibili di ∆x sia in realtà significativamente diversa da zero solo in
un intervallo più ristretto. In altre parole supponiamo cioè che la particella compia
passi di lunghezza ∆x molto minore, in generale, delle dimensioni del sistema, e che
conseguentemente impieghi anche un tempo ∆t molto piccolo rispetto a quello su cui
viene mediato il risultato per percorrere questi spostamenti. In questo caso possiamo
sviluppare P (x − ∆x, t − ∆t) sia in x che in t:
P (x − ∆x, t − ∆t) ∼ P (x, t) − ∆t
1
4
∂
∂
1
∂2
P (x, t) − ∆x P (x, t) + ∆x2 2 P (x, t) (1.15)
∂t
∂x
2
∂x
altri esempi ricorrenti fanno riferimento all’equazione di Langevin o alla legge di Fick
1.4 Il teorema del limite centrale
e inserire il risultato ottenuto nella (1.14). In questo modo otteniamo
Z
Z
∂
P (x, t) = P (x, t)f∆x (∆x)d∆x − ∆t P (x, t)f∆x (∆x)d∆x+
∂t
Z
Z
(1.16)
2
∂
1
2 ∂
− ∆x P (x, t)f∆x (∆x)d∆x +
∆x
P (x, t)f∆x (∆x)d∆x,
∂x
2
∂x2
dove ovviamente i termini che contengono ∆x sono gli unici interessati dall’integrazione.
A questo punto, facendo uso della condizione di normalizzazione, della definizione di
valor medio (che supponiamo nullo) e di quella di varianza
Z
f∆x (∆x)d∆x = 1
(1.17)
Z
∆xf∆x (∆x)d∆x = 0
(1.18)
Z
2
∆x2 f∆x (∆x)d∆x = σ∆x
(1.19)
otteniamo
P (x, t) = P (x, t) − ∆t
∂
1 2 ∂2
P (x, t) + σ∆x
P (x, t)
∂t
2
∂x2
(1.20)
o equivalentemente
σ2 ∂ 2
∂
P (x, t) = ∆x 2 P (x, t)
∂t
2∆t ∂x
(1.21)
σ2
∆x
che è la nota equazione di diffusione, con coefficiente D = 2∆t
. La soluzione di questa
equazione differenziale è (nell’approssimazione di spazio infinito) data dalla Gaussiana
di media nulla
∆x2
1
e− 4Dt
P (x, t) = √
(1.22)
4πDt
la cui varianza
Z
2
σ∆x = ∆x2 f∆x (∆x)d∆x = 2Dt = x2 (t)
(1.23)
equivale allo spostamento quadratico medio, il che ci fornisce un ulteriore conferma
del risultato (1.8) trovato con il semplice modello del cammino casuale. La classe di
fenomeni di diffusione che rispettano la proporzionalità lineare di hr2 (t)i col tempo
sono detti di diffusione normale.
1.4 Il teorema del limite centrale
Quello che ci proponiamo di mostrare in questa sezione è che esiste almeno un motivo
teorico che giustificherebbe la presenza del comportamento appena descritto nella
maggior parte dei sistemi all’equilibrio, un risultato che predice autonomamente la
forma stessa della soluzione appena trovata. Questo supporto è fornito dal noto
5
1 Dal moto browniano ai voli di Lévy
Teorema del limite centrale, le cui ipotesi sono applicabili al caso della diffusione.
Il suo enunciato afferma che la somma normalizzata di un gran numero di variabili
casuali tende a distribuirsi come una variabile casuale normale standard. Di seguito
discuteremo più approfonditamente le ipotesi e le prescrizioni di questo risultato
generale, poiché esse pongono a loro volta interessanti questioni.
Abbiamo già fatto l’esempio del lancio di una moneta: l’esito di ognuno di essi
è una variabile casuale che si può intendere sommata su varie ripetizioni. Questo
esempio apparentemente banale, ma rilevante dal punto di vista storico, può dare
l’idea di quanto sia facile che, nella maggior parte dei casi, le ipotesi di applicabilità
del Teorema risultino verificate in modo soddisfacente. Una sua prima formulazione fu
data infatti proprio in questi termini dal matematico francese Abraham de Moivre che,
in un famoso articolo del 1733, notò che la migliore approssimazione per il numero di
“teste” ottenute in una serie di ripetizioni era data dalla distribuzione normale [10]. Di
seguito preciseremo in modo più formale l’enunciato del Teorema del limite centrale,
pensandolo per brevità applicato direttamente ai passi di un cammino casuale.
In questo caso la variabile somma di riferimento è la posizione raggiunta dal camminatore dopo n incrementi xn , intesa come la somma (1.9) delle variabili casuali
identicamente distribuite ∆xi (il caso multidimensionale è del tutto analogo). Il
teorema afferma che se:
2
• tutte le variabili sommate ∆xi hanno media µ∆x e varianza σ∆x
finite (si ricordi
che queste quantità sono definite tramite un integrale),
• ogni variabile ∆xi è mutuamente indipendente dalle altre (ovvero, secondo la
definizione che abbiamo dato precedentemente Cov(h∆xj ∆xk i) = 0 ∀j 6= k),
• il numero n di variabili sommate è sufficientemente grande (al limite infinito)
allora, indipendentemente dalla distribuzione delle ∆xi la distribuzione di P (x, tn ) è
Gaussiana. In particolare, se µ∆x = 0, x0 = 0 e tutte le ∆xi hanno la stessa varianza
troviamo di nuovo
2
− ∆x2
1
2nσ
∆x
(1.24)
P (x, tn ) = p
e
2
2πnσ∆x
la cui varianza vale
tn 2
2
=
σx2n = nσ∆x
σ
(1.25)
∆t ∆x
avendo posto n = t/∆t. Poiché la varianza è uguale per definizione allo spostamento
quadratico medio hx2 (tn )i abbiamo ritrovato ancora una volta la stessa proporzionalità (1.8), (1.23) tipica della diffusione. Per questo motivo possiamo affermare che la
diffusione è ciò che ci aspettiamo di trovare in ogni sistema che rispetti le tre ipotesi
precedenti.
Qualora invece almeno una di queste condizioni non sia verificata questa versione del
Teorema non è più applicabile e sarà necessaria una sua riformulazione in un contesto
più generale. Anche in questo caso sarà possibile evidenziare un collegamento con una
classe di fenomeni, ovviamente distinti da quelli della diffusione normale.
6
1.5 Distribuzioni stabili
1.5 Distribuzioni stabili
Nella parte seguente di questa tesi ci proponiamo di mostrare cosa è possibile dire
della somma di un numero crescente di variabili nel caso in cui si rilassi la prima delle
ipotesi del Teorema del limite centrale: in questo modo includiamo cioè la possibilità
che le variabili che stiamo sommando siano distribuite in modo da non avere il secondo
o persino il primo momento finito.
In questo senso, il contesto più generale a cui abbiamo fatto riferimento nella sezione
precedente è quello delle distribuzioni stabili. La classe delle distribuzioni stabili
(che include anche quella Gaussiana) comprende una vasta gamma di distribuzioni di
probabilità che, a causa della possibile divergenza dei loro momenti, possono presentare
una decrescita particolarmente lenta delle code o marcate asimmetrie. Questa classe
fu caratterizzata negli anni ‘20 da Paul Lévy nell’ambito dei suoi studi sulla somma
di variabili indipendenti identicamente distribuite [11]. Il fatto che solo in pochissimi
casi si possa pervenire ad una forma esplicita per queste funzioni di distribuzione ha
rappresentato a lungo un limite all’impiego delle distribuzioni stabili nelle applicazioni
pratiche. Attualmente, con l’utilizzo dei computer, è invece possibile calcolare con
relativa facilità le probabilità anche a partire da distribuzioni stabili qualsiasi, e questo
avviene ormai regolarmente in molti dei casi in cui si abbiano ragionevoli motivi per
ritenere che le ipotesi sulla finitezza dei momenti non siano rispettate.
Per capire meglio cosa sia una distribuzione stabile partiamo dall’esempio già noto
della distribuzione normale: una proprietà importante delle variabili casuali gaussiane
è che sommandone due si ottiene ancora una variabile distribuita nello stesso modo.
Se X1 e X2 sono due di esse allora ∀a, b > 0
d
aX1 + bX2 = cX + d
(1.26)
per qualche c > 0 e d ∈ R tali che X è ancora una variabile casuale normale. La lettera
d sopra il simbolo di uguaglianza sta a specificare che i due membri dell’equazione sono
ugualmente distribuiti, cioè che faX1 +bX2 (x) = fcX+d (x). Più semplicemente, questa
equazione ci dice che la “forma” di X è conservata (a meno di traslazioni o fattori di
scala) sotto l’operazione di addizione. Le distribuzioni stabili sono quella classe di
distribuzioni con questa proprietà.
Più formalmente, se ne possono dare due definizioni [12]: una distribuzione si dice
genericamente stabile se, prese X1 , X2 copie indipendenti di X, ∀a, b > 0, ∃c > 0, d ∈ R
tali che vale la (1.26). Una variabile casuale si dice invece stabile in senso stretto o
strettamente stabile se la (1.26) vale per d = 0 comunque si scelgano a e b. Infine, X si
dice simmetricamente stabile se è stabile e distribuita simmetricamente attorno allo 0.
Nella notazione che stiamo seguendo, la tesi del Teorema del limite centrale nel caso
in cui µ∆x 6= 0 potrebbe ad esempio essere riscritta come segue
d
d
an (∆x1 + · · · + ∆xn ) − bn −→ P (x, tn ) = N(0, 1),
n→∞
(1.27)
√
√
dove N(µ, σ) = N(0, 1) è la gaussiana standard se an = 1/(σ∆x n) e bn = nµ∆x /σ∆x .
Si noti che vista la rapida decrescita delle code di N(µ, σ) tutti i momenti di una
7
1 Dal moto browniano ai voli di Lévy
distribuzione normale sono finiti. Questa riformulazione del Teorema è utile ai fini
della nostra esposizione anche perché mette in luce un aspetto che considereremo più
approfonditamente nella sezione successiva: la distribuzione Gaussiana gioca il ruolo
di distribuzione limite a cui converge la somma di infinite variabili casuali distribuite
in modo da avere finiti almeno i primi due momenti. Rilassando questa ipotesi, quale
classe più ampia di distribuzioni (di cui ovviamente quella normale farà parte) è in
grado di rappresentare il limite di una somma analoga? Senza pretese di esaustività,
proveremo nel seguito a ripercorrere e commentare la risposta.
Riprendiamo il problema della somma di variabili casuali stabili in questa nuova
ottica. La distribuzione della variabile somma risulterà completamente determinata
una volta assegnati una serie di parametri an e bn opportuni. Nel caso di variabili
strettamente stabili tutti i bn = 0 ed abbiamo semplicemente
n
X
d
X i = an X
(1.28)
i=1
che si risolve immediatamente per la distribuzione Gaussiana sfruttando il fatto che
è l’unica distribuzione stabile ad avere una varianza finita. Elevando al quadrato
entrambi i membri si ottiene infatti
nVarX = a2n VarX
(1.29)
1
che, nel caso in cui VarX 6= 0, dà immediatamente il valore an = n 2 corrispondente al
caso gaussiano2 . Tramite una dimostrazione per induzione [11] si trova che nel caso
più generale per i fattori di scala valgono le relazioni
an = n
1
α
−→
n
X
d
1
Xi = n α X
(1.30)
i=1
che risostituite nella (1.29) danno
2
nVarX = n α VarX
(1.31)
da cui si vede che se supponiamo α 6= 2 l’unico modo per soddisfare formalmente questa
relazione per distribuzioni non degeneri3 corrisponde ad assumere che VarX = ∞.
Questo è un modo semplice per vedere che tutte le distribuzioni stabili, esclusa quella
normale, hanno varianza infinita. Per alcune di esse, come vedremo, non esiste finito
neanche il valore di aspettazione. Si trova inoltre che non esistono distribuzioni stabili
con α > 2, in modo tale che α ∈ (0, 2]. Il parametro α è chiamato indice di stabilità o
esponente caratteristico e, come si può vedere dalla figura 1.1 è il fattore principale
nel determinare il tasso di decrescita delle code di una distribuzione stabile. Un
2
ma anche, si noti, alla legge dei grandi numeri: dividendo per n ambo i membri della (1.28) si
ottiene infatti che al crescere di n la media delle Xi converge al valore di aspettazione.
3
Si dice degenere una distribuzione in cui VarX = 0.
8
1.5 Distribuzioni stabili
Figura 1.1: Dipendenza di una distribuzione stabile simmetrica dall’indice di stabilità α
(si noti la scala logaritmica per l’asse verticale). I grafici sono normalizzati
rispetto al loro integrale. Nel limite di α → 2 si ottiene una distribuzione
normale.
altro parametro usato per dare una caratterizzazione completa delle distribuzioni
stabili è β ∈ [−1, 1], che influenza l’asimmetria4 . Per indicare i fattori di scala e
traslazione si usano infine γ ∈ [0, ∞) e δ ∈ R che rappresentano l’analogo di σ e µ per
una distribuzione normale. Le distribuzioni stabili S(α, β, γ, δ) prendono il nome di
distribuzioni α-stabili di Lévy.
Oltre alla già menzionata distribuzione Gaussiana, un’altra nota distribuzione stabile
è ad esempio quella di Cauchy: in questa notazione, vengono rispettivamente indicate
con S(2, 0, γ, δ)5 e S(1, 0, γ, δ).
Sfortunatamente, fatta eccezione per questi rari casi in cui si sa esprimere in forma
esplicita la densità di probabilità connessa alla distribuzione, non è mai possibile
scrivere una formula equivalente per distribuzioni stabili con parametri qualunque.
Resta comunque possibile dare una caratterizzazione completa di questa categoria di
distribuzioni attraverso le rispettive funzioni caratteristiche ϕ(k), ovvero con le loro
trasformate di Fourier. Per una variabile casuale X con una funzione di distribuzione
4
5
in inglese skewness. β = 0 per distribuzioni simmetriche.
facendo attenzione in questo caso al fatto che, per come è definita la funzione caratteristica, la
media vale µ = δ ma la varianza σ 2 è uguale a 2γ 2 .
9
1 Dal moto browniano ai voli di Lévy
fX (x), la funzione caratteristica è definita come
Z ∞
ikX eikx fX (x)dx = F[fX (x)].
=
ϕ(k) = e
(1.32)
−∞
In questo modo, attraverso considerazioni [11] che vanno oltre lo scopo illustrativo di
questa tesi, si può indicare un’unica funzione caratteristica che rappresenti tutte le
distribuzioni stabili tenendo conto delle possibili variazioni. Si trova cioè che tutte le
variabili stabili X sono versioni riscalate di un fattore γ o traslate di un valore δ di
una variabile strettamente stabile Z standardizzata, cioè distribuita come S(α, β, 1, 0).
Dunque, secondo questa definizione, una variabile casuale X è stabile se e solo se
d
X = γZ + δ
(1.33)
e Z è una variabile casuale la cui funzione caratteristica è
α
ϕ(k) = eikZ = e−|k| (1−iβ sgn(k)Φ)
(1.34)
con 0 < α ≤ 2 e −1 ≤ β ≤ 1. La funzione sgn(k) è la funzione segno di k e
tan πα
per α 6= 1
2
Φ=
2
per α = 1.
− π log |k|
La distribuzione di X risulta simmetrica rispetto allo zero quando β, δ = 0. In
questo caso la funzione caratteristica (1.34) assume la forma semplificata
α
α
ϕ(k) = eikX = eikγZ = e−γ |k|
(1.35)
che sarà quella considerata prevalentemente nel seguito. In altre parole, le distribuzioni
stabili a cui si intende far riferimento sono tutte e sole quelle che hanno una funzione
caratteristica del tipo (1.35).
Il problema posto dalla (1.35) è che in generale non è possibile calcolare esplicitamente
−1
F [ϕ(k)] e risalire dunque ad un’espressione chiusa per la densità di probabilità. Ad
ogni modo è possibile trarre un’informazione importante sull’andamento asintotico
delle code della fX (x) per x → ∞ sviluppando la funzione caratteristica ϕ(k) per
k → 0. Se 1 < α < 2 (il caso 0 < α < 1 è analogo) si ottiene
F [fX ] (k) = ϕ(k) = e−γ
α |k|α
∼ 1 − γ α |k|α
(1.36)
che in questa forma più semplice si può antitrasformare, rivelando la proporzionalità
fX (x) ∼ |x|−(1+α)
|x| γ.
(1.37)
Il fatto che le code decadano con una legge di potenza ci fornisce la prova più
immediata di quanto supposto precedentemente. Come abbiamo visto finora il valore
di aspettazione o la varianza sono parametri a cui si fa spesso riferimento per descrivere
una distribuzione, mentre nel caso di distribuzioni stabili risultano di scarsa utilità
in quanto l’espressione integrale di questi valori di aspettazione può divergere. Ad
eccezione della Gaussiana, nessuna distribuzione stabile possiede una varianza finita,
mentre se α < 1 diverge anche il primo momento.
10
1.6 Il teorema del limite centrale generalizzato
1.6 Il teorema del limite centrale generalizzato
Per quanto abbiamo appena visto, le distribuzioni stabili con α 6= 2 non soddisfano le
ipotesi del Teorema del limite centrale. Questo significa che a priori non sappiamo
come si comporterà la somma di variabili qualsiasi, e che in generale questa somma
potrebbe non convergere a nessuna distribuzione in particolare. In questa sezione
riportiamo la generalizzazione di Lévy-Gnedenko [1] del Teorema del limite centrale
relativa al comportamento della somma di variabili con varianza infinita. È ovvio
infatti che in ogni altro caso (α ≥ 2) vale l’enunciato del Teorema classico. Come
vedremo questa generalizzazione stabilisce l’importanza delle distribuzioni stabili, ed
in questo senso risponde alla domanda sul ruolo di distribuzione limite che ci eravamo
posti nella sezione precedente.
Se consideriamo una serie X1 , . . . , Xn di variabili casuali indipendenti e identicamente distribuite, il Teorema generalizzato afferma che esistono delle costanti di
rinormalizzazione an > 0, bn ∈ R ed una variabile casuale Z non degenere tali che
d
an (X1 + · · · + Xn ) − bn −→ Z,
n→∞
(1.38)
se e solo se Z è distribuita secondo una funzione α-stabile per qualche 0 < α ≤ 2. In
altre parole, se rilasciamo l’ipotesi di varianza finita, gli unici possibili limiti risultanti
sono stabili. Più precisamente, si dice che una variabile X è nel dominio di attrazione
di Z se vale la (1.38) con X1 , . . . , Xn copie indipendenti di X, il che equivale a dire
che X è stabile se e solo se possiede un dominio di attrazione. Con DA(Z) si indica
l’insieme di tutte le variabili casuali che sono nel dominio di attrazione di Z: mentre
ogni variabile stabile appartiene banalmente al proprio dominio di attrazione, è lecito
chiedersi quali condizioni deve soddisfare una variabile qualsiasi per appartenere al
dominio di attrazione di una distribuzione stabile, o alternativamente quali funzioni
rientrano in un certo dominio di attrazione. La dimostrazione di questo Teorema
caratterizza le variabili in un dominio DA(Z) in termini dell’andamento asintotico
delle code delle loro distribuzioni, fornendo i valori opportuni per i coefficienti an e bn .
Se ci si riferisce a densità di probabilità normalizzate della forma
fX (x) ∼ x−(µ+1)
x→∞
con µ > 0 possiamo scrivere dunque
d
an (X1 + · · · + Xn ) − bn −→ Z ∼ S(α, β, 1, 0),
n→∞
(1.39)
dove la potenza con cui decadono le code determina l’indice di stabilità
µ
per µ ≤ 2
α=
2
per µ > 2
che caratterizza la distribuzione stabile del dominio di attrazione di X.
11
1 Dal moto browniano ai voli di Lévy
Figura 1.2: Simulazioni di due differenti cammini casuali (50000 passi) caratterizzati
da diverse distribuzioni di passi. Pannello a: moto browniano. Pannello
b: volo di Lévy per una distribuzione con α = 1. Nonostante il fatto
che le due distribuzioni usate hanno la stessa larghezza a mezza altezza
è evidente che i due cammini casuali hanno caratteristiche molto diverse.
L’unità di misura utilizzata per gli assi è la larghezza a mezza altezza
stessa.
1.7 Diffusione anomala
Arrivati a questo punto possiamo riprendere il problema (1.9) del cammino casuale ed
analizzarlo in modo più approfondito. Siamo adesso in grado infatti di valutare quali
conseguenze comporta lo scegliere i passi del camminatore secondo una distribuzione
f∆r qualsiasi. Quello che abbiamo visto è che al crescere di n la distribuzione limite
risultante non potrà che essere del tipo S(α, β, γ, δ) con 0 < α ≤ 2. Questa famiglia
di cammini casuali prende il nome di voli di Lévy, e con essa è possibile descrivere
un’ampia classe di processi stocastici Markoviani. La proprietà più immediata di una
particella che segua una traiettoria di questo tipo è che per 0 < α < 2 il suo moto
casuale sarà privo di una lunghezza caratteristica analoga alla varianza. Questo è
dovuto principalmente al fatto che la varianza (1.11) di queste distribuzioni diverge
con la conseguenza che, nel caso in cui i passi siano tutti indipendenti, lo spostamento
quadratico medio (1.12) risulta infinito già dopo il primo passo.
Questo comportamento anomalo è dovuto all’andamento asintotico (1.37) che caratterizza le code di una distribuzione α-stabile. Infatti, dal momento che queste
scalano secondo una legge di potenza, esiste sempre una probabilità non trascurabile di
compiere passi arbitrariamente lunghi. Le leggi di potenza possiedono anche un’altra
proprietà notevole su cui vale la pena soffermarsi: a differenza di una distribuzione
gaussiana sono invarianti di scala. Questo, come si può vedere dall’immagine 1.2, conferisce ad un volo di Lévy alcune proprietà evidenti sin dall’aspetto, che ben si distingue
da quello più omogeneo del moto browniano tipico della diffusione normale. In un volo
12
1.7 Diffusione anomala
di Lévy pochi passi dominano l’entità del trasporto mentre nel caso browniano tutti
gli spostamenti hanno un peso simile e, per quanto abbiamo detto, questa discrepanza
tra passi brevi e lunghi si presenta invariata ad ogni scala di grandezza. La traiettoria
tracciata in un volo di Lévy è a tutti gli effetti un frattale6 di dimensione frazionaria
df = α [13]. Un’altra caratteristica che si può notare dall’immagine è che, dopo uno
stesso numero di passi — e quindi di tempo trascorso — un camminatore che segua
un volo di Lévy ha avuto modo di “campionare” un’area molto più vasta del piano
a differenza di quanto riesca a fare un semplice moto browniano. Per questo motivo
è ormai opinione comune [14] che effettuare un volo di Lévy in una certa regione di
spazio rappresenti la strategia di ricerca più efficiente per gli organismi viventi. Lo
stesso tipo di traiettoria è stato identificato [15] anche nei movimenti compiuti dalle
pupille (detti saccadi ) per analizzare in breve tempo le zone salienti comprese nel suo
campo visivo. In questo senso, i voli di Lévy talvolta danno modo di rendere ragione
di alcuni schemi comportamentali anche complessi in termini di più semplici principi
di ottimizzazione.
Questo quadro sarebbe però riduttivo: oltre che al caso degli animali le distribuzioni
α-stabili hanno dato modo di descrivere in modo più accurato fluttuazioni, traiettorie
e spostamenti comuni ad un elenco molto eterogeneo di discipline, dal modo in cui si
spostano le banconote [16] ai movimenti dell’epicentro di un terremoto [17], dall’andamento dei prezzi dei titoli azionari [18] all’allargamento dei segnali astronomici [19]. In
questo senso è possibile intuire la quantità di fenomeni che, per poter essere indagati
con sufficiente chiarezza, richiedono di poter supporre la presenza di distribuzioni con
momenti divergenti o in generale di qualche circostanza che cada fuori dalle ipotesi
del Teorema del limite centralizzato classico, e quindi dalla diffusione normale.
Come abbiamo visto in precedenza, quest’ultima era caratterizzata in modo particolare dalla proporzionalità lineare dello spostamento quadratico medio hr2 i col tempo.
Anche restringendoci al campo della fisica molti esperimenti [20, 21] hanno tuttavia
mostrato deviazioni anche significative da questa legge, mostrando i salti e l’invarianza
di scala tipica dei voli di Lévy.
Per tutti questi fenomeni si fa riferimento attualmente al concetto di diffusione
anomala, per distinguere i casi in cui α ∈ (0, 2) da quello normale. In questi casi è
ancora utile far riferimento alla proporzionalità tra le due quantità nella forma più
generale
2
r = Dtγ
(1.40)
dove D rappresenta la costante di diffusione generalizzata 7 e γ è il parametro che
caratterizza il tipo di diffusione. Il caso γ = 1 corrisponde alla diffusione standard,
mentre per valori di γ > 1 si parla in particolare di superdiffusione in quanto a parità di
tempo la distanza dal punto di partenza che il camminatore casuale può aver raggiunto
è maggiore rispetto al caso diffusivo. Dal punto di vista sperimentale, se sono note le
6
Non a caso, storicamente, Benoît Mandelbrot fu il primo a dare una descrizione, ed in effetti a
scegliere il nome, dei voli di Lévy
7
si noti che [D] = cm2 s−γ
13
1 Dal moto browniano ai voli di Lévy
traiettorie di un numero sufficiente di particelle, un grafico di log hr2 i su log t spesso
fornisce un’idea del tipo di diffusione che si sta verificando nel sistema.
Qualche considerazione a parte merita infine di essere spesa riguardo alla cosiddetta
diffusione balistica, corrispondente a γ = 2: è il caso di una particella che si muova con
velocità v costante senza subire alcuna collisione o forza frenante. Si ha ovviamente
che r = vt, in modo che hr2 i ∼ t2 . Le particelle libere sono dunque, nella notazione
precedente, superdiffusive, e l’aggettivo “balistico” trae origine proprio da questo
esempio. D’altronde la propagazione in linea retta non è che il caso limite tra quelli
proporzionali a t2 . Anche in presenza di collisioni, o comunque di traiettorie più
complesse, può naturalmente conservarsi una proporzionalità asintotica con γ = 2,
anche se con un coefficiente D minore.
L’importanza della propagazione balistica come caso limite è tanto più rilevante dal
punto di vista fisico se applicata al caso che prenderemo in esame nella seconda parte
di questa tesi. La propagazione della luce avviene a velocità costante in qualunque
direzione, e nessun segnale luminoso può raggiungere un punto ad una certa distanza
entro un tempo minore a quello necessario per arrivarci in linea retta.
14
2 Cammini di Lévy per la luce
2.1 Modelli a tempo continuo: i cammini di Lévy
Se pensiamo di applicare quanto visto finora al caso della luce, per prima cosa può
essere utile fare un passo indietro. Solitamente siamo abituati a pensare alla diffusione
come ad un fenomeno riguardante più la propagazione del suono o di onde meccaniche1
che non quella di un segnale luminoso, e non è certo immediato coglierne gli aspetti
comuni con la conduzione del calore o col modo in cui si spande una goccia di inchiostro
in un bicchier d’acqua. Potrebbe dunque sembrare insolito pensare di applicare i
concetti di cammino casuale ad un’onda elettromagnetica come la luce, in quanto
resta difficile supporre valido anche per i fotoni lo scenario di particelle e collisioni che
abbiamo descritto finora. Ciò nonostante gli effetti di questo fenomeno sono sotto i
nostri occhi quotidianamente, e risulta che l’approssimazione di diffusione normale
è più che sufficiente per descrivere in modo accurato gli aspetti macroscopici della
propagazione della luce in mezzi disordinati, come ad esempio una nuvola o un bicchiere
di latte. In essi i fotoni vanno incontro ad un gran numero di eventi di scattering
indipendenti che ne scorrelano completamente la fase, dando luogo in ultima analisi
all’equivalente di un cammino casuale ogni volta che il cammino libero medio nel
mezzo risulta molto più grande della lunghezza d’onda considerata. In questo modo si
spiega il passaggio dall’azzurro intenso al rosso del cielo tra il giorno e il tramonto,
come pure il fatto che i fotoni prodotti all’interno del Sole, percorrendo l’equivalente
di un moto browniano, impiegano in media 105 anni per raggiungerne la superficie
invece dei pochi secondi richiesti dalla propagazione in linea retta, che come abbiamo
detto rappresenta il caso limite di quelli con proporzionalità lineare tra r e t.
Rispetto alla (1.40), questi due valori apparentemente così distanti possono dare
un’idea di quanto ampio sia il divario dischiuso nel passaggio da γ = 1 a γ = 2 o,
in termini di traiettorie, di quante possibili soluzioni intermedie esistano tra il “fitto”
moto browniano ed un percorso rettilineo. Tra l’uno e l’altro caso hanno luogo i
fenomeni di superdiffusione, che corrispondono a cammini casuali i cui passi seguono
una distribuzione α-stabile di Lévy secondo la relazione γ = α2 [22].
Di seguito ci occuperemo di mostrare come sia possibile realizzare un materiale,
al quale è stato dato il nome di vetro di Lévy [5], in cui la luce vada incontro a
superdiffusione effettuando un volo di Lévy il cui parametro α sia facilmente regolabile.
Per far questo ci baseremo sulla teoria ed il modello mostrati finora, adottandolo con
opportuni accorgimenti al caso fisico dei fotoni. La relazione citata precedentemente
1
si pensi ad esempio ad un’ecografia
15
2 Cammini di Lévy per la luce
infatti, pur restituendo correttamente il caso diffusivo per α = 2, porterebbe ad una
diffusione più rapida di quella balistica qualora i fotoni seguissero un volo di Lévy con
α < 1, il che è fisicamente impossibile.
Questa implicazione inaccettabile del modello è in realtà comune a tutti i voli
di Lévy e deriva dal fatto che fino a questo punto abbiamo considerato il tempo
come un semplice contatore scandito da incrementi ∆t di durata costante. Infatti,
poiché la varianza di una distribuzione stabile con α ∈ (0, 2) diverge ed esiste sempre
una probabilità non trascurabile di effettuare passi arbitrariamente lunghi, sarebbe
possibile percorrerli in un tempo fissato solo supponendo che la luce possa viaggiare a
velocità infinita. Poiché questa assunzione è priva di significato fisico dobbiamo operare
un’ulteriore modifica al nostro modello, restituendo al tempo lo status di variabile a
tutti gli effetti. Per fare questo, affianchiamo alla (1.9) un’evoluzione analoga per gli
incrementi temporali
tn = ∆tn + ∆tn−1 + · · · + ∆t2 + ∆t1 + t0
(2.1)
dove t0 è il tempo iniziale e i ∆ti sono adesso variabili casuali. Ad essi dovremmo
attribuire una densità di probabilità che ci fornisca la probabilità che l’i-esimo passo
duri un tempo ∆ti : questo può essere fatto in diversi modi più o meno complessi e
adatti ad affrontare di volta in volta i problemi e le condizioni poste. Qui ci limiteremo
semplicemente a far notare che nel caso più generale sarebbe necessario definire una
densità di probabilità congiunta f∆r,∆t (∆r, ∆t).
Nel nostro caso possiamo servirci di un modello più semplice in cui il tempo ∆t
rappresenti la durata dello spostamento del camminatore supponendo che questo
viaggi a velocità costante — ovvero nel caso di un fotone ∆t = |r| /c — in modo
che la distribuzione degli incrementi abbia la forma f∆r,∆t = δ(∆t − |r| /c)f∆r (∆r).
Un modello di questo tipo viene indicato col nome di cammino di Lévy. In questo
modo si giunge, nel caso unidimensionale, ad una generalizzazione dell’equazione di
Einstein (1.14)
Z
Z t
P (x, t) = d∆x
d∆t P (x − ∆x, t − ∆t)f∆x,∆t (∆x, ∆t) + δ(t)P (x, t = 0) (2.2)
0
dove la probabilità P (x, t) sarà diversa a seconda del modello utilizzato. Ai fini
di questa trattazione è sufficiente dire che questo modello consente di far sì che la
propagazione dei fotoni non ecceda mai i limiti balistici fornendo la relazione γ = 3 − α
per 1 < α < 2 [23] ed il valore costante di γ = 2 per tutto il range 0 < α < 1 [24].
Si è voluta riportare comunque la versione generalizzata dell’equazione di Einstein
per evidenziare il fatto che nei modelli in cui il tempo viene considerato come una
variabile continua le equazioni utilizzate non sono più operatori locali, né spazialmente
né temporalmente: questo significa che a differenza dei voli, i cammini di Lévy non
sono più dei processi puramente Markoviani. Se infatti resta pur vero che ad ogni
evento di scattering le condizioni iniziali vengono “resettate” senza tenere conto dei
passaggi precedenti, in un modello a tempo continuo una volta scelta la direzione di
svolgimento di un passo il moto procede in modo non casuale per tutta la sua durata.
16
2.2 Vetri di Lévy
2.2 Vetri di Lévy
Tenendo presenti queste considerazioni, possiamo adesso chiederci quali caratteristiche
dovrebbe avere un mezzo affinché i fotoni possano seguire al suo interno un cammino
di Lévy, cioè su quali proprietà è possibile agire affinché la distribuzione dei passi
accessibili ai fotoni decada con la proporzionalità (1.37) di una legge di potenza. Per
fare questo, come vedremo, è possibile seguire un approccio che inizialmente potrebbe
sembrare controintuitivo: se ripensiamo al fatto che il primo volo di Lévy è stato
descritto da Mandelbrot come un cammino su un frattale [13] potremmo pensare di
dover conferire al nostro campione una serie di strutture che si ripetano uguali a varie
scale di grandezza al fine di far emergere la distribuzione di passi cercata. Questo
tentativo, oltre ad essere di difficile realizzazione, non porterebbe i risultati sperati: la
luce, come ogni altra onda, non riuscirebbe a risolvere alcuna struttura sotto una certa
dimensione e andrebbe incontro a fenomeni di scattering con caratteristiche differenti
a seconda delle dimensioni delle strutture più grandi incontrate.
L’unica soluzione di cui ad oggi esista una verifica sperimentale [5] ha individuato
nella densità degli scatteratori, più che nelle loro dimensioni, la variabile più accessibile
ed efficace da far variare in modo autosimile. Questo accorgimento consente di ottenere
un cammino libero medio che dipende in modo sostanziale dalla posizione all’interno
del campione. Per chiarire questo aspetto consideriamo innanzi tutto il modo in cui
si distribuiscono i passi di un fotone in un mezzo reso opaco da una distribuzione
omogenea di n scatteratori per unità di volume con sezione d’urto σ. Se pensiamo di
derivare una qualsiasi quantità (nel nostro caso la distribuzione f (x) della lunghezza dei
passi) lungo un asse che attraversa il campione otteniamo la nota legge di Lambert-Beer
df (x)
= −σnf (x)
dx
→
df (x)
= −σndx
f (x)
ln f (x) = −σnx + C
→
(2.3)
solitamente riportata nella forma
x
f (x) = Ae−σnx = Ae `
(2.4)
1
dove A = eC è una costante che dipende dalle condizioni al contorno e ` = σn
è
il primo momento della distribuzione, definito in modo analogo a quanto avevamo
fatto nella (1.6). Questo, assieme a tutti i momenti successivi, esiste finito visto il
decadimento esponenziale della distribuzione trovata. Il nostro obiettivo è quello di
modificare questa distribuzione, e quindi le proprietà del materiale impiegato, per
fare in modo che i suoi momenti possano divergere. A tal fine possiamo pensare
di aggiungere alcune regioni “vuote” in cui sia inibita ogni possibilità di scattering
(Fig. 2.1). In questo modo la nuova distribuzione potrà essere scritta come
x−b
x
1
f˜(x) =
H(a − x)e− ` + H(x − (a + b))e− `
(2.5)
`
dove H(x) è la funzione di Heaviside e a e b sono rispettivamente la distanza alla quale
si incontra una regione vuota e la sua estensione lungo la direzione dell’attraversamento.
17
2 Cammini di Lévy per la luce
Figura 2.1: Funzione di distribuzione dei passi in presenza di una regione vuota di
ampiezza b. Al suo interno non si verifica alcun evento di scattering.
Attraversando un vuoto di forma sferica un raggio di luce incontrerà una
regione priva di scatteratori di lunghezza b ≤ d, cosicché P (b) 6= P (d).
L’angolo solido sotteso da una sfera determina la probabilità che la luce
incontri quella particolare regione vuota.
Si noti in particolare che, come avevamo suggerito precedentemente, ` assume a questo
punto il ruolo di una variabile definita solo localmente, riferita alle regioni in cui sono
presenti scatteratori: all’interno dei vuoti il suo valore locale sarebbe infinito. Ad
ogni modo, se l’ampiezza b fosse una quantità costante avrebbe l’unica conseguenza
di rinormalizzare ` spostando il valor medio di f˜(x): i momenti di questa nuova
distribuzione sarebbero ancora tutti finiti e varrebbe l’assunto del Teorema del limite
centrale. Si trova invece che è possibile far divergere la varianza di x facendo divergere
la varianza di b, cioè nel caso in cui la lunghezza dei passi percorsi nelle regioni vuote sia
distribuita secondo una legge di potenza con lo stesso comportamento asintotico (1.37)
di una distribuzione stabile con α < 2.
Sperimentalmente non possiamo avere accesso direttamente alla distribuzione dei
passi P (b), ma solo alla quantità e alle dimensioni delle regioni vuote presenti in ogni
campione, cioè alla loro distribuzione P (d). Queste due distribuzioni saranno tra loro
in relazioni diverse a seconda della forma dei vuoti, anche se in ogni caso avremo
che b ≤ d con una certa dipendenza dall’angolo di incidenza del segnale luminoso.
Se consideriamo per semplicità che le regioni vuote abbiano forma sferica e che d
rappresenti il loro diametro si trova che
b = d cos θ
(2.6)
come mostrato nel pannello centrale della figura 2.1. Questa relazione determina la
lunghezza massima che è possibile percorrere con un passo una volta entrati in una
certa sfera, e in questo senso rappresenta il fattore di scala con cui modificare P (b) in
presenza di un vuoto di dimensioni d.
Vista la proporzionalità lineare tra d e b possiamo supporre che per ottenere una
densità della distribuzione di passi proporzionale a b−(α+1) anche la distribuzione dei
diametri debba decadere come una legge di potenza d−β , dove il valore dell’esponente
β resti determinato una volta esplicitata la relazione tra P (b) e P (d).
18
2.2 Vetri di Lévy
In questi termini, il problema risulterebbe molto difficile da schematizzare a meno di
non applicare una serie di approssimazioni. Una volta individuata la relazione (2.6) tra
le dimensioni della regione vuota e la lunghezza dei passi, è necessario esprimere quale
probabilità esiste di incontrare una sfera di un certo diametro a partire da un punto
qualsiasi del campione. L’ipotesi più plausibile è che questa sia proporzionale alla
distribuzione delle sfere P (d) e all’angolo solido Ω(d, a) che ognuna di esse sottende
da una distanza a
s
2
d
Ω(d, a) = 2π − 2π 1 −
(2.7)
d + 2a
in modo che i fattori principali che determinano la forma di P (b) sono
P (b) ∝ P (d)Ω(d, a)d cos θ.
(2.8)
L’utilizzo in questa formula della distribuzione P (d) nella forma di una semplice legge
di potenza rappresenta in realtà soltanto un’approssimazione, in quanto corrisponde
a supporre che gli angoli solidi sottesi dalle sfere circostanti ad un certo punto non
si sovrappongano e che la probabilità di incontrare una sfera di diametro d dipenda
soltanto dal numero di sfere presenti per quella dimensione. In questo modo inoltre
non si tiene conto delle condizioni al contorno dovute all’estensione finita di ogni
campione reale, né del fatto che questi saranno composti da sfere presenti in numero
discreto sia per esemplari che per diametri. Infine, per fare un esempio concreto,
dopo aver attraversato una sfera di grande diametro, trovandosi ancora nei pressi
della sua superficie, la distribuzione del passo successivo è sostanzialmente modificata
tanto dalla probabilità di rientrarci quanto dal fatto che ogni sfera molto voluminosa
tende ad essere circondata da una “cintura” di sfere dei diametri più piccoli (Fig. 2.2).
Ciò nonostante il fatto di mediare su un così grande numero di eventi ci permette
ugualmente di ricavare una stima realistica dell’esponente
β. A tal fine, supponiamo
innanzi tutto che ogni angolo di ingresso θ ∈ − π2 , π2 sia ugualmente probabile, e che
anche i valori di a siano più o meno uniformemente distribuiti tra 0 ed il diametro
minimo delle sfere presenti. Questa ultima assunzione è la più plausibile considerando
l’alta densità di regioni vuote che è possibile raggiungere in un campione, ed è d’altronde
perfettamente compatibile con il modello che stiamo seguendo in quanto, se avessimo
a ` otterremo che hxi = ` per ogni α > 0 e la presenza delle regioni vuote avrebbe
il solo effetto di separare con rari salti zone di moto puramente browniano.
Così facendo, il modo più semplice di procedere per confrontare la distribuzione dei
passi con quella dei diametri consiste nel notare che il termine principale che si ottiene
da uno sviluppo in d della (2.7) è una costante e, disinteressandoci dei fattori numerici
di proporzionalità derivanti dall’angolo solido e dall’integrazione su θ, si ottiene infine
P (b) ∝
1
bα+1
∝
1
dβ−1
(2.9)
da cui si vede che se vogliamo che b e d scalino con la stessa legge di potenza possiamo
scegliere β = α + 2.
19
2 Cammini di Lévy per la luce
Figura 2.2:
Rappresentazione grafica di un
cammino casuale bidimensionale in un materiale con forti
fluttuazioni nella densità degli
scatteratori (presenti solo all’esterno delle regioni circolari).
Si noti nell’ingrandimento l’invarianza di scala che caratterizza la distribuzione dei vuoti
e la traiettoria percorsa.
2.3 Preparazione dei campioni
Questo approccio formale è quello che ha recentemente portato alla realizzazione dei
primi campioni [5] che abbiano mostrato un comportamento superdiffusivo per la luce
con α = 1. Ancora oggi questo rappresenta l’unico modo in cui si riesca a riprodurre
(non solo nel caso della luce) una statistica di Lévy per una distribuzione di passi i
cui parametri siano regolabili in modo semplice e controllato. Scopo principale del
presente lavoro è stato quello di approfondire questo aspetto e verificare che variando
la distribuzione di sfere incluse nel campione si ottiene effettivamente una variazione
sensibile anche dell’indice di stabilità risultante, confermando in questo modo la validità
della tecnica per valori di α anche diversi da 1. Come nell’esperimento originale, i
campioni sono stati preparati mescolando particelle di diossido di Titanio (T iO2 , il
cui alto indice di rifrazione e basso coefficiente di assorbimento nel range di frequenze
di interesse le rende scatteratori particolarmente adatti per questo esperimento) in
una matrice di Sodio silicato (SiO2 : N a2 O) disciolto in soluzione acquosa. Prima
di lasciar solidificare il Sodio silicato (noto anche come “vetro liquido”) si è dunque
aggiunta nella sospensione una distribuzione di microsfere di vetro dosata a seconda
dei diametri seguendo una legge di potenza del tipo
P (d) =
1
dα+2
.
(2.10)
Queste, una volta solidificato il campione, consentono di simulare le regioni caratterizzate dall’assenza di scatteratori richieste dal nostro modello. Al loro interno i fotoni
si possono propagare in modo rettilineo per un tratto la cui lunghezza b è connessa al
diametro della sfera d e all’angolo di incidenza θ dalla relazione (2.6).
Tramite misure di trasmissione totale su realizzazioni di spessori diversi, questa
tecnica di realizzazione ha già dimostrato [5] di produrre campioni caratterizzati
20
2.3 Preparazione dei campioni
dal valore corretto di α nel caso in cui α = 1, dando una prima conferma del fatto
che l’avere accesso alla distribuzione dei diametri delle sfere incluse nel campione ci
consente effettivamente di controllare la distribuzione dei passi e dunque il grado di
superdiffusione raggiungibile nel campione.
Scelto un certo valore di α, tramite la (2.10) si può risalire al numero di sfere
necessarie a seconda del loro diametro. Le sfere utilizzate sono prodotte dalla duke
scientific corporation che certifica per ogni diametro la precisione e la deviazione
standard del prodotto. Le sfere fino ad un diametro di 20 µm sono composte di Dry
Borosilicate Glass, mentre per diametri maggiori viene utilizzato del Dry Soda lime
Glass. I due materiali presentano valori quasi coincidenti per l’indice di rifrazione
e la densità lungo tutta la scala dei diametri. Ai fini dei calcoli successivi queste
discrepanze verranno considerate trascurabili rispetto agli errori di misura tipicamente
connessi alle operazioni di dosaggio delle sfere. La quantità di sfere per ogni diametro
d disponibile, espressa in peso, viene riportata di seguito per 4 diversi valori di α
d (µm) α = 0.5 (mg) α = 0.75 (mg) α = 1.0 (mg) α = 1.5 (mg)
230
28.69
21.57
15.00
5.52
200
26.75
20.83
15.00
5.92
170
24.66
20.00
15.00
6.42
140
22.38
19.05
15.00
7.07
120
20.72
18.33
15.00
7.64
100
18.92
17.52
15.00
8.37
70
15.83
16.02
15.00
10.00
50
13.38
14.73
15.00
11.83
40
11.96
13.93
15.00
13.23
30
10.36
12.96
15.00
15.27
20
8.46
11.71
15.00
18.71
15
7.33
10.90
15.00
21.60
10
5.98
9.85
15.00
26.45
8
5.35
9.32
15.00
29.58
5
4.23
8.28
15.00
37.41
Tabella 2.1: Dosi delle sfere per vari valori di α normalizzate ad un peso complessivo
costante di 225 µg. Poiché i materiali usati hanno la stessa densità, anche
il volume di sfere aggiunto è costante. Su ogni peso riportato si intenda
applicato un errore di 0.10 mg. Questo valore indicativo rappresenta un
errore ottenuto come la stima della somma dell’errore sull’ultimo digit
della bilancia, delle fluttuazioni riscontrate ad ogni pesata e dell’errore
umano nel dosare le sfere.
A prescindere dal valore di α, le quantità di diossido di Titanio e di Sodio silicato sono
state invece scelte e mantenute costanti per tutti i campioni tenendo in considerazione
che la quantità di scatteratori deve essere essere tale da rendere il campione opaco,
21
2 Cammini di Lévy per la luce
senza però che il cammino libero medio diventi molto più piccolo della distanza media
tra le sfere. Anche per questo motivo il Sodio silicato non dovrebbe eccedere la quantità
strettamente necessaria ad inglobare tutte le sfere, in modo da mantenerne alta la
densità [4]. Nel nostro caso, dopo una serie di tentativi, abbiamo riscontrato che
circa 5 mg di T iO2 e 43 µl di Sodio silicato ci consentivano di soddisfare al meglio le
condizioni richieste.
Una volta preparato il composto questo viene adagiato e mantenuto compresso
tra due vetrini con dei morsetti durante il tempo necessario alla matrice di Sodio
silicato per solidificare. Esercitando una pressione sufficiente sui vetrini durante questa
fase è possibile assicurarsi che lo spessore del campione si riduca fino al diametro
delle sfere più grandi. Ogni scostamento per eccesso da questo spessore tenderebbe
a degradare con grande rapidità il carattere superdiffusivo dei profili di intensità
misurati a favore di un comportamento puramente gaussiano, in quanto non sarebbe
più possibile attraversare il campione in un tempo sufficientemente breve.
2.4 Effetti del troncamento
Anche applicando tutti questi accorgimenti, il campione realizzato resta infatti soggetto
ad un problema intrinseco di “troncamento”: è ovvio che non sarà fisicamente possibile
percorrere passi arbitrariamente lunghi entro un campione di dimensioni finite. Questo
significa che la distribuzione di passi accessibili ai fotoni seguirà l’andamento di una
distribuzione α-stabile di Lévy solo fino ad un certo punto mentre sarà identicamente
nulla oltre. Una distribuzione del genere ha ovviamente tutti i momenti finiti e
convergerà ad una gaussiana mostrando un regime diffusivo.
Tuttavia, anche se troncata, una distribuzione stabile possiede ancora momenti
molto grandi, il che rende la convergenza alla distribuzione normale sufficientemente
lenta da poter osservare la presenza temporalmente distinta di un regime superdiffusivo
(per tempi brevi) e di uno diffusivo (per tempi lunghi), nonché della zona di passaggio
i due [25]. Per studiare le proprietà di questa transizione sono state effettuate [4] delle
simulazioni Monte Carlo per varie realizzazioni con diverse lunghezze di troncamento.
Il risultato, come era lecito aspettarsi, è che la transizione avviene approssimativamente
quando il prodotto tra il tempo e la velocità della luce è uguale alla lunghezza di
troncamento, cioè quando i fotoni hanno avuto modo di esplorare tutte le lunghezze
accessibili per i passi. Poiché nei nostri campioni il passo più lungo che è possibile
percorrere avviene all’interno delle sfere da 230 µm, ci aspettiamo che questo valore
rappresenti più o meno l’ordine di grandezza del fattore di scala caratteristico per il
trasporto di Lévy. Se lo spessore del campione è maggiore, lo sarà anche il tempo
minimo in cui la luce potrà attraversarlo, senza che però a questo corrisponda la
possibilità di compiere passi della stessa durata. Anche per questa ragione è importante
assicurarsi che lo spessore totale del campione non superi il diametro delle sfere più
grandi, in quanto questa condizione è fondamentale per osservare con maggior fedeltà
le caratteristiche di un comportamento superdiffusivo.
22
2.5 Apparato sperimentale
2.5 Apparato sperimentale
L’apparato sperimentale per le misure di profilo si compone principalmente di un
supporto per il campione realizzato la cui posizione sul piano verticale sia regolabile
tramite viti micrometriche. Attraverso una serie di lenti e specchi viene messo a fuoco
sulla faccia anteriore del campione il fascio di un laser He-N e (la cui lunghezza d’onda
in aria è di circa 633 nm). Nonostante il fatto che la luce esca già con una polarizzazione
ben definita da un laser di questo tipo, nel fascio che illumina il campione essa viene
ulteriormente accentuata massimizzandone la trasmissione attraverso un polarizzatore.
Un secondo gruppo di lenti mette a fuoco l’immagine sulla seconda faccia del campione
(ovvero, in un campione ideale, il piano focale della lente di uscita si trova 230 µm a
valle di quello della lente di ingresso) e questa immagine viene mandata, attraverso un
secondo polarizzatore ruotato di 90◦ rispetto al primo, su una CCD mantenuta ad una
temperatura di -20 ◦ C. Il secondo polarizzatore ha la funzione di fermare la componente
balistica del fascio, composta da quei fotoni che attraversano il campione senza subire
alcun evento di scattering (e dunque conservando la polarizzazione originaria). In
questo modo l’immagine che otteniamo è composta solo da fotoni che abbiano subito
almeno un evento di scattering, cioè che abbiano compiuto almeno un passo della
distribuzione stabile. Ridurre il più possibile la componente balistica ci consente inoltre
di sfruttare al meglio il range della CCD, poiché altrimenti il segnale raccolto sarebbe
in generale troppo basso se confrontato con quello trasmesso in corrispondenza delle
sfere di diametro maggiore. Infine, a seconda del valore di α del campione realizzato,
e quindi della sua trasmissione totale, vengono aggiunti all’uscita del laser una serie di
filtri che ne attenuano l’intensità di un fattore tale da evitare che il segnale raccolto
saturi la CCD. Questo può avvenire con maggior rilievo in corrispondenza delle sfere
di diametro massimo, che mettendo idealmente in comunicazione le due facce del
campione permettono il passaggio di una porzione consistente del fascio. D’altra parte
è sempre preferibile impiegare il minor numero di filtri compatibili con i limiti di
saturazione della CCD al fine di sfruttarne al massimo il range e massimizzare così il
rapporto segnale/rumore.
Quello che ci aspettiamo di trovare, a differenza del caso diffusivo, sono grandi
fluttuazioni nel profilo di trasmissione totale tra varie realizzazioni di disordine. Con
questo termine ci riferiremo, nel seguito, alle diverse porzioni osservate dei vari
campioni realizzati. Osservando infatti la superficie di uno stesso campione in punti
sufficientemente distanti tra loro possiamo supporre che ogni immagine provenga
idealmente da una diversa e indipendente realizzazione di disordine. Questa differenza
è esemplificata dal confronto tra i profili misurati su un campione test di tipo diffusivo
(Fig. 2.3) ed uno superdiffusivo (Fig. 2.4) da cui si può notare la notevole varietà ed
estensione spaziale dei profili ottenuti nel secondo caso. A causa di queste fluttuazioni
nel caso superdiffusivo sarà necessario mediare su un gran numero di realizzazioni di
disordine per osservare la convergenza verso la relativa distribuzione α-stabile.
A tal fine per ogni campione sono state realizzate circa 2000 misure indipendenti su
singole realizzazioni casuali di disordine, ottenendo in questo modo nella media un
23
2 Cammini di Lévy per la luce
Figura 2.3: Profili di intensità tipici osservati per un campione diffusivo.
profilo di intensità le cui code e la cui cuspide risultano più o meno marcate al variare
di α. Per α < 1 ad esempio persino il primo momento diverge: la distribuzione sarà
molto lontana da una gaussiana e le sue code saranno molto importanti (Fig. 2.5).
Nella realizzazione questo si ottiene dosando in quantità maggiore le sfere di diametro
più grande, in corrispondenza delle quali sarà più probabile che una quantità maggiore
di luce riesca a passare in linea quasi retta, ovvero subendo un numero piccolo di eventi
di scattering. Per questo motivo, al centro dei profili è sempre presente una cuspide
che emerge nella media a causa di quelle realizzazioni di disordine che presentavano
sfere un po’ più grandi vicine all’asse di propagazione del laser.
Al crescere di α queste caratteristiche diventano progressivamente meno evidenti
finché, nel limite di α → 2 dovremmo veder scomparire la cuspide e ritrovare, anche per
le code, un andamento gaussiano2 . Per poter avere un insieme di misure confrontabili
a sostegno di questa ipotesi è stato dunque realizzato un campione a parte dello stesso
spessore dei vetri di Lévy, con la stessa quantità di T iO2 ma con un volume di Sodio
silicato tale da compensare anche la differenza di volume causata dall’assenza di sfere.
2
Qui e nel seguito, indicheremo come gaussiano il caso dei campioni con α = 2, nonostante il fatto
che a rigore si potrebbe parlare di profilo gaussiano solo nel caso di un sistema infinitamente
esteso in tutte le direzioni. Da una soluzione più accurata [4] dell’equazione della diffusione nel
caso in cui una delle dimensioni sia finita (che è quello più vicino al nostro) si nota che la soluzione
del propagatore comincia lievemente a scostarsi da una Gaussiana, principalmente a causa del
fatto che parte dell’energia lascia il sistema una volta arrivata raggiunto il bordo.
24
2.6 Misure di profilo
Figura 2.4: Profili di intensità tipici osservati per un campione superdiffusivo.
2.6 Misure di profilo
I risultati delle misure realizzate sui campioni vengono mostrati in fig. 2.6 e sono
in buon accordo con le nostre previsioni. Questi presentano variazioni significative
nell’indice di stabilità dei profili a seconda della distribuzione di sfere inserite. Si
noti in particolare la sequenza ordinata secondo il valore di α delle pendenze delle
cuspidi e dell’importanza delle code, almeno fino alla lunghezza di troncamento,
rispetto al profilo gaussiano ottenuto dalle misure effettuate sul campione test. Questa
serie di misure sembra effettivamente suggerire una soluzione di continuità tra il
comportamento superdiffusivo e quello diffusivo standard per la luce, in accordo con
l’ipotesi qui avanzata che anche i fenomeni di diffusione normale rientrino nel contesto
più generale della diffusione anomala nello stesso modo in cui la distribuzione gaussiana
fa parte come caso limite della classe ben più ampia delle distribuzioni α-stabili.
Una volta stabilito che agendo sulla distribuzione dei diametri delle sfere inserite in
un vetro di Lévy è possibile modificarne in modo controllato il grado di superdiffusione,
sarebbe interessante in futuro ripetere misure di trasmissione totale analoghe a quelle
riportate in [5] realizzando per ogni valore di α campioni di spessore diverso, in modo
da avere una stima indipendente del valore reale di α ottenuto per confrontarlo con
quello atteso dalla (2.10), allo scopo di definire una sorta di curva di taratura con cui
verificare la validità delle ipotesi e delle assunzioni fatte nel calcolarla.
25
2 Cammini di Lévy per la luce
Figura 2.5: Esempio di media risultante dalle misure su un campione con α = 0,5. Dal
rendering tridimensionale dell’immagine si nota la punta estremamente
accentuata che caratterizza il profilo, mentre l’immagine originale rende
l’idea dell’ampiezza dell’area mediamente illuminata.
2.7 Considerazioni sui materiali
Per quanto i dati raccolti finora risultino buoni, discuteremo in questa sezione di un
aspetto ancora del tutto insoddisfacente della tecnica di realizzazione proposta in [5] e di
una possibile via di risoluzione. Il problema più rilevante che si presenta con i campioni
descritti finora riguarda la loro conservazione, ed in particolare il rapido degrado della
matrice di Sodio silicato. Questo deriva probabilmente dalla concomitanza di più
fattori, primo dei quali è rappresentato dalle condizioni difficilmente schematizzabili
di solidificazione in una geometria confinata come l’intercapedine tra i due vetrini
di sostegno. In generale, trascorse 24 ore dalla realizzazione del campione, questo
presenta già danni macroscopici, mentre, anche nelle regioni apparentemente integre,
un’osservazione ravvicinata (Fig. 2.7) rivela la presenza di una fitta trama di crepe
e fessure precedentemente assenti, con un conseguente degrado della qualità delle
misure che è possibile ottenere. L’ipotesi più plausibile per giustificare questo effetto
è imputabile al progressivo disseccamento della soluzione di Sodio silicato che, una
volta solidificata, continua a trattenere e rilasciare nel tempo una certa quantità di
acqua residua, andando incontro così ad una non trascurabile perdita di volume.
Questo restringimento porta con sé principalmente due tipi di effetti. In primo
luogo, ritirandosi, il Sodio silicato espelle le sfere periferiche, mentre quelle interne
vengono probabilmente trascinate verso il centro. D’altra parte, è probabile ad un certo
punto le sfere della taglia e del materiale meno comprimibile oppongano resistenza al
progressivo restringimento del Sodio silicato circostante fino a provocarne la rottura in
più punti. In proporzione minore inoltre questa riduzione interessa anche l’estensione
in verticale del campione. Verosimilmente, mentre i vetrini sono mantenuti ad una
26
2.7 Considerazioni sui materiali
Figura 2.6: Media radiale dell’intensità trasmessa. I due grafici riportano gli stessi
dati normalizzati all’integrale (in alto) o al valore massimo (in basso). Nel
primo caso si può notare la crescente importanza della cuspide al diminuire
di α, mentre il secondo pannello evidenza meglio la diversa pendenza con
cui i profili si avvicinano al picco dell’intensità.
27
2 Cammini di Lévy per la luce
Figura 2.7: Campione di Sodio silicato, apparentemente integro all’ispezione visiva,
dopo 6 ore dalla realizzazione. Le immagini ingrandite rivelano la presenza
di crepe uniformemente distribuite su tutta la realizzazione. Si noti il loro
colore scuro: la luce che attraversa queste fenditure giunge balisticamente
sul secondo polarizzatore, venendo così soppressa.
distanza di almeno 230 µm dalle sfere di diametro maggiore, la matrice di Sodio silicato
se ne distacca permettendo l’infiltrazione dell’aria o la formazione di bolle di vapore
ad ulteriore detrimento dei profili misurati.
Soluzioni possibili a questo tipo di problemi potrebbero essere: modificare le dimensioni o la forma del campione; cambiare la temperatura (o persino la posizione) in cui
viene conservato; adottare un materiale più comprimibile per le sfere o infine studiare
una diversa composizione per la matrice, pur mantenendone le proprietà ottiche il
più vicine possibile a quelle del vetro. Nella parte conclusiva di questa tesi vengono
riportate le misure preliminari relative alla realizzazione di una nuova serie di campioni
composti in una matrice polimerica, assieme ad una documentazione fotografica di
raffronto dello stato di conservazione nel tempo tra un campione realizzato col Sodio
silicato ed uno realizzato con il polimero.
I vantaggi offerti dall’impiego di questo tipo di materiale come matrice sono connessi
al fatto di poter decidere arbitrariamente il momento in cui il monomero debba
solidificare, a differenza del carattere lento e graduale della disidratazione del Sodio
silicato. Se ad esempio scegliamo di utilizzare, come nel nostro caso, un monomero che
polimerizzi per esposizione di qualche minuto a luce UV, otterremo una matrice solida
28
2.7 Considerazioni sui materiali
più resistente alla rottura e meno soggetta a variazioni di volume. Infine, il fatto che
il monomero resti in fase liquida fino al momento della polimerizzazione ci consente
di poter seguire con più cura le fasi di realizzazione di un campione, con particolare
riferimento al mescolamento dei vari componenti e al raggiungimento dello spessore
minimo.
L’utilizzo di un monomero di questo tipo presenta però a prima vista altrettanti
svantaggi e controindicazioni, sufficienti a prospettarne un difficile impiego per i nostri
scopi. Questi risiedono principalmente in una serie di caratteristiche non altrettanto
soddisfacenti rispetto a quelle che rendono il Sodio silicato particolarmente adatto
come matrice. Innanzi tutto, per come abbiamo definito il nostro modello, abbiamo
interesse che gli eventi di scattering all’interno dei campioni siano interamente dovuti
alle nanoparticelle di T iO2 . Per questo motivo è necessario che tra le sfere di vetro
e la matrice circostante la differenza di indice di rifrazione sia minima, il che riduce
anche la possibilità che si verifichino fenomeni di riflessione interna alle sfere. Questa
condizione è ben verificata dal Sodio silicato grazie alla sua affinità di composizione
con le microsfere di vetro, la quale concorre a conferirgli non solo un indice di rifrazione
molto simile (pari a circa 1,5), ma anche un’ottima bagnabilità con il vetro dei supporti
e delle sfere. La buona adesione del Sodio silicato in fase liquida attorno alle sfere ci
consente di realizzare i campioni con un rapporto abbastanza alto tra il volume delle
sfere e quello della matrice che le contiene (filling fraction).
Volendo utilizzare un polimero come matrice queste rappresentano le caratteristiche
più importanti da riprodurre. Mentre nel caso dell’indice di rifrazione, sfruttando
la vasta gamma di polimeri in commercio, è stato possibile giungere ad un buon
compromesso, il problema della viscosità e della scarsa bagnabilità col vetro comportava
l’utilizzo di un volume molto maggiore di monomero liquido per riuscire ad inglobare
un pari volume di sfere, con una conseguente minore densità di regioni esenti da
scattering a detrimento del carattere α-stabile dei profili. Come abbiamo detto, una
bagnabilità ottimale tra matrice e sfere sarebbe favorita a priori dall’utilizzo di materiali
di composizione affine. Questa ipotesi non risulta realisticamente applicabile nel caso
del polimero in quanto le sfere di questo materiale sono prodotte in una minore varietà
di diametri, e ad un costo molto superiore. Dopo una serie di tentativi è stato infine
possibile ovviare a questa serie di inconvenienti abbattendo la viscosità del monomero
durante la fase di mescolamento, realizzando il campione su una piastra riscaldante
elettrica alla temperatura di 150◦ C. Questo accorgimento ha consentito, addirittura,
di utilizzare una quantità di polimero minore di quella di Sodio silicato, garantendo
così un impacchettamento ottimale ed una densità di vuoti ben distribuita.
In base a queste considerazioni, si è scelto di utilizzare per la matrice dei campioni
il norland optical adhesive 65, un monomero acrilato usato come collante
nelle applicazioni ottiche, la cui composizione chimica esatta è mantenuta segreta dal
produttore. L’indice di rifrazione è 1,524, ovvero ben confrontabile con quello degli
altri materiali impiegati. La sua viscosità diminuisce sensibilmente al crescere della
temperatura e la polimerizzazione viene indotta esclusivamente per irraggiamento
UV. Queste caratteristiche ci hanno consentito di raggiungere, a parità di pressione
29
2 Cammini di Lévy per la luce
Figura 2.8:
Immagine della sezione di un
campione presa al microscopio.
Data l’irregolarità del taglio,
la corta profondità di campo
di un microscopio, ed il fatto
che ogni sfera si trova ad una
distanza diversa dall’osservatore il fuoco dell’immagine non
consente di vedere i bordi esatti delle sfere. Anche all’aspetto il materiale circostante sembra comunque uniformemente
polimerizzato.
applicata, spessori molto più vicini alla soglia ideale di 230 µm. La combinazione di
questi fattori, cioè la maggior concentrazione di sfere raggiungibile ed una riduzione
media dell’estensione verticale di almeno 10 µm rispetto ai campioni di Sodio silicato,
sarebbero sufficienti a rendere preferibile la scelta del polimero senza contare la maggior
resistenza del materiale e la sua migliore conservazione.
Ad ogni modo, l’impiego del norland optical adhesive 65 per uno scopo tanto
diverso da quello per cui è stato prodotto può a priori dar luogo ad un altro tipo di
problema. Abbiamo ritenuto importante assicurarci che, nonostante il fatto che il
monomero non sia più trasparente dopo l’aggiunta delle particelle di T iO2 , l’esposizione
alla luce UV riesca comunque a raggiungere anche le zone più interne del campione
permettendone la completa polimerizzazione. A tal fine abbiamo dunque inciso i
vetrini di sostegno e tagliato uno dei campioni realizzati per renderne accessibile
la sezione (Fig. 2.8). In questo modo è stato possibile testarne la resistenza alle
sollecitazioni meccaniche e all’intrusione di punte o lame affilate, verificando così
l’avvenuta solidificazione. La presenza del diossido di Titanio non sembra d’altronde
aver sortito alcun effetto neanche sulle proprietà di collante del polimero, che aderisce
con forza ai vetrini di sostegno.
Per testare la miglior resistenza nel tempo di una matrice polimerica e documentare
al contempo il degradarsi dei campioni di Sodio silicato abbiamo pensato di produrre
una documentazione fotografica di due realizzazioni con caratteristiche pensate appositamente per questo scopo. Gli obiettivi di questo confronto fotografico erano in
particolare mirati ad evidenziare possibili connessioni tra il degrado del Sodio silicato
e fattori quali la dimensione delle sfere inserite o gli elementi chimici presenti nella loro
composizione. Per fare questo abbiamo realizzato un campione in Sodio silicato ed
uno in polimero cercando di riprodurre lo spessore tipico delle realizzazioni usate nelle
misure. In essi abbiamo aggiunto sfere di dimensioni e materiali diversi; una porzione
30
2.8 Misure di profilo preliminari
è stata infine lasciata vuota. Non è stato aggiunto diossido di Titanio per mantenere
i campioni trasparenti ed avere una miglior visibilità. I risultati sono riassunti nella
figura 2.9, che contiene tre scatti significativi tra quelli raccolti. In tutto l’arco di tempo
dell’osservazione la matrice polimerica non ha presentato difetti o modifiche di volume
apprezzabili. Nel caso del Sodio silicato già dopo 24 ore sono invece evidenti danni
macroscopici legati, nella nostra impressione, a fattori non imputabili alla presenza di
un certo tipo di materiale o sfere.
Notando la forma e l’aspetto delle zone più colpite dalla riduzione di volume viene
da pensare piuttosto che questa sia legata alla perdita dell’acqua residua contenuta
nella soluzione diluita di Sodio silicato, con un conseguente cambiamento nel tempo del
valore della tensione superficiale del materiale. In questo modo, i varchi e i cedimenti di
maggiore entità sembrano presentarsi e procedere a partire dalle rientranze del bordo
del campione, con una perdita apparente stimata in circa la metà del volume originario
dopo una decina di giorni. Questo lasso di tempo sembra dunque essere quello realmente
necessario per la solidificazione totale del silicato nella geometria confinata dai due
vetrini, rendendolo sostanzialmente inadatto al nostro scopo in quanto, ritirandosi in
modo non uniforme provoca danni e disomogeneità che compromettono la possibilità
di effettuare misure affidabili oltre poche ore dalla realizzazione.
2.8 Misure di profilo preliminari
In questa sezione presentiamo alcune misure di profilo preliminari riguardanti i primi
campioni realizzati con una matrice di polimero. Tutte le realizzazioni prodotte finora
hanno un valore di α = 1 per poter essere meglio confrontate con i dati provenienti
dalle misure più accurate in nostro possesso per il Sodio silicato [5]. Dopo una serie
di tentativi, si è dimostrato possibile realizzare campioni in cui le sfere sono immerse
in soli 35 µl di polimero, raggiungendo in questo modo una filling fraction superiore
al 70%.
Nel pannello superiore della fig. 2.10 possiamo osservare i profili a confronto: la
sovrapposizione dei dati provenienti da due campioni realizzati con materiali tanto
diversi è sorprendente, fatta eccezione per un comportamento leggermente diverso
verso la punta. Riteniamo che questo scostamento potrebbe andare comunque ad
attenuarsi se si raggiungesse un numero di medie paragonabile con quelle fatte per quel
valore specifico di α nel caso del Sodio silicato (oltre 5000), anche se resta possibile che
quello ottenuto col campione di polimero sia un profilo più accurato in quanto in esso
le sfere raggiungono una densità più alta in uno spessore probabilmente minore. Non
sono state infatti registrati gli spessori dei campioni misurati in [5] ma è verosimile
che, come è successo per tutti i campioni in Sodio silicato realizzati per questa tesi,
non fosse stato possibile avvicinarsi allo spessore ideale di 230 µm più di quanto non
si riesca a fare a caldo nel caso del monomero.
Trascorsi 8 giorni dalla realizzazione del campione in polimero, dopo averne constatato l’assenza di danni macroscopici e la perfetta integrità nei profili delle singole
31
2 Cammini di Lévy per la luce
Figura 2.9:
Confronto fotografico sull’invecchiamento di campioni realizzati con materiali differenti. Le tre foto sono state scattate: (a) a qualche ora dalla
realizzazione (solitamente necessarie al Sodio silicato per
raggiungere una certa solidità),
(b) il giorno seguente e (c) a
distanza di una settimana.
Per cercare di identificare possibili connessioni tra il degrado del Sodio silicato (campione superiore) e le dimensioni
o la composizione dei materiali con cui entrava in contatto
si sono realizzate approssimativamente 4 regioni per ogni
realizzazione. Da sinistra verso destra, entrambi i campioni
contengono regioni senza sfere, con sfere da 20, da 30 e da
230 µm.
Risulta evidente la velocità e
l’entità del degrado per la matrice di Sodio silicato (già danneggiata dopo poche ore nella
regione con le sfere più grandi) rispetto a quella di polimero, che lungo un arco di tempo anche maggiore di quello
documentato non ha manifestato cambiamenti macroscopici evidenti per struttura e
limpidezza.
32
2.8 Misure di profilo preliminari
Figura 2.10: Media radiale dei profili di intensità di un campione in polimero per α = 1.
Nel pannello superiore i dati raccolti dopo la realizzazione del campione
sono confrontati con quelli di un campione in Sodio silicato di uguale
indice di stabilità. Il grafico inferiore riporta nuove misure di profilo prese
sullo stesso campione in polimero ad 8 giorni dalla sua realizzazione.
33
2 Cammini di Lévy per la luce
realizzazioni di disordine, è stata effettuata una ulteriore serie di misure per verificare
che la media dei profili conservasse il comportamento α-stabile. Pur trattandosi
dello stesso campione, avendo effettuato nel frattempo un completo riallineamento
delle apparecchiature ottiche, il grafico nel pannello inferiore della fig. 2.10 non è
direttamente confrontabile con quello precedente, principalmente a causa della diversa
posizione, quota e inclinazione della camera CCD. Restano comunque riconoscibili la
cuspide e l’andamento delle code fino al raggio di troncamento che caratterizzano un
profilo con α = 1.
Una misura di questo tipo, impossibile da replicare nel caso di una matrice in Sodio
silicato, rappresenta una conferma preliminare del fatto che la stabilità dei campioni
in polimero è tale da preservare il carattere superdiffusivo per la propagazione della
luce lungo un arco di tempo dell’ordine dei giorni, o anche maggiore.
34
Conclusioni
Le misure raccolte in questo lavoro evidenziano chiaramente la validità della tecnica
di realizzazione, dimostrando che poter variare la distribuzione dei diametri delle sfere
contenute in un campione ci consente effettivamente di ottenere profili di intensità
con comportamenti superdiffusivi apprezzabilmente diversi. Questo costituisce il
primo passo per arrivare a produrre materiali in cui la luce si propaghi seguendo
una distribuzione di passi con un indice di stabilità α qualsiasi, fornendo un banco
di prova dalle caratteristiche ottimali per testare sperimentalmente i risultati teorici
sui voli di Lévy e le distribuzioni stabili. La luce, in questo senso, rappresenta lo
strumento di indagine ideale in quanto, rispetto ad altre onde, risulta praticamente
indipendente da effetti di temperatura o vibrazioni. Alle frequenze ottiche inoltre
anche l’interazione fotone-fotone è trascurabile, il che rende le misure più facili da
interpretare e virtualmente esenti da artefatti.
Se infine le misure preliminari circa la sostituzione della matrice in vetro con una
in polimero verranno confermate, questo ulteriore miglioramento consentirà, oltre ad
un consistente guadagno di tempo sulle fasi di realizzazione dei campioni, di poter
effettuare sui singoli campioni più tipi di misurazioni, anche di durata maggiore,
caratterizzandone in questo modo più aspetti e analizzandone più approfonditamente
le correlazioni.
35
Conclusioni
36
Bibliografia
[1] Boris Vladimirovich Gnedenko and Andrey Nikolaevich Kolmogorov. Limit
Distributions for Sums of Independent Random Variables. Addison-Wesley, 1954.
[2] Karl Pearson and John William Strutt Rayleigh. The problem of the random
walk. Nature, 72(1865;1866;1867), 1905.
[3] B. Carazza. The history of the random-walk problem: considerations on the
interdisciplinarity in modern physics. La Rivista del Nuovo Cimento, 7:419–427,
1977.
[4] Jacopo Bertolotti. Light transport beyond diffusion. PhD thesis, Università degli
studi di Firenze, 2007.
[5] P. Barthelemy, J. Bertolotti, and D. S. Wiersma. A Lévy flight for light. Nature,
453:495–498, May 2008.
[6] T. Lucretius C. De rerum natura, volume II, chapter 2. I century B.C.
[7] Robert Brown. A brief account of microscopical observations made in the months
of june, july and august, 1827, on the particles contained in the pollen of plants;
and on the general existence of active molecules in organic and inorganic bodies.
Philosophical Magazine, 1828.
[8] Albert Einstein. Über die von der molekularkinetischen Theorie der Wärme geforderte Bewegung von in ruhenden Flüssigkeiten suspendierten Teilchen. Annalen
der Physik, 17:549, 1905.
[9] Louis Jean-Baptiste Alphonse Bachelier. Théorie de la spéculation. PhD thesis,
École Normale Supérieure, 1900.
n
[10] Abraham de Moivre. Approximatio ad summam terminorum binomii a + b in
seriem expansi. In The Doctrine of Chances. London, 1733.
[11] Paul Lévy. Théorie de l’addition des variables aléatoires. Gauthier-Villars, 1937.
[12] John P. Nolan. Stable Distributions. Birkhauser, 2002.
[13] Benoît Mandelbrot. The Fractal Geometry of Nature. V.H. Freeman & co., 1977.
37
Bibliografia
[14] Frederic Bartumeus, M. G. E. da Luz, G. M. Viswanathan, and J. Catalan. Animal
search strategies: A quantitative random-walk analysis. Ecology, 86(11):3078–3087,
2005.
[15] D. Brockmann and T. Geisel. Are human scanpaths levy flights? In Artificial
Neural Networks, 1999. ICANN 99. Ninth International Conference on (Conf.
Publ. No. 470), pages 263–268 vol.1, 1999.
[16] D. Brockmann, L. Hufnagel, and T. Geisel. The scaling laws of human travel.
Nature, 439:462, 2006.
[17] Álvaro Corral. Universal earthquake-occurrence jumps, correlation with time,
and anomalous diffusion. Physical Review Letters, 97:178501, 2006.
[18] Rosario N. Mantegna and H. Eugene Stanley. Scaling behaviour in the dynamics
of an economic index. Nature, 376:46, 1995.
[19] S. Boldyrev and C.R. Gwinn. Lévy model for interstellar scintillations. Phys.
Rev. Lett., 91(13), Sep 2003.
[20] T. H. Solomon, Eric R. Weeks, and Harry L. Swinney. Observation of anomalous
diffusion and Lévy flights in a two-dimensional rotating flow. Phys. Rev. Lett.,
71(24):3975–3978, Dec 1993.
[21] F. Bardou, J. P. Bouchaud, O. Emile, A. Aspect, and C. Cohen-Tannoudji.
Subrecoil laser cooling and Lévy flights. Phys. Rev. Lett., 72(2):203–206, Jan
1994.
[22] Ralf Metzler and Joseph Klafter. The random walk’s guide to anomalous diffusion:
a fractional dynamics approach. Physics Reports, 339:1–77, 2000.
[23] T. Geisel, J. Nierwetberg, and A. Zacherl. Accelerated diffusion in Josephson
junctions and related chaotic systems. Phys. Rev. Lett., 54(7):616–619, Feb 1985.
[24] G. Zumofen and J. Klafter. Scale-invariant motion in intermittent chaotic systems.
Phys. Rev. E, 47(2):851–863, Feb 1993.
[25] I. M. Sokolov, A. V. Chechkin, and J. Klafter. Fractional diffusion equation for a
power-law-truncated Lévy process. Physica A: Statistical and Theoretical Physics,
336(3-4):245–251, 2004.
38