Caratterizzazione della superdiffusione della luce in vetri di
Transcript
Caratterizzazione della superdiffusione della luce in vetri di
Università degli Studi di Firenze FACOLTÀ DI SCIENZE MATEMATICHE, FISICHE E NATURALI Corso di Laurea in Fisica Tesi di laurea triennale Caratterizzazione della superdiffusione della luce in vetri di Lévy Candidato: Relatore: Lorenzo Pattelli Dr. Diederik S. Wiersma Correlatore: Prof. Massimo Inguscio Anno Accademico 2007–2008 Indice Introduzione 1 Dal 1.1 1.2 1.3 1.4 1.5 1.6 1.7 iii moto browniano ai voli di Lévy Moto browniano . . . . . . . . . . . . . . . . . . . Cammini casuali . . . . . . . . . . . . . . . . . . Dai cammini casuali all’equazione della diffusione Il teorema del limite centrale . . . . . . . . . . . . Distribuzioni stabili . . . . . . . . . . . . . . . . . Il teorema del limite centrale generalizzato . . . . Diffusione anomala . . . . . . . . . . . . . . . . . 2 Cammini di Lévy per la luce 2.1 Modelli a tempo continuo: i cammini di Lévy 2.2 Vetri di Lévy . . . . . . . . . . . . . . . . . . 2.3 Preparazione dei campioni . . . . . . . . . . . 2.4 Effetti del troncamento . . . . . . . . . . . . . 2.5 Apparato sperimentale . . . . . . . . . . . . . 2.6 Misure di profilo . . . . . . . . . . . . . . . . 2.7 Considerazioni sui materiali . . . . . . . . . . 2.8 Misure di profilo preliminari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 3 4 5 7 11 12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 15 17 20 22 23 25 26 31 Conclusioni 35 Bibliografia 37 i Indice ii Introduzione Nel linguaggio di tutti i giorni siamo abituati a chiamare “casuali” tutti quei fenomeni sui quali non abbiamo un controllo diretto, e sul cui esito non possiamo dunque fare previsioni. Ciò nonostante, per quanto possa sembrare sorprendente, tutto il valore epistemologico della teoria della probabilità si fonda sul fatto che la ripetizione su larga scala di fenomeni casuali smette di comportarsi in modo aleatorio manifestando al contrario una forte regolarità [1]. Il concetto stesso di probabilità matematica realizza il suo significato nella frequenza con cui si verifica un dato evento entro un numero crescente di ripetizioni, ovvero in altre parole nel concetto di convergenza ad un limite. Nell’estate del 1905 comparve più o meno in questi termini fra le pagine della rivista Nature un famoso scambio di lettere tra Karl Pearson e Lord Rayleigh [2]. Pearson stava studiando a quel tempo la velocità con cui la malaria riusciva a diffondersi per mezzo delle zanzare, e sperava di poter risolvere questo problema integrando la probabilità di trovarsi ad una certa distanza da un punto di partenza percorrendo passi di uguale lunghezza in direzioni casuali. Non essendo riuscito a ricavare un’espressione esplicita oltre il secondo passo pensò di chiedere aiuto ai lettori della rivista coniando per l’occasione il famoso esempio di un uomo ubriaco che si sposti barcollando, e con esso il termine di random walk. Tra le molte risposte che ricevette — una delle quali dimostrava che con l’uso di integrali ellittici era in realtà possibile spingersi fino al terzo passo — quella più inaspettata giunse da parte di Lord Rayleigh: nel numero della settimana successiva egli affermò di aver già studiato e risolto il problema equivalente della propagazione di un’onda sonora in un mezzo omogeneo ricavando la soluzione esplicita nel limite di infiniti passi, il che portò a riconsiderare completamente l’approccio tentato fino ad allora nello studio dei cammini casuali. Un’analoga operazione di limite è applicabile al modo in cui si propaga la luce: nel suo tragitto dal Sole attraverso l’atmosfera terrestre essa incontra un numero enorme di atomi, molecole e particelle distribuite in modo disordinato e omogeneo che ne complicano la propagazione, altrimenti rettilinea, con fenomeni assolutamente casuali di riflessione, rifrazione, diffrazione, assorbimento e riemissione. In questo modo, la luce che percepiamo di solito può avere caratteristiche anche molto diverse da quelle di partenza, e dal loro studio è possibile dedurre molte informazioni. I cammini casuali che si ottengono in questo modo vengono studiati da oltre un secolo in ambiti che vanno ben oltre la semplice propagazione della luce [3], in quanto con questo modello si può tenere conto, tramite opportune ipotesi, di molte proprietà di sistemi complessi. Queste ipotesi riguardano sostanzialmente la probabilità che gli incrementi abbiano certe caratteristiche, espressa dalla loro funzione di distribuzione. Per molto tempo, le assunzioni che era necessario fare sulla distribuzione dei “passi” iii Introduzione del cammino casuale sono rimaste le stesse, in quanto erano sufficientemente generali da riuscire a descrivere e trovare applicazione in una vasta gamma di situazioni. Se ad esempio, come nel caso dell’ubriaco di Pearson, gli incrementi sono indipendenti e tutti più o meno della stessa entità, il cammino casuale risultante ha comunque delle caratteristiche apparentemente spiazzanti: poiché non esistono direzioni preferenziali per i vari spostamenti la posizione raggiunta dopo un certo numero di passi tenderà a coincidere con quella di partenza1 . Ciò nonostante, col passare del tempo, seguendo questo tipo di cammino si avrà modo di esplorare tutta lo spazio circostante passando infinite volte per ogni punto della superficie in cui avviene il moto. Alla traiettoria appena descritta ci si riferisce di solito col nome di moto browniano, e la lenta crescita della distanza esplorata in media dal camminatore che la percorre risulta da ipotesi tanto generali da prendere il nome di diffusione normale. La prima parte di questa tesi è dedicata alla presentazione dei concetti di teoria alla base dell’esperienza di laboratorio svolta, esposti seguendo l’impostazione comunemente adottata in questi casi. Prendendo come punto di partenza il concetto di cammino casuale come somma di variabili indipendenti identicamente distribuite cercheremo di mostrarne la connessione con i fenomeni della diffusione normale e di spiegare il perché questo sia effettivamente il caso che ci aspettiamo di trovare di solito. Successivamente, facendo riferimento alla generalizzazione di Lévy-Gnedenko del Teorema del limite centrale, il nostro principale interesse diventerà quello di estendere il nostro punto di vista e rendere conto della diffusione normale come di un caso limite della classe più ampia di fenomeni di diffusione anomala. Questa categoria contempla la possibilità di diffondere in modo molto più veloce, ed è legata ad un tipo di traiettorie chiamate voli di Lévy che, pur avendo caratteristiche molto diverse da quelle del moto browniano, stanno trovando applicazione nella descrizione di un numero crescente di sistemi. Nella seconda parte del lavoro cercheremo di applicare questi concetti al caso della luce, descrivendo brevemente il modo in cui il modello matematico del cammino casuale viene solitamente adattato al caso fisico dei fotoni. Sulla base di una rielaborazione della referenza [4] discuteremo quindi la possibilità di superare i limiti imposti dalla diffusione standard modificando la distribuzione dei passi. A tal fine abbiamo realizzato una serie di campioni seguendo la tecnica proposta nella referenza [5] con lo scopo di indagare quale sia la nostra reale capacità di influenzare il tipo di traiettorie seguite dai fotoni e con esse la crescita dello spostamento quadratico medio nel tempo. Nel fare questo, presenteremo una serie di misure accompagnate da una discussione dettagliata dei fattori in gioco nel determinarne la riuscita, con particolare attenzione agli aspetti critici della realizzazione dei campioni e delle condizioni da soddisfare. Come conseguenza di questa analisi, considereremo l’opportunità di applicare alcuni cambiamenti nella scelta dei materiali e nella tecnica di di realizzazione, presentando anche le prime misure realizzate a sostegno di questa ipotesi. 1 iv Pearson parafrasò ironicamente la soluzione di Rayleigh intuendo che il posto dove è più probabile ritrovare un ubriaco è vicino a dove lo si è lasciato. 1 Dal moto browniano ai voli di Lévy 1.1 Moto browniano Nel De Rerum Natura di Lucrezio è contenuta una dettagliatissima descrizione del moto della polvere nell’aria di una stanza [6]. Questa è forse la prima testimonianza dell’osservazione diretta di quello che, solo dopo molti secoli, prenderà il nome di moto Browniano. Questo fenomeno deve il suo nome al botanico Robert Brown che nel 1827 riportò di aver osservato alcuni granuli di polline muoversi casualmente in una sospensione fluida apparentemente in quiete [7]. In un primo momento pensò che i granuli potessero essere in qualche modo “animati” ma, avendo riottenuto lo stesso risultato con della semplice polvere, concluse che questi spostamenti casuali fossero dovuti al moto di agitazione interno del fluido. Nonostante la grande accuratezza e ricchezza di particolari con cui vennero raccolte queste osservazioni, esse rimasero relegate al ruolo di semplice curiosità ancora per molti anni prima essere previste teoricamente e trovare dunque una spiegazione dal punto di vista fisico in un noto articolo di A. Einstein su questo fenomeno [8]. Vale comunque la pena di notare che 5 anni prima di questa trattazione — che storicamente ha rappresentato anche una delle prime evidenze indirette dell’esistenza di atomi e molecole — i concetti matematici sottostanti al “moto Browniano” erano già stati formalizzati nella tesi di Louis Bechelier sull’andamento dei prezzi dei titoli azionari [9]. Da allora ad oggi il prototipo matematico approntato dal moto Browniano ha avuto molte altre applicazioni nell’interpretazione di vari fenomeni. Di seguito, proveremo a darne una semplice interpretazione facendo riferimento al concetto di cammino casuale. Consideriamo per semplicità il modello unidimensionale di un camminatore che si muova con passi di lunghezza costante ∆x = `x orientati in modo casuale. La posizione raggiunta dopo N passi (partendo da x0 = 0) sarà xN = ∆x1 + ∆x2 + · · · + ∆xN −1 + ∆xN = N X ∆xi (1.1) i=1 che elevata al quadrato dà x2N = N X j,k=1 ∆xj ∆xk = N X j=1,k=j ∆x2j + N X j,k=1,j6=k ∆xj ∆xk = N `2x + N X ∆xj ∆xk . (1.2) j,k=1,j6=k Se facciamo la media su un gran numero di camminatori otteniamo lo spostamento 1 1 Dal moto browniano ai voli di Lévy quadratico medio, definito come * 2 xN = N `2x + N X + ∆xj ∆xk . (1.3) j,k=1,j6=k Poiché è ugualmente probabile che un passo del cammino avvenga verso destra o sinistra gli incrementi ∆xi sono variabili casuali a media nulla. I prodotti ∆xj ∆xk sono a loro volta variabili casuali e, se assumiamo che ∆xj e ∆xk siano indipendenti, il valor medio dei prodotti è ancora nullo. In questo modo troviamo 2 xN = N `2x , (1.4) la cui radice quadrata rappresenta lo spostamento medio dopo N passi di lunghezza `x e vale q √ hx2N i = `x N . (1.5) Anche nel caso in cui `x non sia costante per tutti i passi resta comunque possibile darne una stima sulla base di un semplice modello. Consideriamo una particella che si muove dentro un p gas con velocità media hvi. La distanza percorsa tra due collisioni successive è ` = `2x + `2y + `2z = hvi τ dove τ è il tempo trascorso tra i due eventi. Se supponiamo che la particella sia sferica (di raggio a) e si muova dentro un gas di densità n, troviamo che nel percorrere una distanza L subirà πa2 n collisioni, poiché questo è semplicemente il numero di particelle incontrate nel volume spazzato durante il percorso. In questo caso ` viene definito in modo tale che πa2 `n = 1, cioè come la distanza media tale da contenere un solo evento di collisione, e prende il nome di cammino libero medio. In questo modo si ottiene `= 1 . πa2 n (1.6) Con questa definizione possiamo concludere che il numero di passi N effettuati in un tempo t sarà uguale a t/τ , da cui si trova 2 t x = N `2x = `2x τ (1.7) a cui va aggiunto un fattore 13 poiché stiamo assumendo che il cammino avvenga in 3 dimensioni e che il gas sia isotropo ed omogeneo, ovvero h`2x i = `2y = h`2z i = 13 h`2 i. In questo modo abbiamo 2 1 t 2 1 x = ` = hvi `t = Dt 3τ 3 (1.8) dove D = 13 hvi ` prende il nome di coefficiente di diffusione. Questa quantità risulta utile per caratterizzare la diffusione (in √ questo caso di una particella) nel caso normale. p Si noti la proporzionalità tra hx2 i e t. 2 1.2 Cammini casuali 1.2 Cammini casuali Un modo formalmente più corretto di studiare il problema del cammino casuale è quello di considerare la posizione del camminatore come un vettore r e di supporre che essa cambi per spostamenti successivi casuali ∆r. Per ora considereremo il tempo ∆t che intercorre tra uno spostamento e l’altro come una costante: in pratica ha la funzione di un contatore. La posizione rn del camminatore dopo n passi (corrispondenti al tempo tn = n∆t) è data da rn = ∆rn + ∆rn−1 + · · · + ∆r2 + ∆r1 + r0 (1.9) dove r0 è la posizione iniziale e ∆ri è l’i-esimo passo. La posizione rn e le singole ∆ri sono stavolta tutte variabili casuali. Per specificare il problema completamente dovremmo dunque prescrivere una densità di probabilità f∆r che ci dica quale probabilità abbiamo di avere un certo spostamento ∆ri definito in modulo, direzione e verso. Per fare questo accetteremo per ora almeno due ipotesi su cui vale la pena fare il punto, in quanto rivestiranno un ruolo molto importante per il resto di questa trattazione. La prima è che tutti gli incrementi ∆ri siano distribuiti secondo la stessa densità di probabilità: l’esempio più comune è quello del lancio di una moneta: ad ogni ripetizione la probabilità è equidistribuita tra le due facce. Questo esempio in particolare verifica anche la seconda delle ipotesi, e cioè che ogni evento sia indipendente dagli altri e definito solo dalle condizioni iniziali e non dalla “storia” precedente del sistema. Processi di questo genere sono detti Markoviani, categoria che comprende tutti quei sistemi che non mantengono una “memoria” delle condizioni precedenti. Ammettendo dunque per ora di poter definire un’unica f∆r per gli incrementi possiamo recuperare il concetto di spostamento quadratico medio nella forma n X 2 2 rn = ∆rj + j=1,k=j n X h∆rj ∆rk i , (1.10) j,k=1,k6=j dove il primo di questi due termini rappresenta la somma delle varianze di ∆ri , definite come Z 2 2 σ∆r = ∆rj = ∆r2 f∆r (∆r)d∆r (1.11) mentre il secondo è definito come la covarianza Cov(∆rj , ∆rk ) del cammino casuale, la quale è nulla se ogni passo è indipendente dagli altri. Nel caso che stiamo esaminando possiamo dunque scrivere che n X 2 2 rn = σ∆r,j . (1.12) j=1,k=j Sulla base di questa equazione possiamo adesso riconsiderare l’esempio della sezione 2 precedente come un caso a covarianza nulla e varianza σ∆r,j = `2 per via della lunghezza fissata di ogni passo. 3 1 Dal moto browniano ai voli di Lévy 1.3 Dai cammini casuali all’equazione della diffusione In questa sezione ci proponiamo di cominciare a mettere in evidenza lo stretto legame che esiste tra i vari fenomeni governati dall’equazione della diffusione ed il concetto di cammino casuale esposto precedentemente. Esistono molti modi, proposti in ambiti e periodi differenti, per mostrare questa connessione. Di seguito seguiremo quello che viene di solito menzionato come il metodo di Einstein1 , in relazione al suo famoso articolo del 1905 [8], adattandolo ancora una volta per semplicità ad un modello unidimensionale. Per prima cosa cercheremo di trovare una soluzione del problema del cammino casuale (1.9) nella forma di una distribuzione della probabilità P (r, t) = P (x, t) di trovare la particella nella posizione x al tempo t. Per fare questo, supponiamo di conoscere la distribuzione P (x, t − ∆t), ovvero al passo precedente (si ricordi il ruolo di variabile muta del tempo). Possiamo mettere in relazione queste due distribuzioni imponendo che il numero di particelle si conservi P (x, t) = P (x − ∆x, t − ∆t)f∆x (∆x) (1.13) dove f∆x (∆x) è la distribuzione dei passi. Questa equazione afferma semplicemente che la probabilità di trovarsi in x al tempo t è data dalla probabilità di provenire da x − ∆x moltiplicata per la probabilità di fare un passo lungo proprio ∆x. Il passaggio successivo è quello di sommare su tutti i possibili ∆x ottenendo in questo modo la cosiddetta equazione della diffusione di Einstein (o Bachelier) P (x, t) = Z ∞ P (x − ∆x, t − ∆t)f∆x (∆x)d∆x. (1.14) −∞ Questa è l’equazione integrale che determina la soluzione P (x, t). Per cercare di risolverla è opportuno anticipare alcune considerazioni sulle caratteristiche della diffusione che ci forniscano qualche indicazione su quali approssimazioni sia lecito applicare. Quello che supporremo, in particolare, è che la funzione da integrare su tutti i valori possibili di ∆x sia in realtà significativamente diversa da zero solo in un intervallo più ristretto. In altre parole supponiamo cioè che la particella compia passi di lunghezza ∆x molto minore, in generale, delle dimensioni del sistema, e che conseguentemente impieghi anche un tempo ∆t molto piccolo rispetto a quello su cui viene mediato il risultato per percorrere questi spostamenti. In questo caso possiamo sviluppare P (x − ∆x, t − ∆t) sia in x che in t: P (x − ∆x, t − ∆t) ∼ P (x, t) − ∆t 1 4 ∂ ∂ 1 ∂2 P (x, t) − ∆x P (x, t) + ∆x2 2 P (x, t) (1.15) ∂t ∂x 2 ∂x altri esempi ricorrenti fanno riferimento all’equazione di Langevin o alla legge di Fick 1.4 Il teorema del limite centrale e inserire il risultato ottenuto nella (1.14). In questo modo otteniamo Z Z ∂ P (x, t) = P (x, t)f∆x (∆x)d∆x − ∆t P (x, t)f∆x (∆x)d∆x+ ∂t Z Z (1.16) 2 ∂ 1 2 ∂ − ∆x P (x, t)f∆x (∆x)d∆x + ∆x P (x, t)f∆x (∆x)d∆x, ∂x 2 ∂x2 dove ovviamente i termini che contengono ∆x sono gli unici interessati dall’integrazione. A questo punto, facendo uso della condizione di normalizzazione, della definizione di valor medio (che supponiamo nullo) e di quella di varianza Z f∆x (∆x)d∆x = 1 (1.17) Z ∆xf∆x (∆x)d∆x = 0 (1.18) Z 2 ∆x2 f∆x (∆x)d∆x = σ∆x (1.19) otteniamo P (x, t) = P (x, t) − ∆t ∂ 1 2 ∂2 P (x, t) + σ∆x P (x, t) ∂t 2 ∂x2 (1.20) o equivalentemente σ2 ∂ 2 ∂ P (x, t) = ∆x 2 P (x, t) ∂t 2∆t ∂x (1.21) σ2 ∆x che è la nota equazione di diffusione, con coefficiente D = 2∆t . La soluzione di questa equazione differenziale è (nell’approssimazione di spazio infinito) data dalla Gaussiana di media nulla ∆x2 1 e− 4Dt P (x, t) = √ (1.22) 4πDt la cui varianza Z 2 σ∆x = ∆x2 f∆x (∆x)d∆x = 2Dt = x2 (t) (1.23) equivale allo spostamento quadratico medio, il che ci fornisce un ulteriore conferma del risultato (1.8) trovato con il semplice modello del cammino casuale. La classe di fenomeni di diffusione che rispettano la proporzionalità lineare di hr2 (t)i col tempo sono detti di diffusione normale. 1.4 Il teorema del limite centrale Quello che ci proponiamo di mostrare in questa sezione è che esiste almeno un motivo teorico che giustificherebbe la presenza del comportamento appena descritto nella maggior parte dei sistemi all’equilibrio, un risultato che predice autonomamente la forma stessa della soluzione appena trovata. Questo supporto è fornito dal noto 5 1 Dal moto browniano ai voli di Lévy Teorema del limite centrale, le cui ipotesi sono applicabili al caso della diffusione. Il suo enunciato afferma che la somma normalizzata di un gran numero di variabili casuali tende a distribuirsi come una variabile casuale normale standard. Di seguito discuteremo più approfonditamente le ipotesi e le prescrizioni di questo risultato generale, poiché esse pongono a loro volta interessanti questioni. Abbiamo già fatto l’esempio del lancio di una moneta: l’esito di ognuno di essi è una variabile casuale che si può intendere sommata su varie ripetizioni. Questo esempio apparentemente banale, ma rilevante dal punto di vista storico, può dare l’idea di quanto sia facile che, nella maggior parte dei casi, le ipotesi di applicabilità del Teorema risultino verificate in modo soddisfacente. Una sua prima formulazione fu data infatti proprio in questi termini dal matematico francese Abraham de Moivre che, in un famoso articolo del 1733, notò che la migliore approssimazione per il numero di “teste” ottenute in una serie di ripetizioni era data dalla distribuzione normale [10]. Di seguito preciseremo in modo più formale l’enunciato del Teorema del limite centrale, pensandolo per brevità applicato direttamente ai passi di un cammino casuale. In questo caso la variabile somma di riferimento è la posizione raggiunta dal camminatore dopo n incrementi xn , intesa come la somma (1.9) delle variabili casuali identicamente distribuite ∆xi (il caso multidimensionale è del tutto analogo). Il teorema afferma che se: 2 • tutte le variabili sommate ∆xi hanno media µ∆x e varianza σ∆x finite (si ricordi che queste quantità sono definite tramite un integrale), • ogni variabile ∆xi è mutuamente indipendente dalle altre (ovvero, secondo la definizione che abbiamo dato precedentemente Cov(h∆xj ∆xk i) = 0 ∀j 6= k), • il numero n di variabili sommate è sufficientemente grande (al limite infinito) allora, indipendentemente dalla distribuzione delle ∆xi la distribuzione di P (x, tn ) è Gaussiana. In particolare, se µ∆x = 0, x0 = 0 e tutte le ∆xi hanno la stessa varianza troviamo di nuovo 2 − ∆x2 1 2nσ ∆x (1.24) P (x, tn ) = p e 2 2πnσ∆x la cui varianza vale tn 2 2 = σx2n = nσ∆x σ (1.25) ∆t ∆x avendo posto n = t/∆t. Poiché la varianza è uguale per definizione allo spostamento quadratico medio hx2 (tn )i abbiamo ritrovato ancora una volta la stessa proporzionalità (1.8), (1.23) tipica della diffusione. Per questo motivo possiamo affermare che la diffusione è ciò che ci aspettiamo di trovare in ogni sistema che rispetti le tre ipotesi precedenti. Qualora invece almeno una di queste condizioni non sia verificata questa versione del Teorema non è più applicabile e sarà necessaria una sua riformulazione in un contesto più generale. Anche in questo caso sarà possibile evidenziare un collegamento con una classe di fenomeni, ovviamente distinti da quelli della diffusione normale. 6 1.5 Distribuzioni stabili 1.5 Distribuzioni stabili Nella parte seguente di questa tesi ci proponiamo di mostrare cosa è possibile dire della somma di un numero crescente di variabili nel caso in cui si rilassi la prima delle ipotesi del Teorema del limite centrale: in questo modo includiamo cioè la possibilità che le variabili che stiamo sommando siano distribuite in modo da non avere il secondo o persino il primo momento finito. In questo senso, il contesto più generale a cui abbiamo fatto riferimento nella sezione precedente è quello delle distribuzioni stabili. La classe delle distribuzioni stabili (che include anche quella Gaussiana) comprende una vasta gamma di distribuzioni di probabilità che, a causa della possibile divergenza dei loro momenti, possono presentare una decrescita particolarmente lenta delle code o marcate asimmetrie. Questa classe fu caratterizzata negli anni ‘20 da Paul Lévy nell’ambito dei suoi studi sulla somma di variabili indipendenti identicamente distribuite [11]. Il fatto che solo in pochissimi casi si possa pervenire ad una forma esplicita per queste funzioni di distribuzione ha rappresentato a lungo un limite all’impiego delle distribuzioni stabili nelle applicazioni pratiche. Attualmente, con l’utilizzo dei computer, è invece possibile calcolare con relativa facilità le probabilità anche a partire da distribuzioni stabili qualsiasi, e questo avviene ormai regolarmente in molti dei casi in cui si abbiano ragionevoli motivi per ritenere che le ipotesi sulla finitezza dei momenti non siano rispettate. Per capire meglio cosa sia una distribuzione stabile partiamo dall’esempio già noto della distribuzione normale: una proprietà importante delle variabili casuali gaussiane è che sommandone due si ottiene ancora una variabile distribuita nello stesso modo. Se X1 e X2 sono due di esse allora ∀a, b > 0 d aX1 + bX2 = cX + d (1.26) per qualche c > 0 e d ∈ R tali che X è ancora una variabile casuale normale. La lettera d sopra il simbolo di uguaglianza sta a specificare che i due membri dell’equazione sono ugualmente distribuiti, cioè che faX1 +bX2 (x) = fcX+d (x). Più semplicemente, questa equazione ci dice che la “forma” di X è conservata (a meno di traslazioni o fattori di scala) sotto l’operazione di addizione. Le distribuzioni stabili sono quella classe di distribuzioni con questa proprietà. Più formalmente, se ne possono dare due definizioni [12]: una distribuzione si dice genericamente stabile se, prese X1 , X2 copie indipendenti di X, ∀a, b > 0, ∃c > 0, d ∈ R tali che vale la (1.26). Una variabile casuale si dice invece stabile in senso stretto o strettamente stabile se la (1.26) vale per d = 0 comunque si scelgano a e b. Infine, X si dice simmetricamente stabile se è stabile e distribuita simmetricamente attorno allo 0. Nella notazione che stiamo seguendo, la tesi del Teorema del limite centrale nel caso in cui µ∆x 6= 0 potrebbe ad esempio essere riscritta come segue d d an (∆x1 + · · · + ∆xn ) − bn −→ P (x, tn ) = N(0, 1), n→∞ (1.27) √ √ dove N(µ, σ) = N(0, 1) è la gaussiana standard se an = 1/(σ∆x n) e bn = nµ∆x /σ∆x . Si noti che vista la rapida decrescita delle code di N(µ, σ) tutti i momenti di una 7 1 Dal moto browniano ai voli di Lévy distribuzione normale sono finiti. Questa riformulazione del Teorema è utile ai fini della nostra esposizione anche perché mette in luce un aspetto che considereremo più approfonditamente nella sezione successiva: la distribuzione Gaussiana gioca il ruolo di distribuzione limite a cui converge la somma di infinite variabili casuali distribuite in modo da avere finiti almeno i primi due momenti. Rilassando questa ipotesi, quale classe più ampia di distribuzioni (di cui ovviamente quella normale farà parte) è in grado di rappresentare il limite di una somma analoga? Senza pretese di esaustività, proveremo nel seguito a ripercorrere e commentare la risposta. Riprendiamo il problema della somma di variabili casuali stabili in questa nuova ottica. La distribuzione della variabile somma risulterà completamente determinata una volta assegnati una serie di parametri an e bn opportuni. Nel caso di variabili strettamente stabili tutti i bn = 0 ed abbiamo semplicemente n X d X i = an X (1.28) i=1 che si risolve immediatamente per la distribuzione Gaussiana sfruttando il fatto che è l’unica distribuzione stabile ad avere una varianza finita. Elevando al quadrato entrambi i membri si ottiene infatti nVarX = a2n VarX (1.29) 1 che, nel caso in cui VarX 6= 0, dà immediatamente il valore an = n 2 corrispondente al caso gaussiano2 . Tramite una dimostrazione per induzione [11] si trova che nel caso più generale per i fattori di scala valgono le relazioni an = n 1 α −→ n X d 1 Xi = n α X (1.30) i=1 che risostituite nella (1.29) danno 2 nVarX = n α VarX (1.31) da cui si vede che se supponiamo α 6= 2 l’unico modo per soddisfare formalmente questa relazione per distribuzioni non degeneri3 corrisponde ad assumere che VarX = ∞. Questo è un modo semplice per vedere che tutte le distribuzioni stabili, esclusa quella normale, hanno varianza infinita. Per alcune di esse, come vedremo, non esiste finito neanche il valore di aspettazione. Si trova inoltre che non esistono distribuzioni stabili con α > 2, in modo tale che α ∈ (0, 2]. Il parametro α è chiamato indice di stabilità o esponente caratteristico e, come si può vedere dalla figura 1.1 è il fattore principale nel determinare il tasso di decrescita delle code di una distribuzione stabile. Un 2 ma anche, si noti, alla legge dei grandi numeri: dividendo per n ambo i membri della (1.28) si ottiene infatti che al crescere di n la media delle Xi converge al valore di aspettazione. 3 Si dice degenere una distribuzione in cui VarX = 0. 8 1.5 Distribuzioni stabili Figura 1.1: Dipendenza di una distribuzione stabile simmetrica dall’indice di stabilità α (si noti la scala logaritmica per l’asse verticale). I grafici sono normalizzati rispetto al loro integrale. Nel limite di α → 2 si ottiene una distribuzione normale. altro parametro usato per dare una caratterizzazione completa delle distribuzioni stabili è β ∈ [−1, 1], che influenza l’asimmetria4 . Per indicare i fattori di scala e traslazione si usano infine γ ∈ [0, ∞) e δ ∈ R che rappresentano l’analogo di σ e µ per una distribuzione normale. Le distribuzioni stabili S(α, β, γ, δ) prendono il nome di distribuzioni α-stabili di Lévy. Oltre alla già menzionata distribuzione Gaussiana, un’altra nota distribuzione stabile è ad esempio quella di Cauchy: in questa notazione, vengono rispettivamente indicate con S(2, 0, γ, δ)5 e S(1, 0, γ, δ). Sfortunatamente, fatta eccezione per questi rari casi in cui si sa esprimere in forma esplicita la densità di probabilità connessa alla distribuzione, non è mai possibile scrivere una formula equivalente per distribuzioni stabili con parametri qualunque. Resta comunque possibile dare una caratterizzazione completa di questa categoria di distribuzioni attraverso le rispettive funzioni caratteristiche ϕ(k), ovvero con le loro trasformate di Fourier. Per una variabile casuale X con una funzione di distribuzione 4 5 in inglese skewness. β = 0 per distribuzioni simmetriche. facendo attenzione in questo caso al fatto che, per come è definita la funzione caratteristica, la media vale µ = δ ma la varianza σ 2 è uguale a 2γ 2 . 9 1 Dal moto browniano ai voli di Lévy fX (x), la funzione caratteristica è definita come Z ∞ ikX eikx fX (x)dx = F[fX (x)]. = ϕ(k) = e (1.32) −∞ In questo modo, attraverso considerazioni [11] che vanno oltre lo scopo illustrativo di questa tesi, si può indicare un’unica funzione caratteristica che rappresenti tutte le distribuzioni stabili tenendo conto delle possibili variazioni. Si trova cioè che tutte le variabili stabili X sono versioni riscalate di un fattore γ o traslate di un valore δ di una variabile strettamente stabile Z standardizzata, cioè distribuita come S(α, β, 1, 0). Dunque, secondo questa definizione, una variabile casuale X è stabile se e solo se d X = γZ + δ (1.33) e Z è una variabile casuale la cui funzione caratteristica è α ϕ(k) = eikZ = e−|k| (1−iβ sgn(k)Φ) (1.34) con 0 < α ≤ 2 e −1 ≤ β ≤ 1. La funzione sgn(k) è la funzione segno di k e tan πα per α 6= 1 2 Φ= 2 per α = 1. − π log |k| La distribuzione di X risulta simmetrica rispetto allo zero quando β, δ = 0. In questo caso la funzione caratteristica (1.34) assume la forma semplificata α α ϕ(k) = eikX = eikγZ = e−γ |k| (1.35) che sarà quella considerata prevalentemente nel seguito. In altre parole, le distribuzioni stabili a cui si intende far riferimento sono tutte e sole quelle che hanno una funzione caratteristica del tipo (1.35). Il problema posto dalla (1.35) è che in generale non è possibile calcolare esplicitamente −1 F [ϕ(k)] e risalire dunque ad un’espressione chiusa per la densità di probabilità. Ad ogni modo è possibile trarre un’informazione importante sull’andamento asintotico delle code della fX (x) per x → ∞ sviluppando la funzione caratteristica ϕ(k) per k → 0. Se 1 < α < 2 (il caso 0 < α < 1 è analogo) si ottiene F [fX ] (k) = ϕ(k) = e−γ α |k|α ∼ 1 − γ α |k|α (1.36) che in questa forma più semplice si può antitrasformare, rivelando la proporzionalità fX (x) ∼ |x|−(1+α) |x| γ. (1.37) Il fatto che le code decadano con una legge di potenza ci fornisce la prova più immediata di quanto supposto precedentemente. Come abbiamo visto finora il valore di aspettazione o la varianza sono parametri a cui si fa spesso riferimento per descrivere una distribuzione, mentre nel caso di distribuzioni stabili risultano di scarsa utilità in quanto l’espressione integrale di questi valori di aspettazione può divergere. Ad eccezione della Gaussiana, nessuna distribuzione stabile possiede una varianza finita, mentre se α < 1 diverge anche il primo momento. 10 1.6 Il teorema del limite centrale generalizzato 1.6 Il teorema del limite centrale generalizzato Per quanto abbiamo appena visto, le distribuzioni stabili con α 6= 2 non soddisfano le ipotesi del Teorema del limite centrale. Questo significa che a priori non sappiamo come si comporterà la somma di variabili qualsiasi, e che in generale questa somma potrebbe non convergere a nessuna distribuzione in particolare. In questa sezione riportiamo la generalizzazione di Lévy-Gnedenko [1] del Teorema del limite centrale relativa al comportamento della somma di variabili con varianza infinita. È ovvio infatti che in ogni altro caso (α ≥ 2) vale l’enunciato del Teorema classico. Come vedremo questa generalizzazione stabilisce l’importanza delle distribuzioni stabili, ed in questo senso risponde alla domanda sul ruolo di distribuzione limite che ci eravamo posti nella sezione precedente. Se consideriamo una serie X1 , . . . , Xn di variabili casuali indipendenti e identicamente distribuite, il Teorema generalizzato afferma che esistono delle costanti di rinormalizzazione an > 0, bn ∈ R ed una variabile casuale Z non degenere tali che d an (X1 + · · · + Xn ) − bn −→ Z, n→∞ (1.38) se e solo se Z è distribuita secondo una funzione α-stabile per qualche 0 < α ≤ 2. In altre parole, se rilasciamo l’ipotesi di varianza finita, gli unici possibili limiti risultanti sono stabili. Più precisamente, si dice che una variabile X è nel dominio di attrazione di Z se vale la (1.38) con X1 , . . . , Xn copie indipendenti di X, il che equivale a dire che X è stabile se e solo se possiede un dominio di attrazione. Con DA(Z) si indica l’insieme di tutte le variabili casuali che sono nel dominio di attrazione di Z: mentre ogni variabile stabile appartiene banalmente al proprio dominio di attrazione, è lecito chiedersi quali condizioni deve soddisfare una variabile qualsiasi per appartenere al dominio di attrazione di una distribuzione stabile, o alternativamente quali funzioni rientrano in un certo dominio di attrazione. La dimostrazione di questo Teorema caratterizza le variabili in un dominio DA(Z) in termini dell’andamento asintotico delle code delle loro distribuzioni, fornendo i valori opportuni per i coefficienti an e bn . Se ci si riferisce a densità di probabilità normalizzate della forma fX (x) ∼ x−(µ+1) x→∞ con µ > 0 possiamo scrivere dunque d an (X1 + · · · + Xn ) − bn −→ Z ∼ S(α, β, 1, 0), n→∞ (1.39) dove la potenza con cui decadono le code determina l’indice di stabilità µ per µ ≤ 2 α= 2 per µ > 2 che caratterizza la distribuzione stabile del dominio di attrazione di X. 11 1 Dal moto browniano ai voli di Lévy Figura 1.2: Simulazioni di due differenti cammini casuali (50000 passi) caratterizzati da diverse distribuzioni di passi. Pannello a: moto browniano. Pannello b: volo di Lévy per una distribuzione con α = 1. Nonostante il fatto che le due distribuzioni usate hanno la stessa larghezza a mezza altezza è evidente che i due cammini casuali hanno caratteristiche molto diverse. L’unità di misura utilizzata per gli assi è la larghezza a mezza altezza stessa. 1.7 Diffusione anomala Arrivati a questo punto possiamo riprendere il problema (1.9) del cammino casuale ed analizzarlo in modo più approfondito. Siamo adesso in grado infatti di valutare quali conseguenze comporta lo scegliere i passi del camminatore secondo una distribuzione f∆r qualsiasi. Quello che abbiamo visto è che al crescere di n la distribuzione limite risultante non potrà che essere del tipo S(α, β, γ, δ) con 0 < α ≤ 2. Questa famiglia di cammini casuali prende il nome di voli di Lévy, e con essa è possibile descrivere un’ampia classe di processi stocastici Markoviani. La proprietà più immediata di una particella che segua una traiettoria di questo tipo è che per 0 < α < 2 il suo moto casuale sarà privo di una lunghezza caratteristica analoga alla varianza. Questo è dovuto principalmente al fatto che la varianza (1.11) di queste distribuzioni diverge con la conseguenza che, nel caso in cui i passi siano tutti indipendenti, lo spostamento quadratico medio (1.12) risulta infinito già dopo il primo passo. Questo comportamento anomalo è dovuto all’andamento asintotico (1.37) che caratterizza le code di una distribuzione α-stabile. Infatti, dal momento che queste scalano secondo una legge di potenza, esiste sempre una probabilità non trascurabile di compiere passi arbitrariamente lunghi. Le leggi di potenza possiedono anche un’altra proprietà notevole su cui vale la pena soffermarsi: a differenza di una distribuzione gaussiana sono invarianti di scala. Questo, come si può vedere dall’immagine 1.2, conferisce ad un volo di Lévy alcune proprietà evidenti sin dall’aspetto, che ben si distingue da quello più omogeneo del moto browniano tipico della diffusione normale. In un volo 12 1.7 Diffusione anomala di Lévy pochi passi dominano l’entità del trasporto mentre nel caso browniano tutti gli spostamenti hanno un peso simile e, per quanto abbiamo detto, questa discrepanza tra passi brevi e lunghi si presenta invariata ad ogni scala di grandezza. La traiettoria tracciata in un volo di Lévy è a tutti gli effetti un frattale6 di dimensione frazionaria df = α [13]. Un’altra caratteristica che si può notare dall’immagine è che, dopo uno stesso numero di passi — e quindi di tempo trascorso — un camminatore che segua un volo di Lévy ha avuto modo di “campionare” un’area molto più vasta del piano a differenza di quanto riesca a fare un semplice moto browniano. Per questo motivo è ormai opinione comune [14] che effettuare un volo di Lévy in una certa regione di spazio rappresenti la strategia di ricerca più efficiente per gli organismi viventi. Lo stesso tipo di traiettoria è stato identificato [15] anche nei movimenti compiuti dalle pupille (detti saccadi ) per analizzare in breve tempo le zone salienti comprese nel suo campo visivo. In questo senso, i voli di Lévy talvolta danno modo di rendere ragione di alcuni schemi comportamentali anche complessi in termini di più semplici principi di ottimizzazione. Questo quadro sarebbe però riduttivo: oltre che al caso degli animali le distribuzioni α-stabili hanno dato modo di descrivere in modo più accurato fluttuazioni, traiettorie e spostamenti comuni ad un elenco molto eterogeneo di discipline, dal modo in cui si spostano le banconote [16] ai movimenti dell’epicentro di un terremoto [17], dall’andamento dei prezzi dei titoli azionari [18] all’allargamento dei segnali astronomici [19]. In questo senso è possibile intuire la quantità di fenomeni che, per poter essere indagati con sufficiente chiarezza, richiedono di poter supporre la presenza di distribuzioni con momenti divergenti o in generale di qualche circostanza che cada fuori dalle ipotesi del Teorema del limite centralizzato classico, e quindi dalla diffusione normale. Come abbiamo visto in precedenza, quest’ultima era caratterizzata in modo particolare dalla proporzionalità lineare dello spostamento quadratico medio hr2 i col tempo. Anche restringendoci al campo della fisica molti esperimenti [20, 21] hanno tuttavia mostrato deviazioni anche significative da questa legge, mostrando i salti e l’invarianza di scala tipica dei voli di Lévy. Per tutti questi fenomeni si fa riferimento attualmente al concetto di diffusione anomala, per distinguere i casi in cui α ∈ (0, 2) da quello normale. In questi casi è ancora utile far riferimento alla proporzionalità tra le due quantità nella forma più generale 2 r = Dtγ (1.40) dove D rappresenta la costante di diffusione generalizzata 7 e γ è il parametro che caratterizza il tipo di diffusione. Il caso γ = 1 corrisponde alla diffusione standard, mentre per valori di γ > 1 si parla in particolare di superdiffusione in quanto a parità di tempo la distanza dal punto di partenza che il camminatore casuale può aver raggiunto è maggiore rispetto al caso diffusivo. Dal punto di vista sperimentale, se sono note le 6 Non a caso, storicamente, Benoît Mandelbrot fu il primo a dare una descrizione, ed in effetti a scegliere il nome, dei voli di Lévy 7 si noti che [D] = cm2 s−γ 13 1 Dal moto browniano ai voli di Lévy traiettorie di un numero sufficiente di particelle, un grafico di log hr2 i su log t spesso fornisce un’idea del tipo di diffusione che si sta verificando nel sistema. Qualche considerazione a parte merita infine di essere spesa riguardo alla cosiddetta diffusione balistica, corrispondente a γ = 2: è il caso di una particella che si muova con velocità v costante senza subire alcuna collisione o forza frenante. Si ha ovviamente che r = vt, in modo che hr2 i ∼ t2 . Le particelle libere sono dunque, nella notazione precedente, superdiffusive, e l’aggettivo “balistico” trae origine proprio da questo esempio. D’altronde la propagazione in linea retta non è che il caso limite tra quelli proporzionali a t2 . Anche in presenza di collisioni, o comunque di traiettorie più complesse, può naturalmente conservarsi una proporzionalità asintotica con γ = 2, anche se con un coefficiente D minore. L’importanza della propagazione balistica come caso limite è tanto più rilevante dal punto di vista fisico se applicata al caso che prenderemo in esame nella seconda parte di questa tesi. La propagazione della luce avviene a velocità costante in qualunque direzione, e nessun segnale luminoso può raggiungere un punto ad una certa distanza entro un tempo minore a quello necessario per arrivarci in linea retta. 14 2 Cammini di Lévy per la luce 2.1 Modelli a tempo continuo: i cammini di Lévy Se pensiamo di applicare quanto visto finora al caso della luce, per prima cosa può essere utile fare un passo indietro. Solitamente siamo abituati a pensare alla diffusione come ad un fenomeno riguardante più la propagazione del suono o di onde meccaniche1 che non quella di un segnale luminoso, e non è certo immediato coglierne gli aspetti comuni con la conduzione del calore o col modo in cui si spande una goccia di inchiostro in un bicchier d’acqua. Potrebbe dunque sembrare insolito pensare di applicare i concetti di cammino casuale ad un’onda elettromagnetica come la luce, in quanto resta difficile supporre valido anche per i fotoni lo scenario di particelle e collisioni che abbiamo descritto finora. Ciò nonostante gli effetti di questo fenomeno sono sotto i nostri occhi quotidianamente, e risulta che l’approssimazione di diffusione normale è più che sufficiente per descrivere in modo accurato gli aspetti macroscopici della propagazione della luce in mezzi disordinati, come ad esempio una nuvola o un bicchiere di latte. In essi i fotoni vanno incontro ad un gran numero di eventi di scattering indipendenti che ne scorrelano completamente la fase, dando luogo in ultima analisi all’equivalente di un cammino casuale ogni volta che il cammino libero medio nel mezzo risulta molto più grande della lunghezza d’onda considerata. In questo modo si spiega il passaggio dall’azzurro intenso al rosso del cielo tra il giorno e il tramonto, come pure il fatto che i fotoni prodotti all’interno del Sole, percorrendo l’equivalente di un moto browniano, impiegano in media 105 anni per raggiungerne la superficie invece dei pochi secondi richiesti dalla propagazione in linea retta, che come abbiamo detto rappresenta il caso limite di quelli con proporzionalità lineare tra r e t. Rispetto alla (1.40), questi due valori apparentemente così distanti possono dare un’idea di quanto ampio sia il divario dischiuso nel passaggio da γ = 1 a γ = 2 o, in termini di traiettorie, di quante possibili soluzioni intermedie esistano tra il “fitto” moto browniano ed un percorso rettilineo. Tra l’uno e l’altro caso hanno luogo i fenomeni di superdiffusione, che corrispondono a cammini casuali i cui passi seguono una distribuzione α-stabile di Lévy secondo la relazione γ = α2 [22]. Di seguito ci occuperemo di mostrare come sia possibile realizzare un materiale, al quale è stato dato il nome di vetro di Lévy [5], in cui la luce vada incontro a superdiffusione effettuando un volo di Lévy il cui parametro α sia facilmente regolabile. Per far questo ci baseremo sulla teoria ed il modello mostrati finora, adottandolo con opportuni accorgimenti al caso fisico dei fotoni. La relazione citata precedentemente 1 si pensi ad esempio ad un’ecografia 15 2 Cammini di Lévy per la luce infatti, pur restituendo correttamente il caso diffusivo per α = 2, porterebbe ad una diffusione più rapida di quella balistica qualora i fotoni seguissero un volo di Lévy con α < 1, il che è fisicamente impossibile. Questa implicazione inaccettabile del modello è in realtà comune a tutti i voli di Lévy e deriva dal fatto che fino a questo punto abbiamo considerato il tempo come un semplice contatore scandito da incrementi ∆t di durata costante. Infatti, poiché la varianza di una distribuzione stabile con α ∈ (0, 2) diverge ed esiste sempre una probabilità non trascurabile di effettuare passi arbitrariamente lunghi, sarebbe possibile percorrerli in un tempo fissato solo supponendo che la luce possa viaggiare a velocità infinita. Poiché questa assunzione è priva di significato fisico dobbiamo operare un’ulteriore modifica al nostro modello, restituendo al tempo lo status di variabile a tutti gli effetti. Per fare questo, affianchiamo alla (1.9) un’evoluzione analoga per gli incrementi temporali tn = ∆tn + ∆tn−1 + · · · + ∆t2 + ∆t1 + t0 (2.1) dove t0 è il tempo iniziale e i ∆ti sono adesso variabili casuali. Ad essi dovremmo attribuire una densità di probabilità che ci fornisca la probabilità che l’i-esimo passo duri un tempo ∆ti : questo può essere fatto in diversi modi più o meno complessi e adatti ad affrontare di volta in volta i problemi e le condizioni poste. Qui ci limiteremo semplicemente a far notare che nel caso più generale sarebbe necessario definire una densità di probabilità congiunta f∆r,∆t (∆r, ∆t). Nel nostro caso possiamo servirci di un modello più semplice in cui il tempo ∆t rappresenti la durata dello spostamento del camminatore supponendo che questo viaggi a velocità costante — ovvero nel caso di un fotone ∆t = |r| /c — in modo che la distribuzione degli incrementi abbia la forma f∆r,∆t = δ(∆t − |r| /c)f∆r (∆r). Un modello di questo tipo viene indicato col nome di cammino di Lévy. In questo modo si giunge, nel caso unidimensionale, ad una generalizzazione dell’equazione di Einstein (1.14) Z Z t P (x, t) = d∆x d∆t P (x − ∆x, t − ∆t)f∆x,∆t (∆x, ∆t) + δ(t)P (x, t = 0) (2.2) 0 dove la probabilità P (x, t) sarà diversa a seconda del modello utilizzato. Ai fini di questa trattazione è sufficiente dire che questo modello consente di far sì che la propagazione dei fotoni non ecceda mai i limiti balistici fornendo la relazione γ = 3 − α per 1 < α < 2 [23] ed il valore costante di γ = 2 per tutto il range 0 < α < 1 [24]. Si è voluta riportare comunque la versione generalizzata dell’equazione di Einstein per evidenziare il fatto che nei modelli in cui il tempo viene considerato come una variabile continua le equazioni utilizzate non sono più operatori locali, né spazialmente né temporalmente: questo significa che a differenza dei voli, i cammini di Lévy non sono più dei processi puramente Markoviani. Se infatti resta pur vero che ad ogni evento di scattering le condizioni iniziali vengono “resettate” senza tenere conto dei passaggi precedenti, in un modello a tempo continuo una volta scelta la direzione di svolgimento di un passo il moto procede in modo non casuale per tutta la sua durata. 16 2.2 Vetri di Lévy 2.2 Vetri di Lévy Tenendo presenti queste considerazioni, possiamo adesso chiederci quali caratteristiche dovrebbe avere un mezzo affinché i fotoni possano seguire al suo interno un cammino di Lévy, cioè su quali proprietà è possibile agire affinché la distribuzione dei passi accessibili ai fotoni decada con la proporzionalità (1.37) di una legge di potenza. Per fare questo, come vedremo, è possibile seguire un approccio che inizialmente potrebbe sembrare controintuitivo: se ripensiamo al fatto che il primo volo di Lévy è stato descritto da Mandelbrot come un cammino su un frattale [13] potremmo pensare di dover conferire al nostro campione una serie di strutture che si ripetano uguali a varie scale di grandezza al fine di far emergere la distribuzione di passi cercata. Questo tentativo, oltre ad essere di difficile realizzazione, non porterebbe i risultati sperati: la luce, come ogni altra onda, non riuscirebbe a risolvere alcuna struttura sotto una certa dimensione e andrebbe incontro a fenomeni di scattering con caratteristiche differenti a seconda delle dimensioni delle strutture più grandi incontrate. L’unica soluzione di cui ad oggi esista una verifica sperimentale [5] ha individuato nella densità degli scatteratori, più che nelle loro dimensioni, la variabile più accessibile ed efficace da far variare in modo autosimile. Questo accorgimento consente di ottenere un cammino libero medio che dipende in modo sostanziale dalla posizione all’interno del campione. Per chiarire questo aspetto consideriamo innanzi tutto il modo in cui si distribuiscono i passi di un fotone in un mezzo reso opaco da una distribuzione omogenea di n scatteratori per unità di volume con sezione d’urto σ. Se pensiamo di derivare una qualsiasi quantità (nel nostro caso la distribuzione f (x) della lunghezza dei passi) lungo un asse che attraversa il campione otteniamo la nota legge di Lambert-Beer df (x) = −σnf (x) dx → df (x) = −σndx f (x) ln f (x) = −σnx + C → (2.3) solitamente riportata nella forma x f (x) = Ae−σnx = Ae ` (2.4) 1 dove A = eC è una costante che dipende dalle condizioni al contorno e ` = σn è il primo momento della distribuzione, definito in modo analogo a quanto avevamo fatto nella (1.6). Questo, assieme a tutti i momenti successivi, esiste finito visto il decadimento esponenziale della distribuzione trovata. Il nostro obiettivo è quello di modificare questa distribuzione, e quindi le proprietà del materiale impiegato, per fare in modo che i suoi momenti possano divergere. A tal fine possiamo pensare di aggiungere alcune regioni “vuote” in cui sia inibita ogni possibilità di scattering (Fig. 2.1). In questo modo la nuova distribuzione potrà essere scritta come x−b x 1 f˜(x) = H(a − x)e− ` + H(x − (a + b))e− ` (2.5) ` dove H(x) è la funzione di Heaviside e a e b sono rispettivamente la distanza alla quale si incontra una regione vuota e la sua estensione lungo la direzione dell’attraversamento. 17 2 Cammini di Lévy per la luce Figura 2.1: Funzione di distribuzione dei passi in presenza di una regione vuota di ampiezza b. Al suo interno non si verifica alcun evento di scattering. Attraversando un vuoto di forma sferica un raggio di luce incontrerà una regione priva di scatteratori di lunghezza b ≤ d, cosicché P (b) 6= P (d). L’angolo solido sotteso da una sfera determina la probabilità che la luce incontri quella particolare regione vuota. Si noti in particolare che, come avevamo suggerito precedentemente, ` assume a questo punto il ruolo di una variabile definita solo localmente, riferita alle regioni in cui sono presenti scatteratori: all’interno dei vuoti il suo valore locale sarebbe infinito. Ad ogni modo, se l’ampiezza b fosse una quantità costante avrebbe l’unica conseguenza di rinormalizzare ` spostando il valor medio di f˜(x): i momenti di questa nuova distribuzione sarebbero ancora tutti finiti e varrebbe l’assunto del Teorema del limite centrale. Si trova invece che è possibile far divergere la varianza di x facendo divergere la varianza di b, cioè nel caso in cui la lunghezza dei passi percorsi nelle regioni vuote sia distribuita secondo una legge di potenza con lo stesso comportamento asintotico (1.37) di una distribuzione stabile con α < 2. Sperimentalmente non possiamo avere accesso direttamente alla distribuzione dei passi P (b), ma solo alla quantità e alle dimensioni delle regioni vuote presenti in ogni campione, cioè alla loro distribuzione P (d). Queste due distribuzioni saranno tra loro in relazioni diverse a seconda della forma dei vuoti, anche se in ogni caso avremo che b ≤ d con una certa dipendenza dall’angolo di incidenza del segnale luminoso. Se consideriamo per semplicità che le regioni vuote abbiano forma sferica e che d rappresenti il loro diametro si trova che b = d cos θ (2.6) come mostrato nel pannello centrale della figura 2.1. Questa relazione determina la lunghezza massima che è possibile percorrere con un passo una volta entrati in una certa sfera, e in questo senso rappresenta il fattore di scala con cui modificare P (b) in presenza di un vuoto di dimensioni d. Vista la proporzionalità lineare tra d e b possiamo supporre che per ottenere una densità della distribuzione di passi proporzionale a b−(α+1) anche la distribuzione dei diametri debba decadere come una legge di potenza d−β , dove il valore dell’esponente β resti determinato una volta esplicitata la relazione tra P (b) e P (d). 18 2.2 Vetri di Lévy In questi termini, il problema risulterebbe molto difficile da schematizzare a meno di non applicare una serie di approssimazioni. Una volta individuata la relazione (2.6) tra le dimensioni della regione vuota e la lunghezza dei passi, è necessario esprimere quale probabilità esiste di incontrare una sfera di un certo diametro a partire da un punto qualsiasi del campione. L’ipotesi più plausibile è che questa sia proporzionale alla distribuzione delle sfere P (d) e all’angolo solido Ω(d, a) che ognuna di esse sottende da una distanza a s 2 d Ω(d, a) = 2π − 2π 1 − (2.7) d + 2a in modo che i fattori principali che determinano la forma di P (b) sono P (b) ∝ P (d)Ω(d, a)d cos θ. (2.8) L’utilizzo in questa formula della distribuzione P (d) nella forma di una semplice legge di potenza rappresenta in realtà soltanto un’approssimazione, in quanto corrisponde a supporre che gli angoli solidi sottesi dalle sfere circostanti ad un certo punto non si sovrappongano e che la probabilità di incontrare una sfera di diametro d dipenda soltanto dal numero di sfere presenti per quella dimensione. In questo modo inoltre non si tiene conto delle condizioni al contorno dovute all’estensione finita di ogni campione reale, né del fatto che questi saranno composti da sfere presenti in numero discreto sia per esemplari che per diametri. Infine, per fare un esempio concreto, dopo aver attraversato una sfera di grande diametro, trovandosi ancora nei pressi della sua superficie, la distribuzione del passo successivo è sostanzialmente modificata tanto dalla probabilità di rientrarci quanto dal fatto che ogni sfera molto voluminosa tende ad essere circondata da una “cintura” di sfere dei diametri più piccoli (Fig. 2.2). Ciò nonostante il fatto di mediare su un così grande numero di eventi ci permette ugualmente di ricavare una stima realistica dell’esponente β. A tal fine, supponiamo innanzi tutto che ogni angolo di ingresso θ ∈ − π2 , π2 sia ugualmente probabile, e che anche i valori di a siano più o meno uniformemente distribuiti tra 0 ed il diametro minimo delle sfere presenti. Questa ultima assunzione è la più plausibile considerando l’alta densità di regioni vuote che è possibile raggiungere in un campione, ed è d’altronde perfettamente compatibile con il modello che stiamo seguendo in quanto, se avessimo a ` otterremo che hxi = ` per ogni α > 0 e la presenza delle regioni vuote avrebbe il solo effetto di separare con rari salti zone di moto puramente browniano. Così facendo, il modo più semplice di procedere per confrontare la distribuzione dei passi con quella dei diametri consiste nel notare che il termine principale che si ottiene da uno sviluppo in d della (2.7) è una costante e, disinteressandoci dei fattori numerici di proporzionalità derivanti dall’angolo solido e dall’integrazione su θ, si ottiene infine P (b) ∝ 1 bα+1 ∝ 1 dβ−1 (2.9) da cui si vede che se vogliamo che b e d scalino con la stessa legge di potenza possiamo scegliere β = α + 2. 19 2 Cammini di Lévy per la luce Figura 2.2: Rappresentazione grafica di un cammino casuale bidimensionale in un materiale con forti fluttuazioni nella densità degli scatteratori (presenti solo all’esterno delle regioni circolari). Si noti nell’ingrandimento l’invarianza di scala che caratterizza la distribuzione dei vuoti e la traiettoria percorsa. 2.3 Preparazione dei campioni Questo approccio formale è quello che ha recentemente portato alla realizzazione dei primi campioni [5] che abbiano mostrato un comportamento superdiffusivo per la luce con α = 1. Ancora oggi questo rappresenta l’unico modo in cui si riesca a riprodurre (non solo nel caso della luce) una statistica di Lévy per una distribuzione di passi i cui parametri siano regolabili in modo semplice e controllato. Scopo principale del presente lavoro è stato quello di approfondire questo aspetto e verificare che variando la distribuzione di sfere incluse nel campione si ottiene effettivamente una variazione sensibile anche dell’indice di stabilità risultante, confermando in questo modo la validità della tecnica per valori di α anche diversi da 1. Come nell’esperimento originale, i campioni sono stati preparati mescolando particelle di diossido di Titanio (T iO2 , il cui alto indice di rifrazione e basso coefficiente di assorbimento nel range di frequenze di interesse le rende scatteratori particolarmente adatti per questo esperimento) in una matrice di Sodio silicato (SiO2 : N a2 O) disciolto in soluzione acquosa. Prima di lasciar solidificare il Sodio silicato (noto anche come “vetro liquido”) si è dunque aggiunta nella sospensione una distribuzione di microsfere di vetro dosata a seconda dei diametri seguendo una legge di potenza del tipo P (d) = 1 dα+2 . (2.10) Queste, una volta solidificato il campione, consentono di simulare le regioni caratterizzate dall’assenza di scatteratori richieste dal nostro modello. Al loro interno i fotoni si possono propagare in modo rettilineo per un tratto la cui lunghezza b è connessa al diametro della sfera d e all’angolo di incidenza θ dalla relazione (2.6). Tramite misure di trasmissione totale su realizzazioni di spessori diversi, questa tecnica di realizzazione ha già dimostrato [5] di produrre campioni caratterizzati 20 2.3 Preparazione dei campioni dal valore corretto di α nel caso in cui α = 1, dando una prima conferma del fatto che l’avere accesso alla distribuzione dei diametri delle sfere incluse nel campione ci consente effettivamente di controllare la distribuzione dei passi e dunque il grado di superdiffusione raggiungibile nel campione. Scelto un certo valore di α, tramite la (2.10) si può risalire al numero di sfere necessarie a seconda del loro diametro. Le sfere utilizzate sono prodotte dalla duke scientific corporation che certifica per ogni diametro la precisione e la deviazione standard del prodotto. Le sfere fino ad un diametro di 20 µm sono composte di Dry Borosilicate Glass, mentre per diametri maggiori viene utilizzato del Dry Soda lime Glass. I due materiali presentano valori quasi coincidenti per l’indice di rifrazione e la densità lungo tutta la scala dei diametri. Ai fini dei calcoli successivi queste discrepanze verranno considerate trascurabili rispetto agli errori di misura tipicamente connessi alle operazioni di dosaggio delle sfere. La quantità di sfere per ogni diametro d disponibile, espressa in peso, viene riportata di seguito per 4 diversi valori di α d (µm) α = 0.5 (mg) α = 0.75 (mg) α = 1.0 (mg) α = 1.5 (mg) 230 28.69 21.57 15.00 5.52 200 26.75 20.83 15.00 5.92 170 24.66 20.00 15.00 6.42 140 22.38 19.05 15.00 7.07 120 20.72 18.33 15.00 7.64 100 18.92 17.52 15.00 8.37 70 15.83 16.02 15.00 10.00 50 13.38 14.73 15.00 11.83 40 11.96 13.93 15.00 13.23 30 10.36 12.96 15.00 15.27 20 8.46 11.71 15.00 18.71 15 7.33 10.90 15.00 21.60 10 5.98 9.85 15.00 26.45 8 5.35 9.32 15.00 29.58 5 4.23 8.28 15.00 37.41 Tabella 2.1: Dosi delle sfere per vari valori di α normalizzate ad un peso complessivo costante di 225 µg. Poiché i materiali usati hanno la stessa densità, anche il volume di sfere aggiunto è costante. Su ogni peso riportato si intenda applicato un errore di 0.10 mg. Questo valore indicativo rappresenta un errore ottenuto come la stima della somma dell’errore sull’ultimo digit della bilancia, delle fluttuazioni riscontrate ad ogni pesata e dell’errore umano nel dosare le sfere. A prescindere dal valore di α, le quantità di diossido di Titanio e di Sodio silicato sono state invece scelte e mantenute costanti per tutti i campioni tenendo in considerazione che la quantità di scatteratori deve essere essere tale da rendere il campione opaco, 21 2 Cammini di Lévy per la luce senza però che il cammino libero medio diventi molto più piccolo della distanza media tra le sfere. Anche per questo motivo il Sodio silicato non dovrebbe eccedere la quantità strettamente necessaria ad inglobare tutte le sfere, in modo da mantenerne alta la densità [4]. Nel nostro caso, dopo una serie di tentativi, abbiamo riscontrato che circa 5 mg di T iO2 e 43 µl di Sodio silicato ci consentivano di soddisfare al meglio le condizioni richieste. Una volta preparato il composto questo viene adagiato e mantenuto compresso tra due vetrini con dei morsetti durante il tempo necessario alla matrice di Sodio silicato per solidificare. Esercitando una pressione sufficiente sui vetrini durante questa fase è possibile assicurarsi che lo spessore del campione si riduca fino al diametro delle sfere più grandi. Ogni scostamento per eccesso da questo spessore tenderebbe a degradare con grande rapidità il carattere superdiffusivo dei profili di intensità misurati a favore di un comportamento puramente gaussiano, in quanto non sarebbe più possibile attraversare il campione in un tempo sufficientemente breve. 2.4 Effetti del troncamento Anche applicando tutti questi accorgimenti, il campione realizzato resta infatti soggetto ad un problema intrinseco di “troncamento”: è ovvio che non sarà fisicamente possibile percorrere passi arbitrariamente lunghi entro un campione di dimensioni finite. Questo significa che la distribuzione di passi accessibili ai fotoni seguirà l’andamento di una distribuzione α-stabile di Lévy solo fino ad un certo punto mentre sarà identicamente nulla oltre. Una distribuzione del genere ha ovviamente tutti i momenti finiti e convergerà ad una gaussiana mostrando un regime diffusivo. Tuttavia, anche se troncata, una distribuzione stabile possiede ancora momenti molto grandi, il che rende la convergenza alla distribuzione normale sufficientemente lenta da poter osservare la presenza temporalmente distinta di un regime superdiffusivo (per tempi brevi) e di uno diffusivo (per tempi lunghi), nonché della zona di passaggio i due [25]. Per studiare le proprietà di questa transizione sono state effettuate [4] delle simulazioni Monte Carlo per varie realizzazioni con diverse lunghezze di troncamento. Il risultato, come era lecito aspettarsi, è che la transizione avviene approssimativamente quando il prodotto tra il tempo e la velocità della luce è uguale alla lunghezza di troncamento, cioè quando i fotoni hanno avuto modo di esplorare tutte le lunghezze accessibili per i passi. Poiché nei nostri campioni il passo più lungo che è possibile percorrere avviene all’interno delle sfere da 230 µm, ci aspettiamo che questo valore rappresenti più o meno l’ordine di grandezza del fattore di scala caratteristico per il trasporto di Lévy. Se lo spessore del campione è maggiore, lo sarà anche il tempo minimo in cui la luce potrà attraversarlo, senza che però a questo corrisponda la possibilità di compiere passi della stessa durata. Anche per questa ragione è importante assicurarsi che lo spessore totale del campione non superi il diametro delle sfere più grandi, in quanto questa condizione è fondamentale per osservare con maggior fedeltà le caratteristiche di un comportamento superdiffusivo. 22 2.5 Apparato sperimentale 2.5 Apparato sperimentale L’apparato sperimentale per le misure di profilo si compone principalmente di un supporto per il campione realizzato la cui posizione sul piano verticale sia regolabile tramite viti micrometriche. Attraverso una serie di lenti e specchi viene messo a fuoco sulla faccia anteriore del campione il fascio di un laser He-N e (la cui lunghezza d’onda in aria è di circa 633 nm). Nonostante il fatto che la luce esca già con una polarizzazione ben definita da un laser di questo tipo, nel fascio che illumina il campione essa viene ulteriormente accentuata massimizzandone la trasmissione attraverso un polarizzatore. Un secondo gruppo di lenti mette a fuoco l’immagine sulla seconda faccia del campione (ovvero, in un campione ideale, il piano focale della lente di uscita si trova 230 µm a valle di quello della lente di ingresso) e questa immagine viene mandata, attraverso un secondo polarizzatore ruotato di 90◦ rispetto al primo, su una CCD mantenuta ad una temperatura di -20 ◦ C. Il secondo polarizzatore ha la funzione di fermare la componente balistica del fascio, composta da quei fotoni che attraversano il campione senza subire alcun evento di scattering (e dunque conservando la polarizzazione originaria). In questo modo l’immagine che otteniamo è composta solo da fotoni che abbiano subito almeno un evento di scattering, cioè che abbiano compiuto almeno un passo della distribuzione stabile. Ridurre il più possibile la componente balistica ci consente inoltre di sfruttare al meglio il range della CCD, poiché altrimenti il segnale raccolto sarebbe in generale troppo basso se confrontato con quello trasmesso in corrispondenza delle sfere di diametro maggiore. Infine, a seconda del valore di α del campione realizzato, e quindi della sua trasmissione totale, vengono aggiunti all’uscita del laser una serie di filtri che ne attenuano l’intensità di un fattore tale da evitare che il segnale raccolto saturi la CCD. Questo può avvenire con maggior rilievo in corrispondenza delle sfere di diametro massimo, che mettendo idealmente in comunicazione le due facce del campione permettono il passaggio di una porzione consistente del fascio. D’altra parte è sempre preferibile impiegare il minor numero di filtri compatibili con i limiti di saturazione della CCD al fine di sfruttarne al massimo il range e massimizzare così il rapporto segnale/rumore. Quello che ci aspettiamo di trovare, a differenza del caso diffusivo, sono grandi fluttuazioni nel profilo di trasmissione totale tra varie realizzazioni di disordine. Con questo termine ci riferiremo, nel seguito, alle diverse porzioni osservate dei vari campioni realizzati. Osservando infatti la superficie di uno stesso campione in punti sufficientemente distanti tra loro possiamo supporre che ogni immagine provenga idealmente da una diversa e indipendente realizzazione di disordine. Questa differenza è esemplificata dal confronto tra i profili misurati su un campione test di tipo diffusivo (Fig. 2.3) ed uno superdiffusivo (Fig. 2.4) da cui si può notare la notevole varietà ed estensione spaziale dei profili ottenuti nel secondo caso. A causa di queste fluttuazioni nel caso superdiffusivo sarà necessario mediare su un gran numero di realizzazioni di disordine per osservare la convergenza verso la relativa distribuzione α-stabile. A tal fine per ogni campione sono state realizzate circa 2000 misure indipendenti su singole realizzazioni casuali di disordine, ottenendo in questo modo nella media un 23 2 Cammini di Lévy per la luce Figura 2.3: Profili di intensità tipici osservati per un campione diffusivo. profilo di intensità le cui code e la cui cuspide risultano più o meno marcate al variare di α. Per α < 1 ad esempio persino il primo momento diverge: la distribuzione sarà molto lontana da una gaussiana e le sue code saranno molto importanti (Fig. 2.5). Nella realizzazione questo si ottiene dosando in quantità maggiore le sfere di diametro più grande, in corrispondenza delle quali sarà più probabile che una quantità maggiore di luce riesca a passare in linea quasi retta, ovvero subendo un numero piccolo di eventi di scattering. Per questo motivo, al centro dei profili è sempre presente una cuspide che emerge nella media a causa di quelle realizzazioni di disordine che presentavano sfere un po’ più grandi vicine all’asse di propagazione del laser. Al crescere di α queste caratteristiche diventano progressivamente meno evidenti finché, nel limite di α → 2 dovremmo veder scomparire la cuspide e ritrovare, anche per le code, un andamento gaussiano2 . Per poter avere un insieme di misure confrontabili a sostegno di questa ipotesi è stato dunque realizzato un campione a parte dello stesso spessore dei vetri di Lévy, con la stessa quantità di T iO2 ma con un volume di Sodio silicato tale da compensare anche la differenza di volume causata dall’assenza di sfere. 2 Qui e nel seguito, indicheremo come gaussiano il caso dei campioni con α = 2, nonostante il fatto che a rigore si potrebbe parlare di profilo gaussiano solo nel caso di un sistema infinitamente esteso in tutte le direzioni. Da una soluzione più accurata [4] dell’equazione della diffusione nel caso in cui una delle dimensioni sia finita (che è quello più vicino al nostro) si nota che la soluzione del propagatore comincia lievemente a scostarsi da una Gaussiana, principalmente a causa del fatto che parte dell’energia lascia il sistema una volta arrivata raggiunto il bordo. 24 2.6 Misure di profilo Figura 2.4: Profili di intensità tipici osservati per un campione superdiffusivo. 2.6 Misure di profilo I risultati delle misure realizzate sui campioni vengono mostrati in fig. 2.6 e sono in buon accordo con le nostre previsioni. Questi presentano variazioni significative nell’indice di stabilità dei profili a seconda della distribuzione di sfere inserite. Si noti in particolare la sequenza ordinata secondo il valore di α delle pendenze delle cuspidi e dell’importanza delle code, almeno fino alla lunghezza di troncamento, rispetto al profilo gaussiano ottenuto dalle misure effettuate sul campione test. Questa serie di misure sembra effettivamente suggerire una soluzione di continuità tra il comportamento superdiffusivo e quello diffusivo standard per la luce, in accordo con l’ipotesi qui avanzata che anche i fenomeni di diffusione normale rientrino nel contesto più generale della diffusione anomala nello stesso modo in cui la distribuzione gaussiana fa parte come caso limite della classe ben più ampia delle distribuzioni α-stabili. Una volta stabilito che agendo sulla distribuzione dei diametri delle sfere inserite in un vetro di Lévy è possibile modificarne in modo controllato il grado di superdiffusione, sarebbe interessante in futuro ripetere misure di trasmissione totale analoghe a quelle riportate in [5] realizzando per ogni valore di α campioni di spessore diverso, in modo da avere una stima indipendente del valore reale di α ottenuto per confrontarlo con quello atteso dalla (2.10), allo scopo di definire una sorta di curva di taratura con cui verificare la validità delle ipotesi e delle assunzioni fatte nel calcolarla. 25 2 Cammini di Lévy per la luce Figura 2.5: Esempio di media risultante dalle misure su un campione con α = 0,5. Dal rendering tridimensionale dell’immagine si nota la punta estremamente accentuata che caratterizza il profilo, mentre l’immagine originale rende l’idea dell’ampiezza dell’area mediamente illuminata. 2.7 Considerazioni sui materiali Per quanto i dati raccolti finora risultino buoni, discuteremo in questa sezione di un aspetto ancora del tutto insoddisfacente della tecnica di realizzazione proposta in [5] e di una possibile via di risoluzione. Il problema più rilevante che si presenta con i campioni descritti finora riguarda la loro conservazione, ed in particolare il rapido degrado della matrice di Sodio silicato. Questo deriva probabilmente dalla concomitanza di più fattori, primo dei quali è rappresentato dalle condizioni difficilmente schematizzabili di solidificazione in una geometria confinata come l’intercapedine tra i due vetrini di sostegno. In generale, trascorse 24 ore dalla realizzazione del campione, questo presenta già danni macroscopici, mentre, anche nelle regioni apparentemente integre, un’osservazione ravvicinata (Fig. 2.7) rivela la presenza di una fitta trama di crepe e fessure precedentemente assenti, con un conseguente degrado della qualità delle misure che è possibile ottenere. L’ipotesi più plausibile per giustificare questo effetto è imputabile al progressivo disseccamento della soluzione di Sodio silicato che, una volta solidificata, continua a trattenere e rilasciare nel tempo una certa quantità di acqua residua, andando incontro così ad una non trascurabile perdita di volume. Questo restringimento porta con sé principalmente due tipi di effetti. In primo luogo, ritirandosi, il Sodio silicato espelle le sfere periferiche, mentre quelle interne vengono probabilmente trascinate verso il centro. D’altra parte, è probabile ad un certo punto le sfere della taglia e del materiale meno comprimibile oppongano resistenza al progressivo restringimento del Sodio silicato circostante fino a provocarne la rottura in più punti. In proporzione minore inoltre questa riduzione interessa anche l’estensione in verticale del campione. Verosimilmente, mentre i vetrini sono mantenuti ad una 26 2.7 Considerazioni sui materiali Figura 2.6: Media radiale dell’intensità trasmessa. I due grafici riportano gli stessi dati normalizzati all’integrale (in alto) o al valore massimo (in basso). Nel primo caso si può notare la crescente importanza della cuspide al diminuire di α, mentre il secondo pannello evidenza meglio la diversa pendenza con cui i profili si avvicinano al picco dell’intensità. 27 2 Cammini di Lévy per la luce Figura 2.7: Campione di Sodio silicato, apparentemente integro all’ispezione visiva, dopo 6 ore dalla realizzazione. Le immagini ingrandite rivelano la presenza di crepe uniformemente distribuite su tutta la realizzazione. Si noti il loro colore scuro: la luce che attraversa queste fenditure giunge balisticamente sul secondo polarizzatore, venendo così soppressa. distanza di almeno 230 µm dalle sfere di diametro maggiore, la matrice di Sodio silicato se ne distacca permettendo l’infiltrazione dell’aria o la formazione di bolle di vapore ad ulteriore detrimento dei profili misurati. Soluzioni possibili a questo tipo di problemi potrebbero essere: modificare le dimensioni o la forma del campione; cambiare la temperatura (o persino la posizione) in cui viene conservato; adottare un materiale più comprimibile per le sfere o infine studiare una diversa composizione per la matrice, pur mantenendone le proprietà ottiche il più vicine possibile a quelle del vetro. Nella parte conclusiva di questa tesi vengono riportate le misure preliminari relative alla realizzazione di una nuova serie di campioni composti in una matrice polimerica, assieme ad una documentazione fotografica di raffronto dello stato di conservazione nel tempo tra un campione realizzato col Sodio silicato ed uno realizzato con il polimero. I vantaggi offerti dall’impiego di questo tipo di materiale come matrice sono connessi al fatto di poter decidere arbitrariamente il momento in cui il monomero debba solidificare, a differenza del carattere lento e graduale della disidratazione del Sodio silicato. Se ad esempio scegliamo di utilizzare, come nel nostro caso, un monomero che polimerizzi per esposizione di qualche minuto a luce UV, otterremo una matrice solida 28 2.7 Considerazioni sui materiali più resistente alla rottura e meno soggetta a variazioni di volume. Infine, il fatto che il monomero resti in fase liquida fino al momento della polimerizzazione ci consente di poter seguire con più cura le fasi di realizzazione di un campione, con particolare riferimento al mescolamento dei vari componenti e al raggiungimento dello spessore minimo. L’utilizzo di un monomero di questo tipo presenta però a prima vista altrettanti svantaggi e controindicazioni, sufficienti a prospettarne un difficile impiego per i nostri scopi. Questi risiedono principalmente in una serie di caratteristiche non altrettanto soddisfacenti rispetto a quelle che rendono il Sodio silicato particolarmente adatto come matrice. Innanzi tutto, per come abbiamo definito il nostro modello, abbiamo interesse che gli eventi di scattering all’interno dei campioni siano interamente dovuti alle nanoparticelle di T iO2 . Per questo motivo è necessario che tra le sfere di vetro e la matrice circostante la differenza di indice di rifrazione sia minima, il che riduce anche la possibilità che si verifichino fenomeni di riflessione interna alle sfere. Questa condizione è ben verificata dal Sodio silicato grazie alla sua affinità di composizione con le microsfere di vetro, la quale concorre a conferirgli non solo un indice di rifrazione molto simile (pari a circa 1,5), ma anche un’ottima bagnabilità con il vetro dei supporti e delle sfere. La buona adesione del Sodio silicato in fase liquida attorno alle sfere ci consente di realizzare i campioni con un rapporto abbastanza alto tra il volume delle sfere e quello della matrice che le contiene (filling fraction). Volendo utilizzare un polimero come matrice queste rappresentano le caratteristiche più importanti da riprodurre. Mentre nel caso dell’indice di rifrazione, sfruttando la vasta gamma di polimeri in commercio, è stato possibile giungere ad un buon compromesso, il problema della viscosità e della scarsa bagnabilità col vetro comportava l’utilizzo di un volume molto maggiore di monomero liquido per riuscire ad inglobare un pari volume di sfere, con una conseguente minore densità di regioni esenti da scattering a detrimento del carattere α-stabile dei profili. Come abbiamo detto, una bagnabilità ottimale tra matrice e sfere sarebbe favorita a priori dall’utilizzo di materiali di composizione affine. Questa ipotesi non risulta realisticamente applicabile nel caso del polimero in quanto le sfere di questo materiale sono prodotte in una minore varietà di diametri, e ad un costo molto superiore. Dopo una serie di tentativi è stato infine possibile ovviare a questa serie di inconvenienti abbattendo la viscosità del monomero durante la fase di mescolamento, realizzando il campione su una piastra riscaldante elettrica alla temperatura di 150◦ C. Questo accorgimento ha consentito, addirittura, di utilizzare una quantità di polimero minore di quella di Sodio silicato, garantendo così un impacchettamento ottimale ed una densità di vuoti ben distribuita. In base a queste considerazioni, si è scelto di utilizzare per la matrice dei campioni il norland optical adhesive 65, un monomero acrilato usato come collante nelle applicazioni ottiche, la cui composizione chimica esatta è mantenuta segreta dal produttore. L’indice di rifrazione è 1,524, ovvero ben confrontabile con quello degli altri materiali impiegati. La sua viscosità diminuisce sensibilmente al crescere della temperatura e la polimerizzazione viene indotta esclusivamente per irraggiamento UV. Queste caratteristiche ci hanno consentito di raggiungere, a parità di pressione 29 2 Cammini di Lévy per la luce Figura 2.8: Immagine della sezione di un campione presa al microscopio. Data l’irregolarità del taglio, la corta profondità di campo di un microscopio, ed il fatto che ogni sfera si trova ad una distanza diversa dall’osservatore il fuoco dell’immagine non consente di vedere i bordi esatti delle sfere. Anche all’aspetto il materiale circostante sembra comunque uniformemente polimerizzato. applicata, spessori molto più vicini alla soglia ideale di 230 µm. La combinazione di questi fattori, cioè la maggior concentrazione di sfere raggiungibile ed una riduzione media dell’estensione verticale di almeno 10 µm rispetto ai campioni di Sodio silicato, sarebbero sufficienti a rendere preferibile la scelta del polimero senza contare la maggior resistenza del materiale e la sua migliore conservazione. Ad ogni modo, l’impiego del norland optical adhesive 65 per uno scopo tanto diverso da quello per cui è stato prodotto può a priori dar luogo ad un altro tipo di problema. Abbiamo ritenuto importante assicurarci che, nonostante il fatto che il monomero non sia più trasparente dopo l’aggiunta delle particelle di T iO2 , l’esposizione alla luce UV riesca comunque a raggiungere anche le zone più interne del campione permettendone la completa polimerizzazione. A tal fine abbiamo dunque inciso i vetrini di sostegno e tagliato uno dei campioni realizzati per renderne accessibile la sezione (Fig. 2.8). In questo modo è stato possibile testarne la resistenza alle sollecitazioni meccaniche e all’intrusione di punte o lame affilate, verificando così l’avvenuta solidificazione. La presenza del diossido di Titanio non sembra d’altronde aver sortito alcun effetto neanche sulle proprietà di collante del polimero, che aderisce con forza ai vetrini di sostegno. Per testare la miglior resistenza nel tempo di una matrice polimerica e documentare al contempo il degradarsi dei campioni di Sodio silicato abbiamo pensato di produrre una documentazione fotografica di due realizzazioni con caratteristiche pensate appositamente per questo scopo. Gli obiettivi di questo confronto fotografico erano in particolare mirati ad evidenziare possibili connessioni tra il degrado del Sodio silicato e fattori quali la dimensione delle sfere inserite o gli elementi chimici presenti nella loro composizione. Per fare questo abbiamo realizzato un campione in Sodio silicato ed uno in polimero cercando di riprodurre lo spessore tipico delle realizzazioni usate nelle misure. In essi abbiamo aggiunto sfere di dimensioni e materiali diversi; una porzione 30 2.8 Misure di profilo preliminari è stata infine lasciata vuota. Non è stato aggiunto diossido di Titanio per mantenere i campioni trasparenti ed avere una miglior visibilità. I risultati sono riassunti nella figura 2.9, che contiene tre scatti significativi tra quelli raccolti. In tutto l’arco di tempo dell’osservazione la matrice polimerica non ha presentato difetti o modifiche di volume apprezzabili. Nel caso del Sodio silicato già dopo 24 ore sono invece evidenti danni macroscopici legati, nella nostra impressione, a fattori non imputabili alla presenza di un certo tipo di materiale o sfere. Notando la forma e l’aspetto delle zone più colpite dalla riduzione di volume viene da pensare piuttosto che questa sia legata alla perdita dell’acqua residua contenuta nella soluzione diluita di Sodio silicato, con un conseguente cambiamento nel tempo del valore della tensione superficiale del materiale. In questo modo, i varchi e i cedimenti di maggiore entità sembrano presentarsi e procedere a partire dalle rientranze del bordo del campione, con una perdita apparente stimata in circa la metà del volume originario dopo una decina di giorni. Questo lasso di tempo sembra dunque essere quello realmente necessario per la solidificazione totale del silicato nella geometria confinata dai due vetrini, rendendolo sostanzialmente inadatto al nostro scopo in quanto, ritirandosi in modo non uniforme provoca danni e disomogeneità che compromettono la possibilità di effettuare misure affidabili oltre poche ore dalla realizzazione. 2.8 Misure di profilo preliminari In questa sezione presentiamo alcune misure di profilo preliminari riguardanti i primi campioni realizzati con una matrice di polimero. Tutte le realizzazioni prodotte finora hanno un valore di α = 1 per poter essere meglio confrontate con i dati provenienti dalle misure più accurate in nostro possesso per il Sodio silicato [5]. Dopo una serie di tentativi, si è dimostrato possibile realizzare campioni in cui le sfere sono immerse in soli 35 µl di polimero, raggiungendo in questo modo una filling fraction superiore al 70%. Nel pannello superiore della fig. 2.10 possiamo osservare i profili a confronto: la sovrapposizione dei dati provenienti da due campioni realizzati con materiali tanto diversi è sorprendente, fatta eccezione per un comportamento leggermente diverso verso la punta. Riteniamo che questo scostamento potrebbe andare comunque ad attenuarsi se si raggiungesse un numero di medie paragonabile con quelle fatte per quel valore specifico di α nel caso del Sodio silicato (oltre 5000), anche se resta possibile che quello ottenuto col campione di polimero sia un profilo più accurato in quanto in esso le sfere raggiungono una densità più alta in uno spessore probabilmente minore. Non sono state infatti registrati gli spessori dei campioni misurati in [5] ma è verosimile che, come è successo per tutti i campioni in Sodio silicato realizzati per questa tesi, non fosse stato possibile avvicinarsi allo spessore ideale di 230 µm più di quanto non si riesca a fare a caldo nel caso del monomero. Trascorsi 8 giorni dalla realizzazione del campione in polimero, dopo averne constatato l’assenza di danni macroscopici e la perfetta integrità nei profili delle singole 31 2 Cammini di Lévy per la luce Figura 2.9: Confronto fotografico sull’invecchiamento di campioni realizzati con materiali differenti. Le tre foto sono state scattate: (a) a qualche ora dalla realizzazione (solitamente necessarie al Sodio silicato per raggiungere una certa solidità), (b) il giorno seguente e (c) a distanza di una settimana. Per cercare di identificare possibili connessioni tra il degrado del Sodio silicato (campione superiore) e le dimensioni o la composizione dei materiali con cui entrava in contatto si sono realizzate approssimativamente 4 regioni per ogni realizzazione. Da sinistra verso destra, entrambi i campioni contengono regioni senza sfere, con sfere da 20, da 30 e da 230 µm. Risulta evidente la velocità e l’entità del degrado per la matrice di Sodio silicato (già danneggiata dopo poche ore nella regione con le sfere più grandi) rispetto a quella di polimero, che lungo un arco di tempo anche maggiore di quello documentato non ha manifestato cambiamenti macroscopici evidenti per struttura e limpidezza. 32 2.8 Misure di profilo preliminari Figura 2.10: Media radiale dei profili di intensità di un campione in polimero per α = 1. Nel pannello superiore i dati raccolti dopo la realizzazione del campione sono confrontati con quelli di un campione in Sodio silicato di uguale indice di stabilità. Il grafico inferiore riporta nuove misure di profilo prese sullo stesso campione in polimero ad 8 giorni dalla sua realizzazione. 33 2 Cammini di Lévy per la luce realizzazioni di disordine, è stata effettuata una ulteriore serie di misure per verificare che la media dei profili conservasse il comportamento α-stabile. Pur trattandosi dello stesso campione, avendo effettuato nel frattempo un completo riallineamento delle apparecchiature ottiche, il grafico nel pannello inferiore della fig. 2.10 non è direttamente confrontabile con quello precedente, principalmente a causa della diversa posizione, quota e inclinazione della camera CCD. Restano comunque riconoscibili la cuspide e l’andamento delle code fino al raggio di troncamento che caratterizzano un profilo con α = 1. Una misura di questo tipo, impossibile da replicare nel caso di una matrice in Sodio silicato, rappresenta una conferma preliminare del fatto che la stabilità dei campioni in polimero è tale da preservare il carattere superdiffusivo per la propagazione della luce lungo un arco di tempo dell’ordine dei giorni, o anche maggiore. 34 Conclusioni Le misure raccolte in questo lavoro evidenziano chiaramente la validità della tecnica di realizzazione, dimostrando che poter variare la distribuzione dei diametri delle sfere contenute in un campione ci consente effettivamente di ottenere profili di intensità con comportamenti superdiffusivi apprezzabilmente diversi. Questo costituisce il primo passo per arrivare a produrre materiali in cui la luce si propaghi seguendo una distribuzione di passi con un indice di stabilità α qualsiasi, fornendo un banco di prova dalle caratteristiche ottimali per testare sperimentalmente i risultati teorici sui voli di Lévy e le distribuzioni stabili. La luce, in questo senso, rappresenta lo strumento di indagine ideale in quanto, rispetto ad altre onde, risulta praticamente indipendente da effetti di temperatura o vibrazioni. Alle frequenze ottiche inoltre anche l’interazione fotone-fotone è trascurabile, il che rende le misure più facili da interpretare e virtualmente esenti da artefatti. Se infine le misure preliminari circa la sostituzione della matrice in vetro con una in polimero verranno confermate, questo ulteriore miglioramento consentirà, oltre ad un consistente guadagno di tempo sulle fasi di realizzazione dei campioni, di poter effettuare sui singoli campioni più tipi di misurazioni, anche di durata maggiore, caratterizzandone in questo modo più aspetti e analizzandone più approfonditamente le correlazioni. 35 Conclusioni 36 Bibliografia [1] Boris Vladimirovich Gnedenko and Andrey Nikolaevich Kolmogorov. Limit Distributions for Sums of Independent Random Variables. Addison-Wesley, 1954. [2] Karl Pearson and John William Strutt Rayleigh. The problem of the random walk. Nature, 72(1865;1866;1867), 1905. [3] B. Carazza. The history of the random-walk problem: considerations on the interdisciplinarity in modern physics. La Rivista del Nuovo Cimento, 7:419–427, 1977. [4] Jacopo Bertolotti. Light transport beyond diffusion. PhD thesis, Università degli studi di Firenze, 2007. [5] P. Barthelemy, J. Bertolotti, and D. S. Wiersma. A Lévy flight for light. Nature, 453:495–498, May 2008. [6] T. Lucretius C. De rerum natura, volume II, chapter 2. I century B.C. [7] Robert Brown. A brief account of microscopical observations made in the months of june, july and august, 1827, on the particles contained in the pollen of plants; and on the general existence of active molecules in organic and inorganic bodies. Philosophical Magazine, 1828. [8] Albert Einstein. Über die von der molekularkinetischen Theorie der Wärme geforderte Bewegung von in ruhenden Flüssigkeiten suspendierten Teilchen. Annalen der Physik, 17:549, 1905. [9] Louis Jean-Baptiste Alphonse Bachelier. Théorie de la spéculation. PhD thesis, École Normale Supérieure, 1900. n [10] Abraham de Moivre. Approximatio ad summam terminorum binomii a + b in seriem expansi. In The Doctrine of Chances. London, 1733. [11] Paul Lévy. Théorie de l’addition des variables aléatoires. Gauthier-Villars, 1937. [12] John P. Nolan. Stable Distributions. Birkhauser, 2002. [13] Benoît Mandelbrot. The Fractal Geometry of Nature. V.H. Freeman & co., 1977. 37 Bibliografia [14] Frederic Bartumeus, M. G. E. da Luz, G. M. Viswanathan, and J. Catalan. Animal search strategies: A quantitative random-walk analysis. Ecology, 86(11):3078–3087, 2005. [15] D. Brockmann and T. Geisel. Are human scanpaths levy flights? In Artificial Neural Networks, 1999. ICANN 99. Ninth International Conference on (Conf. Publ. No. 470), pages 263–268 vol.1, 1999. [16] D. Brockmann, L. Hufnagel, and T. Geisel. The scaling laws of human travel. Nature, 439:462, 2006. [17] Álvaro Corral. Universal earthquake-occurrence jumps, correlation with time, and anomalous diffusion. Physical Review Letters, 97:178501, 2006. [18] Rosario N. Mantegna and H. Eugene Stanley. Scaling behaviour in the dynamics of an economic index. Nature, 376:46, 1995. [19] S. Boldyrev and C.R. Gwinn. Lévy model for interstellar scintillations. Phys. Rev. Lett., 91(13), Sep 2003. [20] T. H. Solomon, Eric R. Weeks, and Harry L. Swinney. Observation of anomalous diffusion and Lévy flights in a two-dimensional rotating flow. Phys. Rev. Lett., 71(24):3975–3978, Dec 1993. [21] F. Bardou, J. P. Bouchaud, O. Emile, A. Aspect, and C. Cohen-Tannoudji. Subrecoil laser cooling and Lévy flights. Phys. Rev. Lett., 72(2):203–206, Jan 1994. [22] Ralf Metzler and Joseph Klafter. The random walk’s guide to anomalous diffusion: a fractional dynamics approach. Physics Reports, 339:1–77, 2000. [23] T. Geisel, J. Nierwetberg, and A. Zacherl. Accelerated diffusion in Josephson junctions and related chaotic systems. Phys. Rev. Lett., 54(7):616–619, Feb 1985. [24] G. Zumofen and J. Klafter. Scale-invariant motion in intermittent chaotic systems. Phys. Rev. E, 47(2):851–863, Feb 1993. [25] I. M. Sokolov, A. V. Chechkin, and J. Klafter. Fractional diffusion equation for a power-law-truncated Lévy process. Physica A: Statistical and Theoretical Physics, 336(3-4):245–251, 2004. 38