Dinamica stocastica ed e etti di taglia nita in uno schema di
Transcript
Dinamica stocastica ed e etti di taglia nita in uno schema di
UNIVERSITÀ DEGLI STUDI DI FIRENZE Facoltà di Scienze Matematiche, Fisiche e Naturali Corso di Laurea Specialistica in Matematica Tesi di Laurea Specialistica in Matematica Dinamica stocastica ed eetti di taglia nita in uno schema di reazioni autocatalitiche Relatore: Correlatore: Prof. Duccio Fanelli Dott. Luigi Barletti Candidata: Claudia Cianci Anno Accademico 2008/2009 Ai miei genitori, per avermi sempre appoggiata nelle mie scelte. Indice Introduzione 4 1 Derivazione matematica dell'equazione di Fokker-Planck 7 1.1 1.2 Derivazione dell'equazione di Fokker-Planck . . . . . . . . . . . . . 7 1.1.1 Equazione di Chapman-Kolmogorov . . . . . . . . . . . . . . 7 1.1.2 Equazione maestra 9 1.1.3 Equazione di Fokker-Planck 1.1.4 Casi particolari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 . . . . . . . . . . . . . . . . . . . . . . . . . 14 Simulazioni stocastiche . . . . . . . . . . . . . . . . . . . . . . . . . 16 1.2.1 La formalizzazione matematica dell'algoritmo . . . . . . . . 17 1.2.2 I passi dell'algoritmo di Gillespie . . . . . . . . . . . . . . . 19 2 Un modello stocastico di reazioni autocatalitiche 2.1 23 Denizione del modello . . . . . . . . . . . . . . . . . . . . . . . . . 24 2.1.1 25 Le probabilità di transizione . . . . . . . . . . . . . . . . . . 2.2 Simulazioni numeriche . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Lo sviluppo di van Kampen 26 . . . . . . . . . . . . . . . . . . . . . . 28 L' equazione maestra . . . . . . . . . . . . . . . . . . . . . . 30 2.4 Le uttuazioni e gli spettri di potenza . . . . . . . . . . . . . . . . . 37 2.5 Calcolo dei momenti primi e secondi e del loro punto sso . . . . . . 39 2.3.1 3 L'equazione di Fokker-Planck generalizzata 3.1 Derivazione dell'equazione di Fokker-Planck generalizzata . . . . . . 47 48 INDICE 3.2 3 Calcolo dei momenti . . . . . . . . . . . . . . . . . . . . . . . . . . 55 3.2.1 I momenti di ordine tre all'equilibrio . . . . . . . . . . . . . 62 3.2.2 Momenti terzi: confronto fra teoria e simulazioni . . . . . . . 63 Π(ξ) 3.3 La distribuzione teorica 3.4 Probabilità di estinzione delle uttuazioni . . . . . . . . . . . . 65 . . . . . . . . . . . . . . . . . . . . . . . . 71 Conclusioni 73 Appendice 75 A.1 Sviluppo di van Kampen . . . . . . . . . . . . . . . . . . . . . . . . 75 A.2 Forma esplicita del sistema dei momenti terzi . . . . . . . . . . . . 77 A.3 Calcolo della probabilità di estinzione . . . . . . . . . . . . . . . . . 79 Ringraziamenti 83 Introduzione Le cellule sono le più piccole unità strutturali classicate come entità viventi. Negli organismi pluricellulari, le cellule si dierenziano morfologicamente risultando in classi distinte che, per aggregazione gerarchica, portano alla formazione di tessuti ed organi. Le cellule sono composte da una membrana esterna semipermeabile che ne delimita la supercie, assolvendo una duplice funzione. Da una parte la membrana rappresenta un chiaro elemento di protezione isolando il volume cellulare dall'ambiente esterno. Dall'altra ltra l'accesso dei nutrimenti molecolari, successivamente metabolizzati e trasformati in energia spendibile per il sostentamento della cellula. È ragionevole supporre che le cellule odierne siano il risultato di un lungo processo evolutivo: la selezione adattiva ha certamente portato alla denizione dei meccanismi molecolari che sottendono al funzionamento delle speciche dinamiche cellulari attualmente in essere. Si ipotizza in particolare che siano esistite agli albori della vita unità cellulari semplicate, le protocellule o cellule minimali, composte da replicatori, reagenti chimici primordiali ospitati all'interno di un contenitore lipidico, capace di dividersi per ssione meccanica. I numerosi tentativi di ricreare in laboratorio tali strutture minimali sono accompagnati da studi che propongono diversi modelli interpretativi [12]. Nello scenario più accreditato si postula l'esistenza di un principio di cooperazione fra molecole costituenti, secondo il quale una catalizza la formazione dell'altra, dando vita ad un ciclo chiuso di reazioni. Il suddetto schema di autocatalitiche, reazioni è robusto e capace di autosostenersi contrastando possibili derive evoluzionistiche che potrebbero compromettere la trasmissione dell'informazione Introduzione 5 genetica alla progenie cellulare [5]. In questo contesto e con specico riferimento alle tematiche di ricerca sull'origine della vita, è importante studiare la dinamica molecolare di un complesso di reagenti organizzati in un ciclo autocatalitico. Dal punto di vista teorico ci interesseremo allo studio della dinamica delle popolazioni dei reagenti coinvolti, dove con popolazione si intende indicare un insieme omogeneo di costituenti molecolari. L'approccio deterministico consiste nel considerare le relative concentrazioni come variabili continue che dipendono esplicitamente dal tempo e la cui dinamica è controllata da un sistema di equazioni dierenziali accoppiate. Tali equazioni possono contemplare la presenza di molteplici meccanismi di interazione fondamentale quali eetti di competizione e cooperazione. Si tratta tuttavia di una approssimazione ideale che prescinde dalla dinamica di singolo individuo, per privilegiare una visione globale d'insieme. Le popolazioni sono di fatto supposte innite, ipotesi di lavoro che non permette di cogliere aspetti cruciali riconducibili alla discretezza del mezzo molecolare. In alternativa all'approccio deterministico, si può procedere con la modellizzazione stocastica, recuperando il livello descrittivo del singolo individuo. Il sistema è considerato composto da un numero nito di costituenti, le cui interazioni microscopiche sono codicate a mezzo di reazioni chimiche, aventi un determinato tasso di successo. L'incontro fra i reagenti è casuale, e la probabilità di incontro dipende dalle relative concentrazioni. L'evoluzione delle grandezze globali quali la concentrazione d'insieme si ricostruisce a posteriori a partire dalla dinamica di ogni singola unità. Nel limite di taglia innita si recupera la descrizione deterministica o di campo medio come comunemente indicata. Gli eetti di taglia nita possono inuenzare la dinamica macroscopica del sistema. Sotto particolari condizioni, il rumore demograco interno al sistema può determinare l'insorgenza di dinamiche spazio-temporali regolari, denunciando un grado di organizzazione collettiva altrimenti assente nel contesto della formulazione deterministica. Questi eetti sono stati osservati analiticamente e numericamente in modelli di tipo predatore-preda [10, 11] e in altri schemi di interazione che trovano giusticazione per applicazioni in campo biomedico [3] . Più recentemente si sono rilevate dinamiche auto-organizzate Introduzione 6 anche in presenza di reazioni autocatalitiche [2]. Una procedura analitica che consente di costruire un ponte ideale tra i due livelli descrittivi, sopra ricordati è il cosiddetto sviluppo di van Kampen. Si tratta di uno sviluppo perturbativo rispetto alla taglia del sistema che permette di caratterizzare analiticamente le correzioni stocastiche alla dinamica ideale di campo medio. In questo lavoro di tesi ci interesseremo alla dinamica stocastica di un sistema esteso di reazioni autocatalitiche. Studieremo in particolare il comportamento analitico del sistema, indagando la statistica delle uttuazioni che si originano per eetto della taglia nita. Lavorando nel contesto del già citato sviluppo di van Kampen, riusciremo a caratterizzare i tratti di non gaussianità validando a posteriori l'adabilità del metodo, oltre l'ordine di approssimazione comunemente impiegato in letteratura. Il lavoro di tesi è articolato in tre capitoli. Nel primo capitolo introdurremo l'equazione di Fokker-Planck, strumento di analisi ricorrente nella modellizzazione dei processi stocastici. Discuteremo inoltre l'algoritmo di Gillespie, la procedura di calcolo adottata nello studio della dinamica delle reazioni chimiche. Nel secondo capitolo illustreremo il modello di reazioni autocatalitiche oggetto di analisi, rivisitando i risultati del lavoro [2]. Elaborando ulteriormen- te le informazioni che derivano dall'applicazione sistematica dello sviluppo di van Kampen, daremo conto della sincronizzazione delle uttuazioni fra popolazioni distinte così come rivelata in sede di analisi numerica (paragrafo 2.5). Si osserverà poi come la riduzione drastica della taglia del sistema modichi signicativamente la distribuzione delle uttuazioni attorno al punto di equilibrio, inducendo una evidente asimmetria della stessa. Nel terzo capitolo, nel tentativo di spiegare tale asimmetria a livello analitico, si procederà ad estendere l'ordine dello sviluppo perturbativo rispetto al caso precedente. Otterremo così l'equazione di Fokker-Planck generalizzata che governa la dinamica delle uttuazioni e coinvolge esplicitamente la taglia nita del sistema (paragrafo 3.1). Calcoleremo poi i momenti di ordine tre, informazione che sfrutteremo per ricostruire il prolo della distribuzione. Lo studio sarà completato operando un confronto tra teoria e simulazioni. A conclusione saranno esposte possibili prospettive di ricerca. Capitolo 1 Derivazione matematica dell'equazione di Fokker-Planck In questo capitolo introdurremo la matematica dei processi stocastici, derivando in particolare l'equazione di Fokker-Planck su base formale. Evidenzieremo le ipotesi che sottendono alla validità della stessa, classicando i processi di riferimento e denendo la cornice matematica nella quale si colloca il lavoro di tesi. Come avremo modo di discutere, lo studio dell'equazione maestra che governa la dinamica del sistema stocastico in esame richiede l'utilizzo di ranate tecniche d'indagine numerica; fra queste, l'algoritmo di Gillespie che illustreremo in dettaglio nella seconda parte del capitolo fornendone una giusticazione rigorosa. 1.1 Derivazione dell'equazione di Fokker-Planck 1.1.1 Equazione di Chapman-Kolmogorov L'intento di questo paragrafo è quello di fornire una derivazione dell' equazione di Fokker-Planck unidimensionale, partendo da nozioni basilari di probabilità. Le tappe principali consistono nel ricavare l'equazione di Chapman-Kolmogorov a partire dalla denizione di processo stocastico markoviano, e quindi derivare l'equazione maestra che ne governa la dinamica. Si opera inne un'approssimazio- 1.1 Derivazione dell'equazione di Fokker-Planck 8 ne che conduce all'equazione di Fokker-Planck. Proponiamo nel seguito le prime denizioni: Denizione 1. torie (v.a.) Si chiama processo stocastico X(t) una famiglia di variabili alea- denite su uno stesso spazio di probabilità, dove t ∈ T ⊂ R+ è il tempo. Denizione 2. Presi t1 ≤ t2 ≤ t3 ... ≤ tn consideriamo la densità di probabilità condizionata fX {x(tn )|x(tn−1 ), x(tn−2 ), ...}, ovvero la densità di probabilità che il processo assuma il valore dato che ha già assunto i valori Il processo X(t) si denisce x(tn ) al tempo tn , x(tn−1 ), x(tn−2 )... . di Markov se soddisfa la seguente uguaglianza: fX {x(tn )|x(tn−1 ), ..., x(t1 )} = fX {x(tn )|x(tn−1 )}. (1.1) Si tratta di un processo senza memoria, dove lo stato corrente determina quello immediatamente successivo. Dall'unica ipotesi di processo markoviano è possi- bile ricavare l'equazione di Chapman-Kolmogorov, come chiariremo nel seguito. Sfruttando la denizione di probabilità condizionata si ottiene: f (x(t3 )|x(t2 ), x(t1 )) = f (x(t3 ), x(t2 ), x(t1 )) f (x(t2 ), x(t1 )) dove per semplicare la notazione abbiamo omesso il pedice X. (1.2) Ipotizzando che il processo sia markoviano possiamo riscrivere la (1.2) come segue: f (x(t3 )|x(t2 )) = f (x(t3 ), x(t2 ), x(t1 )) f (x(t2 ), x(t1 )) (1.3) avendo di fatto sfruttato la (1.1). Moltiplicando entrambi i membri della (1.3) per f (x(t2 )|x(t1 )) si ottiene: f (x(t3 )|x(t2 ), x(t1 ))f (x(t2 )|x(t1 )) = f (x(t3 )|x(t2 ))f (x(t2 )|x(t1 )). (1.4) Dalla precedente equazione, ricordando la denizione di probabilità condizionata, si ricava: 1.1 Derivazione dell'equazione di Fokker-Planck 9 f (x(t3 ), x(t2 ), x(t1 )) f (x(t2 ), x(t1 )) = f (x(t2 )|x(t1 ))f (x(t3 )|x(t2 )) f (x(t2 ), x(t1 )) f (x(t1 )) (1.5) da cui segue: f (x(t3 ), x(t2 ), x(t1 )) = f (x(t2 )|x(t1 ))f (x(t3 )|x(t2 )) f (x(t1 )) (1.6) quindi, in virtù della denizione di probabilità condizionata, si ottiene: f (x(t3 )x(t2 )|x(t1 )) = f (x(t2 )|x(t1 ))f (x(t3 )|x(t2 )). (1.7) x(t2 ), su tutto R si ricava: Z ∞ f (x(t3 )|x(t2 ))f (x(t2 )|x(t1 ))dx(t2 ) f (x(t3 ), x(t2 )|x(t1 ))dx(t2 ) = (1.8) Integrando poi l'equazione (1.7) in Z ∞ −∞ −∞ da cui: Z ∞ f (x(t3 )|x(t2 ))f (x(t2 )|x(t1 ))dx(t2 ). f (x(t3 )|x(t1 )) = (1.9) −∞ Abbiamo così concluso il primo passo della derivazione ottenendo l'equazione di Chapman-Kolmogorov. Tale equazione permette di caratterizzare la probabilità di evolvere verso lo stato nale x(t3 ) partendo dalla condizione iniziale x(t1 ). Come risulta chiaro dall'analisi della (1.9) il processo si compone di due passaggi successivi e indipendenti: passaggio x(t2 ) → x(t3 ). intermedie 1.1.2 in prima istanza la transizione x(t1 ) → x(t2 ), seguita poi dal L'integrale dà conto di fatto di tutte le possibili tappe x(t2 ). Equazione maestra Vogliamo ora mostrare come la precedente condizione si traduca in un'equazione cosiddetta maestra per la probabilità di osservare il sistema in una data congurazione. Riportiamo prima alcune utili denizioni. Denizione 3. X(t) è un processo stocastico stazionario se la sua statistica, ovvero tutti i suoi momenti, non cambiano operando una traslazione dell'origine dei tempi. 1.1 Derivazione dell'equazione di Fokker-Planck 10 La funzione densità di transizione di un processo stazionario dallo stato xi = x(ti ) τ = tj − ti , si indica con: verso lo stato xj = x(tj ) X(t) che muove nale, in un intervallo di tempo Tτ (xj |xi ) = f {x(tj )|x(ti )} (1.10) e quantica la probabilità che il sistema operi la suddetta transizione xi → xj , nell'intervallo considerato. Denizione 4. La funzione probabilità di transizione per unità di tempo è data da: W (xj |xi ) = lim Tτ (xj |xi )/τ τ →0 se xj 6= xi 0 altrimenti. Torniamo ad occuparci della transizione cedenza. Introduciamo a0 (x1 ), x(t1 ) → x(t3 ), la probabilità che x2 6= x1 , già considerata in predove x2 è un generico x1 . In formule: Z a0 (x1 ) = W (x2 |x1 )dx2 . stato compatibile con lo stato iniziale Possiamo quindi scrivere Tτ (x2 |x1 ) = (1 − τ a0 (x1 ))δ(x2 − x1 ) + τ W (x2 |x1 ) + O(τ 2 ), (1.11) dove abbiamo operato uno sviluppo in serie. Il primo termine dell'equazione (1.11) rappresenta la probabilità che il sistema non cambi stato nell'intervallo di tempo considerato. Il secondo termine a destra dell'uguaglianza descrive invece la probabilità di evolvere verso uno stato dierente da quello iniziale. Riscrivendo la (1.9) per Tτ +τ 0 (x3 |x1 ), dove con τ e con τ0 si indica il tempo necessario per la transizione uno-due quello relativo al passaggio due-tre, si ricava: Z Tτ +τ 0 (x3 |x1 ) = Tτ (x2 |x1 )Tτ 0 (x2 |x3 )dx2 (1.12) da cui, esplicitando il secondo fattore a mezzo della relazione (1.11) e trascurando i termini di ordine superiore, si ottiene: Z Tτ +τ 0 (x3 |x1 ) = [(1 − τ 0 a0 (x2 ))(δ(x3 − x2 )) + τ 0 W (x3 |x2 )]Tτ (x2 |x1 )dx2 . (1.13) 1.1 Derivazione dell'equazione di Fokker-Planck 11 Integrando il primo termine a destra dell'equazione (1.13) si ha: 0 Tτ +τ 0 (x3 |x1 ) = (1 − τ a0 (x3 ))Tτ (x3 |x1 ) + τ Dall'equazione (1.14), dividendo per τ 0, 0 Z W (x3 |x2 )Tτ (x2 |x1 )dx2 . calcolando il limite per τ0 → 0 (1.14) e usando la denizione di derivata, si ricava: ∂ Tτ (x3 |x1 ) = −a0 (x3 )Tτ (x3 |x1 ) + ∂τ Ricordando la denizione di ∂ Tτ (x3 |x1 ) = ∂τ a0 (x3 ), Z W (x3 |x2 )Tτ (x2 |x1 )dx2 . (1.15) l'equazione precedente assume la forma: Z Z W (x3 |x2 )Tτ (x2 |x1 )dx2 − W (x2 |x3 )Tτ (x3 |x1 )dx2 . (1.16) Si ottiene quindi un'equazione integro-dierenziale che descrive la variazione nel tempo della probabilità di transizione. Ricordando l' equazione (1.10), in cui si è esplicitata la dipendenza dal tempo della probabilità condizionata e prendendo x1 come il dato iniziale, possiamo riscrivere l'equazione maestra nella forma più ricorrente in letteratura: ∂ P (x, t) = ∂t dove Z {W (x|x0 )P (x0 , t) − W (x0 |x)P (x, t)}dx0 (1.17) P (x, t) rappresenta la probabilità che il sistema si trovi nello stato nale x = x3 al tempo t = t3 , data la condizione iniziale (per i dettagli si veda [25]). L'equazione descrive l'evoluzione temporale della distribuzione di probabilità attraverso due diversi contributi. Il primo integrando si riferisce alla probabilità che il sistema evolva da uno stato x0 verso uno stato compatibile x, mentre il secondo rappresenta la probabilità che il sistema si allontani dallo stesso stato. Poichè l'equazione maestra è stata ricavata a partire dall'equazione (1.9) senza utilizzare ulteriori informazioni sul processo in esame, possiamo concludere che le due equazioni sono formalmente equivalenti [6]: il vantaggio della formulazione (1.17) risiede nella linearità rispetto al tempo. Si tratta tuttavia di un' equazione integro-dierenziale, di dicile soluzione diretta. Si è perciò soliti operare uno sviluppo perturbativo trasformando l' operatore integrale in uno dierenziale, con evidenti vantaggi risolutivi. Se consideriamo un processo stocastico che assume 1.1 Derivazione dell'equazione di Fokker-Planck 12 valori discreti, pur essendo continuo nel tempo e markoviano, l'integrale diventa una somma, e l'equazione (1.17) prende la forma: X d Pn (t) = {Wn,n0 Pn0 (t) − Wn0 ,n Pn (t)} dt n0 dove Pn (t) tempo 1.1.3 (1.18) indica la probabilità che il sistema si trovi in un determinato stato n al t. Equazione di Fokker-Planck A partire dall'equazione (1.17) è possibile, sotto particolari ipotesi, operare uno sviluppo che condurrà all'equazione di Fokker-Planck. A tale derivazione è dedicato il seguente paragrafo. Considerando l'equazione (1.17) ed assumendo che il salto stato x sia piccolo, cioè dell'ordine di = ∆x/x, ∆x dallo stato x0 allo possiamo riscrivere la probabilità di transizione come W (x|x0 ) = W ∆x 0 x . Assumiamo inoltre che ∆x n ∆x o W (x|x0 ) = f () Φ0 x0 , + Φ1 x0 , + ... . dove abbiamo reso esplicita la dipendenza in denizione della W. Si suppone che le funzioni Φi (1.19) contenuta intrinsecamente nella siano piccole quando il salto ∆x è grande. Ciò signica ipotizzare che tali salti siano relativamente improbabili. Inserendo nell'equazione (1.17) la (1.19) si ricava: ∂ P (x, t) = ∂t n x − x0 x − x0 o f () Φ0 x0 , + Φ1 x0 , + ... P (x0 , t)dx0 Z n x0 − x x0 − x o − f () Φ0 x, + Φ1 x, + ... P (x, t)dx0 Z e, operando un cambio di variabile da ∂ P (x, t) = ∂t x0 a y= (1.20) x−x0 Z f (){Φ0 (x − y, y) + Φ1 (x − y, y) + ...}P (x − y, t)dy Z − f (){Φ0 (x, −y) + Φ1 (x, −y) + ...}P (x, t)dy. (1.21) 1.1 Derivazione dell'equazione di Fokker-Planck È poi possibile sviluppare la funzione P (x − y, t) P (x − y, t) = P (x, t) − y 13 in serie di Taylor intorno ad ∂ P (x, t)... . ∂x x: (1.22) Inserendo tale sviluppo nell'equazione (1.21) e eseguendo le semplicazioni all'ordine considerato, si ottiene: Z ∂ ∂ 2 P (x, t) = − f () P (x, t) y{Φ0 (x, y) + Φ1 (x, y) + ...}dy ∂t ∂x Z 3 ∂2 + f () 2 P (x, t) y 2 {Φ0 (x, y)Φ1 (x, y) + ...}dy. 2! ∂x Riscalando il tempo, (1.23) τ = 2 f ()t, e denendo Z A(x) = y{Φ0 (x, y) + Φ1 (x, y) + ...}dy 1 B(x) = 2! Z y 2 {Φ0 (x, y) + Φ1 (x, y) + ...}dy si ottiene in conclusione: ∂ 1 ∂2 ∂ P (x, τ ) = − A(x)P (x, τ ) + B(x)P (x, τ ). ∂τ ∂x 2! ∂x2 (1.24) È questa l'equazione di Fokker-Planck nella versione più usuale. L'equazione governa l'evoluzione della funzione stato x al tempo τ. P (x, τ ), la probabilità di osservare il sistema nello L'equazione riveste un ruolo di primaria importanza nella teoria dei processi stocastici. Fisicamente descrive un fenomeno di diusione e per questo motivo B(x) A(x) è noto come coeciente di trasporto, mentre il coeciente prende il nome di coeciente di diusione. Inoltre i coecienti A(x) e B(x) possono essere scritti come: 1 E[∆x|x] ∆t→0 ∆t A(x) = lim 1 E[(∆x)2 |x] ∆t→0 ∆t B(x) = lim dove ∆x = x − x0 e ∆τ = τ − τ 0 e con E[∆x|x] condizionato. Per ulteriori dettagli si rimanda a [1]. si è indicato il valore atteso 1.1 Derivazione dell'equazione di Fokker-Planck L' equazione di Fokker-Planck in dimensione 14 d, ricavabile con analoghi passaggi, prende la forma: d d X ∂ ∂ 1 X ∂2 P (x, τ ) = − Ai (x)P (x, τ ) + Bi,j (x)P (x, τ ) ∂τ ∂x 2! ∂x ∂x i i j i=1 i,j=1 in cui abbiamo indicato con (1.25) x = (x1 , ..., xd ) il vettore delle variabili aleatorie, 1 E[∆xi |x] ∆t→0 ∆t 1 Bi,j (x) = lim E[(∆xi )(∆xj )|x]. ∆t→0 ∆t Ai (x) = lim Il coeciente A(x) è un vettore, mentre B(x) (1.26) è una matrice simmetrica e semide- nita positiva. Come vedremo, l'equazione di Fokker-Planck interverrà nel secondo capitolo come risultato centrale nella caratterizzazione delle uttuazioni stocastiche indotte da fenomeni di taglia nita nel modello preso in esame. Per completezza e per fornire un quadro esaustivo abbiamo deciso di anticiparne la derivazione nel contesto di riferimento più usuale. 1.1.4 Casi particolari Andremo ora ad esaminare alcuni casi semplicati dell'equazione di Fokker-Planck, per opportune scelte dei coecienti, per i quali è possibile ottenere una soluzione analitica in forma chiusa. Processi di Wiener Un processo di Wiener è un processo associato a un'equazione di Fokker-Planck dove il coeciente di trasporto è nullo ed il coeciente di diusione risulta costante, B(x) = D. L'equazione assume la seguente forma: ∂P ∂2 = D 2P ∂τ ∂x che è nota come equazione del calore o della diusione. Tale equazione, soggetta alla condizione iniziale P (x, τ0 ) = P (x, τ0 |x0 , τ 0 ) = δ(x − x0 ), ammette soluzione per 1.1 Derivazione dell'equazione di Fokker-Planck τ > τ0 15 nella forma: 1 P (x, τ |x0 , τ 0 ) = p 4πD(τ − τ 0 ) (x − x0 )2 exp − 4D(τ − τ 0 ) (1.27) nota anche come soluzione fondamentale. Processi di Ornstein-Uhlenbeck A(x) Si parla di processo di Ornstein-Uhlenbeck quando il coeciente B(x) = D è lineare e costante. L'equazione assume la seguente forma: ∂ ∂2 ∂P = γ (xP ) + D 2 P ∂τ ∂x ∂x la cui soluzione risulta essere: √ γ p P (x, τ |x , τ ) = 4πD(1 − e−2γ(τ −τ 0 ) ) 0 Nel limite 0 γ → 0 0 γ(x − e−γ(τ −τ ) x0 )2 . exp − 2D(1 − e−2γ(τ −τ 0 ) ) (1.28) si ottiene la (1.27), come richiesto sulla base di un ovvio argomento di consistenza. La soluzione stazionaria, valida per dalla precedente operando il limite per τ → ∞. γ > 0, è ottenuta Considerando il tempo iniziale τ0 identicamente uguale a zero si ottiene: √ γx2 γ Pst (x) = √ exp − . 2D 2 πD Nel caso dell'equazione di Fokker-Planck multidimensionale (1.25), la soluzione risulta essere una gaussiana multivariata [6, 1]. Tornando all'equazione (1.23), includendo un ulteriore termine nello sviluppo perturbativo (1.22), otterremo un' equazione di Fokker-Planck generalizzata, che coinvolge le derivate terze, e la cui soluzione darà conto del comportamento non gaussiano della distribuzione di probabilità P (x, τ ). Si ha in particolare: ∂ ∂ 1 ∂2 1 ∂3 P (x, τ ) = − A(x)P (x, τ ) + B(x)P (x, τ ) + C(x)P (x, τ ) ∂τ ∂x 2! ∂x2 3! ∂x3 (1.29) 1.2 Simulazioni stocastiche 16 dove 1 E[∆x|x] ∆t→0 ∆t 1 B(x) = lim E[(∆x)2 |x] ∆t→0 ∆t 1 E[(∆x)3 |x]. C(x) = lim ∆t→0 ∆t A(x) = lim Nella forma in dimensione d si ottiene: X ∂ ∂ 1 X ∂2 P (x, τ ) = − Ai (x)P (x, τ ) + Bi,j (x)P (x, τ ) ∂τ ∂xi 2! i,j ∂xi ∂xj i + X i,j,k ∂3 Ci,j,k (x)P (x, τ ) ∂xi ∂xj ∂xk (1.30) dove 1 E[∆xi |x] ∆t→0 ∆t 1 Bi,j (x) = lim E[(∆xi )(∆xj )|x] ∆t→0 ∆t 1 E[(∆xi )(∆xj )(∆xk )|x]. Ci,j,k (x) = lim ∆t→0 ∆t Ai (x) = lim (1.31) Abbiamo così completato il quadro introduttivo della teoria dei processi stocastici a cui faremo riferimento nel seguito. Come già ricordato, l'equazione maestra risulta di dicile soluzione e quindi si ricorre in molti casi ad uno studio numerico della stessa, al ne di caratterizzare l'evoluzione del sistema. Concludiamo per questo motivo il capitolo descrivendo l'algoritmo di Gillespie, la procedura di calcolo numerico comunemente utilizzata. 1.2 Simulazioni stocastiche In questo paragrafo illustriamo l'algoritmo di Gillespie, spesso utilizzato nello studio numerico di sistemi stocastici. Come vedremo nel dettaglio, tale tecnica permette di generare serie temporali, le cui funzioni di densità di probabilità siano soluzioni esatte dell'equazione maestra [7, 8]. 1.2 Simulazioni stocastiche 1.2.1 17 La formalizzazione matematica dell'algoritmo Prendiamo in esame il caso in cui il sistema studiato sia una miscela composta da k specie chimiche dierenti. Indichiamo con i presenti all'interno della miscela. Xi il numero di molecole della specie Indichiamo con V il volume del composto. Supponiamo che le varie specie possano reagire tra loro generando dei prodotti di reazione. Le reazioni possono avvenire attraverso con Rµ µ = 1...M , M canali distinti, che indicheremo dove ciascun canale individua un'unica reazione chimica. I canali possono rappresentare reazioni bidirezionali: in tal caso a ciascun verso della reazione corrisponde un unico canale. Nel nostro caso per semplicità si suppone che le reazioni chimiche siano unidirezionali, cioè non invertibili: nel caso di invertibilità si rappresentano le due direzioni della reazione tramite canali dierenti. È inoltre contemplata l'ipotesi che non tutte le specie reagiscano tra loro. Si indica con cµ la costante di reazione che d'ora in poi identicherà la reazione stessa. L'ipotesi fondamentale è che il tempo di durata della singola reazione chimica sia molto più breve del tempo che intercorre tra due reazioni consecutive: ciò permette di aermare che le reazioni avvengono una alla volta. Deniamo prima alcune quantità che verranno utilizzate in seguito. Denizione 5. Si indica con cµ δt la frequenza media di reazione, cioè il numero medio di reazioni che avvengono nell'intervallo δt. Si suppone che tali intervalli di tempo siano piccoli. È quindi possibile considerare il numero medio di reazioni lineare rispetto al tempo. Denizione 6. Indichiamo con hµ il numero di possibili e dierenti combinazioni di reagenti per cui avviene la reazione Denizione 7. Rµ Indichiamo con nell' intervallo di tempo Rµ . P (τ, µ)dτ la probabilità che avvenga la reazione (t + τ, t + τ + dτ ). Alla luce delle denizioni date in precedenza possiamo aermare che P (τ, µ)dτ = P0 (τ )hµ cµ δτ (1.32) 1.2 Simulazioni stocastiche dove 18 P0 (τ ) è la probabilità che nell'intervallo di tempo (t, t+τ ) non avvenga alcuna hµ cµ δτ reazione chimica e rappresenta la probabilità che Rµ avvenga in V, nel successivo intervallo temporale. Per stimare ghezza = P0 (τ ) τ . K dividiamo il suddetto intervallo in K sottointervalli di lun- (t, t + ) La probabilità che nell'intervallo non avvenga alcuna reazione chimica è quindi data da: M Y M X (1 − hµ cµ + o()) = 1 − µ=1 hµ cµ + o(). µ=1 Tale espressione dipende esplicitamente solo da ed è indipendente da t: bilità stimata risulta pertanto uguale in tutti i K la proba- intervalli considerati. M M iK h h iK X X τ hµ cµ + o() = 1 − hµ cµ + o(K −1 ) . P0 (τ ) = 1 − K µ=1 µ=1 In conclusione PM −1 h )K iK µ=1 hµ cµ τ + o(K P0 (τ ) = 1 − K da cui operando il limite K→∞ e sfruttando il limite notevole ex = lim n→∞ 1+ x n n si ottiene: P0 (τ ) = e− PM µ=1 hµ cµ τ . (1.33) Inserendo quest'ultima relazione nell'equazione (1.32) risulta: P (τ, µ) = hµ cµ e− dove 0≤τ ≤∞ e PM ν=1 hν cν τ 1 ≤ µ ≤ M. La condizione di normalizzazione della probabilità è la seguente: Z ∞ dτ 0 M X µ=1 P (τ, µ) = M X µ=1 Z hµ cµ ∞ dτ e− PM ν=1 hν cν τ = 1. 0 Si ottiene quindi la probabilità che il sistema evolva nell'intervallo la reazione Rµ . (t, t + τ ) tramite Si osserva inoltre che la stessa probabilità dipende anche dal numero 1.2 Simulazioni stocastiche 19 di molecole che popolano il volume V (informazione contenuta nel coeciente Un sistema così costruito è di fatto controllato interamente dagli indici τ e µ. hµ ). Co- noscendo i due parametri, si determina in senso probabilistico la reazione che guida l'evoluzione e l'istante temporale in cui essa avviene. Queste considerazioni costituiscono un ideale punto di partenza per la formulazione ricorsiva dell'algoritmo di Gillespie. 1.2.2 I passi dell'algoritmo di Gillespie L'algoritmo di Gillespie è una procedura di simulazione di tipo Monte Carlo [18]. Supponiamo che il sistema si trovi nello stato noto X = (X1 , X2 , ..., Xk ) t. Dobbiamo quindi selezionare la reazione chimica Rµ al tempo che avverrà, in accordo con quanto ricordato in precedenza, nel successivo intervallo temporale τ. L'algoritmo procede con l' estrazione di due numeri casuali, in base ai quali calcolare τ e µ, e si compone dei seguenti passi che vengono iterati: 1. (inizializzazione dei parametri) Si imponga di reazione cµ t = 0. Si impostino le costanti e il numero iniziale di molecole delle specie chimiche calcolino i valori aν = hν cν con ν = 1, ..., M da cui è possibile stimare 2. Si generino tramite un metodo Monte Carlo due valori per con P1 (τ ) e P2 (τ |µ) µ P (τ, µ). in accordo Rµ . 3. Per mezzo dei nuovi parametri si aggiorni il tempo (t Xi e Si denite nel seguito, scegliendo così l'intervallo di tempo che intercorre prima che avvenga la reazione molecole τ Xi . = t + τ) e il numero di coinvolte nella reazione chimica precedentemente selezionata. 4. Se la variabile tempo supera il tempo di stop o se tutte le molecole delle specie chimiche coinvolte nelle M reazioni sono estinte, si interrompa il ciclo e si riprenda dal passo 2. Vogliamo descrivere nel dettaglio la tecnica usata per calcolare le due quantità τ e µ . In generale è possibile scrivere: P (τ, µ) = P1 (τ )P2 (µ|τ ) (1.34) 1.2 Simulazioni stocastiche dove P1 (τ ) 20 misura la probabilità che, a partire dall'istante t, la reazione successiva avvenga dopo un tempo indicata dall'indice µ. τ . P2 (τ |µ) è la probabilità che tale reazione sia quella È quindi possibile scrivere: M X P1 (τ ) = P (τ, µ). µ=1 Si può poi ricavare da (1.34) una relazione per P2 (τ |µ) = P2 (τ |µ): P (τ, µ) P (τ, µ) = PM . P1 (τ ) ν=1 P (τ, ν) Ricordando l'espressione (1.33) ottenuta in precedenza e sostituendola nell'equazione di P1 (τ ) si ottiene: P1 (τ ) = M X hµ cµ e− PM ν=1 = ae− hν cν τ PM ν=1 hν cν τ µ=1 dove abbiamo indicato a= P µ aµ = PM µ=1 hµ cµ . In conclusione P1 (τ ) risulta essere la distribuzione esponenziale: P1 (τ ) = a exp[−aτ ] 0 ≤ τ ≤ ∞ 0 altrimenti. Operando nello stesso modo per P2 (τ |µ) si ricava: hµ cµ aµ P2 (τ |µ) = PM = a µ=1 hµ cµ si osservi che P2 (τ |µ) non dipende da τ e che le due probabilità sono normalizzate nel loro dominio di denizione. In conclusione si ha: P2 (τ |µ) = P aµ / M aν ν=1 ν = 1, ..., M 0 altrimenti. L'idea del metodo è quella di generare un numero casuale reale probabilità µ P1 (τ ) in accordo con che dipende solo da P2 (τ |µ) τ τ in accordo con la e poi di estrarre un numero intero casuale che dipende solo da µ, come sopra dimostrato. 1.2 Simulazioni stocastiche 21 Discutiamo nel seguito come tale intento si realizzi nella pratica. generare una grandezza P (x). con x ∈ R Vogliamo in accordo con la generica densità di probabilità Alla densità sarà quindi associata la funzione di ripartizione che indicheremo F (x0 ): Z x0 P (x)dx. F (x0 ) = −∞ La procedura che andiamo a discutere è nota come ste in ultima analisi nell'estrarre un numero casuale metodo di inversione. Consi- r da una distribuzione uniforme dell'intervallo unitario e poi calcolare la quantità desiderata come x = F −1 (r). Per provare la fondatezza della procedura, mostriamo che la probabilità che il x così generato cada nell'intervallo [x0 , x0 +1] è data da P (x0 )dx0 . valore zione, ciò è equivalente a calcolare la probabilità che Poichè r r stia tra F (x0 ) e Per costru- F (x0 + dx0 ). è un numero casuale estratto da una distribuzione uniforme dell'intervallo unitario, la probabilità è uguale alla lunghezza dell'intervallo. È quindi possibile scrivere: F (x0 + dx0 ) − F (x0 ) = F 0 (x0 )dx0 = P (x0 )dx0 . Nel nostro caso vogliamo generare un numero casuale questo caso F (τ ) = 1 − exp[−aτ ]. Posto τ= F (τ ) = r τ in accordo con e invertendo la F P1 (τ ). In si ottiene 1 1 ln a r dove per semplicità abbiamo rimpiazzato la variabile 1−r con la variabile r statisticamente equivalente. Abbiamo nora visto come generare un numero casuale dipendente da una distribuzione continua. Consideriamo adesso il caso discreto e mostriamo come quest'ultimo possa essere trattato in analogia al precedente. Presentiamo il metodo per ottenere un intero casuale P (j), dove P (j) F (·), associata a i in accordo con la funzione densità di probabilità è la probabilità che P (·), i = j. Si introduce la funzione di ripartizione denita come: F (i) = i X j=−∞ P (j). 1.2 Simulazioni stocastiche Con F (i0 ) 22 si indica quindi la probabilità che i ≤ i0 . In analogia al caso continuo, il metodo di inversione consiste nell'estrazione di un numero casuale r dalla di- stribuzione di probabilità uniforme unitaria. Si seleziona quindi il valore di i che soddisfa: F (i − 1) ≤ r ≤ F (i). (1.35) Mostriamo a partire dalla disuguaglianza (1.35) che la probabilità associata all'evento j = i è data da P (j). ottiene: F (j) − F (j − 1) = Scrivendo esplicitamente j X j−1 X P (k) − k=−∞ F (j) − F (j − 1), P (k) = P (j). k=−∞ Come esempio ci riferiamo al nostro caso, ottenendo un'espressione per accordo con P2 . Si seleziona r µ−1 X P2 (ν|τ ) < r ≤ µ−1 X aν < r ν=1 M X aν µ X P2 P2 (ν|τ ) ottenuta in precedenza, si ricava: aν ≤ ν=1 In sostanza si considera la somma degli ν=1 in ν=1 da cui, ricordando l'espressione esplicita di ra = r τ sfruttando (1.35) e si ha: ν=1 PM si aν µ X aν . ν=1 no a che non viene superato il valore e si seleziona l'ultimo termine della serie. In questo capitolo abbiamo fornito alcuni elementi introduttivi alla teoria dei sistemi stocastici. Nel prossimo intendiamo applicare tali strumenti allo studio di un modello di cellula minimale o protocellula, gia' analizzato in [2]. Si tratta più specicatamente di un ciclo di reazioni autocatalitiche che conivolgono popolazioni di costituenti elementari ospitati all'interno di un volume nito, delimitato da una membrana esterna. Daremo conto della dinamica microscopica del modello, rivisitando risultati noti in letteratura. Evidenzieremo l'importanza degli eetti di 88 00 taglia nita , mostrando come possano tradursi in dinamiche collettive ordinate, fenomeni di auto-organizzazione peculiari assenti nel limite ideale di campo medio. Studieremo inne le correlazioni fra le specie coinvolte, ottendo il primo risultato originale di questo lavoro di tesi. Capitolo 2 Un modello stocastico di reazioni autocatalitiche In questo capitolo introdurremo un modello semplicato di dinamica cellulare, già studiato in [2]. Tale modello, intrinsecamente stocastico, consiste in un involucro esterno, idealmente assimilabile ad una membrana che denisce il volume della cellula minimale. La cellula è popolata da k specie di reagenti in mutua intera- zione. Le reazioni interne sono ipotizzate autocatalitiche e codicate a mezzo di equazioni chimiche. Facendo riferimento alla trattazione [20], discuteremo l'an- damento temporale delle concentrazioni delle diverse specie chimiche contenute all'interno del volume V. Come avremo modo di evidenziare, dinamiche collettive auto-organizzate emergono spontaneamente come eetto della taglia nita del sistema. Tale osservazione trova rigorosa giusticazione nel complesso di una cornice interpretativa che fa uso delle tecniche introdotte nel capitolo precedente. Estendendo l'analisi riportata in [2], vedremo come le correlazioni dinamiche tra specie distinte, così come osservate in simulazioni dirette al calcolatore, siano riprodotte con successo per via analitica. 2.1 Denizione del modello Figura 2.1: 24 Rappresentazione del modello di cellula minimale studiato. I costituenti elementari si trovano all'interno di un volume nito, dove possono interagire secondo lo schema (2.1),(2.2). Le molecole possono inoltre abbandonare il contenitore cellulare o penetrarvi proveniendo dall'esterno. 2.1 Denizione del modello Il modello di protocellula utilizzato è mostrato in gura (2.1). Il volume cellula è popolato da N molecole, appartenenti a k V della diverse specie chimiche che possono reagire tra loro, secondo uno schema preciso. Si assume che le molecole possano inoltre migrare fuori dal sistema o entrarvi dall'esterno. Si indica con Xi una molecola di tipo vuoti accessibili alle molecole. Sia N i e con E le lacune, ovvero gli spazi la taglia del sistema, il numero massimo di molecole (comprese le lacune) che possono essere ospitate all'interno del volume Le specie Xi V. interagiscono mutuamente secondo un ciclo di reazioni denominate autocatalitiche che, per denizione, sono descritte dalle equazioni chimiche: ri+1 Xi + Xi+1 −→ 2Xi+1 , con un tasso di reazione pari a ri+1 , per i = 1, . . . , k i = 1, . . . , k . L'equazione (2.1) descrive un ciclo di equazioni chimiche in cui la reazione tra le specie genera due molecole di tipo i + 1. Avendo indicato con (2.1) k i-esima e i + 1-esima il numero totale di specie 2.1 Denizione del modello 25 chimiche coinvolte, il ciclo è chiuso identicando molecola di tipo k e una di tipo 1 Xk+1 ≡ X1 : genera due molecole di tipo la reazione tra una 1. La cellula è pensata immersa in una riserva innita di reagenti, che possono, per diusione, entrare e uscire dalla stessa. Tale fenomeno è descritto dalle seguenti equazioni : βi Xi −→ E dove si sono indicati con βi e αi , α i E −→ Xi (2.2) rispettivamente, il tasso di uscita dal sistema e quello di ingresso per molecole di tipo i. L'ipotesi centrale del modello è che ad ogni istante temporale possa avvenire un'unica reazione chimica. In una formulazione deterministica i tassi delle reazioni rappresenterebbero la frequenza con cui una reazione avviene nel tempo, mentre nella formulazione stocastica, che useremo nel seguito, i tassi rappresentano la probabilità nell'unità di tempo che la suddetta reazione avvenga. Ipotizzeremo che il processo in esame sia markoviano, al ne di utilizzare le tecniche formali descritte in precedenza. Per denire un preciso stato del sistema si introduce la ni dove con volume V 2.1.1 k -upla n = (n1 , n2 , ..., nk ) indichiamo il numero di molecole della specie chimica i, contenute nel delimitato dalla membrana e che supponiamo sso nel seguito. Le probabilità di transizione Una volta note le equazioni chimiche e le probabilità con cui si realizzano, possiamo denire tutte le probabilità di transizione T (ni |nf ) uno stato nale, con esso compatibile, in T (·|·) nf . da uno stato iniziale ni verso Per semplicità ci limiteremo ad indicare le sole componenti che cambiano a seguito delle reazioni. Nel caso con- siderato avremo tre tipi di probabilità di transizione possibili. Il primo, associato all'equazione autocatalitica (2.1) è dato da: T (ni − 1, ni+1 + 1|ni , ni+1 ) = ri+1 ni ni+1 . N N La (2.3) descrive la probabilità di incontro tra un reagente della specie specie (2.3) i ed uno della i + 1, con conseguente nascita di un elemento della specie i + 1 e morte di un 2.2 Simulazioni numeriche 26 elemento della specie i. Tale probabilità sarà uguale al tasso di reazione moltiplicato per il prodotto delle concentrazioni dei due reagenti coinvolti. Analogamente, la probabilità di transizione associata a una migrazione verso l'esterno del sistema sarà data dalla probabilità di selezionare una molecola di tipo concentrazione) per il tasso βi , i (data dalla sua ovvero: T (ni − 1|ni ) = βi ni . N (2.4) Inne, per le migrazioni verso l'interno del sistema, la probabilità di transizione sarà data dalla probabilità di selezionare uno spazio vuoto all'interno della cellula, nE /N , per il tasso αi . Utilizzando P N = i ni + nE , si può riscrivere: ovvero l'equazione di conservazione della massa T (ni + 1|ni ) = αi 1 − k X ni i=1 N . (2.5) 2.2 Simulazioni numeriche Assegnate le equazioni chimiche che deniscono il modello e considerate le probabilità di transizione, è possibile indagarne la dinamica a mezzo di simulazioni numeriche. L'algoritmo di riferimento è quello di Gillespie che, come già evidenziato, consente di rispettare la natura stocastica della formulazione proposta. Nel seguito rivisiteremo le conclusioni di [2, 10, 11], discutendo alcuni comportamenti peculiari del sistema, così come rilevati dall'analisi numerica. Ci limiteremo al caso k = 4. La gura 2.2, ottenuta in [2] tramite simulazioni numeriche, mostra l'evo- luzione della dinamica del sistema per tempi lunghi. Fluttuazioni macroscopiche sono chiaramente apprezzabili e si sviluppano attorno ad un livello di riferimento rappresentato con la linea tratteggiata, sul quale ritorneremo nel seguito. Sottolineiamo la regolarità delle suddette uttuazioni, che si ripetono con una frequenza caratteristica. È interessante evidenziare come nella gura 2.2 le uttuazioni delle quattro specie siano simili a coppie (specie 1-3 e specie 2-4), mentre risultano quasi completamente sfasate per le rimanenti due coppie (specie 1-2 e specie 3-4). 2.2 Simulazioni numeriche Figura 2.2: 27 Sono riportate le uttuazioni delle quattro diverse specie chimiche in cui si nota la correlazione tra le specie 1-3 e 2-4. È inoltre possibile apprezzare come le altre famiglie siano tra loro anticorrelate. I parametri utilizzati sono i seguenti ri = r = 10, αi = βi = 1/64, ∀ i = 1, ..., 4 N = 8192. L'esistenza delle suddette correlazioni è stata oggetto di analisi in un lavoro di Kaneko [10], nel quale veniva studiato un modello sostanzialmente analogo a quello qui investigato. Le oscillazioni regolari, mostrate nella gura 2.2, aumentano in ampiezza al diminuire di N. Quando N è relativamente piccolo, tali uttuazioni inuenzano in modo cruciale la dinamica del sistema. Aumenta infatti la probabilità che una determinata specie si riduca drasticamente in taglia esponendosi al rischio di estinzione. Dal punto di vista matematico diremo che il sistema può impattare il bordo assorbente. Il processo di estinzione, intimamente connesso al ruolo delle uttuazioni, è però reversibile, grazie alla riserva innita di costituenti molecolari esterni al volume. Nel caso di un numero molto elevato di reagenti, e sulla base della citata dipendenza in N la probabilità di estinzione è virtualmente nulla, ovvero avviene in un tempo praticamente innito. Se invece lavoriamo con un numero relativamente contenuto di reagenti, cioè in una situazione in cui la discretezza del sistema sia rilevante, l'estinzione diventa un fenomeno probabile. Grazie a queste simulazioni numeriche si sono potuti rilevare alcuni comportamenti particolari del sistema, quali la regolarità delle oscillazioni illustrate nella gura 2.2, imputabili principalmente alla discretezza dello stesso, ovvero alla taglia nita. Sulla base di 2.3 Lo sviluppo di van Kampen 28 tali evidenze numeriche gli autori del lavoro di [2] hanno poi elaborato una procedura analitica, basata sul celebre sviluppo di van Kampen, per chiarirne l'origine in relazione alla natura stocastica del problema. 2.3 Lo sviluppo di van Kampen In questo paragrafo chiariremo i passi fondamentali della tecnica di sviluppo di van Kampen; quindi a partire dall'equazione maestra che governa la dinamica del sistema, otterremo al primo ordine perturbativo un'equazione di campo medio valida nel limite continuo. All'ordine successivo si ricaverà poi un'equazione di Fokker-Planck che descrive la distribuzione di probabilità delle uttuazioni osservate. Lo sviluppo di van Kampen è introdotto con riferimento al problema studiato. Una trattazione generale della tecnica è proposta invece in appendice. I passi da eettuare sono sostanzialmente due. L'ipotesi di van Kampen La prima è l'ipotesi alla base del metodo di espansione ed equivale a porre: ni ξi (t) = φi (t) + √ N N dove φi (t) (2.6) ξi rappresenta le variabili deterministiche o di campo medio e √ quelle N stocastiche o uttuazioni. La precedente ipotesi discende in sostanza dal teorema del limite centrale. Il teorema considera una famiglia di N variabili aleatorie Wj indipendenti e identicamente distribuite, aventi media e varianza nite indicate P √ j Wj /N −µ 2 rispettivamente con µ e σ . La variabile ξ = N per N → ∞ tende σ a essere distribuita come una normale scrivere: P N (0, 1). Rielaborando la formula possiamo Wj ξσ ∼µ+ √ N N j ovvero, formalmente, l'ipotesi dello sviluppo di van Kampen. Si è implicitamente assunto un importante concetto sico: una grandezza estensiva, come la concentrazione, è sempre pensabile come somma di variabili aleatorie indipendenti. In prima 2.3 Lo sviluppo di van Kampen approssimazione, le uttuazioni ξi 29 sono gaussiane. Tuttavia come proposto da van Kampen e come dimostreremo nel seguito, sarà possibile cogliere anche aspetti non gaussiani delle stesse, sulla base della medesima ipotesi di lavoro (2.6) e quando la taglia del sistema è molto piccola. Si tratta di un'osservazione sorprendente per la quale non esiste ad oggi una spiegazione rigorosa. In letteratura sono rappresentate posizioni antitetiche a riguardo, che contribuiscono ad alimentare un dibattito all'interno del quale si colloca idealmente questo lavoro di tesi, come avremo modo di argomentare. Sviluppo degli operatori passo Gli operatori con cui lavoreremo sono chiamati operatori passo, cioè sono operatori che aggiungono o tolgono un'unità alla variabile su cui agiscono. Si denisce operatore passo ε± i : ε± i f (. . . , ni , . . .) = f (. . . , ni ± 1, . . .). (2.7) L'ipotesi di van Kampen (2.6) consente di sviluppare gli operatori passo rispetto a √ 1/ N . variabile Consideriamo ad esempio l'operatore ni come ε+ i , la cui azione è denita sulla ε+ i f (ni ) = f (ni + 1), dove abbiamo esplicitato solo le componenti n che cambiano. ni a ξi . Poiché f (ni + 1) = f N φi + N (ξi + √1N ) l'azione di ε+ i , espressa nella variabile ξi , risulta del vettore √ Operiamo un cambio di variabile da semplicemente: 1 = f ξi + √ . N √ approssimare f (ξi + 1/ N ) ε+ i f (ξi ) Essendo √ 1/ N ξi di Taylor centrato su ξi , si può poi ∂ξi con un polinomio in formule: 1 1 f (ξi + √ ) ≈ f (ξi ) + √ ∂ξi f (ξi ) + . . . , N N in cui (2.8) rappresenta la derivata parziale, (2.9) ∂ . ∂ξi In conclusione, l'azione degli operatori passo si traduce negli sviluppi che riportiamo nel seguito includendo termini sino al secondo ordine: 1 2 1 ε± ∂ + ... . i ≈ 1 ± √ ∂ξi + 2N ξi N (2.10) 2.3 Lo sviluppo di van Kampen 30 Disponiamo ora degli strumenti per applicare il metodo perturbativo al nostro problema, che andremo successivamente a caratterizzare in termini dell'equazione maestra ad esso associata. 2.3.1 L' equazione maestra Dato un processo stocastico di Markov omogeneo è possibile, come già precedentemente dimostrato, scrivere l'equazione maestra che ne governa la dinamica. Ricordiamo la denizione di processo di Markov omogeneo: Denizione 8. Un processo di Markov si dice omogeneo nel tempo se la probabilità di transizione associata al processo è invariante per traslazioni temporali. Per il problema in esame l'equazione maestra prende la forma: k h X d P (n, t) = T (ni , ni+1 |ni + 1, ni+1 − 1)P (ni + 1, ni+1 − 1, t) − dt i=1 i +T (ni − 1, ni+1 + 1|ni , ni+1 )P (ni , ni+1 , t) + + k h X T (ni |ni − 1)P (ni − 1, t) − T (ni − 1|ni )P (ni , t) + i=1 i +T (ni |ni + 1)P (ni + 1, t) − T (ni + 1|ni )P (ni , t) (2.11) n, t) si indica la derivata totale rispetto al tempo, considerando una congurazione n ssata. D'ora in poi useremo per indicare i vettori il grassetto. L'equazione (2.11) descrive l'evoluzione della funzione P (n, t) al variare del tempo, dove P (n, t) rappresenta la probabilità di trovare il sistema nello stato n al dove con tempo t. d P( dt A destra del segno di uguaglianza si hanno i contributi associati a tutte le possibili evoluzioni del sistema, codicate a mezzo delle equazioni chimiche e compatibili con lo stato nale n. solo le componenti del vettore cambiamento. Per semplicare la notazione, abbiamo esplicitato n coinvolte nella transizione e quindi soggette a 2.3 Lo sviluppo di van Kampen 31 Inserendo in (2.11) la denizione (2.7) si ottiene: k h i X d − P (n, t) = (ε+ ε − 1)T (n − 1, n + 1|n , n )P (n , n , t) + i i+1 i i+1 i i+1 i i+1 dt i=1 + = k h X i=1 k X h i − (ε+ − 1)T (n − 1|n )P (n , t) + (ε − 1)T (n + 1|n )P (n , t) i i i i i i i i − (ε+ i εi+1 i − 1)T (ni − 1, ni+1 + 1|ni , ni+1 ) + i=1 h i − + (ε+ − 1)T (n − 1|n ) + (ε − 1)T (n + 1|n ) P (n, t). i i i i i i P (n, t) Gli operatori permettono di evidenziare la probabilità (2.12) a fattore comune. Il primo termine della sommatoria rappresenta il contributo alla variazione di P (n, t) dovuto alle reazioni autocatalitiche interne alla cellula, mentre il secondo si riferisce alla diusione. Possiamo adesso sviluppare in serie di potenze di √ 1/ N l'equazione maestra, rivisitando il lavoro di [2]. Andremo poi ad inserire nell'equazione così ottenuta lo sviluppo dell'operatore (2.10). Il primo passo dello sviluppo consiste nel riscrivere l'equazione maestra per y = n/N , il vettore delle concentrazioni, le cui componenti si riferiscono alle varie specie chimiche coinvolte. Tale vettore può essere considerato continuo nel tempo nell'ipotesi in cui i salti del sistema siano molto più piccoli della taglia dello stesso. Deniamo quindi la nuova distribuzione: ξ √ Π(ξ, t) = P (y, t) = P φ(t) + ,t . N Derivando l'equazione (2.13), prima rispetto al tempo e poi rispetto a le relazioni per ciascuna componente del vettore k (2.13) ξ , e scrivendo y si ottiene: k ∂Π ∂P X ∂P ∂yi ∂P X ∂P dφi = + = + . ∂t ∂t ∂y ∂t ∂t ∂y dt i i i=1 i=1 (2.14) Dalla (2.14) si ha: k Vale inoltre: X ∂P dφi ∂Π ∂P =− + . ∂t ∂y dt ∂t i i=1 (2.15) ∂P ∂yi ∂P 1 ∂P ∂Π √ ∂Π √ ⇒ = = = N ∂ξi ∂yi ∂ξi ∂yi N ∂yi ∂ξi (2.16) 2.3 Lo sviluppo di van Kampen 32 con cui si riscrive l'equazione (2.15) come: k √ X ∂P ∂Π dφi ∂Π =− N + . ∂t ∂ξi dt ∂t i=1 Considerando che siamo passati da un'equazione maestra per ponenti ni zione per (2.17) n, vettore le cui com- rappresentano il numero intero di molecole della specie i, ad un'equa- y le cui componenti yi rappresentano la densità della specie i, grandezze considerate funzioni continue del tempo, si ha che: d ∂ P (n, t) ⇒ P (y, t) dt ∂t (2.18) Inserendo nel membro sinistro dell'equazione (2.12) la (2.17) e tenendo conto dei cambi eettuati (2.18) si ottiene: k √ X ∂ ∂ ∂ dφi P (y, t) = Π(ξ, t) − N . Π(ξ, t) ∂t ∂t ∂ξ dt i i=1 (2.19) Considerando poi l'espressione esplicita delle probabilià di transizione e sostituendo il tutto nell'equazione maestra si ricava: k √ X ∂ ∂ ∂ dφi P (y, t) = Π(ξ, t) − N = Π(ξ, t) ∂t ∂t ∂ξi dt i=1 = (2.20) k h X i 1 1 − √ √ (ε+ ε − 1)r φ + ξ φ + ξ + i+1 i i i+1 i+1 i i+1 N N i=1 k k h X X 1 − φm + √ ξm + + (εi − 1)αi 1 − N m=1 i=1 ! k X 1 i √ φ + ξi Π(ξ, t). + (ε+ − 1)β i i i N i=1 In virtù della (2.10) si ha: ∂ ∂ 1h −1 ∂ ∂ i2 − + N 2 − ∂ξi ∂ξi+1 2 ∂ξi ∂ξi+1 1 1 = N − 2 Sb1i + N −1 Sb2i 2 1 − −2 (ε+ i εi+1 − 1) ∼N (2.21) dove Sb1i = ∂ ∂ ∂ b ∂ 2 − , S2i = − ∂ξi ∂ξi+1 ∂ξi ∂ξi+1 (2.22) 2.3 Lo sviluppo di van Kampen 33 e 1 −2 (ε− i − 1) ∼ −N 1 −2 (ε+ i − 1) ∼ N ∂ 1 ∂ + N −1 2 ; ∂ξi 2 ∂ ξi ∂ 1 ∂ + N −1 2 . ∂ξi 2 ∂ ξi (2.23) (2.24) Inserendo le succitate relazioni nell'equazione maestra (2.20) e eettuando il cambio di variabile: τ= t N la parte a sinistra del segno di uguaglianza diventa: k √ X ∂ ∂ dφi 1 d 1 X ∂ dφi Π(ξ, t) − N Π(ξ, t) ⇒ Π(ξ, τ ) − √ Π(ξ, τ ) . ∂t ∂ξi dt N dτ dτ N i ∂ξi i=1 (2.25) Confrontando così il membro destro dell' equazione con il sinistro, uguagliamo tra loro i termini relativi allo stesso ordine in Per quanto riguarda i termini in N − 12 N. si ottiene: k 1 X ∂Π dφi 1 X ∂Π −√ =√ (ri+1 φi φi+1 − ri φi−1 φi ) ∂ξi N i ∂ξi dτ N i=1 k k i ∂Π X 1 Xh φm βi φi − αi 1 − +√ ∂ξi N i=1 m=1 da cui si ricava un'equazione dierenziale per la variabile (2.26) φi : k X dφi φm ) − βi φi , = ri φi−1 φi − ri+1 φi φi+1 + αi (1 − dτ m=1 ovvero l'approssimazione della dinamica che chiameremo di (2.27) campo medio. L'equa- zione (2.27) è ottenuta partendo unicamente dalle equazioni chimiche del modello e descrive esattamente il comportamento del sistema quando N → ∞. Campo medio φi all'equilibrio Le (2.27) sono equazioni ordinarie accoppiate e il loro studio analitico per la ricerca di una soluzione è piuttosto complicato. cazioni βi = β, αi = α, ∀i, Tuttavia operando le seguenti sempli- , la condizione di punto sso dφi dt = 0 si traduce in 2.3 Lo sviluppo di van Kampen φi = φ∗ , ∀i, con: k X α 1− ∗ φ − βφ∗ = 0 m=1 Nel caso 34 k = 4, −→ φ∗ = α . kα + β (2.28) le serie temporali delle specie chimiche, ottenute da simulazio- ni numeriche del problema non approssimato, oscillano attorno al campo medio φ∗ = α . Lo stato 4α+β φ∗ rappresenta pertanto un attrattore. Tali oscillazioni ap- paiono sorprendentemente regolari e di ampiezza considerevole e sono, in ultima analisi, da ricondurre agli eetti di taglia nita del sistema. Operando un'ulteriore semplicazione, identicando cioè in φ∗ = 1 . 5 α = β, la condizione precedente si trasforma Le semplicazioni che abbiamo eseguito non modicano la dinamica qualitativa del sistema, ma permettono di compattare notevolmente i calcoli che andremo a sviluppare nel seguito. Consideriamo d'ora in avanti il caso k = 4, scelta per la quale gli eetti di taglia nita risultano evidenti come mostrato in [2]. Figura 2.3: Dinamica temporale della concentrazione di una specie. La linea tratteggiata nera rappresenta la soluzione di campo medio ottenuta integrando l'equazione dierenziale (2.27). La curva continua rossa rappresenta la dinamica stocastica ottenuta a mezzo dell'algoritmo di Gillespie. I parametri utilizzati sono ri = 10 αi = βi = 1/64 ∀ i N = 8192. Nella gura 2.3 è riportata l'evoluzione dinamica di una delle quattro specie mutuamente interagenti. La curva continua si riferisce alla soluzione stocastica ottenuta a mezzo dell'algoritmo di Gillespie. La linea tratteggiata rappresenta la 2.3 Lo sviluppo di van Kampen 35 soluzione di campo medio, interamente descritta dalle equazioni dierenziali (2.27). Dopo una serie di oscillazioni smorzate, il sistema converge al punto sso calcolato in (2.28). Le oscillazioni sono invece persistenti nel contesto della formulazione stocastica e discendono quindi da eetti di taglia nita, come già anticipato in precedenza. Al ruolo delle correzioni di ordine superiore in N, che si traduco- no in eetti macroscopici di organizzazione temporale, dedicheremo il successivo paragrafo. Correzione di ordine N −1 Gli eetti di taglia nita si caratterizzano per mezzo di fattori di ordine N −1 : k i ∂Π X h b = S1i ri+1 φi ξi+1 + ri+1 φi+1 ξi Π(ξi , τ ) ∂τ i=1 + k h X i=1 k i X ∂ ∂ − ξm ) + αi (− βi ξi Π(ξi , τ ) ∂ξi ∂ξi m=1 k 1X + ri+1 Sb2s (φi φi+1 )Π(ξi , τ ) 2 i=1 + k k i X ∂2 1 X h ∂2 φ + β 1 − β φ Π(ξi , τ ). m i i i 2 2 i=1 ∂ξi2 ∂ξ i m=1 Scrivendo esplicitamente i vari termini si ottiene: k i ∂Π X h ∂ = (ri+1 φi+1 − ri φi−1 )ξi + ri+1 φi ξi+1 − ri φi ξi−1 Π(ξi , τ ) ∂τ ∂ξi i=1 + k k h i X X ∂ ξm Π(ξi , τ ) βi ξi + αi ∂ξi m=1 i=1 + k ∂2 1X ∂2 ∂2 ri+1 (φi φi+1 ) + − 2 Π(ξi , τ ) 2 2 i=1 ∂ξi2 ∂ξi+1 ∂ξi ∂ξi+1 k k ∂2 X 1 X + αi 1 − φm + βi φi Π(ξi , τ ). 2 i=1 ∂ξi2 m=1 Raggruppando i termini che coinvolgono le derivate prime e quelli che presentano le derivate seconde si ottiene l' equazione di Fokker-Planck: k k X k i 1X i X ∂Π ∂ h ∂2 h = − A(ξ)i Π + bij Π ∂τ ∂ξi 2 j=1 i=1 ∂ξi ∂ξj i=1 (2.29) 2.3 Lo sviluppo di van Kampen in cui A(ξ)i 36 è l' i-esima componente di un vettore così composto: A(ξ)i = (ri φi−1 − ri+1 φi+1 )ξi − ri+1 φi ξi+1 + ri φi ξi−1 − αi k X ξm − βi ξi , (2.30) m=1 mentre con bij indichiamo l'elemento di posto ij della matrice B così denita: P • bii = ri+1 φi φi+1 + ri φi φi−1 + αi (1 − km=1 φm ) + βi φi , −ri+1 φi φi+1 , se j = i + 1 • bij = −ri φi−1 φi , se j = i − 1 0 se |i − j| > 1. Per comodità introduciamo una nuova matrice mo Ai M rispetto alla quale riscrivere- come: Ai = k X mij ξj . j=1 Gli elementi mij di tale matrice sono: • mii = ri φi−1 − ri+1 φi+1 − αi − βi , −ri+1 φi − αi , se j = i + 1 • mij = ri φi − βi , se j = i − 1 −α se |i − j| > 1. i Nell'ipotesi in cui anche i tassi ri = r βi = β αi = α∀i ri la matrice m 0 m3 M = m2 ... m1 non dipendano dalla specie chimica M i cioè è circolante: m1 m2 m2 . . . m3 m0 m1 m2 . . . m2 m3 m0 m1 . . . m2 . ... ... ... ... ... m2 m2 m2 . . . m0 (2.31) Se ci interessiamo poi alle uttuazioni intorno all'equilibrio, ovvero consideriamo la dinamica all'equilibrio, possiamo porre φi = φ∗ , ∀ i, con φ∗ (2.28). Date queste ipotesi possiamo scrivere: dato dall'equazione 2.4 Le uttuazioni e gli spettri di potenza 37 • m0 = −α − β , • m1 = −rφ∗ − α, • m2 = −α, • m3 = rφ∗ − α. k × k bij b1 0 0 ... b0 Con le semplicazioni appena eettuate la matrice b b1 0 0 b1 b0 b1 B = 0 b1 b0 ... ... ... b1 0 0 ... 0 ... 0 ... 0 ... ... ... b1 , assume la forma: (2.32) dove: • b0 = 2rφ∗ φ∗ + α(1 − kφ∗ ) + βφ∗ , • b1 = −rφ∗ φ∗ . L'equazione di Fokker-Planck (2.29) caratterizza la distribuzione di probabilità Π(·) delle uttuazioni. Ricordiamo che la soluzione di tale equazione è una gaussiana multivariata. 2.4 Le uttuazioni e gli spettri di potenza L'equazione di Fokker-Planck derivata nel precedente paragrafo dà conto delle uttuazioni che si originano nel sistema come eetto di taglia nita. In [2] è stato dimostrato come a partire da tale equazione sia possibile caratterizzare oscillazioni temporali, macroscopiche e regolari nella concentrazione dei costituenti, i quasicicli (gura 2.2). A tale scopo si calcola lo spettro di potenza della uttuazione ξi denito come: Pi (ω) ≡< |F Tω [ξi ]|2 >=< |ξei (ω)|2 > (2.33) 2.4 Le uttuazioni e gli spettri di potenza Figura 2.4: 38 Spettri di potenza. La linea continua nera si riferisce alla predizione teorica. I simboli rossi rappresentano il risultato delle simulazioni di [2]. I parametri utilizzati sono r = 10, α = β = 5/32 e N = 5000. dove con F Tω [ξi ] ≡ ξei (ω) si indica la trasformata di Fourier temporale della varia- bile. Dopo alcuni calcoli, non eplicitamente riportati in questa sede, si ottiene la seguente espressione: Pi (ω) = < |ξei (ω)|2 >= k X k X ∗ −1 Φ−1 sr (ω)brh (Φ )hs (ω) (2.34) r=1 h=1 dove Φ = −iωI − M e Φ∗ è l'aggiunta. B ed M sono le matrici ottenute in precedenza. Si veda [2] per una derivazione della (2.34) che fa leva sull'analogia formale fra l'equazione di Fokker-Planck e l'equazione di Langevin [6], che sottende alla dinamica delle ξ. Una volta nota l'espressione relativa allo spettro di potenza delle uttuazioni stocastiche inerenti al sistema attorno alla soluzione di campo medio, si può operare un confronto con l'omologa curva dedotta per via numerica diretta. Come si può notare, l'accordo tra teoria e simulazioni numeriche è molto buono. In particolare lo spettro mostra un chiaro picco, che corrisponde alla frequenza dominante nel segnale registrato. Le tecniche di analisi sviluppate in [2] e qui rivisitate costituiscono un valido strumento di indagine per i sistemi in cui le correlazioni interne non siano trascurabili, e per i quali si ritiene necessario un approccio stocastico. In [2] dunque si sono chiariti a livello analitico alcuni dei fenomeni col- 2.5 Calcolo dei momenti primi e secondi e del loro punto sso 39 lettivi evidenziati numericamente; partendo da questa base ed estendendo il lavoro [2], possiamo caratterizzare esplicitamente le correlazioni fra famiglie distinte di reagenti. Di questi eetti si darà conto nel prossimo paragrafo. 2.5 Calcolo dei momenti primi e secondi e del loro punto sso Partendo dall'equazione di Fokker-Planck già ottenuta nel lavoro [2] è possibile stimare i momenti associati alla distribuzione delle uttuazioni. Essendo la soluzione una gaussiana multivariata, gli unici momenti d'interesse saranno quelli di ordine uno e due. Come si vedrà, otterremo un sistema di equazioni dierenziali ordinarie per le quantità d'interesse che saranno studiate relativamente alla dinamica di equilibrio. Denizione 9. Si denisce il momento di ordine < ξik >= Z k per ξi la grandezza: ∞ Π(ξ)ξik dξ. −∞ Il simbolo <·> indica quindi una media d'insieme. Immaginiamo di dover ad esempio caratterizzare ξi2 quantità R in < ξi2 >. Si procede moltiplicando l'equazione (2.29) per la a destra e a sinistra del segno di uguaglianza, integrando poi su tutto dξ = (dξ1 , dξ2 , ..., dξk ). In formule risulterà: Z ∞ Z ∞ X ∂ 2 ∂ ξi −ξi2 Π(ξ, τ )dξ = Ai (ξ)Π(ξ, τ )dξ ∂τ ∂ξ i −∞ −∞ i Z ∞ X ∂2 1 2 + ξi bi,j (ξ)Π(ξ, τ )dξ. 2! i,j ∂ξi ∂ξj −∞ (2.35) Concentriamoci sul primo membro dell'equazione precedente. Si ha: Z ∞ ξi2 −∞ poichè ξ ∂ Π(ξ, τ )dξ = ∂τ Z ∞ −∞ ∂ d (Π(ξ, τ )ξi2 )dξ = ∂τ dτ Z ∞ (Π(ξ, τ )ξi2 )dξ −∞ è formalmente indipendente dal tempo. Usando la formula precedente e sfruttando la denizione di momento, si ottiene: d dτ Z ∞ −∞ (Π(ξ, τ )ξi2 )dξ = d < ξi2 > . dτ 2.5 Calcolo dei momenti primi e secondi e del loro punto sso 40 Tornando a considerare il secondo membro della (2.35) operiamo due integrazioni per parti e osserviamo che alcuni integrali danno contributo nullo, grazie alle proprietà di simmetria e decadimento all'innito della Π che, ricordiamo, è una gaussiana multivariata. Notiamo che gli unici contributi non nulli sono quelli in cui l'indice della uttuazione coincide con quello della sommatoria ovvero: ξi2 1 ∂2 ∂ Ai (ξ)Π(ξ, τ )dξ + ξi2 bi,i (ξ)Π(ξ, τ )dξ. ∂ξi 2! ∂ξi ∂ξi Alla luce delle considerazioni sopra riportate, integrando due volte per parti si ottiene: < ξ˙i2 > = Z ∞ Z ∞ 2ξi Ai (ξ)Π(ξ, τ )dξ + bi,i −∞ Π(ξ, τ )dξ. (2.36) −∞ Il secondo integrale è uguale a 1 in virtù della condizione di normalizzazione della Π. In conclusione, utilizzando la denizione di momento e ricordando l'espressione esplicita di Ai (ξ) si ha: d < ξi2 >=< ξ˙i2 > = 2[−α − β] < ξi2 > +2[rφ∗ − α] < ξi−1 ξi > dt (2.37) ∗ + 2 < ξi ξi+1 > [−rφ − α] − 2α < ξi ξi+2 > +bi,i con i = 1, ..., 4. Ricordiamo che α e β e r sono i tassi di reazione dei processi con- siderati. Per semplicità abbiamo assunto tali parametri indipendenti dalla specie chimica presa in esame. Porremo inoltre nel seguito α = β, ipotesi che corrisponde ad adottare un analogo grado di diusività in entrata ed uscita dalla micro-cellula selezionata. φ∗ è il punto sso delle equazioni di campo medio che, in virtù delle scelte operate, risulta essere identicamente uguale ad della matrice M, 1 . Ricordando la denizione 5 possiamo riscrivere l'equazione precedente come: < ξ˙i2 > =2mi,i < ξi2 > +2mi,i−1 < ξi ξi−1 > +2mi,i+1 < ξi ξi+1 > + 2mi,i+2 < ξi ξi+2 > +bi,i . (2.38) 2.5 Calcolo dei momenti primi e secondi e del loro punto sso 41 Con passaggi analoghi si ottiene l'equazione dierenziale che controlla l'evoluzione per la grandezza < ξi ξj >: 2 > +mi,i+2 < ξi+1 ξi+2 > < ξi˙ξj > =mi,i < ξi ξi+1 > +mi+1,i < ξi2 > +mi,i+1 < ξi+1 + mi+1,i+1 < ξi ξi+1 > +mi+1,i+2 < ξi ξi+2 > +mi+1,i < ξi2 > + mi,i+3 < ξi+3 ξi+1 > +bi,i+1 . (2.39) In ultima analisi l'espressione codica il grado di correlazione temporale fra la specie i e la j. In (2.39), bi,i+1 indica l'elemento di posto i, i + 1 della matrice B. Si può notare che il sistema (2.38)-(2.39) è chiuso, perchè non dipende da momenti di ordine superiore. Per completare il quadro descrittivo riportiamo esplicitamente l'equazione relativa al momento primo, ricavata come ulteriore applicazione del metodo appena esposto: < ξ˙i > = mi,i < ξi > +mi,i−1 < ξi−1 > + < ξi > mi,i+1 − mi,i+2 < ξi+2 > . Considerando tutte le possibili permutazioni fra gli indici (2.40) i, j , entrambi variabili tra 1 e 4, con riferimento alle espressioni (2.38)-(2.39), si ottiene un sistema di dieci equazioni dierenziali ordinarie accoppiate, che si riduce ad una forma compatta introducendo la matrice 2m0 2m1 2m2 2m3 0 0 0 0 0 0 m3 2m0 m1 m2 m1 m1 m2 m3 0 0 m2 m3 2m0 m1 0 m1 0 m2 m3 0 m1 m2 m3 2m0 0 0 m1 0 m2 m3 0 2m3 0 0 2m0 2m1 2m2 0 0 0 K= 0 m2 m3 0 m3 2m0 m1 m1 m2 0 0 m1 0 m3 m2 m3 2m0 0 m1 m2 0 0 2m2 0 0 2m3 0 2m0 2m1 0 0 0 m1 m2 0 m2 m3 m3 2m0 m1 0 0 0 2m1 0 0 2m2 0 2m3 2m0 2.5 Calcolo dei momenti primi e secondi e del loro punto sso 42 dove ricordando le notazioni introdotte nel paragrafo 2.3.1: m0 = −2α m1 = − 5r − α m2 = −α (2.41) m3 = −α + 5r 2r b0 = 25 + 2α 5 b 1 = − r . 25 Denendo poi: X1 = h X2 = h < ξ12 >; < ξ1 ξ2 >; < ξ1 ξ3 >; < ξ1 ξ4 >; < ξ22 >; < ξ2 ξ3 >; < ξ2 ξ4 >; < ξ32 >; < ξ3 ξ4 >; < ξ42 > X= h X 1 X2 i i i il vettore dei termini noti risulta: D= h b 0 b 1 0 b1 b0 b1 0 b0 b1 b0 i . Si riduce inne il suddetto sistema alla formulazione matriciale: Ẋ = KX + D. Come già ricordato, siamo interessati in particolare alla soluzione stazionaria del sistema, ovvero al calcolo dei punti ssi della dinamica. porre la condizione Ẋ = 0. Ciò corrisponde ad im- Data la particolare simmetria del sistema indagato, proprietà peraltro già evidenziata in sede simulativa, possiamo di fatto ridurre in maniera sostanziale la complessità dello studio. Identicando tre famiglie di equazioni indipendenti e imponendo all'equilibrio: < ξ12 >=< ξ22 >=< ξ32 >=< ξ42 >=: Γ1 < ξ1 ξ2 >=< ξ1 ξ4 >=< ξ2 ξ3 >=< ξ3 ξ4 >=: Γ2 < ξ1 ξ3 >=< ξ2 ξ4 >=: Γ3 (2.42) 2.5 Calcolo dei momenti primi e secondi e del loro punto sso 43 il problema può essere conseguentemente ricondotto al seguente sistema algebrico: 2m0 Γ1 + (2m1 + 2m3 )Γ2 + 2m2 Γ3 + b0 = 0 (m1 + m3 )Γ1 + (2m0 + 2m2 )Γ2 + (m3 + m1 )Γ3 + b1 = 0 2m2 Γ1 + (2m1 + 2m3 )Γ2 + 2m0 Γ3 = 0 che ammette la soluzione: dipendente dai due parametri (2.43) b1 0 Γ1 = 2b − 5α 5α 3b1 b0 + 10α Γ2 = − 10α Γ3 = − b0 − b1 10α 5α r e α. (2.44) La correttezza del risultato appena ottenu- to può essere testata ricorrendo ad uno studio numerico. A tal scopo abbiamo implementato una versione dell'algoritmo di Gillespie monitorando la dinamica intrinsecamente stocastica di una famiglia di quattro specie interagenti secondo le regole assegnate. Abbiamo, in particolare, registrato le uttuazioni rispetto alla soluzione di campo medio calcolando le correlazioni qui oggetto di indagine al variare del tempo. I risultati di una singola simulazione sono riportati nelle gure 2.5, 2.6, 2.7. Il sistema tende naturalmente al relativo punto sso, stimato in precedenza ed evidenziato nelle gure con un tratto orizzontale continuo. La leggera discrepanza nella gura 2.5 è da imputare al valore di N scelto. Per N più grande l'accordo risulta più chiaro. L'analisi è stata poi ripetuta variando il parametro α (con r sso). I risultati delle simulazioni sono rappresentati nelle gure 2.8, 2.9: i simboli si riferiscono ai valori di Γ1 e Γ2 calcolati asintoticamente (cioè dopo il transiente iniziale), mentre la linea continua è tracciata sulla base della predizione teorica (2.44). Anche in questo caso l'accordo è da ritenersi soddisfacente. Come ulteriore controllo si è proceduto alla caratterizzazione della distribuzione delle uttuazioni, così come osservata per via simulativa. Per N = 5000 il prolo ottenuto (simboli) è rappresentato in gura (2.10) in scala lineare e in gura (2.11) in scala semilogaritmica. La curva continua si riferisce alla soluzione gaussiana della 2.5 Calcolo dei momenti primi e secondi e del loro punto sso 44 Fokker-Planck (2.29), completamente determinata grazie ai momenti quanticati in precedenza. Ricordiamo che la soluzione dell'equazione (2.29) è una gaussiana multivariata, che nelle immagini abbiamo proiettato lungo la direzione di interesse. L'accordo in genere decisamente convincente, risulta leggermente compromesso quando si riduce sensibilmente il numero N degli attori microscopici che parteci- pano alla dinamica del sistema. Sono in particolare rilevabili chiare deviazioni dal comportamento gaussiano, eetto dovuto alla taglia nita del sistema in regime di bassa popolosità. È possibile dar conto di queste deviazioni estendendo lo sviluppo di van Kampen ad ordini successivi? Di questo importante aspetto inizieremo ad occuparci nel prossimo capitolo. 2.5 Calcolo dei momenti primi e secondi e del loro punto sso Figura 2.5: Evoluzione temporale di Γ1 per N=1024 α = β = 2. Figura 2.7: Figura 2.8: ssato. Figura 2.6: 45 Evoluzione temporale di Γ2 per N=1024 α = β = 2. Evoluzione temporale di Γ3 per N=1024 α = β = 2. Γ1 al variare di α, con r=10 Figura 2.9: ssato. Γ2 al variare di α, con r=10 2.5 Calcolo dei momenti primi e secondi e del loro punto sso Figura 2.10: Confronto tra la distribu- zione delle uttuazioni teoriche (in nero) e simulate (asterischi in rosso). Parametri N=5000 α = 2 r=10. Figura 2.12: Confronto tra la distribu- Figura 2.11: 46 Abbiamo riportato i dati della gura 2.10 in scala logaritmica per evidenziare l'andamento delle code. Figura 2.13: Abbiamo riportato i da- zione delle uttuazioni teoriche (in nero) ti della gura (2.12) in scala logaritmica e simulate (asterischi in rosso). Parametri per evidenziare la caratteristica asimmetria N=100 α = 2 r=10. mostrata nelle code. Capitolo 3 L'equazione di Fokker-Planck generalizzata Nel capitolo precedente abbiamo introdotto il metodo dello sviluppo di van Kampen, descritto con riferimento al modello di reazioni autocatalitiche [2]. Operando uno sviluppo perturbativo rispetto ad un piccolo parametro che codica per la taglia del sistema, si sono ottenute le equazioni che governano la dinamica dello stesso nell'approssimazione di campo medio. Abbiamo inoltre caratterizzato in forma analitica chiusa le uttuazioni gaussiane attorno a un punto sso, spiegando come la regolarità osservata nelle serie temporali insorga spontaneamente per eetto della discretezza del sistema. Il confronto diretto con le simulazioni numeriche mostra un ottimo accordo per taglie del sistema moderatamente grandi, mentre deviazioni dal comportamento gaussiano si osservano quando il numero di costituenti elementari viene sensibilmente ridotto. In particolare la coda sinistra della distribuzione delle uttuazioni risulta decadere più rapidamente di quella destra, inducendo un'asimmetria, chiara segnatura di non gaussianità. In questo capitolo intendiamo dar conto di tale comportamento estendendo lo sviluppo di van Kampen all'ordine successivo. Come avremo modo di discutere, si ottiene così un'equazione di Fokker-Planck generalizzata, modicata per la presenza di termini che coinvolgono le derivate terze e che mostrano una dipendenza espli- 3.1 Derivazione dell'equazione di Fokker-Planck generalizzata cita dalla taglia N. 48 Nel contesto di questo nuovo quadro descrittivo, calcoleremo i momenti di ordine superiore al secondo e le varie correlazioni che ne discendono, dando conto delle caratteristiche di non gaussianità così come rilevate nelle simulazioni numeriche. La presentazione del capitolo è organizzata come segue: nel prossimo paragrafo deriveremo la Fokker-Planck generalizzata, estendendo lo sviluppo introdotto al capitolo precedente. Nel successivo paragrafo calcoleremo i momenti no al terzo e, a partire dalla determinazione dei momenti, ricostruiremo il prolo della distribuzioni delle uttuazioni. Quanticheremo inne la probabilità di estinzione del sistema. 3.1 Derivazione dell'equazione di Fokker-Planck generalizzata Ricordiamo l'equazione maestra che sottende alla dinamica del sistema di k specie in interazione k X d − P (n, t) = (ε+ i εi+1 )T (n1 , ...ni − 1, ni+1 + 1, ...nk )P (n, t)+ dt i=1 k X (ε− i − 1)T (n1 , ..., ni + 1, ni+1 , ..., nk )P (n, t)+ (3.1) i=1 k X (ε+ i − 1)T (n1 , ..., ni − 1, ni+1 , ..., nk )P (n, t) i=1 in cui sono stati già introdotti gli operatori passo e dove indichiamo con la probabilità di transizione del sistema da uno stato n T (n0 |n) ad un diverso stato n0 , compatibile con il primo. La tecnica di van Kampen muove dall'ipotesi dove, come già discusso in ξi ni = φi (t) + √ N N √ precedenza, 1/ N gioca (3.2) il ruolo del piccolo parametro nello sviluppo perturbativo. Come annunciato in sede introduttiva andiamo qui ad 3.1 Derivazione dell'equazione di Fokker-Planck generalizzata operare uno sviluppo all'ordine successivo 1 49 rispetto a quello considerato in [2] e rivisitato nel precedente capitolo. Con semplici passaggi si ottiene per l'operatore ε± i la seguente espressione: ε± i = 1± 1 ∂2 1 1 ∂ ∂3 + ± . N 1/2 ∂ξi 2N ∂ξi2 3!N 3/2 ∂ξi3 (3.3) Per procedere nell'analisi si inserisce nell'equazione (3.1) l'ipotesi (3.2), esplicitando poi le probabilità di transizione. Il primo termine a destra del segno di uguaglianza nella (3.1) diventa: ni ni+1 − + − (ε+ i εi+1 − 1)T (n1 , ...ni − 1, ni+1 + 1, ...nk )P (n, t) = (εi εi+1 )ri+1 N N h ih i ξ ξ i i+1 − = (ε+ φi+1 + √ Π(ξ, τ ). i εi+1 )ri+1 φi + √ N N (3.4) Dopo aver inserito la (3.3) nella (3.4) possiamo isolare i contributi relativi ai vari N −1/2 e N −1 , ottenia- ordini dello sviluppo. Per quanto riguarda i termini di ordine mo gli stessi contributi già discussi nel capitolo 2. Ci limitiamo quindi a riportare nel seguito le espressioni relative ai soli contributi di ordine Il contributo di ordine N −3/2 N −3/2 . prende la forma: h1 1 ∂ ∂ 3 ∂ 2 1 ∂ − − r (ξ ξ ) + ri+1 (φi ξi+1 − φi+1 ξi ) i+1 i i+1 3! N 3/2 ∂ξi ∂ξi+1 2N 3/2 ∂ξi ∂ξi+1 i ∂ 1 ∂ − r φ φ Π(ξ, τ ). + i+1 i i+1 3!N 3/2 ∂ξi ∂ξi+1 Per quanto riguarda il secondo termine a destra del segno di uguaglianza del- l'equazione maestra (3.1) abbiamo: k X nj − (ε− − 1)T (n , ...n + 1, n , ...n ) = (ε − 1)α 1 − 1 i i+1 k i i i N j=1 = (ε− i − 1)αi h 1− k X φm m=1 k X ξ i √ i Π(ξ, τ ). − N i=1 (3.5) Inserendo lo sviluppo (3.3) dell'operatore ε± i si ottiene all' ordine N −3/2 : k k X 1 ∂3 1 ∂2 X − αi 1 − αi φm − ξw . 3!N 3/2 ∂ξi3 2N 3/2 ∂ξi2 m=1 w=1 1 L'analisi dell'equazione di Fokker-Planck generalizzata per autocatalitiche qui studiato è anche argomento di indagine in [26]. il modello di equazioni 3.1 Derivazione dell'equazione di Fokker-Planck generalizzata 50 Dobbiamo inne discutere lo sviluppo dell'ultimo termine che compare a destra del segno di uguaglianza dell'equazione (3.1), ovvero: ξi + √ (ε+ . − 1)T (n , ..., n − 1, n , ..., n ) = (ε − 1)β φ + 1 i i+1 k i i i i N Il contributo di ordine N −3/2 è: 1 ∂3 1 ∂2 β ξ + βi φi . i i 2N 3/2 ∂ξi2 3!N 3/2 ∂ξi3 Il membro sinistro dell'equazione (3.1) si riscrive come: 1 ∂Π 1 X ∂Π dφi −√ N ∂τ N i ∂ξi dτ dove, come già ricordato in precedenza, abbiamo operato il cambio di variabile τ = t/N . Si procede poi in analogia con l'analisi sviluppata nel capitolo 2 isolando i termini proporzionali a N −1/2 , che danno conto della dinamica deterministica o di campo medio, da quelli di ordine N −1 e N −3/2 riconducibili alle uttuazioni stocastiche. Le equazioni di campo medio prendono la forma : k X dφi φm − βi φi = (ri φi − ri+1 φi+1 )φi + αi 1 − dτ m=1 ∀i = 1, ..., k. (3.6) Tali equazioni sono identiche a quelle trovate da [2] e già riprodotte nel capitolo precedente. Continuano quindi a valere le stesse condizioni relative all'esistenza del punto sso. Non riportiamo nel seguito i calcoli espliciti per l'ordine perturbativo N −1 , e che ricalcano fedelmente l'analisi svolta in precedenza: tributo di termini all'ordine N −1 in conclusione, il con- può riassumersi nell'equazione di Fokker-Planck (2.29), per la distribuzione di probabilità delle uttuazioni. Nel seguito dicuteremo nel dettaglio la derivazione di contributi aggiuntivi nello sviluppo, ovvero le correzioni di ordine di Fokker-Planck. N −3/2 che modicano strutturalmente la succitata equazione Per rendere più leggibili i calcoli ed agevolare la presentazio- ne, procediamo separando i vari termini a seconda dell'ordine di derivata che vi compare. 3.1 Derivazione dell'equazione di Fokker-Planck generalizzata Il termine di ordine N −3/2 51 che coinvolge le derivate prime è esprimibile nella seguente forma: k h k X X ∂ ∂ i ∂ − ri+1 ξi ξi+1 Π(ξ, τ ) = [ri+1 ξi ξi+1 − ri ξi−1 ξi ]Π(ξ, τ ) ∂ξ ∂ξ ∂ξ i+1 i i=1 i=1 k X k X ∂ =− lij ξi ξj Π(ξ, τ ). ∂ξ i i=1 j=1 (3.7) Usando poi le simmetrie sugli indici, chiara conseguenza della ciclicità delle reazioni, possiamo riscrivere il contributo relativo alle derivate prime introducendo un' opportuna matrice che indicheremo con ri = r 0 r 0 L= ... ... 0 −r nell'ipotesi semplicativa ∀i r Si tratta di una matrice 0 ... 0 −r . . . . . . 0 r 0 ... ... ... ................ . . . . . . . . . −r ... ... 0 k×k che assume la forma: −r 0 L. ... 0 r 0 −r 0 r 0 . (3.8) La matrice è una matrice circolante, come confermato da una rapida ispezione visiva. Il contributo che coinvolge le derivate seconde può essere scritto anch'esso in forma matriciale sfruttando le simmetrie intrinseche al sistema in esame. termine assume la forma: ∂2 X 1 h ∂2 ∂2 β ξ − α ξ + r (ξ φ + φi ξi+1 ) i i i w i+1 2 i i+1 2 ∂ξi2 ∂ξi2 ∂ξ i w i ∂2 ∂ ∂ (ξ φ + φ ξ ) + 2r (ξ φ + φ ξ ) i i−1 i i−1 i+1 i i+1 i i+1 Π(ξ, τ ) ∂ξi2 ∂ξi ∂ξi+1 k X k X ∂ dij = ∂ξi ∂ξj i=1 j=1 + ri Tale 3.1 Derivazione dell'equazione di Fokker-Planck generalizzata 52 D k × k risulta essere: P β ξ − α i i i w ξw + ri+1 (ξi φi+1 + ξi+1 φi ) + ri (ξi φi−1 + ξi−1 φi ) con i = j −ri+1 (ξi φi+1 + ξi+1 φi ) j = i + 1 dove la matrice dij = −ri (ξi φi−1 + ξi−1 φi ) j = i − 1 0 altrimenti. Assumendo l'ipotesi semplicatrice βi = β , α = αi , ri = r, nel seguito, si perviene ad una forma più compatta per la con la quale opereremo D. Ricordiamo inoltre che l'analisi che andiamo a sviluppare si rivolge a tempi lunghi quando il sistema si trova a evolvere in un intorno di dij = φ∗ . Per φ = φ∗ si ha dunque: P βξi − α w ξw + r(ξi φ∗ + ξi+1 φ∗ ) + r(ξi φ∗ + ξi−1 φ∗ ) con i = j −r(ξi φ∗ + ξi+1 φ∗ ) j = i + 1 −r(ξi φ∗ + ξi−1 φ∗ ) j = i − 1 0 altrimenti. Caratterizziamo ora il termine che coinvolge le derivate del terzo ordine. Si ottiene in particolare: h − i X 1 ∂3 1h ∂ ∂ i3 1 ∂3 α (1 − φ ) + − r φ φ + β φ Π(ξ, τ ) m i i+1 i i+1 3 i i 3! ∂ξi3 3! ∂ξ ∂ξ 3! ∂ξ i i+1 i m XXX ∂3 =− eijw Π(ξ, τ ) ∂ξ ∂ξ ∂ξ i j w w i j dove, come nei casi precedenti abbiamo sfruttato la simmetria intrinseca del sistema 3.1 Derivazione dell'equazione di Fokker-Planck generalizzata per scrivere tale contributo in forma compatta a mezzo della matrice eijk ri+1 φi φi+1 j = i w = i + 1 ri φi φi−1 j = i − 1 w = i − 1 ri+1 φi φi+1 j = i + 1 w = i = −ri+1 φi φi+1 j = i + 1 w = i + 1 −ri φi φi−1 j = i w = i − 1 −ri φi−1 φi j = i − 1 w = i −[β φ − α (1 − P φ ) + (r φ φ i i i m m i+1 i i+1 53 E così denita: − ri φi φi−1 )] i = j = w. Anche in questo caso si eettuano le medesime semplicazioni ricordate in precedenza. La matrice E diventa: eijk = r(φ∗ )2 ∗ 2 r(φ ) r(φ∗ )2 j =i w =i+1 j =i−1 w =i−1 j =i+1 w =i −r(φ∗ )2 j = i + 1 w = i + 1 −r(φ∗ )2 j = i w = i − 1 −r(φ∗ )2 j = i − 1 w = i −[βφ∗ − α(1 − kφ∗ )] i = j = w. In conclusione, raccogliendo i vari contributi si perviene alla seguente equazione per la distribuzione di probabilità delle uttuazioni Π(ξ, τ ): k k X ∂Π(ξ, τ ) ∂ 1 X ∂2 =− [Ai (ξ)Π(ξ, τ )] + [bij Π(ξ, τ )] ∂τ ∂ξi 2 i,j=1 ∂ξi ∂ξj i=1 − k k 1 X ∂ 1 X ∂2 [C (ξ)Π(ξ, τ )] + [dij (ξ)Π(ξ, τ )] i N 1/2 i=1 ∂ξi 2N 1/2 i,j=1 ∂ξi ∂ξj k X 1 ∂3 [eijw Π(ξ, τ )] − 3!N 1/2 i,j,w=1 ∂ξi ∂ξj ∂ξw dove abbiamo posto Ci (ξ) = k X j=1 lij ξi ξj . (3.9) 3.1 Derivazione dell'equazione di Fokker-Planck generalizzata 54 equazione di Fokker- Faremo nel seguito riferimento all'equazione (3.9) come all' Planck generalizzata. Trascurando i contributi di ordine (3.9), e quindi la soluzione gaussiana multivariata per nali al fattore di scala N −1/2 , N −1/2 si ritrova l'equazione Π(ξ, τ ). Termini proporzio- introducono eetti di distorsione nella Π(ξ, τ ) che ipotizziamo possano dar conto delle asimmetrie rilevate nelle simulazioni dirette (si confronti la discussione del paragrafo 2.5). In prima istanza, e per testare l'adeguatezza interpretativa dello scenario proposto, intendiamo stimare analiticamente i momenti terzi della Π(ξ, τ ), per poi confrontare le predizioni teoriche con il dato numerico. In sostanza ci chiediamo se l'estensione del calcolo perturbativo all'ordine successivo in gliere quegli aspetti non gaussiani della 1/N 3/2 consente di co- Π(ξ, τ ) evidenziati in precedenza e associati alla presenza di momenti dispari. Concludiamo questo paragrafo con alcune importanti considerazioni sulla consistenza matematica della formulazione (3.9). In linea di principio l'equazione di Fokker-Planck generalizzata dovrebbe caratterizzare l'evoluzione temporale della distribuzione di probabilità delle uttuazioni, una quantità denita positiva. All'ordine precedente nello sviluppo perturbativo, trascurando cioè i termini aggiuntivi di ordine √ 1/ N che compaiono a destra del segno di uguaglianza nella (3.9), si recupera l'equazione di Fokker-Planck (2.29), la cui soluzione, gaussiana multivariata, gode delle suddette proprietà. L'eetto delle perturbazioni indotte dalla taglia nita è da questo punto di vista assolutamente cruciale. Come dimostrato in [15, 14] e indipendentemente dallo specico valore di N considerato, non si ha più la garanzia che la soluzione del problema (2.29) sia una funzione denita positiva, ovvero una distribuzione di probabilità. Nonostante ciò, nella letteratura di settore si stima, su base generalmente speculativa, che il problema della positività sia locale (ad esempio connato nelle code della distribuzione) e che asintoticamente, ovvero con approssimazioni di ordine successivo, si converga ad una soluzione matematicamente plausibile. A nostra conoscenza esiste tuttavia un solo lavoro che indaghi il suddetto processo di convergenza. Si tratta di un semplice modello unidimensionale per il quale è possibile apprezzare il grado di progressiva similitudine fra la 3.2 Calcolo dei momenti 55 soluzione analitica, calcolata ai vari ordini, e quella numerica [16]. In questo lavoro ci proponiamo di contribuire al dibattito in questione, esplorando i contributi non gaussiani così come previsti nel quadro dello sviluppo di van Kampen [24], per un modello più complicato, nel quale le correlazioni fra specie distinte siano rilevanti. 3.2 Calcolo dei momenti Riferendoci all'equazione (3.9) calcoliamo analiticamente i primi tre momenti della distribuzione delle uttuazioni. La procedura di calcolo è la stessa utilizzata nel paragrafo 2.5, e come in precedenza, lavoriamo nel caso formule abbiamo indicato con veda (2.31)) e con li,j mi,j l'elemento di posto l'elemento di posto ij k = 4. ij Nelle successive M, (si formula (3.8). Ci della matrice L, della matrice limitiamo nel seguito a riportare le equazioni per l'evoluzione dei momenti primi così come ottenuti sulla base delle suddette procedure senza esporne nel dettaglio la derivazione. Si ottiene la seguente equazione dierenziale: d < ξi >=mi,i < ξi > +mi,i−1 < ξi−1 > +mi,i+1 < ξi > +mi,i+2 < ξi+2 > dt 1 + 1/2 [li,i−1 < ξi ξi−1 > +li,i+1 < ξi ξi+1 >]. N (3.10) Metteremo dove possibile l'accento sulle dierenze che si manifestano per eetto dei contributi di ordine superiore rispetto alle omologhe equazioni ottenute nel capitolo 2. Tale equazione dierisce da quella ottenuta nel paragrafo 2.5 per il contributo: 1 [li,i−1 < ξi ξi−1 > +li,i+1 < ξi ξi+1 >]. N 1/2 Grazie alla simmetria del problema legata in ultima analisi alla scelta possiamo operare in uno scenario altamente semplicato. ri = r ∀i, Notiamo infatti che il termine aggiuntivo sopra identicato coinvolge i momenti secondi già stimati in precedenza. In particolare all'ordine precedente si ha √ Γ2 + o(1/ N ). La correzione alla soluzione gaussiana contribuisce quindi con un termine di ordine considerata. < ξi ξi+1 >=< ξi ξi−1 >= 1/N , che è lecito trascurare a livello dell'approssimazione qui Ricordando poi che li,i−1 = −li,i+1 , l'equazione dierenziale per i 3.2 Calcolo dei momenti 56 momenti primi risulta essere identica a quella calcolata nel capitolo 2. In sostanza le correzioni al momento primo della distribuzione delle uttuazioni, scalano come 1/N , e sono quindi trascurabili rispetto all'ordine di approssimazione qui indagato. Possiamo operare in completa analogia per la stima dei momenti secondi , ot- tenendo, a margine di una procedura di calcolo non dettagliata, le seguenti famiglie di equazioni: < ξ˙i2 >=2mi,i < ξi2 > +2mi,i+2 < ξi ξi+2 > +2mi,i+1 < ξi ξi+1 > +2mi,i−1 < ξi ξi−1 > + bi,i + 2 [li,i+1 < ξi2 ξi+1 > +li,i−1 < ξi2 ξi−1 >] N 1/2 (3.11) per la varianza di ciascuna specie (ricordando che il momento primo è nullo) e 2 < ξi ξ˙i+1 >=mi,i < ξi ξi+1 > +mi,i+2 < ξi+1 ξi+2 > +mi,i+1 < ξi+1 > +mi+1,i < ξi2 > + mi+1,i+1 < ξi ξi+1 > +mi+1,i+2 < ξi ξi+2 > +mi,i+1 < ξi2 > 1 1 1 2 + mi,i+3 < ξi+1 ξi+3 > + bi,i+1 + bi+1,i + 1/2 [li,i+1 < ξi ξi+1 > 2 2 N + li,i−1 < ξi ξi−1 ξi+1 > +li+1,i < ξi2 ξi+1 > +li+1,i+2 < ξi ξi+2 ξi+1 >] (3.12) per le correlazioni fra popolazioni, dove l'indice varia da 1 a 4. Le precedenti espressioni dieriscono dalle omologhe equazioni calcolate nel capitolo 2 per il termine evidenziato tra parentesi. Sulla base di un semplice ragionamento deduttivo è facile convincersi che i momenti terzi scaleranno in prima approssimazione come √ 1/ N , contribuendo di fatto con una correzione del tutto trascurabile nelle equazioni (3.11) e (3.12). simmetria della matrice L, Anche in questo caso, invocando la si perviene alla conclusione che i momenti secondi non sono perturbati dall'inclusione di correzioni di ordine superiore nello sviluppo degli operatori passo. Andiamo adesso a calcolare i momenti terzi. il calcolo esplicito dell'equazione dierenziale per Riportiamo a titolo di esempio < ξ˙i3 >, mentre ci limiteremo a fornire le equazioni di riferimento per tutti gli altri termini. La tecnica di cal- colo ricalca fedelmente quella adottata nel capitolo 2: partiamo dall'equazione di 3.2 Calcolo dei momenti 57 Fokker-Planck generalizzata nella forma (3.9) e moltiplichiamo ambo i membri per la quantità di cui si vuole calcolare il momento. Si procede poi integrando su tutto R, e ottenendo formalmente la seguente equazione: < ξ˙i3 > = − Z ∞ k X ξi3 −∞ t=1 1 − 1/2 N k X ∞ Z ξi3 −∞ t=1 Z 1 − 3!N 1/2 −∞ t,j,w=1 ξi3 ∞ Z ∂ 1 [Ct (ξ)Π(ξ, τ )]dξ + ∂ξt 2N 1/2 k X ∞ ∂ 1 [At (ξ)Π(ξ, τ )]dξ + ∂ξt 2 k X ξi3 −∞ t,j=1 Z ∞ k X −∞ t,j=1 ∂2 [btj Π(ξ, τ )]dξ ∂ξt ∂ξj ξi3 ∂2 [dtj (ξ)Π(ξ, τ )]dξ ∂ξt ∂ξj ∂3 [etjw Π(ξ, τ )]dξ ∂ξt ∂ξj ∂ξk dove per il membro sinistro valgono le considerazioni già sviluppate al paragrafo 2.5. Si nota, in analogia al caso precedente, che gli unici termini che contribui- scono all'interno delle sommatorie sono solo quelli che hanno l'indice uguale a i. Esplicitando tali termini si perviene all'equazione: ∞ Z ∂ 1 ∞ 3 ∂2 ξ [Ai (ξ)Π(ξ, τ )]dξ + [bii Π(ξ, τ )]dξ ∂ξi 2 −∞ i ∂ξi ∂ξi −∞ Z ∞ Z ∞ 2 1 1 3 ∂ 3 ∂ ξi ξ [Ci (ξ)Π(ξ, τ )]dξ + [dii (ξ)Π(ξ, τ )]dξ − 1/2 N ∂ξi 2N 1/2 −∞ i ∂ξi ∂ξi −∞ Z ∞ 1 ∂3 3 − ξ [eiii Π(ξ, τ )]dξ. 3!N 1/2 −∞ i ∂ξi ∂ξi ∂ξi < ξ˙i3 > = − Z Consideriamo il ξi3 primo termine a destra del segno di uguaglianza. Integrando per parti si ottiene la seguente espressione: Z ∞ − −∞ ξi3 Z ∞ ∂ [Ai (ξ)Π(ξ, τ )]dξ = − ξi3 Ai (ξ)Π(ξi , τ )|∞ −∞ dξ j6=i ∂ξi −∞ Z ∞ + 3ξi2 Ai (ξ)Π(ξ, τ )dξ. (3.13) −∞ Supponendo che le soluzioni dell'equazione di Fokker-Planck generalizzata decadano all'innito in modo sucientemente rapido. nullo per le note proprietà della Π. Il primo integrale dà contributo Ricordando l'espressione esplicita di Ai si 3.2 Calcolo dei momenti 58 ottiene in denitiva: Z ∞ 3ξi2 [−rφ∗ ξi+1 + rφ∗ ξi−1 − α −∞ X ξj − βξi ]Π(ξ, τ )dξ = −3rφ∗ < ξi2 ξi+1 > j + 3rφ∗ < ξi2 ξi−1 > −3α < ξi3 > −3α < ξi2 ξi+1 > −3α < ξi2 ξi−1 > − 3α < ξi2 ξi+2 > −β < ξi3 > . (3.14) Passiamo ad analizzare il secondo termine nel membro destro dell'equazione (3.13). Integrando due volte per parti e esplicitando l'espressione del coeciente coinvolto, si ottiene: 1 2 Z ∞ ξi3 bii Π(ξ, τ )dξ Z ∞ ξi bii Π(ξ, τ )dξ =3 −∞ Z−∞ ∞ =3 (2r(φ∗ )2 + α(1 − 4φ∗ ) + βφ∗ )ξi Πdξ −∞ = 6r(φ∗ )2 < ξi > +3α < ξi > −12αφ∗ < ξi > +3βφ∗ < ξi > . (3.15) Integrando per parti il terzo termine a destra del segno di uguaglianza nell'equazione (3.13) si ricava: 1 − 1/2 N Z ∞ −∞ ξi3 Z ∞ 3 ∂ [Ci (ξ)Π(ξ, τ )]dξ = 1/2 ξi2 Ci (ξ)Π(ξ, τ )dξ ∂ξi N −∞ 1 = 1/2 [−3r < ξi3 ξi+1 > +3r < ξi3 ξi−1 >] N (3.16) ed analogamente per il quarto termine si ottiene: Z ∞ Z ∞ 2 3 1 3 ∂ ξ ξi dii Πdξ [dii (ξ)Π(ξ, τ )]dξ = 1/2 2N 1/2 −∞ i ∂ξi ∂ξi N −∞ Z ∞ X 3 = 1/2 ξi Π[βξi − α ξw + rξi φ∗ + rξi+1 φ∗ + rξi φ∗ + rξi−1 φ∗ ] N −∞ w = 3 [β < ξi2 > −α < ξi2 > −α < ξi ξi+1 > −α < ξi ξi−1 > −α < ξi ξi+2 > N 1/2 + rφ∗ < ξi2 > +rφ∗ < ξi+1 ξi > +rφ∗ < ξi2 > +rφ∗ < ξi−1 ξi >]. (3.17) 3.2 Calcolo dei momenti 59 Il contributo dell'ultimo termine risulta essere: Z ∞ Z ∞ 1 ∂3 1 3 − ξ [eiii Π(ξ, τ )]dξ = 1/2 eiii Π(ξ, τ )dξ 3!N 1/2 −∞ i ∂ξi ∂ξi ∂ξi N −∞ Z ∞ 1 = 1/2 [βφ∗ − α(1 − 4φ∗ )]Π(ξ, τ )dξ N −∞ 1 = 1/2 [βφ∗ − α(1 − 4φ∗ )] N (3.18) dove si è integrato per parti tre volte eliminando i termini che non danno contributo. Si è in particolare sfruttato il fatto che la quindi l'integrale su tutto R Π è una distribuzione di probabilità e è identicamente uguale ad uno. Compattando i contributi nora calcolati si ottiene inne: < ξ˙i3 >=3m0 < ξi3 > +3m3 < ξi2 ξi−1 > +3m2 < ξi2 ξi+2 > +3m1 < ξi2 ξi+1 > 3 [m4 < ξi2 > +m3 < ξi ξi+1 > +m3 < ξi ξi−1 > N 1/2 m5 1 + 3m2 < ξi ξi+2 >] + 1/2 + 1/2 [3r < ξi3 ξi−1 > −3r < ξi3 ξi+1 >] N N + 3b0 < ξi > + (3.19) dove abbiamo introdotto le seguenti notazioni per i coecienti dei momenti: m0 m1 m2 m3 m4 = −2α; m6 = 0; = −α − 5r ; m7 = − 2r ; 5 = −α; m8 = = −α + 5r ; m9 = − 5r ; = 2r ; 5 r ; 25 m5 = 0. dove abbiamo posto come ulteriore semplicazione α=β e φ∗ = 1/5. Facendo leva sulle simmetrie proprie del sistema ed in completa analogia con il ragionamento svolto nel capitolo 2, si possono identicare quattro famiglie distinte di momenti terzi, oltre a quella già caratterizzata. Con passaggi simili a quelli sopra dettagliati 3.2 Calcolo dei momenti 60 si ottiene: d 2 < ξi2 ξi−1 >=3m0 < ξi2 ξi−1 > +2m3 < ξi ξi−1 > +2m1 < ξi ξi+1 ξi−1 > dt + 2m2 < ξi ξi−1 ξi+2 > +m3 < ξi2 ξi+2 > +m1 < ξi3 > +m2 < ξi2 ξi+1 > 1 2 > +m6 < ξi ξi+1 > [m3 < ξi−1 N 1/2 m8 > +m2 < ξi−1 ξi+2 > +m7 < ξi2 >] − 1/2 N + b0 < ξi−1 > +2b1 < ξi > + + m3 < ξi+1 ξi−1 + 1 2 [−2r < ξi−1 ξi2 ξi+1 > +2r < ξi−1 ξi2 > N 1/2 + r < ξi2 ξi−1 ξi+2 > −r < ξi3 ξi−1 >] (3.20) e d 2 < ξi2 ξi+1 >=3m0 < ξi2 ξi+1 > +2m3 < ξi ξi−1 ξi+1 > +2m1 < ξi ξi+1 > dt + 2m2 < ξi ξi+1 ξi+2 > +m3 < ξi3 > +m1 < ξi2 ξi+2 > + m2 < ξi2 ξi−1 > +b0 < ξi+1 > +2b1 < ξi > 1 2 [m3 < ξi+1 > +m6 < ξi ξi+1 > +m3 < ξi+1 ξi+3 > 1/2 N 1 m8 2 + m2 < ξi+1 ξi+2 > +m7 < ξi2 >] + 1/2 + 1/2 [−2r < ξi+1 ξi2 > N N + + 2r < ξi−1 ξi+1 ξi2 > +r < ξi3 ξi+1 > −r < ξi2 ξi+1 ξi+2 >] (3.21) per le famiglie di momenti terzi delle uttuazioni, associate a popolazioni adiacenti nell'ordinamento rispetto all'indice della specie i. Per le famiglie di momenti fra specie alterne, ovvero dinamicamente sincronizzate, abbiamo: d < ξi2 ξi+2 >=3m0 < ξi2 ξi+2 > +2m3 < ξi ξi−1 ξi+2 > +2m1 < ξi ξi+1 ξi+2 > dt 2 > +m3 < ξi2 ξi+1 > +m1 < ξi2 ξi−1 > + 2m2 < ξi ξi+2 + m2 < ξi3 > +b0 < ξi+2 > + 1 2 [m2 < ξi+2 > N 1/2 + m4 < ξi ξi+2 > +m3 < ξi−1 ξi+2 > +m3 < ξi+1 ξi+2 >] + 1 [−r < ξi2 ξi+1 ξi+2 > +r < ξi−1 ξi+2 ξi2 >]. 1/2 N (3.22) 3.2 Calcolo dei momenti 61 Inne per le famiglie di momenti a tre specie distinte si ricava: d 2 2 < ξi ξi+1 ξi−1 >=3m0 < ξi ξi+1 ξi−1 > +m3 < ξi+1 ξi−1 > +m1 < ξi+1 ξi−1 > dt + m2 < ξi+2 ξi+1 ξi−1 > +m3 < ξi2 ξi−1 > +m1 < ξi ξi+2 ξi−1 > 2 + m3 < ξi ξi+1 ξi+2 > +m2 < ξi ξi−1 > +m1 < ξi2 ξi+1 > 2 > +b1 < ξi−1 > +b1 < ξi+1 > + m2 < ξi ξi+1 1 [m9 < ξi−1 ξi > +m9 < ξi+1 ξi > +m7 < ξi−1 ξi+1 >] N 1/2 1 2 2 >]. ξi ξi−1 > +r < ξi+1 ξi ξi−1 + 1/2 [−r < ξi+1 N + (3.23) Nelle precedenti relazioni sono state scritte in forma compatta tutte le possibili permutazioni sugli indici. Come chiaramente si nota, i momenti quarti delle uttuazioni entrano esplicitamente nella caratterizzazione dei momenti di ordine tre. Anche in questo caso, come conseguenza della simmetria del problema si può pensare di stimare tali contributi a partire dalla soluzione gaussiana, ovvero dai momenti secondi, prescindendo da ulteriori correzioni in √ 1/ N , non rilevanti nel presente contesto. Abbiamo quindi in tale approssimazione: < ξi4 >= 3(< ξi2 >)2 (3.24) < ξi3 ξj >= 3 < ξi2 >< ξi ξj > < ξi2 ξj2 >=< ξi2 >< ξj2 > +2(< ξi ξj >)2 < ξi2 ξj ξk >=< ξi2 >< ξj ξk > +2 < ξi ξj >< ξi ξk > . Essendo di fatto interessati alla dinamica del sistema all'equilibrio, ovvero alla caratterizzazione della distribuzione delle uttuazioni e dei momenti ad esso associati nel regime stazionario, è lecito sostituire ai momenti del secondo ordine le quantità Γ1 , Γ2 , Γ3 , già calcolate nel capitolo 2, in funzione dei parametri del modello. 3.2 Calcolo dei momenti 3.2.1 62 I momenti di ordine tre all'equilibrio Considerando tutte le possibili permutazioni sugli indici e ponendo a zero le derivate dei momenti terzi, si ottiene un sistema algebrico di venti equazioni che per comodità non scriveremo esplicitamente. Per chi fosse interessato, la forma esplicita della matrice dei coecienti è riportata in appendice. Possiamo però semplicare notevolmente la trattazione limitandoci a scrivere le equazioni per le indipendenti. In forma matriciale il sistema diventa Ẋ = V X + S . 5 famiglie Il vettore X è dato da: X= h < ξi3 > < ξi2 ξi+1 e la matrice dei coecienti 3m0 m3 V = m1 m2 0 3m1 V > < ξi2 ξi−1 > < ξi2 ξi+2 > < ξi ξi+1 ξi−1 > i risulta essere: 3m3 3m2 0 3m0 2m1 + m2 m1 2m3 + 2m2 2m3 + m2 3m0 m3 2m1 + 2m2 m3 m1 3m0 + 2m2 2m3 + 2m1 m2 + m1 m3 + m2 m3 + m1 3m0 + m1 + m3 + m2 . Inne l'espressione del vettore dei termini noti è: i √ h S = 1/ N s1 s3 s5 s2 s4 dove s1 = 3m4 Γ1 + 6m3 Γ2 + 3m2 Γ3 s2 = m4 Γ3 + 2m3 Γ2 + m2 Γ1 s3 = m3 Γ1 + m7 Γ1 + m3 Γ3 + m2 Γ2 + m6 Γ2 + m8 + [−2r(Γ1 )2 + 2rΓ3 Γ1 − 2rΓ3 Γ2 +2rΓ1 Γ2 ] s4 = m7 Γ3 + 2m9 Γ2 s5 = m3 Γ1 + m7 Γ1 + m3 Γ3 + m2 Γ2 + m6 Γ2 − m8 + [2r(Γ1 )2 − 2rΓ1 Γ3 + 2rΓ3 Γ2 −2rΓ Γ ]. 1 2 3.2 Calcolo dei momenti 63 In linea di principio il sistema è risolvibile analiticamente. Di fatto, però, la forma complicata dei coecienti rende il calcolo impraticabile. Ricordiamo inoltre che siamo qui interessati alla dinamica per tempi lunghi, ovvero alla caratterizzazione dei punti ssi associati al sistema in questione. in denitiva porre a zero Ẋ . Calcolare il punto sso signica La soluzione si ottiene invertendo la matrice tale scopo abbiamo proceduto per via numerica. V. A Si ottiene pertanto un'espres- sione esplicita per i momenti terzi delle distribuzioni delle uttuazioni al variare di parametri che deniscono la dinamica microscopica del modello. Nel prossimo paragrafo vericheremo la correttezza di tale predizione, confontando la teoria con il risultato delle simulazioni dirette. 3.2.2 Momenti terzi: confronto fra teoria e simulazioni Nel paragrafo precedente abbiamo calcolato i primi tre momenti a partire dall'equazione di Fokker-Planck generalizzata. I momenti primi e secondi non cambiano all'ordine √ 1/ N , rispetto alla soluzione gaussiana calcolata nel capitolo 2. Voglia- mo ora testare la correttezza delle predizioni per quanto riguarda i momenti terzi che, ricordiamo, scalano con √ 1/ N . Le simulazioni sono realizzate utilizzando un'implementazione dell'algoritmo di Gillespie e monitorando al variare del tempo i momenti di ordine tre rilevanti per la presente analisi. I risultati sono mostrati nelle gure che riportiamo, ordinate per famiglie omologhe e confrontate con la predizione analitica (linea a tratto continuo). L'accordo è decisamente soddisfacente, osservazione che costituisce una conferma a posteriori della validità del metodo perturbativo e delle approssimazioni impiegati. In sostanza, e con riferimento ad un modello complesso in cui popolazioni distinte interagiscono mutuamente, abbiamo mostrato come l'ipotesi di van Kampen risulti ecace nel rappresentare la dinamica del sistema al di là dell'approssimazione gaussiana. È questo un risultato per certi versi sorprendente: come ricordiamo, l'ipotesi di van Kampen sembra infatti assumere aprioristicamente una distribuzio- 3.2 Calcolo dei momenti Figura 3.1: 64 Evoluzione temporale della famiglia < ξi3 > moltiplicato per il fattore di scala N −1/2 . La linea tratteggiata identica la soluzione a punto sso, così come ricavata in precedenza. Le curve colorate sono ottenute con simulazioni numeriche e si riferiscono alle specie considerate. Parametri N=2000 α = β = 0.2 r = 10. ne gaussiana nelle uttuazioni, argomento posto ad esempio in [10] per giusticare l'origine del fattore di scala √ 1/ N . Forti delle conclusioni qui raggiunte ed in accordo qualitativo con i risultati del già citato lavoro [16] riteniamo plausibile propendere per l'adeguatezza della procedura di van Kampen nella determinazione dei comportamenti non gaussiani delle uttuazioni statistiche, così come rilevate in simulazioni di sistemi di taglia mediamente piccola. Appare quindi di assoluta centralità un'approfondita riessione sui fondamenti teorici che ispirano il metodo perturbativo adottato, direzione d'indagine che sta catalizzando l'interesse di numerosi esperti del settore [9]. Tali approfondimenti esulano comunque dalla presente trattazione. La parte rimanente del capitolo sarà dedicata alla derivazione di una soluzione approssimata per la distribuzione di probabilità delle uttuazioni, a partire dalla quale stimeremo la probabilità di estinzione caratteristica del sistema. 3.3 La distribuzione teorica Π(ξ) delle uttuazioni Figura 3.2: Comportamento della famiglia < ξi ξi+1 ξi−1 >. Parametri come in gura 3.1. Figura 3.4: Comportamento della famiglia < ξi ξi ξi−1 >. Parametri come in gura 3.1. Figura 3.3: 65 Comportamento della famiglia < ξi2 ξi+2 >. Parametri come in gura 3.1. Figura 3.5: Comportamento della famiglia < ξi2 ξi+1 >. Parametri come in gura 3.1. 3.3 La distribuzione teorica Π(ξ) delle uttuazioni L'intento che vogliamo ora perseguire è quello di stimare, sotto opportune approssimazioni, la distribuzione delle uttuazioni Π(ξ), sfruttando a tale scopo la conoscenza pregressa dei momenti. Facciamo l'ipotesi di lavoro che tale distribuzio- 3.3 La distribuzione teorica Π(ξ) delle uttuazioni 66 ne sia uguale per ciascuna specie, come d'altra parte confermato per via simulativa (dati non mostrati). che il momento È chiaro dall'analisi delle gure precedentemente riportate < ξi3 > è dominante rispetto agli altri momenti di ordine analo- go, che risultano signicativamente più piccoli. Per questo motivo disaccoppiamo idealmente il sistema, considerando ogni specie come indipendente e trascurando il ruolo delle correlazioni. In altre parole operiamo in un contesto unidimensionale fattorizzando la con Π(ξ) Π1 (ξ1 )Π2 (ξ2 )Π3 (ξ3 )Π4 (ξ4 ). come (funzione della generica componente distribuzione Π(ξ) Denizione 10. P (ξ) Π(ξ) la funzione: ξ Nel seguito indicheremo del vettore ξ) la proiezione della lungo la direzione di interesse. Si denisce funzione caratteristica R∞ ϕ(t) = −∞ eitξ Π(ξ)dξ , ϕ associata alla distribuzione ovvero la trasformata di Fourier della distribuzione stessa. Partendo dalla denizione di funzione caratteristica possiamo sviluppare l'esponenziale in serie di potenze, ottenendo: Z ∞ Z itξ ϕ(t) = e Π(ξ)dξ = −∞ Z = ∞ ∞ X (itξ)k −∞ k=0 ∞ Z ∞ k! Π(ξ)dξ Z ∞ Π(ξ)dξ + i2 t2 ξ 2 Π(ξ)dξ + 2! itξΠ(ξ)dξ + −∞ −∞ −∞ Z ∞ 44 4 Z ∞ 55 5 itξ itξ + Π(ξ)dξ + Π(ξ)dξ + ... . 4! 5! −∞ −∞ Z ∞ −∞ i3 t3 ξ 3 Π(ξ)dξ 3! (3.25) Ricordando la denizione 9 di momento si ottiene immediatamente: ϕ(t) = 1 + it < ξ > +i2 t2 t3 t4 t5 < ξ 2 > +i3 < ξ 3 > +i4 < ξ 4 > +i5 < ξ 5 > +... . 2! 3! 4! 5! (3.26) Possiamo quindi ricavare un'espressione approssimata per la ϕ(t) a partire dai mo- menti precedentemente stimati, per poi ottenere, tramite trasformata di Fourier inversa, una formula analitica chiusa per la Π(ξ), ovvero la distribuzione di inte- resse. Raccogliendo i termini di ordine pari, ed isolando contestualmente quelli di 3.3 La distribuzione teorica Π(ξ) delle uttuazioni 67 ordine dispari, si arriva alla relazione: t3 t2 t4 1 < ξ5 > 2 2 4 3 ϕ(t) = 1 − < ξ > + < ξ > ... − i < ξ > 1 − t + ... 2! 4! 3! 20 < ξ 3 > dove abbiamo fatto esplicito uso del fatto che < ξ >= 0. (3.27) Immaginiamo che anche il momento quinto sia noto. Ritorneremo poi sulla possibilità di elaborare una stima approssimata dello stesso. −ξ 2 e Ricordando quindi lo sviluppo in serie della funzione possiamo pensare di approssimare la funzione caratteristica come: t2 t3 1 < ξ5 > 2 ϕ(t) w exp − < ξ 2 > − i < ξ 3 > exp − t 2! 3! 20 < ξ 3 > (3.28) espressione che risulta certamente corretta per l'ordine perturbativo considerato. Poniamo b2 = 1 <ξ 5 > . Eettuiamo poi l'antitrasformata di Fourier della 20 <ξ 3 > ϕ(t). Il termine gaussiano porta a: FT −1 t2 1 ξ2 2 exp − < ξ > =p , exp − 2! 2 < ξ2 > 2π < ξ 2 > mentre per quanto riguarda il secondo contributo otteniamo: t3 < ξ 3 > d3 F T −1 − i < ξ 3 > exp(−b2 t2 ) = − F T −1 (exp(−b2 t2 )) = 3! 3! dξ 3 1 1 < ξ 3 > d3 ξ2 −√ √ exp − . 4b2 2π 2b 3! dξ 3 (3.29) D'altra parte: ξ2 ξ2 1 h ξ3 i d3 exp − = exp − 3ξ − . dξ 3 4b2 4b2 4b4 2b2 per cui abbiamo in conclusione la seguente espressione per la distribuzione delle uttuazioni normalizzata: ξ2 1 h 1 ξ2 1 < ξ3 > ξ3 i √ Π(ξ) = p exp(− ) − exp − 3ξ − . 2 < ξ2 > 4b2 4b4 2b2 2 πb2 3! 2π < ξ 2 > (3.30) Come già osservato, il termine b2 contiene il momento quinto di cui non conosciamo l'espressione analitica. È facile convincersi, ragionando in modo analogo con quanto già fatto per il momento terzo, che il momento quinto scala come √ a/ N , dove a è un fattore numerico, di ordine uno, ignoto. In linea puramente teorica potremmo 3.3 La distribuzione teorica Π(ξ) delle uttuazioni Figura 3.6: 68 Il momento quinto per diversi valori N. I simboli si riferiscono a valori √ ricavati dalle simulazioni numeriche. La linea continua corrisponde alla curva a/ N con a =< ξ 5 >N =512 = 0.1. pensare di calcolare < ξ5 > procedendo con una generalizzazione all'ordine cinque dei conti sviluppati nel paragrafo 3.2 per il momento terzo. possiamo pensare di ottenere una stima numerica di diretta per un valore di fattore √ 1/ N , N Alternativamente a, realizzando una simulazione ssato, ed utilizzando poi tale valore, riscalato dal per la determinazione del momento < ξ5 > relativo a sistemi di taglia diversa. La validità dello schema proposto è confermata dall'analisi in gura 3.6, dove confrontiamo i valori di proposta √ a/ N , e a < ξ5 > è posto uguale a 0.1, calcolati nelle simulazioni con la curva valore stimato per N = 512. Possiamo ora chiederci se con le correzioni apportate alla distribuzione Π(ξ) siamo in grado di cogliere l'asimmetria riscontrata nelle gure del capitolo 2 per bassi valori di N. Il confronto è operato per le quattro specie di riferimento, nelle gure 3.6, 3.7, 3.8 e 3.9. L'accordo fra simulazioni e curve teoriche è soddisfacente per tutti i valori di N considerati. La curva rappresentante l'equazione (3.30) risulta interpolare i dati in maniera decisamente più accurata rispetto al prolo gaussiano che coinvolge solo il momento secondo. Siamo quindi in grado di spiegare l'asimmetria nella distribuzione delle uttuazioni, fenomeno già discusso in conclusione del capitolo 2. 3.3 La distribuzione teorica Π(ξ) delle uttuazioni Figura 3.7: 69 La linea continua nera è la distribuzione delle uttuazioni calcolata nel capitolo 2. La linea continua rossa è la distribuzione (3.30). I simboli verdi sono i risultati delle simulazioni con N = 100 α = β = 2 r = 10. La gura si riferisce alla specie 1. Le curve sono normalizzate dividendo per il rispettivo valore massimo. Figura 3.8: La linea continua nera è la distribuzione delle uttuazioni calcolata nel capitolo 2. La linea continua rossa è la distribuzione (3.30). I simboli verdi sono i risultati delle simulazioni con N = 250. Gli altri parametri sono ssati come in gura 3.6. 3.3 La distribuzione teorica Π(ξ) delle uttuazioni Figura 3.9: 70 La linea continua nera è la distribuzione delle uttuazioni calcolata nel capitolo 2. La linea continua rossa è la distribuzione (3.30). I simboli verdi sono i risultati delle simulazioni con N = 500. Gli altri parametri sono ssati come in gura 3.6. Figura 3.10: La linea continua nera è la distribuzione delle uttuazioni calcolata nel capitolo 2. La linea continua rossa è la distribuzione calcolata nell'equazione (3.30). I simboli verdi sono i risultati delle simulazioni con N = 700. Gli altri parametri sono ssati come in gura 3.6. 3.4 Probabilità di estinzione 71 3.4 Probabilità di estinzione A partire dalla determinazione della funzione distribuzione delle uttuazioni, stimata approssimativamente sotto l'ipotesi di fattorizzazione discussa nel paragrafo precedente, possiamo analizzare nel dettaglio il processo di estinzione nel quale potenzialmente incorrono le specie interagenti. Nel problema indagato infatti il sistema tende naturalmente verso un punto sso non banale della dinamica, caratterizzato da una concentrazione di costituenti diversa da zero. D'altra parte il sistema ammette anche uno stato assorbente al bordo: uttuazioni di ampiezza maggiore di √ φ∗ N possono destabilizzare la dinamica di una singola specie, determinandone l'estinzione. Nel caso del modello qui considerato è sempre possibile reintrodurre elementi della specie estinta, grazie al usso migratorio dal bagno esterno verso il volume cellulare. Nel limite di N relativamente grande, le uttua- zioni che sottendono al processo di estinzione sono gaussiane, come ampiamente discusso in precedenza. La probabilità di estinzione est Pgauss è quindi banalmente stimabile come: est Pgauss √ p 1 ∗ 2 = erf[∞] − erf[Φ N / 2 < ξ >] . 2 Per sistemi di taglia più contenuta le uttuazioni sono approssimativamente distribuite come previsto secondo la formula (3.30) ed in particolare mostrano una chiara asimmetria. La coda sinistra del prolo di distribuzione, si veda ad es. la gura 3.7, decade più rapidamente della destra: sarà conseguentemente più plausibile registrare uttuazioni importanti nel semiasse a che a ξ ξ positive (grandi densità) piuttosto negative (rischio di estinzione). Matematicamente possiamo stimare come cambia la probabilità di estinzione ad N nito, usando la (3.30), rispetto al valore 2 precedentemente calcolato con riferimento al caso gaussiano ideale, ottenendo : PNest est Pgauss 2 Nel Π(ξ) √ 2 √ ∗ exp − (−φ4b2N ) [2C1 b2 − C1 (φ∗ N )2 ] =1− √ p 1 ∗ N/ 2 >] erf[∞] − erf[φ 2 < ξ 2 seguito ci limiteremo a considerare valori di è garantita. N (3.31) per i quali la positività della distribuzione 3.4 Probabilità di estinzione dove: 72 C1 = − <ξ√3 >5 48 πb b 2 = 1 <ξ 5 > . 20 <ξ 3 > I dettagli della procedura di calcolo che portano alla (3.31) sono riportati in appendice. L'espressione (3.31) è rappresentata in gura 3.11, in funzione della taglia del sistema N. Al diminuire di N la probabilità di estinzione diventa più piccola rispetto a quella calcolata sotto l'ipotesi di normalità. La diminuizione della probabilità risulta tuttavia poco signicativa (≈ 3%) per i parametri considerati. Si tratta di una predizione analitica che intendiamo testare in futuro con simulazioni al calcolatore. Figura 3.11: La linea continua rappresenta il rapporto espresso dalla formula (3.31) in funzione della taglia del sistema N con r = 10, α = β = 2. Conclusioni In questo lavoro di tesi abbiamo studiato la dinamica stocastica di un sistema di reazioni autocatalitiche. Come ricordato in sede introduttiva, il problema si inquadra in un contesto più ampio che mira all'elaborazione di un modello consistente di cellula minimale. Più specicatamente è ragionevole supporre che reazioni di tipo autocatalitico abbiano avuto luogo all'interno delle protocellule, le progenitrici delle attuali unità cellulari. Dal punto di vista dell'analisi teorica il problema si riconduce allo studio della dinamica microscopica delle popolazioni coinvolte. Il modello qui discusso contempla, oltre al succitato schema autocatalitico, la possibilità che le molecole possano attraversare la membrana cellulare. una riserva innita di reagenti. La cellula è pensata immersa in A causa della discretezza del mezzo molecolare, e come eetto del rumore interno che ne consegue, insorgono dinamiche collettive auto-organizzate che abbiamo indagato. Ci siamo serviti a tale scopo di un approccio complementare, combinando tecniche numeriche ispirate al celebre algoritmo di Gillespie, ad una dettagliata caratterizzazione analitica del modello. Si è in particolare proceduto all'applicazione sistematica dello sviluppo di van Kampen, recuperando il livello descrittivo di campo medio ed elaborando sul ruolo cruciale giocato dalle uttuazioni stocastiche. Nella prima parte della tesi abbiamo rivisitato i risultati ottenuti nel lavoro di Di Patti et al [2], discutendo la derivazione formale dell'equazione di Fokker-Planck, che governa la dinamica delle suddette uttuazioni. Con riferimento ad un modello di quattro specie indipendenti, abbiamo calcolato in forma analitica chiusa i mo- Conclusioni 74 menti secondi, e le relative correlazioni, spiegando su base teorica i meccanismi di sincronizzazione rilevati nelle simulazioni. Ricostruendo numericamente la di- stribuzione delle uttuazioni relativa ad una qualsiasi delle specie interagenti, si è mostrata la presenza di una chiara asimmetria della stessa, che interviene per piccoli valori di N, la taglia del sistema. Motivati da questa evidenza numerica, nella seconda parte della tesi abbiamo esteso lo sviluppo perturbativo di van Kampen all'ordine successivo, rispetto all'approssimazione considerata in [2], nel tentativo dichiarato di dare conto di tali aspetti di non gaussianità. La derivazione ha portato alla denizione di un'equazione di Fokker-Planck generalizzata, ovvero modicata per la presenza di termini aggiuntivi dipendenti esplicitamente da N. Il calcolo dei momenti di ordine tre, ed il prolo della distribuzione delle uttuazioni, conseguentemente ottenuto mostrano un accordo soddisfacente con le simulazioni. Il confronto operato tra teoria ed esperimenti al calcolatore di tipo Monte Carlo, costituisce una validazione a posteriori della procedura perturbativa adottata. Sorprendentemente l'ipotesi di van Kampen, spesso invocata facendo ricorso al teorema del limite centrale [3], riesce a cogliere i tratti non gaussiani nella distribuzione delle uttuazioni. Sono queste modiche del prolo atteso che intervengono per sistemi di taglia ridotta e che possono avere un impatto non trascurabile nella stima di quantità di interesse generale, quali il tempo caratteristico di estinzione. Il lavoro qui discusso si colloca nell'ambito del dibattito sulla validità dell'ipotesi di van Kampen, oltre il regime delle uttuazioni gaussiane, dimostrando l'adeguatezza di tale procedura per un sistema complesso multidimensionale. È nostra intenzione speculare in futuro sui fondamenti matematici dell'assunto di van Kampen, nel tentativo di inquadrare il problema in un contesto formalmente rigoroso, che muova da una approfondita discussione delle già citate connessioni con il teorema del limite centrale. Appendice A.1 Sviluppo di van Kampen Di seguito discutiamo la formulazione generale dello sviluppo di van Kampen, tecnica di approssimazione dell'equazione maestra. Tale sviluppo ha come punto di partenza l'ipotesi (1.19), usata in precedenza, in cui la variabile x è estensiva (ad esempio: numero di molecole) ed il parametro ε rispetto al quale si opera lo svi- luppo rappresenta la taglia del sistema (ad esempio il volume del contenitore delle molecole). ∆x è una variabile intensiva (ad esempio la concentrazione di molecole). ε Inserendo nell'equazione maestra ν = x − x0 densità di transizione le funzioni Φ1 , Φ2 ... e considerando che nello sviluppo della siano trascurabili si ottiene: x o X n x − ν ∂P (x, t) = εf (ε) Φ0 , ν P (x − ν, t) − Φ0 , −ν P (x, t) ∂t ε ε ν (A.32) Eettuando il cambio di variabile: x = εϕ(t) + ε1/2 ξ ed inserendolo poi in (A.32) si ottiene: hX dϕ ∂Π ∂Π − ε1/2 =εf (ε) Φ0 (ϕ(t) + ε−1/2 ξ − ε−1/2 ν; ν)Π(ξ − ε−1/2 , t)− ∂t dt ∂x ν i X −1/2 Φ0 (ϕ(t) + ε ξ, −ν)Π(ξ, t) ν (A.33) dove Π(ξ, t) è la distribuzione delle uttuazioni. A.1 Sviluppo di van Kampen 76 Il fattore nella parentesi quadra va a zero come ε−1/2 . Per ottenere gli ordini successivi è conveniente scriverlo nella seguente forma: h i = Xn − ε−1/2 ν ν o ∂ 1 ∂2 + ε−1 ν 2 2 − ... Φ0 (ϕ + ε−1/2 ξ; ν)Π(ξ, t) ∂x 2 ∂x ricavando così un'equazione che non coinvolge più la probabilità nuova funzione Π(ξ, t). stessa potenza di ε. ϕ f (ε)t = τ si ottiene: X ∂Π −1/2 ∂Π =ε −ε νΦ0 (ϕ, ν) dτ ∂ξ ∂ξ ν 1/2 dϕ Entrambi i membri coinvolgono il fattore ogni scelta di ma una Possiamo uguagliare tra loro i termini che presentano la Eettuando un cambio di tempo −ε P (x, t) (A.34) (A.35) ∂Π , quindi l'equazione è soddisfatta per ∂ξ che risolve la seguente equazione: dϕ X = νΦ0 (ϕ, ν). dτ ν Questa è l'equazione che descrive l'evoluzione macroscopica della x. I contributi di ordine zero invece danno luogo alla seguente equazione: nX o∂ o ∂ 2Π ∂Π 1n X 2 =− νΦ00 (ϕ, ν) ξΠ + ν Φ0 (ϕ, ν) ∂τ ∂ξ 2 ν ∂ξ 2 ν (A.36) che coinvolge le uttuazioni, nota come l'equazione di Fokker-Plank. Lo sviluppo di van Kampen è dunque un metodo generale con cui ottenere un'approssimazione dell'equazione maestra. A.2 Forma esplicita del sistema dei momenti terzi 77 A.2 Forma esplicita del sistema dei momenti terzi In questa appendice riportiamo esplicitamente la forma del sistema ottenuto nel capitolo 3, che caratterizza l'evoluzione dinamica dei momenti terzi. prende la forma Ẋ = V X + S , dove V è una matrice 20 × 20. Il sistema Il vettore X si può scrivere come: X= h X1 X2 X3 X4 X5 i dove X1 = X2 = h X3 = h ξ23 >, < S= dove ξ22 ξ1 h < < ξ32 ξ1 ξ42 ξ1 >, < >, < ξ32 ξ2 ξ42 ξ2 >, < >, < ξ32 ξ4 ξ42 ξ3 >, < ξ43 > i i >, < ξ3 ξ4 ξ1 > S i > < ξ22 ξ3 >, < ξ22 ξ4 >, < ξ2 ξ3 ξ4 >, < ξ33 > Con riferimento alla soluzione a punto sso, il vettore h i < ξ13 >, < ξ12 ξ2 >, < ξ12 ξ3 >, < ξ12 ξ4 > < ξ1 ξ2 ξ3 >, < ξ1 ξ2 ξ4 >, < h X4 = X5 = h i . dei termini noti risulta: s1 s2 s4 s3 s5 s5 s1 s3 s2 s4 s5 s1 s4 s3 s2 s1 s2 s4 s3 s5 si con i = 1, ..., 5 sono i coecienti riportati a pg 62. scritta in forma estesa è data da: Inne la matrice V i . 0 0 0 0 0 0 2m3 0 0 0 0 0 0 0 0 0 m2 0 m3 m1 0 0 0 0 0 0 2m1 0 0 m1 m2 m2 m3 0 0 0 0 0 0 0 0 0 0 0 0 0 2m1 0 2m2 0 0 0 0 0 0 2m2 0 0 0 0 0 m1 m2 0 2m3 0 m3 m2 3m0 m1 2m2 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 m3 m1 0 0 2m1 0 0 0 m1 m2 0 0 0 0 0 m2 3m0 m1 m3 0 3m0 3m2 3m3 3m1 0 0 0 0 0 m1 0 2m2 0 0 0 0 0 m3 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 2m1 0 0 0 m1 m2 0 2m2 0 0 0 m2 m3 0 0 0 0 0 0 0 m2 m3 3m0 m1 m3 3m0 m1 m2 0 3m0 3m1 3m2 3m3 0 0 0 0 0 0 0 0 0 0 0 0 2m3 0 0 0 0 m2 0 m1 0 m3 0 2m3 m1 m2 m3 3m0 0 0 0 0 2m3 m3 m1 m2 3m0 0 2m2 2m3 0 0 0 0 0 0 2m2 0 0 0 2m1 m1 m3 3m0 m2 0 0 m2 m3 3m0 0 2m3 0 0 0 0 2m3 m2 m1 m3 3m0 2m1 0 2m2 0 0 0 0 0 2m1 2m2 m1 3m0 m2 m3 0 2m3 m3 0 0 0 0 m1 m2 0 0 0 0 0 0 3m0 3m3 3m1 3m2 0 0 0 m3 m3 3m0 0 m1 0 0 3m0 m1 0 2m1 m2 m3 m2 m3 3m0 0 0 0 m3 3m0 m1 2m1 0 0 2m1 0 3m0 m1 m2 2m2 2m3 3m0 3m1 3m2 3m3 m3 m2 m1 0 0 0 0 0 0 V = 0 0 0 0 0 0 0 0 0 0 0 2m3 2m2 m2 m1 0 0 0 0 m3 0 2m1 0 2m2 0 2m3 0 2m1 3m0 0 A.2 Forma esplicita del sistema dei momenti terzi 78 A.3 Calcolo della probabilità di estinzione 79 A.3 Calcolo della probabilità di estinzione In questa appendice discuteremo nel dettaglio i passaggi che hanno condotto alla scrittura della formula (3.31). La stima della probabilità di estinzione consiste nel calcolare l'integrale della distribuzione delle uttuazioni da con −∞ a √ −φ∗ N , φ∗ abbiamo indicato il punto sso della dinamica di campo medio. Z √ −φ∗ N −∞ Z Si ha quindi: 1 ξ2 p )dξ exp(− 2 < ξ2 > 2π < ξ 2 > √ −φ∗ N − −∞ dove h ξ3 i 1 <ξ > 2 2 1 √ exp(−ξ /4b ) 4 3ξ − 2 dξ. 4b 2b 2 πb2 3! 3 (A.37) Separiamo i due integrali. Il primo può essere semplicemente riscritto come √ p 1 erf[∞] − erf[φ∗ N / 2 < ξ 2 >] 2 dove abbiamo utilizzato la denizione della funzione errore: 2 erf(ξ) = √ π Poniamo Z √ −φ∗ N −∞ 3 > 1 C1 = − 12<ξ√πb 2 4b4 ξ Z exp(−t2 )dt. 0 e separiamo il secondo integrale in due contributi come: 1 h ξ3 i 1 < ξ3 > √ exp(−ξ 2 /4b2 ) 4 3ξ − 2 dξ 4b 2b 2 πb2 3! Z −φ∗ √N Z −φ∗ √N 1 1 ξ3 = C1 exp(−ξ 2 /4b2 ) 4 3ξ − C1 exp(−ξ 2 /4b2 ) 4 2 4b 4b 2b −∞ −∞ = I1 − I2 . Con facili passaggi si ottiene: ∗ −φ I1 = −6C1 b2 exp(−ξ 2 /4b2 )|−∞ √ N √ = −6C1 b2 exp(−(−φ∗ N )2 /4b2 ) −(−φ∗ √N )2 −(−φ∗ √N )2 i √ + 4b2 exp . I2 = C1 (−φ∗ N )2 exp 4b2 4b2 h Bibliograa [1] P. Baldi, Calcolo delle probabilità, Mc Graw-Hill, Milano, (2007). [2] T. Dauxois, F. Di Patti, D. Fanelli, A. J. McKane, Enhanced stochastic oscillations in autocatalytic reactions, Phys. Rev.E, 036112, 1-7, (2009). [3] F. Di Patti, D. Fanelli, Can a microscopic stochastic model explan the emergence of pain cycles in patients, [4] F. Di Patti, J. Stat. Mech. (1), P01004, 1-14, (2009). Finite-size eects in stochastic modells of population dynamics: Application to biomedicine and biology, Tesi di Dottorato in Dinamica non lineare e sistemi complessi, Università di Firenze, (2009). [5] M. Eigen, P. Schuster, The hypercycle. A principle organization. Part A: Emergence of the hypercycle, of natural self- Naturwissenschaften 64, 541-565, (1977). [6] C. W. Gardiner, Handbook of stochastic Methods, Third edition, Springer- Verlag, Berlin, (2004). [7] D. T. Gillespie, A general method for numerically simulating the stochastic time evolution of coupled chemical reactions, J. Comput. Phys. 22, 403-434, (1976). [8] D. T. Gillespie, Exact stochastic simulation of coupled chemical reactions, J. Chem. Phys. 81 (25), 2340-2361, (1977). [9] M.Gitterman, Mean rst passage time for anomalus diusion, Review E, 62 (5), 6065-6070, (2000). Physical BIBLIOGRAFIA 81 [10] A. J. McKane, T. J. Newman, Predator-Prey cycles from resonant amplication of demographic stochasticity, Phys. Rev. Lett. 94, 218102, 1-4, (2005). [11] A. J. McKane, T. J. Newman, Stochastic models in population biology and their deterministic analogs, [12] P.L. Luisi, [13] M.Ochi, Phys. Rev. E, 70, 041902, 1-19, (2004). The Emergence of Life, Cambridge University press (2006). Applied probability and stochastic process in engineering and physical sciences, John Wiley and sons, New York, (1990). [14] R.F.Pawula, Approximation of the linear Boltzman equation by the FokkerPlanck equation, [15] R.F.Pawula, Phys. Rev. 162 (1), 186-188 (1967). Generalizations Kolmogorov Equations, and Extensions of the Fokker-Planck- IEEE transactions on information theory, 13 (1), 33-41, (1967). [16] H.Risken, The Fokker-Planck Equation, Second edition, Springer-Verlag, Berlin Heidelberg New York, (1989). [17] H.Risken, H.D.Vollmer, On the application of truncated generalized FokkerPlanck Equations, [18] Y. Rubinstein, Zeitschrift für Physik B, 35, 313-315, (1979). Simulation and the Monte Carlo method, J.Wiley, New York, (1981). [19] Y. Togashi, K.Kaneko, Transition induced by the disceteness of molecules in a small autocatalytic system, [20] Y. Togashi, K.Kaneko, Phys. Rev. Lett. 86, 2459-2462, (2001). Alteration of chemical concentrations discreteness-induced transitions in a small autocatalytic system, Jpn., 72, 62-68, (2003). through J. Phys. Soc. BIBLIOGRAFIA [21] N.G. van Kampen, 82 Stochastic Processes in Physics and Chemistry, Elsevier, Amsterdam, (2007). Third edition. [22] N.G. van Kampen, The expansion of the master equation, mical Physics, 34, Advances in Che- Prigogine and Stuart A. Rice John Wiley and sons New York, 245-308, (1976). [23] N.G. van Kampen, A power series expansion of the master equation, Can.J.Phys., 39, 551-567, (1961). [24] N.G. van Kampen, The two expansion of the master equation, Physics Letters, 62A(6), 383-385, (1977). [25] E.Weinstein, H.Benaroya, The van Kampen expansion for the Fokker-Planck Equation of a dung oscillator, Computational Stochastic Mechanics, 99-117, (1993). [26] S. Zamuner, Descrizione stocastica delle reazioni auto-catalitiche, laurea triennale in sica, Università degli studi di Padova, (2009). Tesi di Ringraziamenti Vorrei ringraziare: primo fra tutti, Duccio che in questi mesi mi ha sopportata e aiutata, e con cui ho lavorato veramente bene; Francesca che mi ha dato suggerimenti molto utili e nel momento del bisogno una valida mano di aiuto; Luigi Barletti per la disponibilità e la collaborazione; Tommaso per le sue consulenze di sica; i miei colleghi di ucio e corridoio a Santa Marta, che hanno subito i miei isterismi, ma che si sono fatti due risate per la mia imbranataggine; in particolare devo ringraziare Franco e Graziano che sono stati spesso i miei tecnici di computer; Lorenzo che mi ha accompagnato e sostenuto no ad oggi; i miei genitori e mia sorella per aver sempre creduto nelle mie scelte e per non avermi mai fatto mancare il loro appoggio; Silvia, la mia splendida amica e compagna di studi, con cui posso dire di aver condiviso molte esperienze; Inne, ma non per questo meno importanti, tutti i mitici compagni dell'Udinì.