Dinamica stocastica ed e etti di taglia nita in uno schema di

Transcript

Dinamica stocastica ed e etti di taglia nita in uno schema di
UNIVERSITÀ DEGLI STUDI DI FIRENZE
Facoltà di Scienze Matematiche, Fisiche e Naturali
Corso di Laurea Specialistica in Matematica
Tesi di Laurea Specialistica in Matematica
Dinamica stocastica ed eetti di taglia
nita in uno schema di reazioni
autocatalitiche
Relatore:
Correlatore:
Prof. Duccio Fanelli
Dott. Luigi Barletti
Candidata:
Claudia Cianci
Anno Accademico 2008/2009
Ai miei genitori, per avermi sempre
appoggiata nelle mie scelte.
Indice
Introduzione
4
1 Derivazione matematica dell'equazione di Fokker-Planck
7
1.1
1.2
Derivazione dell'equazione di Fokker-Planck
. . . . . . . . . . . . .
7
1.1.1
Equazione di Chapman-Kolmogorov . . . . . . . . . . . . . .
7
1.1.2
Equazione maestra
9
1.1.3
Equazione di Fokker-Planck
1.1.4
Casi particolari
. . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . .
12
. . . . . . . . . . . . . . . . . . . . . . . . .
14
Simulazioni stocastiche . . . . . . . . . . . . . . . . . . . . . . . . .
16
1.2.1
La formalizzazione matematica dell'algoritmo
. . . . . . . .
17
1.2.2
I passi dell'algoritmo di Gillespie
. . . . . . . . . . . . . . .
19
2 Un modello stocastico di reazioni autocatalitiche
2.1
23
Denizione del modello . . . . . . . . . . . . . . . . . . . . . . . . .
24
2.1.1
25
Le probabilità di transizione . . . . . . . . . . . . . . . . . .
2.2
Simulazioni numeriche
. . . . . . . . . . . . . . . . . . . . . . . . .
2.3
Lo sviluppo di van Kampen
26
. . . . . . . . . . . . . . . . . . . . . .
28
L' equazione maestra . . . . . . . . . . . . . . . . . . . . . .
30
2.4
Le uttuazioni e gli spettri di potenza . . . . . . . . . . . . . . . . .
37
2.5
Calcolo dei momenti primi e secondi e del loro punto sso . . . . . .
39
2.3.1
3 L'equazione di Fokker-Planck generalizzata
3.1
Derivazione dell'equazione di Fokker-Planck generalizzata . . . . . .
47
48
INDICE
3.2
3
Calcolo dei momenti
. . . . . . . . . . . . . . . . . . . . . . . . . .
55
3.2.1
I momenti di ordine tre all'equilibrio
. . . . . . . . . . . . .
62
3.2.2
Momenti terzi: confronto fra teoria e simulazioni . . . . . . .
63
Π(ξ)
3.3
La distribuzione teorica
3.4
Probabilità di estinzione
delle uttuazioni . . . . . . . . . . . .
65
. . . . . . . . . . . . . . . . . . . . . . . .
71
Conclusioni
73
Appendice
75
A.1
Sviluppo di van Kampen . . . . . . . . . . . . . . . . . . . . . . . .
75
A.2
Forma esplicita del sistema dei momenti terzi
. . . . . . . . . . . .
77
A.3
Calcolo della probabilità di estinzione . . . . . . . . . . . . . . . . .
79
Ringraziamenti
83
Introduzione
Le cellule sono le più piccole unità strutturali classicate come entità viventi. Negli
organismi pluricellulari, le cellule si dierenziano morfologicamente risultando in
classi distinte che, per aggregazione gerarchica, portano alla formazione di tessuti
ed organi. Le cellule sono composte da una membrana esterna semipermeabile che
ne delimita la supercie, assolvendo una duplice funzione. Da una parte la membrana rappresenta un chiaro elemento di protezione isolando il volume cellulare
dall'ambiente esterno. Dall'altra ltra l'accesso dei nutrimenti molecolari, successivamente metabolizzati e trasformati in energia spendibile per il sostentamento della
cellula. È ragionevole supporre che le cellule odierne siano il risultato di un lungo
processo evolutivo: la selezione adattiva ha certamente portato alla denizione dei
meccanismi molecolari che sottendono al funzionamento delle speciche dinamiche
cellulari attualmente in essere. Si ipotizza in particolare che siano esistite agli albori della vita unità cellulari semplicate, le
protocellule o cellule minimali, composte
da replicatori, reagenti chimici primordiali ospitati all'interno di un contenitore lipidico, capace di dividersi per ssione meccanica. I numerosi tentativi di ricreare
in laboratorio tali strutture minimali sono accompagnati da studi che propongono
diversi modelli interpretativi [12].
Nello scenario più accreditato si postula l'esistenza di un principio di cooperazione fra molecole costituenti, secondo il quale una catalizza la formazione dell'altra, dando vita ad un ciclo chiuso di reazioni. Il suddetto schema di
autocatalitiche,
reazioni
è robusto e capace di autosostenersi contrastando possibili derive
evoluzionistiche che potrebbero compromettere la trasmissione dell'informazione
Introduzione
5
genetica alla progenie cellulare [5]. In questo contesto e con specico riferimento
alle tematiche di ricerca sull'origine della vita, è importante studiare la dinamica
molecolare di un complesso di reagenti organizzati in un ciclo autocatalitico.
Dal punto di vista teorico ci interesseremo allo studio della dinamica delle popolazioni dei reagenti coinvolti, dove con popolazione si intende indicare un insieme
omogeneo di costituenti molecolari. L'approccio deterministico consiste nel considerare le relative concentrazioni come variabili continue che dipendono esplicitamente
dal tempo e la cui dinamica è controllata da un sistema di equazioni dierenziali
accoppiate. Tali equazioni possono contemplare la presenza di molteplici meccanismi di interazione fondamentale quali eetti di competizione e cooperazione. Si
tratta tuttavia di una approssimazione ideale che prescinde dalla dinamica di singolo individuo, per privilegiare una visione globale d'insieme. Le popolazioni sono
di fatto supposte innite, ipotesi di lavoro che non permette di cogliere aspetti
cruciali riconducibili alla discretezza del mezzo molecolare.
In alternativa all'approccio deterministico, si può procedere con la modellizzazione stocastica, recuperando il livello descrittivo del singolo individuo. Il sistema
è considerato composto da un numero nito di costituenti, le cui interazioni microscopiche sono codicate a mezzo di reazioni chimiche, aventi un determinato
tasso di successo. L'incontro fra i reagenti è casuale, e la probabilità di incontro
dipende dalle relative concentrazioni. L'evoluzione delle grandezze globali quali la
concentrazione d'insieme si ricostruisce a posteriori a partire dalla dinamica di ogni
singola unità. Nel limite di taglia innita si recupera la descrizione deterministica
o di campo medio come comunemente indicata. Gli eetti di taglia nita possono
inuenzare la dinamica macroscopica del sistema. Sotto particolari condizioni, il
rumore demograco interno al sistema può determinare l'insorgenza di dinamiche
spazio-temporali regolari, denunciando un grado di organizzazione collettiva altrimenti assente nel contesto della formulazione deterministica.
Questi eetti sono
stati osservati analiticamente e numericamente in modelli di tipo predatore-preda
[10, 11] e in altri schemi di interazione che trovano giusticazione per applicazioni in
campo biomedico [3] . Più recentemente si sono rilevate dinamiche auto-organizzate
Introduzione
6
anche in presenza di reazioni autocatalitiche [2]. Una procedura analitica che consente di costruire un ponte ideale tra i due livelli descrittivi, sopra ricordati è il
cosiddetto
sviluppo di van Kampen.
Si tratta di uno sviluppo perturbativo rispetto
alla taglia del sistema che permette di caratterizzare analiticamente le correzioni
stocastiche alla dinamica ideale di campo medio.
In questo lavoro di tesi ci interesseremo alla dinamica stocastica di un sistema esteso di reazioni autocatalitiche. Studieremo in particolare il comportamento
analitico del sistema, indagando la statistica delle uttuazioni che si originano per
eetto della taglia nita.
Lavorando nel contesto del già citato sviluppo di van
Kampen, riusciremo a caratterizzare i tratti di non gaussianità validando a posteriori l'adabilità del metodo, oltre l'ordine di approssimazione comunemente
impiegato in letteratura.
Il lavoro di tesi è articolato in tre capitoli.
Nel primo
capitolo introdurremo l'equazione di Fokker-Planck, strumento di analisi ricorrente nella modellizzazione dei processi stocastici. Discuteremo inoltre l'algoritmo di
Gillespie, la procedura di calcolo adottata nello studio della dinamica delle reazioni
chimiche. Nel secondo capitolo illustreremo il modello di reazioni autocatalitiche
oggetto di analisi, rivisitando i risultati del lavoro [2].
Elaborando ulteriormen-
te le informazioni che derivano dall'applicazione sistematica dello sviluppo di van
Kampen, daremo conto della sincronizzazione delle uttuazioni fra popolazioni distinte così come rivelata in sede di analisi numerica (paragrafo 2.5). Si osserverà
poi come la riduzione drastica della taglia del sistema modichi signicativamente la distribuzione delle uttuazioni attorno al punto di equilibrio, inducendo una
evidente asimmetria della stessa. Nel terzo capitolo, nel tentativo di spiegare tale
asimmetria a livello analitico, si procederà ad estendere l'ordine dello sviluppo perturbativo rispetto al caso precedente. Otterremo così l'equazione di Fokker-Planck
generalizzata che governa la dinamica delle uttuazioni e coinvolge esplicitamente
la taglia nita del sistema (paragrafo 3.1). Calcoleremo poi i momenti di ordine tre,
informazione che sfrutteremo per ricostruire il prolo della distribuzione. Lo studio sarà completato operando un confronto tra teoria e simulazioni. A conclusione
saranno esposte possibili prospettive di ricerca.
Capitolo 1
Derivazione matematica
dell'equazione di Fokker-Planck
In questo capitolo introdurremo la matematica dei processi stocastici, derivando in
particolare l'equazione di Fokker-Planck su base formale. Evidenzieremo le ipotesi
che sottendono alla validità della stessa, classicando i processi di riferimento e
denendo la cornice matematica nella quale si colloca il lavoro di tesi.
Come
avremo modo di discutere, lo studio dell'equazione maestra che governa la dinamica
del sistema stocastico in esame richiede l'utilizzo di ranate tecniche d'indagine
numerica; fra queste, l'algoritmo di Gillespie che illustreremo in dettaglio nella
seconda parte del capitolo fornendone una giusticazione rigorosa.
1.1 Derivazione dell'equazione di Fokker-Planck
1.1.1
Equazione di Chapman-Kolmogorov
L'intento di questo paragrafo è quello di fornire una derivazione dell' equazione di Fokker-Planck unidimensionale, partendo da nozioni basilari di probabilità.
Le tappe principali consistono nel ricavare l'equazione di Chapman-Kolmogorov
a partire dalla denizione di processo stocastico markoviano, e quindi derivare
l'equazione maestra che ne governa la dinamica. Si opera inne un'approssimazio-
1.1 Derivazione dell'equazione di Fokker-Planck
8
ne che conduce all'equazione di Fokker-Planck. Proponiamo nel seguito le prime
denizioni:
Denizione 1.
torie (v.a.)
Si chiama
processo stocastico X(t)
una famiglia di variabili alea-
denite su uno stesso spazio di probabilità, dove
t ∈ T ⊂ R+
è il
tempo.
Denizione 2.
Presi
t1 ≤ t2 ≤ t3 ... ≤ tn
consideriamo la densità di probabilità
condizionata
fX {x(tn )|x(tn−1 ), x(tn−2 ), ...},
ovvero la densità di probabilità che il processo assuma il valore
dato che ha già assunto i valori
Il processo
X(t)
si denisce
x(tn )
al tempo
tn ,
x(tn−1 ), x(tn−2 )... .
di Markov
se soddisfa la seguente uguaglianza:
fX {x(tn )|x(tn−1 ), ..., x(t1 )} = fX {x(tn )|x(tn−1 )}.
(1.1)
Si tratta di un processo senza memoria, dove lo stato corrente determina quello
immediatamente successivo.
Dall'unica ipotesi di processo markoviano è possi-
bile ricavare l'equazione di Chapman-Kolmogorov, come chiariremo nel seguito.
Sfruttando la denizione di probabilità condizionata si ottiene:
f (x(t3 )|x(t2 ), x(t1 )) =
f (x(t3 ), x(t2 ), x(t1 ))
f (x(t2 ), x(t1 ))
dove per semplicare la notazione abbiamo omesso il pedice
X.
(1.2)
Ipotizzando che il
processo sia markoviano possiamo riscrivere la (1.2) come segue:
f (x(t3 )|x(t2 )) =
f (x(t3 ), x(t2 ), x(t1 ))
f (x(t2 ), x(t1 ))
(1.3)
avendo di fatto sfruttato la (1.1). Moltiplicando entrambi i membri della (1.3) per
f (x(t2 )|x(t1 ))
si ottiene:
f (x(t3 )|x(t2 ), x(t1 ))f (x(t2 )|x(t1 )) = f (x(t3 )|x(t2 ))f (x(t2 )|x(t1 )).
(1.4)
Dalla precedente equazione, ricordando la denizione di probabilità condizionata,
si ricava:
1.1 Derivazione dell'equazione di Fokker-Planck
9
f (x(t3 ), x(t2 ), x(t1 )) f (x(t2 ), x(t1 ))
= f (x(t2 )|x(t1 ))f (x(t3 )|x(t2 ))
f (x(t2 ), x(t1 ))
f (x(t1 ))
(1.5)
da cui segue:
f (x(t3 ), x(t2 ), x(t1 ))
= f (x(t2 )|x(t1 ))f (x(t3 )|x(t2 ))
f (x(t1 ))
(1.6)
quindi, in virtù della denizione di probabilità condizionata, si ottiene:
f (x(t3 )x(t2 )|x(t1 )) = f (x(t2 )|x(t1 ))f (x(t3 )|x(t2 )).
(1.7)
x(t2 ), su tutto R si ricava:
Z ∞
f (x(t3 )|x(t2 ))f (x(t2 )|x(t1 ))dx(t2 )
f (x(t3 ), x(t2 )|x(t1 ))dx(t2 ) =
(1.8)
Integrando poi l'equazione (1.7) in
Z
∞
−∞
−∞
da cui:
Z
∞
f (x(t3 )|x(t2 ))f (x(t2 )|x(t1 ))dx(t2 ).
f (x(t3 )|x(t1 )) =
(1.9)
−∞
Abbiamo così concluso il primo passo della derivazione ottenendo l'equazione di
Chapman-Kolmogorov.
Tale equazione permette di caratterizzare la probabilità di
evolvere verso lo stato nale
x(t3 )
partendo dalla condizione iniziale
x(t1 ).
Come
risulta chiaro dall'analisi della (1.9) il processo si compone di due passaggi successivi
e indipendenti:
passaggio
x(t2 ) → x(t3 ).
intermedie
1.1.2
in prima istanza la transizione
x(t1 ) → x(t2 ),
seguita poi dal
L'integrale dà conto di fatto di tutte le possibili tappe
x(t2 ).
Equazione maestra
Vogliamo ora mostrare come la precedente condizione si traduca in un'equazione
cosiddetta maestra per la probabilità di osservare il sistema in una data congurazione. Riportiamo prima alcune utili denizioni.
Denizione 3. X(t) è un processo stocastico stazionario se la sua statistica, ovvero
tutti i suoi momenti, non cambiano operando una traslazione dell'origine dei tempi.
1.1 Derivazione dell'equazione di Fokker-Planck
10
La funzione densità di transizione di un processo stazionario
dallo stato
xi = x(ti )
τ = tj − ti ,
si indica con:
verso lo stato
xj = x(tj )
X(t)
che muove
nale, in un intervallo di tempo
Tτ (xj |xi ) = f {x(tj )|x(ti )}
(1.10)
e quantica la probabilità che il sistema operi la suddetta transizione
xi → xj ,
nell'intervallo considerato.
Denizione 4.
La funzione probabilità di transizione per unità di tempo è data
da:
W (xj |xi ) =


 lim Tτ (xj |xi )/τ
τ →0
se xj 6= xi

0 altrimenti.
Torniamo ad occuparci della transizione
cedenza. Introduciamo
a0 (x1 ),
x(t1 ) → x(t3 ),
la probabilità che
x2 6= x1 ,
già considerata in predove
x2
è un generico
x1 . In formule:
Z
a0 (x1 ) = W (x2 |x1 )dx2 .
stato compatibile con lo stato iniziale
Possiamo quindi scrivere
Tτ (x2 |x1 ) = (1 − τ a0 (x1 ))δ(x2 − x1 ) + τ W (x2 |x1 ) + O(τ 2 ),
(1.11)
dove abbiamo operato uno sviluppo in serie. Il primo termine dell'equazione (1.11)
rappresenta la probabilità che il sistema non cambi stato nell'intervallo di tempo
considerato. Il secondo termine a destra dell'uguaglianza descrive invece la probabilità di evolvere verso uno stato dierente da quello iniziale. Riscrivendo la (1.9)
per
Tτ +τ 0 (x3 |x1 ), dove con τ
e con
τ0
si indica il tempo necessario per la transizione uno-due
quello relativo al passaggio due-tre, si ricava:
Z
Tτ +τ 0 (x3 |x1 ) =
Tτ (x2 |x1 )Tτ 0 (x2 |x3 )dx2
(1.12)
da cui, esplicitando il secondo fattore a mezzo della relazione (1.11) e trascurando
i termini di ordine superiore, si ottiene:
Z
Tτ +τ 0 (x3 |x1 ) =
[(1 − τ 0 a0 (x2 ))(δ(x3 − x2 )) + τ 0 W (x3 |x2 )]Tτ (x2 |x1 )dx2 .
(1.13)
1.1 Derivazione dell'equazione di Fokker-Planck
11
Integrando il primo termine a destra dell'equazione (1.13) si ha:
0
Tτ +τ 0 (x3 |x1 ) = (1 − τ a0 (x3 ))Tτ (x3 |x1 ) + τ
Dall'equazione (1.14), dividendo per
τ 0,
0
Z
W (x3 |x2 )Tτ (x2 |x1 )dx2 .
calcolando il limite per
τ0 → 0
(1.14)
e usando la
denizione di derivata, si ricava:
∂
Tτ (x3 |x1 ) = −a0 (x3 )Tτ (x3 |x1 ) +
∂τ
Ricordando la denizione di
∂
Tτ (x3 |x1 ) =
∂τ
a0 (x3 ),
Z
W (x3 |x2 )Tτ (x2 |x1 )dx2 .
(1.15)
l'equazione precedente assume la forma:
Z
Z
W (x3 |x2 )Tτ (x2 |x1 )dx2 −
W (x2 |x3 )Tτ (x3 |x1 )dx2 .
(1.16)
Si ottiene quindi un'equazione integro-dierenziale che descrive la variazione nel
tempo della probabilità di transizione.
Ricordando l' equazione (1.10), in cui si
è esplicitata la dipendenza dal tempo della probabilità condizionata e prendendo
x1
come il dato iniziale, possiamo riscrivere l'equazione maestra nella forma più
ricorrente in letteratura:
∂
P (x, t) =
∂t
dove
Z
{W (x|x0 )P (x0 , t) − W (x0 |x)P (x, t)}dx0
(1.17)
P (x, t) rappresenta la probabilità che il sistema si trovi nello stato nale x = x3
al tempo
t = t3 , data la condizione iniziale (per i dettagli si veda [25]).
L'equazione
descrive l'evoluzione temporale della distribuzione di probabilità attraverso due
diversi contributi.
Il primo integrando si riferisce alla probabilità che il sistema
evolva da uno stato
x0
verso uno stato compatibile
x, mentre il secondo rappresenta
la probabilità che il sistema si allontani dallo stesso stato.
Poichè l'equazione maestra è stata ricavata a partire dall'equazione (1.9) senza
utilizzare ulteriori informazioni sul processo in esame, possiamo concludere che le
due equazioni sono formalmente equivalenti [6]:
il vantaggio della formulazione
(1.17) risiede nella linearità rispetto al tempo. Si tratta tuttavia di un' equazione
integro-dierenziale, di dicile soluzione diretta.
Si è perciò soliti operare uno
sviluppo perturbativo trasformando l' operatore integrale in uno dierenziale, con
evidenti vantaggi risolutivi.
Se consideriamo un processo stocastico che assume
1.1 Derivazione dell'equazione di Fokker-Planck
12
valori discreti, pur essendo continuo nel tempo e markoviano, l'integrale diventa
una somma, e l'equazione (1.17) prende la forma:
X
d
Pn (t) =
{Wn,n0 Pn0 (t) − Wn0 ,n Pn (t)}
dt
n0
dove
Pn (t)
tempo
1.1.3
(1.18)
indica la probabilità che il sistema si trovi in un determinato stato
n
al
t.
Equazione di Fokker-Planck
A partire dall'equazione (1.17) è possibile, sotto particolari ipotesi, operare uno
sviluppo che condurrà all'equazione di Fokker-Planck. A tale derivazione è dedicato
il seguente paragrafo.
Considerando l'equazione (1.17) ed assumendo che il salto
stato
x
sia piccolo, cioè dell'ordine di
= ∆x/x,
∆x dallo stato x0
allo
possiamo riscrivere la probabilità
di transizione come
W (x|x0 ) = W
∆x 0
x .
Assumiamo inoltre che
∆x n ∆x o
W (x|x0 ) = f () Φ0 x0 ,
+ Φ1 x0 ,
+ ... .
dove abbiamo reso esplicita la dipendenza in
denizione della
W.
Si suppone che le funzioni
Φi
(1.19)
contenuta intrinsecamente nella
siano piccole quando il salto
∆x
è grande. Ciò signica ipotizzare che tali salti siano relativamente improbabili.
Inserendo nell'equazione (1.17) la (1.19) si ricava:
∂
P (x, t) =
∂t
n x − x0 x − x0 o
f () Φ0 x0 ,
+ Φ1 x0 ,
+ ... P (x0 , t)dx0
Z
n x0 − x x0 − x o
− f () Φ0 x,
+ Φ1 x,
+ ... P (x, t)dx0
Z
e, operando un cambio di variabile da
∂
P (x, t) =
∂t
x0
a
y=
(1.20)
x−x0
Z
f (){Φ0 (x − y, y) + Φ1 (x − y, y) + ...}P (x − y, t)dy
Z
− f (){Φ0 (x, −y) + Φ1 (x, −y) + ...}P (x, t)dy.
(1.21)
1.1 Derivazione dell'equazione di Fokker-Planck
È poi possibile sviluppare la funzione
P (x − y, t)
P (x − y, t) = P (x, t) − y
13
in serie di Taylor intorno ad
∂
P (x, t)... .
∂x
x:
(1.22)
Inserendo tale sviluppo nell'equazione (1.21) e eseguendo le semplicazioni all'ordine considerato, si ottiene:
Z
∂
∂
2
P (x, t) = − f () P (x, t) y{Φ0 (x, y) + Φ1 (x, y) + ...}dy
∂t
∂x
Z
3
∂2
+ f () 2 P (x, t) y 2 {Φ0 (x, y)Φ1 (x, y) + ...}dy.
2!
∂x
Riscalando il tempo,
(1.23)
τ = 2 f ()t, e denendo
Z
A(x) = y{Φ0 (x, y) + Φ1 (x, y) + ...}dy
1
B(x) =
2!
Z
y 2 {Φ0 (x, y) + Φ1 (x, y) + ...}dy
si ottiene in conclusione:
∂
1 ∂2
∂
P (x, τ ) = − A(x)P (x, τ ) +
B(x)P (x, τ ).
∂τ
∂x
2! ∂x2
(1.24)
È questa l'equazione di Fokker-Planck nella versione più usuale. L'equazione governa l'evoluzione della funzione
stato
x
al tempo
τ.
P (x, τ ), la probabilità di osservare il sistema nello
L'equazione riveste un ruolo di primaria importanza nella
teoria dei processi stocastici. Fisicamente descrive un fenomeno di diusione e per
questo motivo
B(x)
A(x)
è noto come coeciente di trasporto, mentre il coeciente
prende il nome di coeciente di diusione. Inoltre i coecienti
A(x)
e
B(x)
possono essere scritti come:
1
E[∆x|x]
∆t→0 ∆t
A(x) = lim
1
E[(∆x)2 |x]
∆t→0 ∆t
B(x) = lim
dove
∆x = x − x0
e
∆τ = τ − τ 0
e con
E[∆x|x]
condizionato. Per ulteriori dettagli si rimanda a [1].
si è indicato il valore atteso
1.1 Derivazione dell'equazione di Fokker-Planck
L' equazione di Fokker-Planck in dimensione
14
d, ricavabile con analoghi passaggi,
prende la forma:
d
d
X
∂
∂
1 X ∂2
P (x, τ ) = −
Ai (x)P (x, τ ) +
Bi,j (x)P (x, τ )
∂τ
∂x
2!
∂x
∂x
i
i
j
i=1
i,j=1
in cui abbiamo indicato con
(1.25)
x = (x1 , ..., xd ) il vettore delle variabili aleatorie,
1
E[∆xi |x]
∆t→0 ∆t
1
Bi,j (x) = lim
E[(∆xi )(∆xj )|x].
∆t→0 ∆t
Ai (x) = lim
Il coeciente
A(x)
è un vettore, mentre
B(x)
(1.26)
è una matrice simmetrica e semide-
nita positiva.
Come vedremo, l'equazione di Fokker-Planck interverrà nel secondo capitolo
come risultato centrale nella caratterizzazione delle uttuazioni stocastiche indotte
da fenomeni di taglia nita nel modello preso in esame. Per completezza e per fornire un quadro esaustivo abbiamo deciso di anticiparne la derivazione nel contesto
di riferimento più usuale.
1.1.4
Casi particolari
Andremo ora ad esaminare alcuni casi semplicati dell'equazione di Fokker-Planck,
per opportune scelte dei coecienti, per i quali è possibile ottenere una soluzione
analitica in forma chiusa.
Processi di Wiener
Un processo di Wiener è un processo associato a un'equazione di Fokker-Planck
dove il coeciente di trasporto è nullo ed il coeciente di diusione risulta costante,
B(x) = D.
L'equazione assume la seguente forma:
∂P
∂2
= D 2P
∂τ
∂x
che è nota come equazione del calore o della diusione. Tale equazione, soggetta
alla condizione iniziale
P (x, τ0 ) = P (x, τ0 |x0 , τ 0 ) = δ(x − x0 ), ammette soluzione per
1.1 Derivazione dell'equazione di Fokker-Planck
τ > τ0
15
nella forma:
1
P (x, τ |x0 , τ 0 ) = p
4πD(τ − τ 0 )
(x − x0 )2 exp −
4D(τ − τ 0 )
(1.27)
nota anche come soluzione fondamentale.
Processi di Ornstein-Uhlenbeck
A(x)
Si parla di processo di Ornstein-Uhlenbeck quando il coeciente
B(x) = D
è lineare e
costante.
L'equazione assume la seguente forma:
∂
∂2
∂P
= γ (xP ) + D 2 P
∂τ
∂x
∂x
la cui soluzione risulta essere:
√
γ
p
P (x, τ |x , τ ) =
4πD(1 − e−2γ(τ −τ 0 ) )
0
Nel limite
0
γ → 0
0
γ(x − e−γ(τ −τ ) x0 )2 .
exp −
2D(1 − e−2γ(τ −τ 0 ) )
(1.28)
si ottiene la (1.27), come richiesto sulla base di un ovvio
argomento di consistenza. La soluzione stazionaria, valida per
dalla precedente operando il limite per
τ → ∞.
γ > 0,
è ottenuta
Considerando il tempo iniziale
τ0
identicamente uguale a zero si ottiene:
√
γx2 γ
Pst (x) = √
exp −
.
2D
2 πD
Nel caso dell'equazione di Fokker-Planck multidimensionale (1.25), la soluzione
risulta essere una gaussiana multivariata [6, 1].
Tornando all'equazione (1.23), includendo un ulteriore termine nello sviluppo
perturbativo (1.22), otterremo un' equazione di Fokker-Planck generalizzata, che
coinvolge le derivate terze, e la cui soluzione darà conto del comportamento non
gaussiano della distribuzione di probabilità
P (x, τ ).
Si ha in particolare:
∂
∂
1 ∂2
1 ∂3
P (x, τ ) = − A(x)P (x, τ ) +
B(x)P
(x,
τ
)
+
C(x)P (x, τ )
∂τ
∂x
2! ∂x2
3! ∂x3
(1.29)
1.2 Simulazioni stocastiche
16
dove
1
E[∆x|x]
∆t→0 ∆t
1
B(x) = lim
E[(∆x)2 |x]
∆t→0 ∆t
1
E[(∆x)3 |x].
C(x) = lim
∆t→0 ∆t
A(x) = lim
Nella forma in dimensione
d
si ottiene:
X ∂
∂
1 X ∂2
P (x, τ ) = −
Ai (x)P (x, τ ) +
Bi,j (x)P (x, τ )
∂τ
∂xi
2! i,j ∂xi ∂xj
i
+
X
i,j,k
∂3
Ci,j,k (x)P (x, τ )
∂xi ∂xj ∂xk
(1.30)
dove
1
E[∆xi |x]
∆t→0 ∆t
1
Bi,j (x) = lim
E[(∆xi )(∆xj )|x]
∆t→0 ∆t
1
E[(∆xi )(∆xj )(∆xk )|x].
Ci,j,k (x) = lim
∆t→0 ∆t
Ai (x) = lim
(1.31)
Abbiamo così completato il quadro introduttivo della teoria dei processi stocastici a cui faremo riferimento nel seguito. Come già ricordato, l'equazione maestra
risulta di dicile soluzione e quindi si ricorre in molti casi ad uno studio numerico della stessa, al ne di caratterizzare l'evoluzione del sistema.
Concludiamo
per questo motivo il capitolo descrivendo l'algoritmo di Gillespie, la procedura di
calcolo numerico comunemente utilizzata.
1.2 Simulazioni stocastiche
In questo paragrafo illustriamo l'algoritmo di Gillespie, spesso utilizzato nello studio
numerico di sistemi stocastici. Come vedremo nel dettaglio, tale tecnica permette
di generare serie temporali, le cui funzioni di densità di probabilità siano soluzioni
esatte dell'equazione maestra [7, 8].
1.2 Simulazioni stocastiche
1.2.1
17
La formalizzazione matematica dell'algoritmo
Prendiamo in esame il caso in cui il sistema studiato sia una miscela composta da
k
specie chimiche dierenti. Indichiamo con
i
presenti all'interno della miscela.
Xi
il numero di molecole della specie
Indichiamo con
V
il volume del composto.
Supponiamo che le varie specie possano reagire tra loro generando dei prodotti di
reazione. Le reazioni possono avvenire attraverso
con
Rµ
µ = 1...M ,
M
canali distinti, che indicheremo
dove ciascun canale individua un'unica reazione chimica.
I
canali possono rappresentare reazioni bidirezionali: in tal caso a ciascun verso della
reazione corrisponde un unico canale. Nel nostro caso per semplicità si suppone che
le reazioni chimiche siano unidirezionali, cioè non invertibili: nel caso di invertibilità
si rappresentano le due direzioni della reazione tramite canali dierenti. È inoltre
contemplata l'ipotesi che non tutte le specie reagiscano tra loro. Si indica con
cµ
la costante di reazione che d'ora in poi identicherà la reazione stessa. L'ipotesi
fondamentale è che il tempo di durata della singola reazione chimica sia molto
più breve del tempo che intercorre tra due reazioni consecutive: ciò permette di
aermare che le reazioni avvengono una alla volta. Deniamo prima alcune quantità
che verranno utilizzate in seguito.
Denizione 5.
Si indica con
cµ δt
la frequenza media di reazione, cioè il numero
medio di reazioni che avvengono nell'intervallo
δt.
Si suppone che tali intervalli di tempo siano piccoli. È quindi possibile considerare il numero medio di reazioni lineare rispetto al tempo.
Denizione 6.
Indichiamo con
hµ
il numero di possibili e dierenti combinazioni
di reagenti per cui avviene la reazione
Denizione 7.
Rµ
Indichiamo con
nell' intervallo di tempo
Rµ .
P (τ, µ)dτ
la probabilità che avvenga la reazione
(t + τ, t + τ + dτ ).
Alla luce delle denizioni date in precedenza possiamo aermare che
P (τ, µ)dτ = P0 (τ )hµ cµ δτ
(1.32)
1.2 Simulazioni stocastiche
dove
18
P0 (τ ) è la probabilità che nell'intervallo di tempo (t, t+τ ) non avvenga alcuna
hµ cµ δτ
reazione chimica e
rappresenta la probabilità che
Rµ
avvenga in
V,
nel
successivo intervallo temporale.
Per stimare
ghezza
=
P0 (τ )
τ
.
K
dividiamo il suddetto intervallo in
K
sottointervalli di lun-
(t, t + )
La probabilità che nell'intervallo
non avvenga alcuna
reazione chimica è quindi data da:
M
Y
M
X
(1 − hµ cµ + o()) = 1 −
µ=1
hµ cµ + o().
µ=1
Tale espressione dipende esplicitamente solo da
ed è indipendente da t:
bilità stimata risulta pertanto uguale in tutti i
K
la proba-
intervalli considerati.
M
M
iK h
h
iK
X
X
τ
hµ cµ + o() = 1 −
hµ cµ + o(K −1 ) .
P0 (τ ) = 1 −
K
µ=1
µ=1
In conclusione
PM
−1
h
)K iK
µ=1 hµ cµ τ + o(K
P0 (τ ) = 1 −
K
da cui operando il limite
K→∞
e sfruttando il limite notevole
ex = lim
n→∞
1+
x n
n
si ottiene:
P0 (τ ) = e−
PM
µ=1
hµ cµ τ
.
(1.33)
Inserendo quest'ultima relazione nell'equazione (1.32) risulta:
P (τ, µ) = hµ cµ e−
dove
0≤τ ≤∞
e
PM
ν=1
hν cν τ
1 ≤ µ ≤ M.
La condizione di normalizzazione della probabilità è la seguente:
Z
∞
dτ
0
M
X
µ=1
P (τ, µ) =
M
X
µ=1
Z
hµ cµ
∞
dτ
e−
PM
ν=1
hν cν τ
= 1.
0
Si ottiene quindi la probabilità che il sistema evolva nell'intervallo
la reazione
Rµ .
(t, t + τ ) tramite
Si osserva inoltre che la stessa probabilità dipende anche dal numero
1.2 Simulazioni stocastiche
19
di molecole che popolano il volume
V
(informazione contenuta nel coeciente
Un sistema così costruito è di fatto controllato interamente dagli indici
τ
e
µ.
hµ ).
Co-
noscendo i due parametri, si determina in senso probabilistico la reazione che guida
l'evoluzione e l'istante temporale in cui essa avviene. Queste considerazioni costituiscono un ideale punto di partenza per la formulazione ricorsiva dell'algoritmo di
Gillespie.
1.2.2
I passi dell'algoritmo di Gillespie
L'algoritmo di Gillespie è una procedura di simulazione di tipo Monte Carlo [18].
Supponiamo che il sistema si trovi nello stato noto
X = (X1 , X2 , ..., Xk )
t. Dobbiamo quindi selezionare la reazione chimica
Rµ
al tempo
che avverrà, in accordo con
quanto ricordato in precedenza, nel successivo intervallo temporale
τ.
L'algoritmo
procede con l' estrazione di due numeri casuali, in base ai quali calcolare
τ
e
µ,
e
si compone dei seguenti passi che vengono iterati:
1. (inizializzazione dei parametri) Si imponga
di reazione
cµ
t = 0.
Si impostino le costanti
e il numero iniziale di molecole delle specie chimiche
calcolino i valori
aν = hν cν
con
ν = 1, ..., M
da cui è possibile stimare
2. Si generino tramite un metodo Monte Carlo due valori per
con
P1 (τ )
e
P2 (τ |µ)
µ
P (τ, µ).
in accordo
Rµ .
3. Per mezzo dei nuovi parametri si aggiorni il tempo (t
Xi
e
Si
denite nel seguito, scegliendo così l'intervallo di tempo
che intercorre prima che avvenga la reazione
molecole
τ
Xi .
= t + τ)
e il numero di
coinvolte nella reazione chimica precedentemente selezionata.
4. Se la variabile tempo supera il tempo di stop o se tutte le molecole delle
specie chimiche coinvolte nelle
M
reazioni sono estinte, si interrompa il ciclo
e si riprenda dal passo 2.
Vogliamo descrivere nel dettaglio la tecnica usata per calcolare le due quantità
τ
e
µ
. In generale è possibile scrivere:
P (τ, µ) = P1 (τ )P2 (µ|τ )
(1.34)
1.2 Simulazioni stocastiche
dove
P1 (τ )
20
misura la probabilità che, a partire dall'istante t, la reazione successiva
avvenga dopo un tempo
indicata dall'indice
µ.
τ . P2 (τ |µ)
è la probabilità che tale reazione sia quella
È quindi possibile scrivere:
M
X
P1 (τ ) =
P (τ, µ).
µ=1
Si può poi ricavare da (1.34) una relazione per
P2 (τ |µ) =
P2 (τ |µ):
P (τ, µ)
P (τ, µ)
= PM
.
P1 (τ )
ν=1 P (τ, ν)
Ricordando l'espressione (1.33) ottenuta in precedenza e sostituendola nell'equazione di
P1 (τ )
si ottiene:
P1 (τ ) =
M
X
hµ cµ e−
PM
ν=1
= ae−
hν cν τ
PM
ν=1
hν cν τ
µ=1
dove abbiamo indicato
a=
P
µ
aµ =
PM
µ=1
hµ cµ .
In conclusione
P1 (τ ) risulta essere
la distribuzione esponenziale:
P1 (τ ) =


a exp[−aτ ] 0 ≤ τ ≤ ∞

0 altrimenti.
Operando nello stesso modo per
P2 (τ |µ)
si ricava:
hµ cµ
aµ
P2 (τ |µ) = PM
=
a
µ=1 hµ cµ
si osservi che
P2 (τ |µ)
non dipende da
τ
e che le due probabilità sono normalizzate
nel loro dominio di denizione. In conclusione si ha:
P2 (τ |µ) =

P

aµ / M aν
ν=1
ν = 1, ..., M

0 altrimenti.
L'idea del metodo è quella di generare un numero casuale reale
probabilità
µ
P1 (τ )
in accordo con
che dipende solo da
P2 (τ |µ)
τ
τ
in accordo con la
e poi di estrarre un numero intero casuale
che dipende solo da
µ,
come sopra dimostrato.
1.2 Simulazioni stocastiche
21
Discutiamo nel seguito come tale intento si realizzi nella pratica.
generare una grandezza
P (x).
con
x ∈ R
Vogliamo
in accordo con la generica densità di probabilità
Alla densità sarà quindi associata la funzione di ripartizione che indicheremo
F (x0 ):
Z
x0
P (x)dx.
F (x0 ) =
−∞
La procedura che andiamo a discutere è nota come
ste in ultima analisi nell'estrarre un numero casuale
metodo di inversione.
Consi-
r da una distribuzione uniforme
dell'intervallo unitario e poi calcolare la quantità desiderata come
x = F −1 (r).
Per provare la fondatezza della procedura, mostriamo che la probabilità che il
x così generato cada nell'intervallo [x0 , x0 +1] è data da P (x0 )dx0 .
valore
zione, ciò è equivalente a calcolare la probabilità che
Poichè
r
r
stia tra
F (x0 )
e
Per costru-
F (x0 + dx0 ).
è un numero casuale estratto da una distribuzione uniforme dell'intervallo
unitario, la probabilità è uguale alla lunghezza dell'intervallo. È quindi possibile
scrivere:
F (x0 + dx0 ) − F (x0 ) = F 0 (x0 )dx0 = P (x0 )dx0 .
Nel nostro caso vogliamo generare un numero casuale
questo caso
F (τ ) = 1 − exp[−aτ ].
Posto
τ=
F (τ ) = r
τ
in accordo con
e invertendo la
F
P1 (τ ).
In
si ottiene
1 1
ln
a
r
dove per semplicità abbiamo rimpiazzato la variabile
1−r
con la variabile
r
statisticamente equivalente.
Abbiamo nora visto come generare un numero casuale dipendente da una
distribuzione continua.
Consideriamo adesso il caso discreto e mostriamo come
quest'ultimo possa essere trattato in analogia al precedente. Presentiamo il metodo
per ottenere un intero casuale
P (j),
dove
P (j)
F (·),
associata a
i
in accordo con la funzione densità di probabilità
è la probabilità che
P (·),
i = j.
Si introduce la funzione di ripartizione
denita come:
F (i) =
i
X
j=−∞
P (j).
1.2 Simulazioni stocastiche
Con
F (i0 )
22
si indica quindi la probabilità che
i ≤ i0 .
In analogia al caso continuo,
il metodo di inversione consiste nell'estrazione di un numero casuale
r
dalla di-
stribuzione di probabilità uniforme unitaria. Si seleziona quindi il valore di
i
che
soddisfa:
F (i − 1) ≤ r ≤ F (i).
(1.35)
Mostriamo a partire dalla disuguaglianza (1.35) che la probabilità associata all'evento
j = i
è data da
P (j).
ottiene:
F (j) − F (j − 1) =
Scrivendo esplicitamente
j
X
j−1
X
P (k) −
k=−∞
F (j) − F (j − 1),
P (k) = P (j).
k=−∞
Come esempio ci riferiamo al nostro caso, ottenendo un'espressione per
accordo con
P2 .
Si seleziona
r
µ−1
X
P2 (ν|τ ) < r ≤
µ−1
X
aν < r
ν=1
M
X
aν
µ
X
P2
P2 (ν|τ )
ottenuta in precedenza, si ricava:
aν ≤
ν=1
In sostanza si considera la somma degli
ν=1
in
ν=1
da cui, ricordando l'espressione esplicita di
ra = r
τ
sfruttando (1.35) e si ha:
ν=1
PM
si
aν
µ
X
aν .
ν=1
no a che non viene superato il valore
e si seleziona l'ultimo termine della serie.
In questo capitolo abbiamo fornito alcuni elementi introduttivi alla teoria dei
sistemi stocastici. Nel prossimo intendiamo applicare tali strumenti allo studio di
un modello di cellula minimale o protocellula, gia' analizzato in [2]. Si tratta più
specicatamente di un ciclo di reazioni autocatalitiche che conivolgono popolazioni di costituenti elementari ospitati all'interno di un volume nito, delimitato da
una membrana esterna.
Daremo conto della dinamica microscopica del modello,
rivisitando risultati noti in letteratura. Evidenzieremo l'importanza degli eetti di
88
00
taglia nita , mostrando come possano tradursi in dinamiche collettive ordinate,
fenomeni di auto-organizzazione peculiari assenti nel limite ideale di campo medio.
Studieremo inne le correlazioni fra le specie coinvolte, ottendo il primo risultato
originale di questo lavoro di tesi.
Capitolo 2
Un modello stocastico di reazioni
autocatalitiche
In questo capitolo introdurremo un modello semplicato di dinamica cellulare, già
studiato in [2]. Tale modello, intrinsecamente stocastico, consiste in un involucro
esterno, idealmente assimilabile ad una membrana che denisce il volume della
cellula minimale.
La cellula è popolata da
k
specie di reagenti in mutua intera-
zione. Le reazioni interne sono ipotizzate autocatalitiche e codicate a mezzo di
equazioni chimiche.
Facendo riferimento alla trattazione [20], discuteremo l'an-
damento temporale delle concentrazioni delle diverse specie chimiche contenute
all'interno del volume
V.
Come avremo modo di evidenziare, dinamiche collettive
auto-organizzate emergono spontaneamente come eetto della taglia nita del sistema. Tale osservazione trova rigorosa giusticazione nel complesso di una cornice
interpretativa che fa uso delle tecniche introdotte nel capitolo precedente. Estendendo l'analisi riportata in [2], vedremo come le correlazioni dinamiche tra specie
distinte, così come osservate in simulazioni dirette al calcolatore, siano riprodotte
con successo per via analitica.
2.1 Denizione del modello
Figura 2.1:
24
Rappresentazione del modello di cellula minimale studiato. I costituenti
elementari si trovano all'interno di un volume nito, dove possono interagire secondo lo
schema (2.1),(2.2). Le molecole possono inoltre abbandonare il contenitore cellulare o
penetrarvi proveniendo dall'esterno.
2.1 Denizione del modello
Il modello di protocellula utilizzato è mostrato in gura (2.1). Il volume
cellula è popolato da
N
molecole, appartenenti a
k
V
della
diverse specie chimiche che
possono reagire tra loro, secondo uno schema preciso. Si assume che le molecole
possano inoltre migrare fuori dal sistema o entrarvi dall'esterno.
Si indica con
Xi
una molecola di tipo
vuoti accessibili alle molecole. Sia
N
i
e con
E
le lacune, ovvero gli spazi
la taglia del sistema, il numero massimo di
molecole (comprese le lacune) che possono essere ospitate all'interno del volume
Le specie
Xi
V.
interagiscono mutuamente secondo un ciclo di reazioni denominate
autocatalitiche
che, per denizione, sono descritte dalle equazioni chimiche:
ri+1
Xi + Xi+1 −→ 2Xi+1 ,
con un tasso di reazione pari a
ri+1 ,
per
i = 1, . . . , k
i = 1, . . . , k .
L'equazione (2.1) descrive
un ciclo di equazioni chimiche in cui la reazione tra le specie
genera due molecole di tipo
i + 1.
Avendo indicato con
(2.1)
k
i-esima
e
i + 1-esima
il numero totale di specie
2.1 Denizione del modello
25
chimiche coinvolte, il ciclo è chiuso identicando
molecola di tipo
k
e una di tipo
1
Xk+1 ≡ X1 :
genera due molecole di tipo
la reazione tra una
1.
La cellula è pensata immersa in una riserva innita di reagenti, che possono, per
diusione, entrare e uscire dalla stessa. Tale fenomeno è descritto dalle seguenti
equazioni :
βi
Xi −→ E
dove si sono indicati con
βi
e
αi ,
α
i
E −→
Xi
(2.2)
rispettivamente, il tasso di uscita dal sistema e
quello di ingresso per molecole di tipo i. L'ipotesi centrale del modello è che ad ogni
istante temporale possa avvenire un'unica reazione chimica. In una formulazione
deterministica i tassi delle reazioni rappresenterebbero la frequenza con cui una
reazione avviene nel tempo, mentre nella formulazione stocastica, che useremo nel
seguito, i tassi rappresentano la probabilità nell'unità di tempo che la suddetta
reazione avvenga.
Ipotizzeremo che il processo in esame sia markoviano, al ne di utilizzare le
tecniche formali descritte in precedenza.
Per denire un preciso stato del sistema si introduce la
ni
dove con
volume
V
2.1.1
k -upla n = (n1 , n2 , ..., nk )
indichiamo il numero di molecole della specie chimica
i,
contenute nel
delimitato dalla membrana e che supponiamo sso nel seguito.
Le probabilità di transizione
Una volta note le equazioni chimiche e le probabilità con cui si realizzano, possiamo
denire tutte le
probabilità di transizione T (ni |nf )
uno stato nale, con esso compatibile,
in
T (·|·)
nf .
da uno stato iniziale
ni
verso
Per semplicità ci limiteremo ad indicare
le sole componenti che cambiano a seguito delle reazioni. Nel caso con-
siderato avremo tre tipi di probabilità di transizione possibili. Il primo, associato
all'equazione autocatalitica (2.1) è dato da:
T (ni − 1, ni+1 + 1|ni , ni+1 ) = ri+1
ni ni+1
.
N N
La (2.3) descrive la probabilità di incontro tra un reagente della specie
specie
(2.3)
i ed uno della
i + 1, con conseguente nascita di un elemento della specie i + 1 e morte di un
2.2 Simulazioni numeriche
26
elemento della specie i. Tale probabilità sarà uguale al tasso di reazione moltiplicato
per il prodotto delle concentrazioni dei due reagenti coinvolti. Analogamente, la
probabilità di transizione associata a una migrazione verso l'esterno del sistema
sarà data dalla probabilità di selezionare una molecola di tipo
concentrazione) per il tasso
βi ,
i
(data dalla sua
ovvero:
T (ni − 1|ni ) = βi
ni
.
N
(2.4)
Inne, per le migrazioni verso l'interno del sistema, la probabilità di transizione
sarà data dalla probabilità di selezionare uno spazio vuoto all'interno della cellula,
nE /N , per il tasso αi . Utilizzando
P
N = i ni + nE , si può riscrivere:
ovvero
l'equazione di conservazione della massa
T (ni + 1|ni ) = αi 1 −
k
X
ni i=1
N
.
(2.5)
2.2 Simulazioni numeriche
Assegnate le equazioni chimiche che deniscono il modello e considerate le probabilità di transizione, è possibile indagarne la dinamica a mezzo di simulazioni
numeriche. L'algoritmo di riferimento è quello di Gillespie che, come già evidenziato, consente di rispettare la natura stocastica della formulazione proposta. Nel
seguito rivisiteremo le conclusioni di [2, 10, 11], discutendo alcuni comportamenti
peculiari del sistema, così come rilevati dall'analisi numerica. Ci limiteremo al caso
k = 4.
La gura 2.2, ottenuta in [2] tramite simulazioni numeriche, mostra l'evo-
luzione della dinamica del sistema per tempi lunghi. Fluttuazioni macroscopiche
sono chiaramente apprezzabili e si sviluppano attorno ad un livello di riferimento
rappresentato con la linea tratteggiata, sul quale ritorneremo nel seguito. Sottolineiamo la regolarità delle suddette uttuazioni, che si ripetono con una frequenza
caratteristica. È interessante evidenziare come nella gura 2.2 le uttuazioni delle
quattro specie siano simili a coppie (specie 1-3 e specie 2-4), mentre risultano quasi
completamente sfasate per le rimanenti due coppie (specie 1-2 e specie 3-4).
2.2 Simulazioni numeriche
Figura 2.2:
27
Sono riportate le uttuazioni delle quattro diverse specie chimiche in cui
si nota la correlazione tra le specie 1-3 e 2-4. È inoltre possibile apprezzare come le
altre famiglie siano tra loro anticorrelate. I parametri utilizzati sono i seguenti ri = r =
10,
αi = βi = 1/64, ∀ i = 1, ..., 4 N = 8192.
L'esistenza delle suddette correlazioni è stata oggetto di analisi in un lavoro di
Kaneko [10], nel quale veniva studiato un modello sostanzialmente analogo a quello
qui investigato.
Le oscillazioni regolari, mostrate nella gura 2.2, aumentano in ampiezza al
diminuire di
N.
Quando
N
è relativamente piccolo, tali uttuazioni inuenzano
in modo cruciale la dinamica del sistema. Aumenta infatti la probabilità che una
determinata specie si riduca drasticamente in taglia esponendosi al rischio di estinzione. Dal punto di vista matematico diremo che il sistema può impattare il bordo
assorbente. Il processo di estinzione, intimamente connesso al ruolo delle uttuazioni, è però reversibile, grazie alla riserva innita di costituenti molecolari esterni
al volume.
Nel caso di un numero molto elevato di reagenti, e sulla base della
citata dipendenza in
N
la probabilità di estinzione è virtualmente nulla, ovvero
avviene in un tempo praticamente innito.
Se invece lavoriamo con un numero
relativamente contenuto di reagenti, cioè in una situazione in cui la discretezza del
sistema sia rilevante, l'estinzione diventa un fenomeno probabile. Grazie a queste
simulazioni numeriche si sono potuti rilevare alcuni comportamenti particolari del
sistema, quali la regolarità delle oscillazioni illustrate nella gura 2.2, imputabili
principalmente alla discretezza dello stesso, ovvero alla taglia nita. Sulla base di
2.3 Lo sviluppo di van Kampen
28
tali evidenze numeriche gli autori del lavoro di [2] hanno poi elaborato una procedura analitica, basata sul celebre sviluppo di van Kampen, per chiarirne l'origine
in relazione alla natura stocastica del problema.
2.3 Lo sviluppo di van Kampen
In questo paragrafo chiariremo i passi fondamentali della tecnica di sviluppo di van
Kampen; quindi a partire dall'equazione maestra che governa la dinamica del sistema, otterremo al primo ordine perturbativo un'equazione di campo medio valida nel
limite continuo. All'ordine successivo si ricaverà poi un'equazione di Fokker-Planck
che descrive la distribuzione di probabilità delle uttuazioni osservate. Lo sviluppo
di van Kampen è introdotto con riferimento al problema studiato. Una trattazione
generale della tecnica è proposta invece in appendice.
I passi da eettuare sono
sostanzialmente due.
L'ipotesi di van Kampen
La prima è l'ipotesi alla base del metodo di espansione ed equivale a porre:
ni
ξi
(t) = φi (t) + √
N
N
dove
φi (t)
(2.6)
ξi
rappresenta le variabili deterministiche o di campo medio e √
quelle
N
stocastiche o uttuazioni. La precedente ipotesi discende in sostanza dal teorema
del limite centrale. Il teorema considera una famiglia di
N
variabili aleatorie
Wj
indipendenti e identicamente distribuite, aventi media e varianza nite indicate
P
√
j Wj /N −µ
2
rispettivamente con µ e σ . La variabile ξ =
N per N → ∞ tende
σ
a essere distribuita come una normale
scrivere:
P
N (0, 1).
Rielaborando la formula possiamo
Wj
ξσ
∼µ+ √
N
N
j
ovvero, formalmente, l'ipotesi dello sviluppo di van Kampen. Si è implicitamente
assunto un importante concetto sico: una grandezza estensiva, come la concentrazione, è sempre pensabile come somma di variabili aleatorie indipendenti. In prima
2.3 Lo sviluppo di van Kampen
approssimazione, le uttuazioni
ξi
29
sono gaussiane. Tuttavia come proposto da van
Kampen e come dimostreremo nel seguito, sarà possibile cogliere anche aspetti non
gaussiani delle stesse, sulla base della medesima ipotesi di lavoro (2.6) e quando la
taglia del sistema è molto piccola. Si tratta di un'osservazione sorprendente per la
quale non esiste ad oggi una spiegazione rigorosa. In letteratura sono rappresentate posizioni antitetiche a riguardo, che contribuiscono ad alimentare un dibattito
all'interno del quale si colloca idealmente questo lavoro di tesi, come avremo modo
di argomentare.
Sviluppo degli operatori passo
Gli operatori con cui lavoreremo sono chiamati operatori passo, cioè sono operatori che aggiungono o tolgono un'unità alla variabile su cui agiscono. Si denisce
operatore passo
ε±
i :
ε±
i f (. . . , ni , . . .) = f (. . . , ni ± 1, . . .).
(2.7)
L'ipotesi di van Kampen (2.6) consente di sviluppare gli operatori passo rispetto
a
√
1/ N .
variabile
Consideriamo ad esempio l'operatore
ni
come
ε+
i ,
la cui azione è denita sulla
ε+
i f (ni ) = f (ni + 1), dove abbiamo esplicitato solo le componenti
n che cambiano.
ni a ξi . Poiché
f (ni + 1) = f N φi + N (ξi + √1N ) l'azione di ε+
i , espressa nella variabile ξi , risulta
del vettore
√
Operiamo un cambio di variabile da
semplicemente:
1 = f ξi + √
.
N
√
approssimare f (ξi + 1/ N )
ε+
i f (ξi )
Essendo
√
1/ N ξi
di Taylor centrato su
ξi ,
si può poi
∂ξi
con un polinomio
in formule:
1
1
f (ξi + √ ) ≈ f (ξi ) + √ ∂ξi f (ξi ) + . . . ,
N
N
in cui
(2.8)
rappresenta la derivata parziale,
(2.9)
∂
.
∂ξi
In conclusione, l'azione degli operatori passo si traduce negli sviluppi che riportiamo nel seguito includendo termini sino al secondo ordine:
1 2
1
ε±
∂ + ... .
i ≈ 1 ± √ ∂ξi +
2N ξi
N
(2.10)
2.3 Lo sviluppo di van Kampen
30
Disponiamo ora degli strumenti per applicare il metodo perturbativo al nostro
problema, che andremo successivamente a caratterizzare in termini dell'equazione
maestra ad esso associata.
2.3.1
L' equazione maestra
Dato un processo stocastico di Markov omogeneo è possibile, come già precedentemente dimostrato, scrivere l'equazione maestra che ne governa la dinamica.
Ricordiamo la denizione di processo di Markov omogeneo:
Denizione 8. Un processo di Markov si dice omogeneo nel tempo se la probabilità
di transizione associata al processo è invariante per traslazioni temporali.
Per il problema in esame l'equazione maestra prende la forma:
k h
X
d
P (n, t) =
T (ni , ni+1 |ni + 1, ni+1 − 1)P (ni + 1, ni+1 − 1, t) −
dt
i=1
i
+T (ni − 1, ni+1 + 1|ni , ni+1 )P (ni , ni+1 , t) +
+
k h
X
T (ni |ni − 1)P (ni − 1, t) − T (ni − 1|ni )P (ni , t) +
i=1
i
+T (ni |ni + 1)P (ni + 1, t) − T (ni + 1|ni )P (ni , t)
(2.11)
n, t) si indica la derivata totale rispetto al tempo, considerando una
congurazione n ssata. D'ora in poi useremo per indicare i vettori il grassetto.
L'equazione (2.11) descrive l'evoluzione della funzione P (n, t) al variare del
tempo, dove P (n, t) rappresenta la probabilità di trovare il sistema nello stato n al
dove con
tempo
t.
d
P(
dt
A destra del segno di uguaglianza si hanno i contributi associati a tutte
le possibili evoluzioni del sistema, codicate a mezzo delle equazioni chimiche e
compatibili con lo stato nale
n.
solo le componenti del vettore
cambiamento.
Per semplicare la notazione, abbiamo esplicitato
n
coinvolte nella transizione e quindi soggette a
2.3 Lo sviluppo di van Kampen
31
Inserendo in (2.11) la denizione (2.7) si ottiene:
k h
i
X
d
−
P (n, t) =
(ε+
ε
−
1)T
(n
−
1,
n
+
1|n
,
n
)P
(n
,
n
,
t)
+
i
i+1
i
i+1
i
i+1
i i+1
dt
i=1
+
=
k h
X
i=1
k
X h
i
−
(ε+
−
1)T
(n
−
1|n
)P
(n
,
t)
+
(ε
−
1)T
(n
+
1|n
)P
(n
,
t)
i
i
i
i
i
i
i
i
−
(ε+
i εi+1
i
− 1)T (ni − 1, ni+1 + 1|ni , ni+1 ) +
i=1
h
i
−
+ (ε+
−
1)T
(n
−
1|n
)
+
(ε
−
1)T
(n
+
1|n
)
P (n, t).
i
i
i
i
i
i
P (n, t)
Gli operatori permettono di evidenziare la probabilità
(2.12)
a fattore comune. Il
primo termine della sommatoria rappresenta il contributo alla variazione di
P (n, t)
dovuto alle reazioni autocatalitiche interne alla cellula, mentre il secondo si riferisce
alla diusione.
Possiamo adesso sviluppare in serie di potenze di
√
1/ N
l'equazione maestra,
rivisitando il lavoro di [2]. Andremo poi ad inserire nell'equazione così ottenuta lo
sviluppo dell'operatore (2.10). Il primo passo dello sviluppo consiste nel riscrivere
l'equazione maestra per
y = n/N , il vettore delle concentrazioni, le cui componenti
si riferiscono alle varie specie chimiche coinvolte. Tale vettore può essere considerato continuo nel tempo nell'ipotesi in cui i salti del sistema siano molto più piccoli
della taglia dello stesso. Deniamo quindi la nuova distribuzione:
ξ
√
Π(ξ, t) = P (y, t) = P φ(t) +
,t .
N
Derivando l'equazione (2.13), prima rispetto al tempo e poi rispetto a
le relazioni per ciascuna componente del vettore
k
(2.13)
ξ , e scrivendo
y si ottiene:
k
∂Π
∂P X ∂P ∂yi
∂P X ∂P dφi
=
+
=
+
.
∂t
∂t
∂y
∂t
∂t
∂y
dt
i
i
i=1
i=1
(2.14)
Dalla (2.14) si ha:
k
Vale inoltre:
X ∂P dφi ∂Π
∂P
=−
+
.
∂t
∂y
dt
∂t
i
i=1
(2.15)
∂P ∂yi
∂P 1
∂P
∂Π √
∂Π
√ ⇒
=
=
=
N
∂ξi
∂yi ∂ξi
∂yi N
∂yi
∂ξi
(2.16)
2.3 Lo sviluppo di van Kampen
32
con cui si riscrive l'equazione (2.15) come:
k
√ X
∂P
∂Π dφi ∂Π
=− N
+
.
∂t
∂ξi dt
∂t
i=1
Considerando che siamo passati da un'equazione maestra per
ponenti
ni
zione per
(2.17)
n, vettore le cui com-
rappresentano il numero intero di molecole della specie
i,
ad un'equa-
y le cui componenti yi rappresentano la densità della specie i, grandezze
considerate funzioni continue del tempo, si ha che:
d
∂
P (n, t) ⇒ P (y, t)
dt
∂t
(2.18)
Inserendo nel membro sinistro dell'equazione (2.12) la (2.17) e tenendo conto dei
cambi eettuati (2.18) si ottiene:
k
√ X ∂
∂
∂
dφi
P (y, t) = Π(ξ, t) − N
.
Π(ξ, t)
∂t
∂t
∂ξ
dt
i
i=1
(2.19)
Considerando poi l'espressione esplicita delle probabilià di transizione e sostituendo
il tutto nell'equazione maestra si ricava:
k
√ X ∂
∂
∂
dφi
P (y, t) =
Π(ξ, t) − N
=
Π(ξ, t)
∂t
∂t
∂ξi
dt
i=1
=
(2.20)
k h
X
i
1 1
−
√
√
(ε+
ε
−
1)r
φ
+
ξ
φ
+
ξ
+
i+1
i
i
i+1
i+1
i i+1
N
N
i=1
k k h
X
X
1
−
φm + √ ξm +
+
(εi − 1)αi 1 −
N
m=1
i=1
!
k
X
1 i
√
φ
+
ξi
Π(ξ, t).
+
(ε+
−
1)β
i
i
i
N
i=1
In virtù della (2.10) si ha:
∂
∂ 1h −1 ∂
∂ i2
−
+ N 2
−
∂ξi ∂ξi+1
2
∂ξi ∂ξi+1
1
1
= N − 2 Sb1i + N −1 Sb2i
2
1
−
−2
(ε+
i εi+1 − 1) ∼N
(2.21)
dove
Sb1i =
∂
∂
∂ b
∂ 2
−
, S2i =
−
∂ξi ∂ξi+1
∂ξi ∂ξi+1
(2.22)
2.3 Lo sviluppo di van Kampen
33
e
1
−2
(ε−
i − 1) ∼ −N
1
−2
(ε+
i − 1) ∼ N
∂
1
∂
+ N −1 2 ;
∂ξi 2
∂ ξi
∂
1
∂
+ N −1 2 .
∂ξi 2
∂ ξi
(2.23)
(2.24)
Inserendo le succitate relazioni nell'equazione maestra (2.20) e eettuando il cambio
di variabile:
τ=
t
N
la parte a sinistra del segno di uguaglianza diventa:
k
√ X
∂
∂
dφi
1 d
1 X ∂
dφi
Π(ξ, t) − N
Π(ξ, t)
⇒
Π(ξ, τ ) − √
Π(ξ, τ )
.
∂t
∂ξi
dt
N dτ
dτ
N i ∂ξi
i=1
(2.25)
Confrontando così il membro destro dell' equazione con il sinistro, uguagliamo tra
loro i termini relativi allo stesso ordine in
Per quanto riguarda i termini in
N
− 12
N.
si ottiene:
k
1 X ∂Π dφi
1 X
∂Π
−√
=√
(ri+1 φi φi+1 − ri φi−1 φi )
∂ξi
N i ∂ξi dτ
N i=1
k
k
i ∂Π
X
1 Xh
φm
βi φi − αi 1 −
+√
∂ξi
N i=1
m=1
da cui si ricava un'equazione dierenziale per la variabile
(2.26)
φi :
k
X
dφi
φm ) − βi φi ,
= ri φi−1 φi − ri+1 φi φi+1 + αi (1 −
dτ
m=1
ovvero l'approssimazione della dinamica che chiameremo di
(2.27)
campo medio.
L'equa-
zione (2.27) è ottenuta partendo unicamente dalle equazioni chimiche del modello
e descrive esattamente il comportamento del sistema quando
N → ∞.
Campo medio φi all'equilibrio
Le (2.27) sono equazioni ordinarie accoppiate e il loro studio analitico per la ricerca
di una soluzione è piuttosto complicato.
cazioni
βi = β, αi = α, ∀i,
Tuttavia operando le seguenti sempli-
, la condizione di punto sso
dφi
dt
= 0
si traduce in
2.3 Lo sviluppo di van Kampen
φi = φ∗ , ∀i,
con:
k
X
α 1−
∗
φ
− βφ∗ = 0
m=1
Nel caso
34
k = 4,
−→
φ∗ =
α
.
kα + β
(2.28)
le serie temporali delle specie chimiche, ottenute da simulazio-
ni numeriche del problema non approssimato, oscillano attorno al campo medio
φ∗ =
α
. Lo stato
4α+β
φ∗
rappresenta pertanto un attrattore. Tali oscillazioni ap-
paiono sorprendentemente regolari e di ampiezza considerevole e sono, in ultima
analisi, da ricondurre agli eetti di taglia nita del sistema. Operando un'ulteriore
semplicazione, identicando cioè
in
φ∗ =
1
.
5
α = β,
la condizione precedente si trasforma
Le semplicazioni che abbiamo eseguito non modicano la dinamica
qualitativa del sistema, ma permettono di compattare notevolmente i calcoli che
andremo a sviluppare nel seguito. Consideriamo d'ora in avanti il caso
k = 4, scelta
per la quale gli eetti di taglia nita risultano evidenti come mostrato in [2].
Figura 2.3:
Dinamica temporale della concentrazione di una specie. La linea tratteggiata
nera rappresenta la soluzione di campo medio ottenuta integrando l'equazione dierenziale
(2.27). La curva continua rossa rappresenta la dinamica stocastica ottenuta a mezzo
dell'algoritmo di Gillespie. I parametri utilizzati sono ri = 10 αi = βi = 1/64 ∀ i
N = 8192.
Nella gura 2.3 è riportata l'evoluzione dinamica di una delle quattro specie
mutuamente interagenti.
La curva continua si riferisce alla soluzione stocastica
ottenuta a mezzo dell'algoritmo di Gillespie. La linea tratteggiata rappresenta la
2.3 Lo sviluppo di van Kampen
35
soluzione di campo medio, interamente descritta dalle equazioni dierenziali (2.27).
Dopo una serie di oscillazioni smorzate, il sistema converge al punto sso calcolato
in (2.28).
Le oscillazioni sono invece persistenti nel contesto della formulazione
stocastica e discendono quindi da eetti di taglia nita, come già anticipato in
precedenza.
Al ruolo delle correzioni di ordine superiore in
N,
che si traduco-
no in eetti macroscopici di organizzazione temporale, dedicheremo il successivo
paragrafo.
Correzione di ordine N −1
Gli eetti di taglia nita si caratterizzano per mezzo di fattori di ordine
N −1 :
k
i
∂Π X h b =
S1i ri+1 φi ξi+1 + ri+1 φi+1 ξi Π(ξi , τ )
∂τ
i=1
+
k h
X
i=1
k
i
X
∂
∂
−
ξm ) +
αi (−
βi ξi Π(ξi , τ )
∂ξi
∂ξi
m=1
k
1X
+
ri+1 Sb2s (φi φi+1 )Π(ξi , τ )
2 i=1
+
k
k
i
X
∂2 1 X h ∂2 φ
+
β
1
−
β
φ
Π(ξi , τ ).
m
i
i i
2
2 i=1 ∂ξi2
∂ξ
i
m=1
Scrivendo esplicitamente i vari termini si ottiene:
k
i
∂Π X h ∂ =
(ri+1 φi+1 − ri φi−1 )ξi + ri+1 φi ξi+1 − ri φi ξi−1 Π(ξi , τ )
∂τ
∂ξi
i=1
+
k
k h
i
X
X
∂ ξm Π(ξi , τ )
βi ξi + αi
∂ξi
m=1
i=1
+
k
∂2
1X
∂2
∂2 ri+1 (φi φi+1 )
+
−
2
Π(ξi , τ )
2
2 i=1
∂ξi2 ∂ξi+1
∂ξi ∂ξi+1
k
k
∂2
X
1 X +
αi 1 −
φm + βi φi
Π(ξi , τ ).
2 i=1
∂ξi2
m=1
Raggruppando i termini che coinvolgono le derivate prime e quelli che presentano
le derivate seconde si ottiene l' equazione di Fokker-Planck:
k
k X
k
i 1X
i
X
∂Π
∂ h
∂2 h
= −
A(ξ)i Π +
bij Π
∂τ
∂ξi
2 j=1 i=1 ∂ξi ∂ξj
i=1
(2.29)
2.3 Lo sviluppo di van Kampen
in cui
A(ξ)i
36
è l' i-esima componente di un vettore così composto:
A(ξ)i = (ri φi−1 − ri+1 φi+1 )ξi − ri+1 φi ξi+1 + ri φi ξi−1 − αi
k
X
ξm − βi ξi ,
(2.30)
m=1
mentre con
bij
indichiamo l'elemento di posto
ij
della matrice
B
così denita:
P
• bii = ri+1 φi φi+1 + ri φi φi−1 + αi (1 − km=1 φm ) + βi φi ,



−ri+1 φi φi+1 ,
se j = i + 1


• bij =
−ri φi−1 φi ,
se j = i − 1



 0
se |i − j| > 1.
Per comodità introduciamo una nuova matrice
mo
Ai
M
rispetto alla quale riscrivere-
come:
Ai =
k
X
mij ξj .
j=1
Gli elementi
mij
di tale matrice sono:
• mii = ri φi−1 − ri+1 φi+1 − αi − βi ,



−ri+1 φi − αi ,
se j = i + 1


• mij =
ri φi − βi ,
se j = i − 1



 −α
se |i − j| > 1.
i
Nell'ipotesi in cui anche i tassi
ri = r
βi = β
αi = α∀i
ri
la matrice

m
 0

 m3


M =  m2


 ...

m1
non dipendano dalla specie chimica
M
i
cioè
è circolante:
m1 m2 m2 . . . m3



m0 m1 m2 . . . m2 


m3 m0 m1 . . . m2  .


... ... ... ... ... 

m2 m2 m2 . . . m0
(2.31)
Se ci interessiamo poi alle uttuazioni intorno all'equilibrio, ovvero consideriamo
la dinamica all'equilibrio, possiamo porre
φi = φ∗ , ∀ i, con φ∗
(2.28). Date queste ipotesi possiamo scrivere:
dato dall'equazione
2.4 Le uttuazioni e gli spettri di potenza
37
• m0 = −α − β ,
• m1 = −rφ∗ − α,
• m2 = −α,
• m3 = rφ∗ − α.
k × k bij

b1


0 


0 


... 

b0
Con le semplicazioni appena eettuate la matrice

b
b1
0
 0

 b1 b0 b1


B =  0 b1 b0


 ... ... ...

b1
0 0
...
0
...
0
...
0
... ...
...
b1
, assume la forma:
(2.32)
dove:
• b0 = 2rφ∗ φ∗ + α(1 − kφ∗ ) + βφ∗ ,
• b1 = −rφ∗ φ∗ .
L'equazione di Fokker-Planck (2.29) caratterizza la distribuzione di probabilità
Π(·)
delle uttuazioni. Ricordiamo che la soluzione di tale equazione è una gaussiana
multivariata.
2.4 Le uttuazioni e gli spettri di potenza
L'equazione di Fokker-Planck derivata nel precedente paragrafo dà conto delle uttuazioni che si originano nel sistema come eetto di taglia nita.
In [2] è stato
dimostrato come a partire da tale equazione sia possibile caratterizzare oscillazioni
temporali, macroscopiche e regolari nella concentrazione dei costituenti, i quasicicli (gura 2.2). A tale scopo si calcola lo spettro di potenza della uttuazione
ξi
denito come:
Pi (ω) ≡< |F Tω [ξi ]|2 >=< |ξei (ω)|2 >
(2.33)
2.4 Le uttuazioni e gli spettri di potenza
Figura 2.4:
38
Spettri di potenza. La linea continua nera si riferisce alla predizione teorica.
I simboli rossi rappresentano il risultato delle simulazioni di [2]. I parametri utilizzati
sono r = 10, α = β = 5/32 e N = 5000.
dove con
F Tω [ξi ] ≡ ξei (ω)
si indica la trasformata di Fourier temporale della varia-
bile. Dopo alcuni calcoli, non eplicitamente riportati in questa sede, si ottiene la
seguente espressione:
Pi (ω) = < |ξei (ω)|2 >=
k X
k
X
∗ −1
Φ−1
sr (ω)brh (Φ )hs (ω)
(2.34)
r=1 h=1
dove
Φ = −iωI − M
e
Φ∗
è l'aggiunta.
B
ed
M
sono le matrici ottenute in
precedenza. Si veda [2] per una derivazione della (2.34) che fa leva sull'analogia
formale fra l'equazione di Fokker-Planck e l'equazione di Langevin [6], che sottende
alla dinamica delle
ξ.
Una volta nota l'espressione relativa allo spettro di potenza delle uttuazioni
stocastiche inerenti al sistema attorno alla soluzione di campo medio, si può operare
un confronto con l'omologa curva dedotta per via numerica diretta.
Come si può notare, l'accordo tra teoria e simulazioni numeriche è molto buono. In particolare lo spettro mostra un chiaro picco, che corrisponde alla frequenza
dominante nel segnale registrato.
Le tecniche di analisi sviluppate in [2] e qui
rivisitate costituiscono un valido strumento di indagine per i sistemi in cui le correlazioni interne non siano trascurabili, e per i quali si ritiene necessario un approccio
stocastico. In [2] dunque si sono chiariti a livello analitico alcuni dei fenomeni col-
2.5 Calcolo dei momenti primi e secondi e del loro punto sso
39
lettivi evidenziati numericamente; partendo da questa base ed estendendo il lavoro
[2], possiamo caratterizzare esplicitamente le correlazioni fra famiglie distinte di
reagenti. Di questi eetti si darà conto nel prossimo paragrafo.
2.5 Calcolo dei momenti primi e secondi e del loro
punto sso
Partendo dall'equazione di Fokker-Planck già ottenuta nel lavoro [2] è possibile stimare i momenti associati alla distribuzione delle uttuazioni. Essendo la soluzione
una gaussiana multivariata, gli unici momenti d'interesse saranno quelli di ordine
uno e due. Come si vedrà, otterremo un sistema di equazioni dierenziali ordinarie per le quantità d'interesse che saranno studiate relativamente alla dinamica di
equilibrio.
Denizione 9.
Si denisce il momento di ordine
< ξik >=
Z
k
per
ξi
la grandezza:
∞
Π(ξ)ξik dξ.
−∞
Il simbolo
<·>
indica quindi una media d'insieme. Immaginiamo di dover ad
esempio caratterizzare
ξi2
quantità
R
in
< ξi2 >.
Si procede moltiplicando l'equazione (2.29) per la
a destra e a sinistra del segno di uguaglianza, integrando poi su tutto
dξ = (dξ1 , dξ2 , ..., dξk ). In formule risulterà:
Z ∞
Z ∞
X ∂
2 ∂
ξi
−ξi2
Π(ξ, τ )dξ =
Ai (ξ)Π(ξ, τ )dξ
∂τ
∂ξ
i
−∞
−∞
i
Z ∞
X ∂2
1
2
+
ξi
bi,j (ξ)Π(ξ, τ )dξ.
2! i,j ∂ξi ∂ξj
−∞
(2.35)
Concentriamoci sul primo membro dell'equazione precedente. Si ha:
Z
∞
ξi2
−∞
poichè
ξ
∂
Π(ξ, τ )dξ =
∂τ
Z
∞
−∞
∂
d
(Π(ξ, τ )ξi2 )dξ =
∂τ
dτ
Z
∞
(Π(ξ, τ )ξi2 )dξ
−∞
è formalmente indipendente dal tempo. Usando la formula precedente e
sfruttando la denizione di momento, si ottiene:
d
dτ
Z
∞
−∞
(Π(ξ, τ )ξi2 )dξ =
d
< ξi2 > .
dτ
2.5 Calcolo dei momenti primi e secondi e del loro punto sso
40
Tornando a considerare il secondo membro della (2.35) operiamo due integrazioni per parti e osserviamo che alcuni integrali danno contributo nullo, grazie alle
proprietà di simmetria e decadimento all'innito della
Π
che, ricordiamo, è una
gaussiana multivariata.
Notiamo che gli unici contributi non nulli sono quelli in cui l'indice della uttuazione coincide con quello della sommatoria ovvero:
ξi2
1 ∂2
∂
Ai (ξ)Π(ξ, τ )dξ + ξi2
bi,i (ξ)Π(ξ, τ )dξ.
∂ξi
2! ∂ξi ∂ξi
Alla luce delle considerazioni sopra riportate, integrando due volte per parti si
ottiene:
< ξ˙i2 > =
Z
∞
Z
∞
2ξi Ai (ξ)Π(ξ, τ )dξ + bi,i
−∞
Π(ξ, τ )dξ.
(2.36)
−∞
Il secondo integrale è uguale a 1 in virtù della condizione di normalizzazione della
Π.
In conclusione, utilizzando la denizione di momento e ricordando l'espressione
esplicita di
Ai (ξ)
si ha:
d
< ξi2 >=< ξ˙i2 > = 2[−α − β] < ξi2 > +2[rφ∗ − α] < ξi−1 ξi >
dt
(2.37)
∗
+ 2 < ξi ξi+1 > [−rφ − α] − 2α < ξi ξi+2 > +bi,i
con
i = 1, ..., 4.
Ricordiamo che
α
e
β
e
r
sono i tassi di reazione dei processi con-
siderati. Per semplicità abbiamo assunto tali parametri indipendenti dalla specie
chimica presa in esame. Porremo inoltre nel seguito
α = β,
ipotesi che corrisponde
ad adottare un analogo grado di diusività in entrata ed uscita dalla micro-cellula
selezionata.
φ∗
è il punto sso delle equazioni di campo medio che, in virtù delle
scelte operate, risulta essere identicamente uguale ad
della matrice
M,
1
. Ricordando la denizione
5
possiamo riscrivere l'equazione precedente come:
< ξ˙i2 > =2mi,i < ξi2 > +2mi,i−1 < ξi ξi−1 > +2mi,i+1 < ξi ξi+1 > +
2mi,i+2 < ξi ξi+2 > +bi,i .
(2.38)
2.5 Calcolo dei momenti primi e secondi e del loro punto sso
41
Con passaggi analoghi si ottiene l'equazione dierenziale che controlla l'evoluzione
per la grandezza
< ξi ξj >:
2
> +mi,i+2 < ξi+1 ξi+2 >
< ξi˙ξj > =mi,i < ξi ξi+1 > +mi+1,i < ξi2 > +mi,i+1 < ξi+1
+ mi+1,i+1 < ξi ξi+1 > +mi+1,i+2 < ξi ξi+2 > +mi+1,i < ξi2 >
+ mi,i+3 < ξi+3 ξi+1 > +bi,i+1 .
(2.39)
In ultima analisi l'espressione codica il grado di correlazione temporale fra la
specie
i
e la
j.
In (2.39),
bi,i+1
indica l'elemento di posto
i, i + 1
della matrice
B.
Si può notare che il sistema (2.38)-(2.39) è chiuso, perchè non dipende da momenti
di ordine superiore. Per completare il quadro descrittivo riportiamo esplicitamente
l'equazione relativa al momento primo, ricavata come ulteriore applicazione del
metodo appena esposto:
< ξ˙i > = mi,i < ξi > +mi,i−1 < ξi−1 > + < ξi > mi,i+1 − mi,i+2 < ξi+2 > .
Considerando tutte le possibili permutazioni fra gli indici
(2.40)
i, j , entrambi variabili
tra 1 e 4, con riferimento alle espressioni (2.38)-(2.39), si ottiene un sistema di dieci
equazioni dierenziali ordinarie accoppiate, che si riduce ad una forma compatta
introducendo la matrice

2m0 2m1 2m2 2m3
0
0
0
0
0
0


 m3 2m0 m1 m2 m1 m1 m2 m3
0
0


 m2 m3 2m0 m1
0
m1
0
m2 m3
0


 m1 m2 m3 2m0
0
0
m1
0
m2 m3


 0 2m3
0
0 2m0 2m1 2m2
0
0
0
K=

 0
m2 m3
0
m3 2m0 m1 m1 m2
0


 0
m1
0
m3 m2 m3 2m0
0
m1 m2


 0
0 2m2
0
0 2m3
0 2m0 2m1
0


 0
0
m1 m2
0
m2 m3 m3 2m0 m1

0
0
0 2m1
0
0 2m2
0 2m3 2m0


























2.5 Calcolo dei momenti primi e secondi e del loro punto sso
42
dove ricordando le notazioni introdotte nel paragrafo 2.3.1:




m0 = −2α







m1 = − 5r − α






m2 = −α
(2.41)



m3 = −α + 5r






2r

b0 = 25
+ 2α

5





b 1 = − r .
25
Denendo poi:
X1 =
h
X2 =
h
<
ξ12
>; < ξ1 ξ2 >; < ξ1 ξ3 >; < ξ1 ξ4 >; <
ξ22
>;
< ξ2 ξ3 >; < ξ2 ξ4 >; < ξ32 >; < ξ3 ξ4 >; < ξ42 >
X=
h
X 1 X2
i
i
i
il vettore dei termini noti risulta:
D=
h
b 0 b 1 0 b1 b0 b1 0 b0 b1 b0
i
.
Si riduce inne il suddetto sistema alla formulazione matriciale:
Ẋ = KX + D.
Come già ricordato, siamo interessati in particolare alla soluzione stazionaria del
sistema, ovvero al calcolo dei punti ssi della dinamica.
porre la condizione
Ẋ = 0.
Ciò corrisponde ad im-
Data la particolare simmetria del sistema indagato,
proprietà peraltro già evidenziata in sede simulativa, possiamo di fatto ridurre
in maniera sostanziale la complessità dello studio.
Identicando tre famiglie di
equazioni indipendenti e imponendo all'equilibrio:
< ξ12 >=< ξ22 >=< ξ32 >=< ξ42 >=: Γ1
< ξ1 ξ2 >=< ξ1 ξ4 >=< ξ2 ξ3 >=< ξ3 ξ4 >=: Γ2
< ξ1 ξ3 >=< ξ2 ξ4 >=: Γ3
(2.42)
2.5 Calcolo dei momenti primi e secondi e del loro punto sso
43
il problema può essere conseguentemente ricondotto al seguente sistema algebrico:




2m0 Γ1 + (2m1 + 2m3 )Γ2 + 2m2 Γ3 + b0 = 0



(m1 + m3 )Γ1 + (2m0 + 2m2 )Γ2 + (m3 + m1 )Γ3 + b1 = 0





2m2 Γ1 + (2m1 + 2m3 )Γ2 + 2m0 Γ3 = 0
che ammette la soluzione:
dipendente dai due parametri
(2.43)


b1

0

Γ1 = 2b
− 5α

5α


3b1
b0
+ 10α
Γ2 = − 10α





Γ3 = − b0 − b1
10α
5α
r
e
α.
(2.44)
La correttezza del risultato appena ottenu-
to può essere testata ricorrendo ad uno studio numerico.
A tal scopo abbiamo
implementato una versione dell'algoritmo di Gillespie monitorando la dinamica intrinsecamente stocastica di una famiglia di quattro specie interagenti secondo le
regole assegnate.
Abbiamo, in particolare, registrato le uttuazioni rispetto alla
soluzione di campo medio calcolando le correlazioni qui oggetto di indagine al variare del tempo.
I risultati di una singola simulazione sono riportati nelle gure
2.5, 2.6, 2.7. Il sistema tende naturalmente al relativo punto sso, stimato in precedenza ed evidenziato nelle gure con un tratto orizzontale continuo. La leggera
discrepanza nella gura 2.5 è da imputare al valore di
N
scelto. Per
N
più grande
l'accordo risulta più chiaro.
L'analisi è stata poi ripetuta variando il parametro
α
(con
r
sso). I risultati
delle simulazioni sono rappresentati nelle gure 2.8, 2.9: i simboli si riferiscono ai
valori di
Γ1
e
Γ2
calcolati asintoticamente (cioè dopo il transiente iniziale), mentre
la linea continua è tracciata sulla base della predizione teorica (2.44).
Anche in
questo caso l'accordo è da ritenersi soddisfacente.
Come ulteriore controllo si è proceduto alla caratterizzazione della distribuzione
delle uttuazioni, così come osservata per via simulativa. Per
N = 5000
il prolo
ottenuto (simboli) è rappresentato in gura (2.10) in scala lineare e in gura (2.11)
in scala semilogaritmica. La curva continua si riferisce alla soluzione gaussiana della
2.5 Calcolo dei momenti primi e secondi e del loro punto sso
44
Fokker-Planck (2.29), completamente determinata grazie ai momenti quanticati
in precedenza. Ricordiamo che la soluzione dell'equazione (2.29) è una gaussiana
multivariata, che nelle immagini abbiamo proiettato lungo la direzione di interesse.
L'accordo in genere decisamente convincente, risulta leggermente compromesso
quando si riduce sensibilmente il numero
N
degli attori microscopici che parteci-
pano alla dinamica del sistema. Sono in particolare rilevabili chiare deviazioni dal
comportamento gaussiano, eetto dovuto alla taglia nita del sistema in regime di
bassa popolosità. È possibile dar conto di queste deviazioni estendendo lo sviluppo
di van Kampen ad ordini successivi? Di questo importante aspetto inizieremo ad
occuparci nel prossimo capitolo.
2.5 Calcolo dei momenti primi e secondi e del loro punto sso
Figura 2.5:
Evoluzione temporale di Γ1
per N=1024 α = β = 2.
Figura 2.7:
Figura 2.8:
ssato.
Figura 2.6:
45
Evoluzione temporale di Γ2
per N=1024 α = β = 2.
Evoluzione temporale di Γ3 per N=1024 α = β = 2.
Γ1 al variare di α, con r=10
Figura 2.9:
ssato.
Γ2 al variare di α, con r=10
2.5 Calcolo dei momenti primi e secondi e del loro punto sso
Figura 2.10:
Confronto tra la distribu-
zione delle uttuazioni teoriche (in nero)
e simulate (asterischi in rosso). Parametri
N=5000 α = 2 r=10.
Figura 2.12:
Confronto tra la distribu-
Figura 2.11:
46
Abbiamo riportato i dati
della gura 2.10 in scala logaritmica per
evidenziare l'andamento delle code.
Figura 2.13:
Abbiamo riportato i da-
zione delle uttuazioni teoriche (in nero)
ti della gura (2.12) in scala logaritmica
e simulate (asterischi in rosso). Parametri
per evidenziare la caratteristica asimmetria
N=100 α = 2 r=10.
mostrata nelle code.
Capitolo 3
L'equazione di Fokker-Planck
generalizzata
Nel capitolo precedente abbiamo introdotto il metodo dello sviluppo di van Kampen, descritto con riferimento al modello di reazioni autocatalitiche [2]. Operando
uno sviluppo perturbativo rispetto ad un piccolo parametro che codica per la
taglia del sistema, si sono ottenute le equazioni che governano la dinamica dello
stesso nell'approssimazione di campo medio. Abbiamo inoltre caratterizzato in forma analitica chiusa le uttuazioni gaussiane attorno a un punto sso, spiegando
come la regolarità osservata nelle serie temporali insorga spontaneamente per eetto della discretezza del sistema. Il confronto diretto con le simulazioni numeriche
mostra un ottimo accordo per taglie del sistema moderatamente grandi, mentre
deviazioni dal comportamento gaussiano si osservano quando il numero di costituenti elementari viene sensibilmente ridotto. In particolare la coda sinistra della
distribuzione delle uttuazioni risulta decadere più rapidamente di quella destra,
inducendo un'asimmetria, chiara segnatura di non gaussianità.
In questo capitolo intendiamo dar conto di tale comportamento estendendo lo
sviluppo di van Kampen all'ordine successivo. Come avremo modo di discutere, si
ottiene così un'equazione di
Fokker-Planck generalizzata, modicata per la presenza
di termini che coinvolgono le derivate terze e che mostrano una dipendenza espli-
3.1 Derivazione dell'equazione di Fokker-Planck generalizzata
cita dalla taglia
N.
48
Nel contesto di questo nuovo quadro descrittivo, calcoleremo
i momenti di ordine superiore al secondo e le varie correlazioni che ne discendono, dando conto delle caratteristiche di non gaussianità così come rilevate nelle
simulazioni numeriche.
La presentazione del capitolo è organizzata come segue: nel prossimo paragrafo
deriveremo la Fokker-Planck generalizzata, estendendo lo sviluppo introdotto al
capitolo precedente. Nel successivo paragrafo calcoleremo i momenti no al terzo
e, a partire dalla determinazione dei momenti, ricostruiremo il prolo della distribuzioni delle uttuazioni. Quanticheremo inne la probabilità di estinzione del
sistema.
3.1 Derivazione dell'equazione di Fokker-Planck generalizzata
Ricordiamo l'equazione maestra che sottende alla dinamica del sistema di
k
specie
in interazione
k
X
d
−
P (n, t) =
(ε+
i εi+1 )T (n1 , ...ni − 1, ni+1 + 1, ...nk )P (n, t)+
dt
i=1
k
X
(ε−
i − 1)T (n1 , ..., ni + 1, ni+1 , ..., nk )P (n, t)+
(3.1)
i=1
k
X
(ε+
i − 1)T (n1 , ..., ni − 1, ni+1 , ..., nk )P (n, t)
i=1
in cui sono stati già introdotti gli operatori passo e dove indichiamo con
la probabilità di transizione del sistema da uno stato
n
T (n0 |n)
ad un diverso stato
n0 ,
compatibile con il primo.
La tecnica di van Kampen muove dall'ipotesi
dove, come già discusso in
ξi
ni
= φi (t) + √
N
N
√
precedenza, 1/ N gioca
(3.2)
il ruolo del piccolo parametro
nello sviluppo perturbativo. Come annunciato in sede introduttiva andiamo qui ad
3.1 Derivazione dell'equazione di Fokker-Planck generalizzata
operare uno sviluppo all'ordine successivo
1
49
rispetto a quello considerato in [2] e
rivisitato nel precedente capitolo. Con semplici passaggi si ottiene per l'operatore
ε±
i
la seguente espressione:
ε±
i = 1±
1 ∂2
1
1 ∂
∂3
+
±
.
N 1/2 ∂ξi 2N ∂ξi2 3!N 3/2 ∂ξi3
(3.3)
Per procedere nell'analisi si inserisce nell'equazione (3.1) l'ipotesi (3.2), esplicitando
poi le probabilità di transizione.
Il primo termine a destra del segno di uguaglianza nella (3.1) diventa:
ni ni+1
−
+ −
(ε+
i εi+1 − 1)T (n1 , ...ni − 1, ni+1 + 1, ...nk )P (n, t) = (εi εi+1 )ri+1
N N
h
ih
i
ξ
ξ
i
i+1
−
= (ε+
φi+1 + √ Π(ξ, τ ).
i εi+1 )ri+1 φi + √
N
N
(3.4)
Dopo aver inserito la (3.3) nella (3.4) possiamo isolare i contributi relativi ai vari
N −1/2 e N −1 , ottenia-
ordini dello sviluppo. Per quanto riguarda i termini di ordine
mo gli stessi contributi già discussi nel capitolo 2. Ci limitiamo quindi a riportare
nel seguito le espressioni relative ai soli contributi di ordine
Il contributo di ordine
N −3/2
N −3/2 .
prende la forma:
h1
1 ∂
∂ 3
∂ 2
1 ∂
−
−
r
(ξ
ξ
)
+
ri+1 (φi ξi+1 − φi+1 ξi )
i+1 i i+1
3! N 3/2 ∂ξi ∂ξi+1
2N 3/2 ∂ξi ∂ξi+1
i
∂ 1 ∂
−
r
φ
φ
Π(ξ, τ ).
+
i+1
i
i+1
3!N 3/2 ∂ξi ∂ξi+1
Per quanto riguarda il secondo termine a destra del segno di uguaglianza del-
l'equazione maestra (3.1) abbiamo:
k
X
nj −
(ε−
−
1)T
(n
,
...n
+
1,
n
,
...n
)
=
(ε
−
1)α
1
−
1
i
i+1
k
i
i
i
N
j=1
=
(ε−
i
− 1)αi
h
1−
k
X
φm
m=1
k
X
ξ i
√ i Π(ξ, τ ).
−
N
i=1
(3.5)
Inserendo lo sviluppo (3.3) dell'operatore
ε±
i
si ottiene all' ordine
N −3/2 :
k
k
X
1
∂3 1 ∂2 X −
αi 1 −
αi
φm −
ξw .
3!N 3/2 ∂ξi3
2N 3/2 ∂ξi2
m=1
w=1
1 L'analisi
dell'equazione
di
Fokker-Planck
generalizzata
per
autocatalitiche qui studiato è anche argomento di indagine in [26].
il
modello
di
equazioni
3.1 Derivazione dell'equazione di Fokker-Planck generalizzata
50
Dobbiamo inne discutere lo sviluppo dell'ultimo termine che compare a destra
del segno di uguaglianza dell'equazione (3.1), ovvero:
ξi +
√
(ε+
.
−
1)T
(n
,
...,
n
−
1,
n
,
...,
n
)
=
(ε
−
1)β
φ
+
1
i
i+1
k
i
i
i
i
N
Il contributo di
ordine N −3/2
è:
1
∂3
1 ∂2
β
ξ
+
βi φi .
i i
2N 3/2 ∂ξi2
3!N 3/2 ∂ξi3
Il membro sinistro dell'equazione (3.1) si riscrive come:
1 ∂Π
1 X ∂Π dφi
−√
N ∂τ
N i ∂ξi dτ
dove, come già ricordato in precedenza, abbiamo operato il cambio di variabile
τ = t/N .
Si procede poi in analogia con l'analisi sviluppata nel capitolo 2 isolando
i termini proporzionali a
N −1/2 ,
che danno conto della dinamica deterministica o
di campo medio, da quelli di ordine
N −1
e
N −3/2
riconducibili alle uttuazioni
stocastiche. Le equazioni di campo medio prendono la forma :
k
X
dφi
φm − βi φi
= (ri φi − ri+1 φi+1 )φi + αi 1 −
dτ
m=1
∀i = 1, ..., k.
(3.6)
Tali equazioni sono identiche a quelle trovate da [2] e già riprodotte nel capitolo
precedente. Continuano quindi a valere le stesse condizioni relative all'esistenza del
punto sso. Non riportiamo nel seguito i calcoli espliciti per l'ordine perturbativo
N −1 , e che ricalcano fedelmente l'analisi svolta in precedenza:
tributo di termini all'ordine
N −1
in conclusione, il con-
può riassumersi nell'equazione di Fokker-Planck
(2.29), per la distribuzione di probabilità delle uttuazioni. Nel seguito dicuteremo nel dettaglio la derivazione di contributi aggiuntivi nello sviluppo, ovvero le
correzioni di ordine
di Fokker-Planck.
N −3/2
che modicano strutturalmente la succitata equazione
Per rendere più leggibili i calcoli ed agevolare la presentazio-
ne, procediamo separando i vari termini a seconda dell'ordine di derivata che vi
compare.
3.1 Derivazione dell'equazione di Fokker-Planck generalizzata
Il termine di ordine
N −3/2
51
che coinvolge le derivate prime è esprimibile nella
seguente forma:
k h
k
X
X
∂
∂ i
∂
−
ri+1 ξi ξi+1 Π(ξ, τ ) =
[ri+1 ξi ξi+1 − ri ξi−1 ξi ]Π(ξ, τ )
∂ξ
∂ξ
∂ξ
i+1
i
i=1
i=1
k X
k
X
∂
=−
lij ξi ξj Π(ξ, τ ).
∂ξ
i
i=1 j=1
(3.7)
Usando poi le simmetrie sugli indici, chiara conseguenza della ciclicità delle reazioni, possiamo riscrivere il contributo relativo alle derivate prime introducendo
un' opportuna matrice che indicheremo con
ri = r

0


 r


 0


L= ...


 ...


 0

−r
nell'ipotesi semplicativa
∀i
r
Si tratta di una matrice
0
...
0
−r . . . . . .
0
r
0
... ... ...
................
. . . . . . . . . −r
... ...
0
k×k
che
assume la forma:
−r
0
L.
...
0
r
0
−r
0
r
0









.







(3.8)
La matrice è una matrice circolante, come confermato da una rapida ispezione
visiva.
Il contributo che coinvolge le derivate seconde può essere scritto anch'esso in
forma matriciale sfruttando le simmetrie intrinseche al sistema in esame.
termine assume la forma:
∂2 X
1 h ∂2
∂2
β
ξ
−
α
ξ
+
r
(ξ φ + φi ξi+1 )
i i
i
w
i+1
2 i i+1
2 ∂ξi2
∂ξi2
∂ξ
i
w
i
∂2
∂ ∂
(ξ
φ
+
φ
ξ
)
+
2r
(ξ
φ
+
φ
ξ
)
i i−1
i i−1
i+1
i i+1
i i+1 Π(ξ, τ )
∂ξi2
∂ξi ∂ξi+1
k X
k
X
∂
dij
=
∂ξi ∂ξj
i=1 j=1
+ ri
Tale
3.1 Derivazione dell'equazione di Fokker-Planck generalizzata
52
D k × k risulta essere:

P


β
ξ
−
α

i
i
i
w ξw + ri+1 (ξi φi+1 + ξi+1 φi ) + ri (ξi φi−1 + ξi−1 φi ) con i = j





−ri+1 (ξi φi+1 + ξi+1 φi ) j = i + 1
dove la matrice
dij =



−ri (ξi φi−1 + ξi−1 φi ) j = i − 1





0 altrimenti.
Assumendo l'ipotesi semplicatrice
βi = β , α = αi , ri = r,
nel seguito, si perviene ad una forma più compatta per la
con la quale opereremo
D.
Ricordiamo inoltre
che l'analisi che andiamo a sviluppare si rivolge a tempi lunghi quando il sistema
si trova a evolvere in un intorno di
dij =
φ∗ .
Per
φ = φ∗
si ha dunque:

P


βξi − α w ξw + r(ξi φ∗ + ξi+1 φ∗ ) + r(ξi φ∗ + ξi−1 φ∗ ) con i = j






−r(ξi φ∗ + ξi+1 φ∗ ) j = i + 1



−r(ξi φ∗ + ξi−1 φ∗ ) j = i − 1





0 altrimenti.
Caratterizziamo ora il termine che coinvolge le derivate del terzo ordine. Si ottiene
in particolare:
h
−
i
X
1 ∂3
1h ∂
∂ i3
1 ∂3
α
(1
−
φ
)
+
−
r
φ
φ
+
β
φ
Π(ξ, τ )
m
i
i+1 i i+1
3 i i
3! ∂ξi3
3!
∂ξ
∂ξ
3!
∂ξ
i
i+1
i
m
XXX
∂3
=−
eijw Π(ξ, τ )
∂ξ
∂ξ
∂ξ
i
j
w
w
i
j
dove, come nei casi precedenti abbiamo sfruttato la simmetria intrinseca del sistema
3.1 Derivazione dell'equazione di Fokker-Planck generalizzata
per scrivere tale contributo in forma compatta a mezzo della matrice
eijk



ri+1 φi φi+1 j = i w = i + 1







ri φi φi−1 j = i − 1 w = i − 1








ri+1 φi φi+1 j = i + 1 w = i



= −ri+1 φi φi+1 j = i + 1 w = i + 1






−ri φi φi−1 j = i w = i − 1







−ri φi−1 φi j = i − 1 w = i






−[β φ − α (1 − P φ ) + (r φ φ
i i
i
m
m
i+1 i i+1
53
E così denita:
− ri φi φi−1 )] i = j = w.
Anche in questo caso si eettuano le medesime semplicazioni ricordate in precedenza. La matrice
E
diventa:
eijk =



r(φ∗ )2






∗ 2


r(φ )






r(φ∗ )2



j =i w =i+1
j =i−1 w =i−1
j =i+1 w =i
−r(φ∗ )2 j = i + 1 w = i + 1





−r(φ∗ )2 j = i w = i − 1







−r(φ∗ )2 j = i − 1 w = i






−[βφ∗ − α(1 − kφ∗ )] i = j = w.
In conclusione, raccogliendo i vari contributi si perviene alla seguente equazione
per la distribuzione di probabilità delle uttuazioni
Π(ξ, τ ):
k
k
X
∂Π(ξ, τ )
∂
1 X ∂2
=−
[Ai (ξ)Π(ξ, τ )] +
[bij Π(ξ, τ )]
∂τ
∂ξi
2 i,j=1 ∂ξi ∂ξj
i=1
−
k
k
1 X ∂
1 X ∂2
[C
(ξ)Π(ξ,
τ
)]
+
[dij (ξ)Π(ξ, τ )]
i
N 1/2 i=1 ∂ξi
2N 1/2 i,j=1 ∂ξi ∂ξj
k
X
1
∂3
[eijw Π(ξ, τ )]
−
3!N 1/2 i,j,w=1 ∂ξi ∂ξj ∂ξw
dove abbiamo posto
Ci (ξ) =
k
X
j=1
lij ξi ξj .
(3.9)
3.1 Derivazione dell'equazione di Fokker-Planck generalizzata
54
equazione di Fokker-
Faremo nel seguito riferimento all'equazione (3.9) come all'
Planck generalizzata.
Trascurando i contributi di ordine
(3.9), e quindi la soluzione gaussiana multivariata per
nali al fattore di scala
N −1/2 ,
N −1/2 si ritrova l'equazione
Π(ξ, τ ).
Termini proporzio-
introducono eetti di distorsione nella
Π(ξ, τ )
che
ipotizziamo possano dar conto delle asimmetrie rilevate nelle simulazioni dirette (si
confronti la discussione del paragrafo 2.5).
In prima istanza, e per testare l'adeguatezza interpretativa dello scenario proposto, intendiamo stimare analiticamente i momenti terzi della
Π(ξ, τ ),
per poi
confrontare le predizioni teoriche con il dato numerico. In sostanza ci chiediamo se
l'estensione del calcolo perturbativo all'ordine successivo in
gliere quegli aspetti non gaussiani della
1/N 3/2
consente di co-
Π(ξ, τ ) evidenziati in precedenza e associati
alla presenza di momenti dispari.
Concludiamo questo paragrafo con alcune importanti considerazioni sulla consistenza matematica della formulazione (3.9). In linea di principio l'equazione di
Fokker-Planck generalizzata dovrebbe caratterizzare l'evoluzione temporale della
distribuzione di probabilità delle uttuazioni, una quantità denita positiva. All'ordine precedente nello sviluppo perturbativo, trascurando cioè i termini aggiuntivi di ordine
√
1/ N
che compaiono a destra del segno di uguaglianza nella (3.9),
si recupera l'equazione di Fokker-Planck (2.29), la cui soluzione, gaussiana multivariata, gode delle suddette proprietà. L'eetto delle perturbazioni indotte dalla
taglia nita è da questo punto di vista assolutamente cruciale. Come dimostrato in
[15, 14] e indipendentemente dallo specico valore di
N
considerato, non si ha più
la garanzia che la soluzione del problema (2.29) sia una funzione denita positiva,
ovvero una distribuzione di probabilità. Nonostante ciò, nella letteratura di settore
si stima, su base generalmente speculativa, che il problema della positività sia locale
(ad esempio connato nelle code della distribuzione) e che asintoticamente, ovvero
con approssimazioni di ordine successivo, si converga ad una soluzione matematicamente plausibile. A nostra conoscenza esiste tuttavia un solo lavoro che indaghi
il suddetto processo di convergenza. Si tratta di un semplice modello unidimensionale per il quale è possibile apprezzare il grado di progressiva similitudine fra la
3.2 Calcolo dei momenti
55
soluzione analitica, calcolata ai vari ordini, e quella numerica [16]. In questo lavoro
ci proponiamo di contribuire al dibattito in questione, esplorando i contributi non
gaussiani così come previsti nel quadro dello sviluppo di van Kampen [24], per un
modello più complicato, nel quale le correlazioni fra specie distinte siano rilevanti.
3.2 Calcolo dei momenti
Riferendoci all'equazione (3.9) calcoliamo analiticamente i primi tre momenti della
distribuzione delle uttuazioni. La procedura di calcolo è la stessa utilizzata nel
paragrafo 2.5, e come in precedenza, lavoriamo nel caso
formule abbiamo indicato con
veda (2.31)) e con
li,j
mi,j
l'elemento di posto
l'elemento di posto
ij
k = 4.
ij
Nelle successive
M,
(si
formula (3.8).
Ci
della matrice
L,
della matrice
limitiamo nel seguito a riportare le equazioni per l'evoluzione dei
momenti primi
così come ottenuti sulla base delle suddette procedure senza esporne nel dettaglio
la derivazione. Si ottiene la seguente equazione dierenziale:
d
< ξi >=mi,i < ξi > +mi,i−1 < ξi−1 > +mi,i+1 < ξi > +mi,i+2 < ξi+2 >
dt
1
+ 1/2 [li,i−1 < ξi ξi−1 > +li,i+1 < ξi ξi+1 >].
N
(3.10)
Metteremo dove possibile l'accento sulle dierenze che si manifestano per eetto dei
contributi di ordine superiore rispetto alle omologhe equazioni ottenute nel capitolo
2. Tale equazione dierisce da quella ottenuta nel paragrafo 2.5 per il contributo:
1
[li,i−1 < ξi ξi−1 > +li,i+1 < ξi ξi+1 >].
N 1/2
Grazie alla simmetria del problema legata in ultima analisi alla scelta
possiamo operare in uno scenario altamente semplicato.
ri = r ∀i,
Notiamo infatti che il
termine aggiuntivo sopra identicato coinvolge i momenti secondi già stimati in
precedenza.
In particolare all'ordine precedente si ha
√
Γ2 + o(1/ N ).
La correzione alla soluzione gaussiana contribuisce quindi con un
termine di ordine
considerata.
< ξi ξi+1 >=< ξi ξi−1 >=
1/N ,
che è lecito trascurare a livello dell'approssimazione qui
Ricordando poi che
li,i−1 = −li,i+1 ,
l'equazione dierenziale per i
3.2 Calcolo dei momenti
56
momenti primi risulta essere identica a quella calcolata nel capitolo 2. In sostanza
le correzioni al momento primo della distribuzione delle uttuazioni, scalano come
1/N , e sono quindi trascurabili rispetto all'ordine di approssimazione qui indagato.
Possiamo operare in completa analogia per la stima dei
momenti secondi , ot-
tenendo, a margine di una procedura di calcolo non dettagliata, le seguenti famiglie
di equazioni:
< ξ˙i2 >=2mi,i < ξi2 > +2mi,i+2 < ξi ξi+2 > +2mi,i+1 < ξi ξi+1 > +2mi,i−1 < ξi ξi−1 >
+ bi,i +
2
[li,i+1 < ξi2 ξi+1 > +li,i−1 < ξi2 ξi−1 >]
N 1/2
(3.11)
per la varianza di ciascuna specie (ricordando che il momento primo è nullo) e
2
< ξi ξ˙i+1 >=mi,i < ξi ξi+1 > +mi,i+2 < ξi+1 ξi+2 > +mi,i+1 < ξi+1
> +mi+1,i < ξi2 >
+ mi+1,i+1 < ξi ξi+1 > +mi+1,i+2 < ξi ξi+2 > +mi,i+1 < ξi2 >
1
1
1
2
+ mi,i+3 < ξi+1 ξi+3 > + bi,i+1 + bi+1,i + 1/2 [li,i+1 < ξi ξi+1
>
2
2
N
+ li,i−1 < ξi ξi−1 ξi+1 > +li+1,i < ξi2 ξi+1 > +li+1,i+2 < ξi ξi+2 ξi+1 >]
(3.12)
per le correlazioni fra popolazioni, dove l'indice varia da
1
a
4.
Le precedenti espressioni dieriscono dalle omologhe equazioni calcolate nel
capitolo 2 per il termine evidenziato tra parentesi. Sulla base di un semplice ragionamento deduttivo è facile convincersi che i momenti terzi scaleranno in prima
approssimazione come
√
1/ N ,
contribuendo di fatto con una correzione del tutto
trascurabile nelle equazioni (3.11) e (3.12).
simmetria della matrice
L,
Anche in questo caso, invocando la
si perviene alla conclusione che i momenti secondi non
sono perturbati dall'inclusione di correzioni di ordine superiore nello sviluppo degli
operatori passo.
Andiamo adesso a calcolare i
momenti terzi.
il calcolo esplicito dell'equazione dierenziale per
Riportiamo a titolo di esempio
< ξ˙i3 >,
mentre ci limiteremo a
fornire le equazioni di riferimento per tutti gli altri termini.
La tecnica di cal-
colo ricalca fedelmente quella adottata nel capitolo 2: partiamo dall'equazione di
3.2 Calcolo dei momenti
57
Fokker-Planck generalizzata nella forma (3.9) e moltiplichiamo ambo i membri per
la quantità di cui si vuole calcolare il momento. Si procede poi integrando su tutto
R,
e ottenendo formalmente la seguente equazione:
< ξ˙i3 > = −
Z
∞
k
X
ξi3
−∞ t=1
1
− 1/2
N
k
X
∞
Z
ξi3
−∞ t=1
Z
1
−
3!N 1/2
−∞ t,j,w=1
ξi3
∞
Z
∂
1
[Ct (ξ)Π(ξ, τ )]dξ +
∂ξt
2N 1/2
k
X
∞
∂
1
[At (ξ)Π(ξ, τ )]dξ +
∂ξt
2
k
X
ξi3
−∞ t,j=1
Z
∞
k
X
−∞ t,j=1
∂2
[btj Π(ξ, τ )]dξ
∂ξt ∂ξj
ξi3
∂2
[dtj (ξ)Π(ξ, τ )]dξ
∂ξt ∂ξj
∂3
[etjw Π(ξ, τ )]dξ
∂ξt ∂ξj ∂ξk
dove per il membro sinistro valgono le considerazioni già sviluppate al paragrafo
2.5.
Si nota, in analogia al caso precedente, che gli unici termini che contribui-
scono all'interno delle sommatorie sono solo quelli che hanno l'indice uguale a
i.
Esplicitando tali termini si perviene all'equazione:
∞
Z
∂
1 ∞ 3 ∂2
ξ
[Ai (ξ)Π(ξ, τ )]dξ +
[bii Π(ξ, τ )]dξ
∂ξi
2 −∞ i ∂ξi ∂ξi
−∞
Z ∞
Z ∞
2
1
1
3 ∂
3 ∂
ξi
ξ
[Ci (ξ)Π(ξ, τ )]dξ +
[dii (ξ)Π(ξ, τ )]dξ
− 1/2
N
∂ξi
2N 1/2 −∞ i ∂ξi ∂ξi
−∞
Z ∞
1
∂3
3
−
ξ
[eiii Π(ξ, τ )]dξ.
3!N 1/2 −∞ i ∂ξi ∂ξi ∂ξi
< ξ˙i3 > = −
Z
Consideriamo il
ξi3
primo termine
a destra del segno di uguaglianza. Integrando per
parti si ottiene la seguente espressione:
Z
∞
−
−∞
ξi3
Z ∞
∂
[Ai (ξ)Π(ξ, τ )]dξ = −
ξi3 Ai (ξ)Π(ξi , τ )|∞
−∞ dξ j6=i
∂ξi
−∞
Z ∞
+
3ξi2 Ai (ξ)Π(ξ, τ )dξ.
(3.13)
−∞
Supponendo che le soluzioni dell'equazione di Fokker-Planck generalizzata decadano all'innito in modo sucientemente rapido.
nullo per le note proprietà della
Π.
Il primo integrale dà contributo
Ricordando l'espressione esplicita di
Ai
si
3.2 Calcolo dei momenti
58
ottiene in denitiva:
Z
∞
3ξi2 [−rφ∗ ξi+1 + rφ∗ ξi−1 − α
−∞
X
ξj − βξi ]Π(ξ, τ )dξ = −3rφ∗ < ξi2 ξi+1 >
j
+ 3rφ∗ < ξi2 ξi−1 > −3α < ξi3 > −3α < ξi2 ξi+1 > −3α < ξi2 ξi−1 >
− 3α < ξi2 ξi+2 > −β < ξi3 > .
(3.14)
Passiamo ad analizzare il secondo termine nel membro destro dell'equazione
(3.13). Integrando due volte per parti e esplicitando l'espressione del coeciente
coinvolto, si ottiene:
1
2
Z
∞
ξi3 bii Π(ξ, τ )dξ
Z
∞
ξi bii Π(ξ, τ )dξ
=3
−∞
Z−∞
∞
=3
(2r(φ∗ )2 + α(1 − 4φ∗ ) + βφ∗ )ξi Πdξ
−∞
= 6r(φ∗ )2 < ξi > +3α < ξi > −12αφ∗ < ξi > +3βφ∗ < ξi > .
(3.15)
Integrando per parti il terzo termine a destra del segno di uguaglianza nell'equazione (3.13) si ricava:
1
− 1/2
N
Z
∞
−∞
ξi3
Z ∞
3
∂
[Ci (ξ)Π(ξ, τ )]dξ = 1/2
ξi2 Ci (ξ)Π(ξ, τ )dξ
∂ξi
N
−∞
1
= 1/2 [−3r < ξi3 ξi+1 > +3r < ξi3 ξi−1 >]
N
(3.16)
ed analogamente per il quarto termine si ottiene:
Z ∞
Z ∞
2
3
1
3 ∂
ξ
ξi dii Πdξ
[dii (ξ)Π(ξ, τ )]dξ = 1/2
2N 1/2 −∞ i ∂ξi ∂ξi
N
−∞
Z ∞
X
3
= 1/2
ξi Π[βξi − α
ξw + rξi φ∗ + rξi+1 φ∗ + rξi φ∗ + rξi−1 φ∗ ]
N
−∞
w
=
3
[β < ξi2 > −α < ξi2 > −α < ξi ξi+1 > −α < ξi ξi−1 > −α < ξi ξi+2 >
N 1/2
+ rφ∗ < ξi2 > +rφ∗ < ξi+1 ξi > +rφ∗ < ξi2 > +rφ∗ < ξi−1 ξi >].
(3.17)
3.2 Calcolo dei momenti
59
Il contributo dell'ultimo termine risulta essere:
Z ∞
Z ∞
1
∂3
1
3
−
ξ
[eiii Π(ξ, τ )]dξ = 1/2
eiii Π(ξ, τ )dξ
3!N 1/2 −∞ i ∂ξi ∂ξi ∂ξi
N
−∞
Z ∞
1
= 1/2
[βφ∗ − α(1 − 4φ∗ )]Π(ξ, τ )dξ
N
−∞
1
= 1/2 [βφ∗ − α(1 − 4φ∗ )]
N
(3.18)
dove si è integrato per parti tre volte eliminando i termini che non danno contributo.
Si è in particolare sfruttato il fatto che la
quindi l'integrale su tutto
R
Π
è una distribuzione di probabilità e
è identicamente uguale ad uno.
Compattando i contributi nora calcolati si ottiene inne:
< ξ˙i3 >=3m0 < ξi3 > +3m3 < ξi2 ξi−1 > +3m2 < ξi2 ξi+2 > +3m1 < ξi2 ξi+1 >
3
[m4 < ξi2 > +m3 < ξi ξi+1 > +m3 < ξi ξi−1 >
N 1/2
m5
1
+ 3m2 < ξi ξi+2 >] + 1/2 + 1/2 [3r < ξi3 ξi−1 > −3r < ξi3 ξi+1 >]
N
N
+ 3b0 < ξi > +
(3.19)
dove abbiamo introdotto le seguenti notazioni per i coecienti dei momenti:



m0








m1



m2






m3






m4
= −2α;
m6 = 0;
= −α − 5r ;
m7 = − 2r
;
5
= −α;
m8 =
= −α + 5r ;
m9 = − 5r ;
=
2r
;
5
r
;
25
m5 = 0.
dove abbiamo posto come ulteriore semplicazione
α=β
e
φ∗ = 1/5.
Facendo leva
sulle simmetrie proprie del sistema ed in completa analogia con il ragionamento
svolto nel capitolo 2, si possono identicare quattro famiglie distinte di momenti
terzi, oltre a quella già caratterizzata. Con passaggi simili a quelli sopra dettagliati
3.2 Calcolo dei momenti
60
si ottiene:
d
2
< ξi2 ξi−1 >=3m0 < ξi2 ξi−1 > +2m3 < ξi ξi−1
> +2m1 < ξi ξi+1 ξi−1 >
dt
+ 2m2 < ξi ξi−1 ξi+2 > +m3 < ξi2 ξi+2 > +m1 < ξi3 > +m2 < ξi2 ξi+1 >
1
2
> +m6 < ξi ξi+1 >
[m3 < ξi−1
N 1/2
m8
> +m2 < ξi−1 ξi+2 > +m7 < ξi2 >] − 1/2
N
+ b0 < ξi−1 > +2b1 < ξi > +
+ m3 < ξi+1 ξi−1
+
1
2
[−2r < ξi−1 ξi2 ξi+1 > +2r < ξi−1
ξi2 >
N 1/2
+ r < ξi2 ξi−1 ξi+2 > −r < ξi3 ξi−1 >]
(3.20)
e
d
2
< ξi2 ξi+1 >=3m0 < ξi2 ξi+1 > +2m3 < ξi ξi−1 ξi+1 > +2m1 < ξi ξi+1
>
dt
+ 2m2 < ξi ξi+1 ξi+2 > +m3 < ξi3 > +m1 < ξi2 ξi+2 >
+ m2 < ξi2 ξi−1 > +b0 < ξi+1 > +2b1 < ξi >
1
2
[m3 < ξi+1
> +m6 < ξi ξi+1 > +m3 < ξi+1 ξi+3 >
1/2
N
1
m8
2
+ m2 < ξi+1 ξi+2 > +m7 < ξi2 >] + 1/2 + 1/2 [−2r < ξi+1
ξi2 >
N
N
+
+ 2r < ξi−1 ξi+1 ξi2 > +r < ξi3 ξi+1 > −r < ξi2 ξi+1 ξi+2 >]
(3.21)
per le famiglie di momenti terzi delle uttuazioni, associate a popolazioni adiacenti
nell'ordinamento rispetto all'indice della specie
i.
Per le famiglie di momenti fra
specie alterne, ovvero dinamicamente sincronizzate, abbiamo:
d
< ξi2 ξi+2 >=3m0 < ξi2 ξi+2 > +2m3 < ξi ξi−1 ξi+2 > +2m1 < ξi ξi+1 ξi+2 >
dt
2
> +m3 < ξi2 ξi+1 > +m1 < ξi2 ξi−1 >
+ 2m2 < ξi ξi+2
+ m2 < ξi3 > +b0 < ξi+2 > +
1
2
[m2 < ξi+2
>
N 1/2
+ m4 < ξi ξi+2 > +m3 < ξi−1 ξi+2 > +m3 < ξi+1 ξi+2 >]
+
1
[−r < ξi2 ξi+1 ξi+2 > +r < ξi−1 ξi+2 ξi2 >].
1/2
N
(3.22)
3.2 Calcolo dei momenti
61
Inne per le famiglie di momenti a tre specie distinte si ricava:
d
2
2
< ξi ξi+1 ξi−1 >=3m0 < ξi ξi+1 ξi−1 > +m3 < ξi+1 ξi−1
> +m1 < ξi+1
ξi−1 >
dt
+ m2 < ξi+2 ξi+1 ξi−1 > +m3 < ξi2 ξi−1 > +m1 < ξi ξi+2 ξi−1 >
2
+ m3 < ξi ξi+1 ξi+2 > +m2 < ξi ξi−1
> +m1 < ξi2 ξi+1 >
2
> +b1 < ξi−1 > +b1 < ξi+1 >
+ m2 < ξi ξi+1
1
[m9 < ξi−1 ξi > +m9 < ξi+1 ξi > +m7 < ξi−1 ξi+1 >]
N 1/2
1
2
2
>].
ξi ξi−1 > +r < ξi+1 ξi ξi−1
+ 1/2 [−r < ξi+1
N
+
(3.23)
Nelle precedenti relazioni sono state scritte in forma compatta tutte le possibili permutazioni sugli indici. Come chiaramente si nota, i momenti quarti delle
uttuazioni entrano esplicitamente nella caratterizzazione dei momenti di ordine
tre. Anche in questo caso, come conseguenza della simmetria del problema si può
pensare di stimare tali contributi a partire dalla soluzione gaussiana, ovvero dai
momenti secondi, prescindendo da ulteriori correzioni in
√
1/ N ,
non rilevanti nel
presente contesto. Abbiamo quindi in tale approssimazione:
< ξi4 >= 3(< ξi2 >)2
(3.24)
< ξi3 ξj >= 3 < ξi2 >< ξi ξj >
< ξi2 ξj2 >=< ξi2 >< ξj2 > +2(< ξi ξj >)2
< ξi2 ξj ξk >=< ξi2 >< ξj ξk > +2 < ξi ξj >< ξi ξk > .
Essendo di fatto interessati alla dinamica del sistema all'equilibrio, ovvero alla caratterizzazione della distribuzione delle uttuazioni e dei momenti ad esso associati
nel regime stazionario, è lecito sostituire ai momenti del secondo ordine le quantità
Γ1 , Γ2 , Γ3 ,
già calcolate nel capitolo 2, in funzione dei parametri del modello.
3.2 Calcolo dei momenti
3.2.1
62
I momenti di ordine tre all'equilibrio
Considerando tutte le possibili permutazioni sugli indici e ponendo a zero le derivate dei momenti terzi, si ottiene un sistema algebrico di venti equazioni che per
comodità non scriveremo esplicitamente. Per chi fosse interessato, la forma esplicita
della matrice dei coecienti è riportata in appendice. Possiamo però semplicare
notevolmente la trattazione limitandoci a scrivere le equazioni per le
indipendenti. In forma matriciale il sistema diventa
Ẋ = V X + S .
5
famiglie
Il vettore
X
è
dato da:
X=
h
<
ξi3
> <
ξi2 ξi+1
e la matrice dei coecienti

3m0


 m3


V =  m1


 m2

0
3m1
V
> <
ξi2 ξi−1
> <
ξi2 ξi+2
> < ξi ξi+1 ξi−1 >
i
risulta essere:
3m3
3m2
0
3m0
2m1 + m2
m1
2m3 + 2m2
2m3 + m2
3m0
m3
2m1 + 2m2
m3
m1
3m0 + 2m2
2m3 + 2m1
m2 + m1
m3 + m2
m3 + m1
3m0 + m1 + m3 + m2






.




Inne l'espressione del vettore dei termini noti è:
i
√ h
S = 1/ N s1 s3 s5 s2 s4
dove



s1 = 3m4 Γ1 + 6m3 Γ2 + 3m2 Γ3







s2 = m4 Γ3 + 2m3 Γ2 + m2 Γ1








s3 = m3 Γ1 + m7 Γ1 + m3 Γ3 + m2 Γ2 + m6 Γ2 + m8 + [−2r(Γ1 )2 + 2rΓ3 Γ1 − 2rΓ3 Γ2



+2rΓ1 Γ2 ]







s4 = m7 Γ3 + 2m9 Γ2





s5 = m3 Γ1 + m7 Γ1 + m3 Γ3 + m2 Γ2 + m6 Γ2 − m8 + [2r(Γ1 )2 − 2rΓ1 Γ3 + 2rΓ3 Γ2






−2rΓ Γ ].
1 2
3.2 Calcolo dei momenti
63
In linea di principio il sistema è risolvibile analiticamente. Di fatto, però, la forma complicata dei coecienti rende il calcolo impraticabile. Ricordiamo inoltre che
siamo qui interessati alla dinamica per tempi lunghi, ovvero alla caratterizzazione
dei punti ssi associati al sistema in questione.
in denitiva porre a zero
Ẋ .
Calcolare il punto sso signica
La soluzione si ottiene invertendo la matrice
tale scopo abbiamo proceduto per via numerica.
V.
A
Si ottiene pertanto un'espres-
sione esplicita per i momenti terzi delle distribuzioni delle uttuazioni al variare
di parametri che deniscono la dinamica microscopica del modello. Nel prossimo
paragrafo vericheremo la correttezza di tale predizione, confontando la teoria con
il risultato delle simulazioni dirette.
3.2.2
Momenti terzi: confronto fra teoria e simulazioni
Nel paragrafo precedente abbiamo calcolato i primi tre momenti a partire dall'equazione di Fokker-Planck generalizzata. I momenti primi e secondi non cambiano
all'ordine
√
1/ N ,
rispetto alla soluzione gaussiana calcolata nel capitolo 2. Voglia-
mo ora testare la correttezza delle predizioni per quanto riguarda i momenti terzi
che, ricordiamo, scalano con
√
1/ N .
Le simulazioni sono realizzate utilizzando
un'implementazione dell'algoritmo di Gillespie e monitorando al variare del tempo
i momenti di ordine tre rilevanti per la presente analisi. I risultati sono mostrati
nelle gure che riportiamo, ordinate per famiglie omologhe e confrontate con la
predizione analitica (linea a tratto continuo).
L'accordo è decisamente soddisfacente, osservazione che costituisce una conferma a posteriori della validità del metodo perturbativo e delle approssimazioni
impiegati.
In sostanza, e con riferimento ad un modello complesso in cui popolazioni distinte interagiscono mutuamente, abbiamo mostrato come l'ipotesi di van Kampen
risulti ecace nel rappresentare la dinamica del sistema al di là dell'approssimazione gaussiana. È questo un risultato per certi versi sorprendente: come ricordiamo,
l'ipotesi di van Kampen sembra infatti assumere aprioristicamente una distribuzio-
3.2 Calcolo dei momenti
Figura 3.1:
64
Evoluzione temporale della famiglia < ξi3 > moltiplicato per il fattore di
scala N −1/2 . La linea tratteggiata identica la soluzione a punto sso, così come ricavata
in precedenza. Le curve colorate sono ottenute con simulazioni numeriche e si riferiscono
alle specie considerate. Parametri N=2000 α = β = 0.2 r = 10.
ne gaussiana nelle uttuazioni, argomento posto ad esempio in [10] per giusticare
l'origine del fattore di scala
√
1/ N .
Forti delle conclusioni qui raggiunte ed in accordo qualitativo con i risultati
del già citato lavoro [16] riteniamo plausibile propendere per l'adeguatezza della
procedura di van Kampen nella determinazione dei comportamenti non gaussiani
delle uttuazioni statistiche, così come rilevate in simulazioni di sistemi di taglia
mediamente piccola. Appare quindi di assoluta centralità un'approfondita riessione sui fondamenti teorici che ispirano il metodo perturbativo adottato, direzione
d'indagine che sta catalizzando l'interesse di numerosi esperti del settore [9]. Tali
approfondimenti esulano comunque dalla presente trattazione. La parte rimanente
del capitolo sarà dedicata alla derivazione di una soluzione approssimata per la
distribuzione di probabilità delle uttuazioni, a partire dalla quale stimeremo la
probabilità di estinzione caratteristica del sistema.
3.3 La distribuzione teorica Π(ξ) delle uttuazioni
Figura 3.2:
Comportamento della famiglia
< ξi ξi+1 ξi−1 >. Parametri come in gura
3.1.
Figura 3.4:
Comportamento della famiglia
< ξi ξi ξi−1 >. Parametri come in gura 3.1.
Figura 3.3:
65
Comportamento della famiglia
< ξi2 ξi+2 >. Parametri come in gura 3.1.
Figura 3.5:
Comportamento della famiglia
< ξi2 ξi+1 >. Parametri come in gura 3.1.
3.3 La distribuzione teorica Π(ξ) delle uttuazioni
L'intento che vogliamo ora perseguire è quello di stimare, sotto opportune approssimazioni, la distribuzione delle uttuazioni
Π(ξ),
sfruttando a tale scopo la
conoscenza pregressa dei momenti. Facciamo l'ipotesi di lavoro che tale distribuzio-
3.3 La distribuzione teorica Π(ξ) delle uttuazioni
66
ne sia uguale per ciascuna specie, come d'altra parte confermato per via simulativa
(dati non mostrati).
che il momento
È chiaro dall'analisi delle gure precedentemente riportate
< ξi3 >
è dominante rispetto agli altri momenti di ordine analo-
go, che risultano signicativamente più piccoli. Per questo motivo disaccoppiamo
idealmente il sistema, considerando ogni specie come indipendente e trascurando
il ruolo delle correlazioni. In altre parole operiamo in un contesto unidimensionale fattorizzando la
con
Π(ξ)
Π1 (ξ1 )Π2 (ξ2 )Π3 (ξ3 )Π4 (ξ4 ).
come
(funzione della generica componente
distribuzione
Π(ξ)
Denizione 10.
P (ξ)
Π(ξ)
la funzione:
ξ
Nel seguito indicheremo
del vettore
ξ)
la proiezione della
lungo la direzione di interesse.
Si denisce funzione caratteristica
R∞
ϕ(t) =
−∞
eitξ Π(ξ)dξ ,
ϕ
associata alla distribuzione
ovvero la trasformata di Fourier della
distribuzione stessa.
Partendo dalla denizione di funzione caratteristica possiamo sviluppare l'esponenziale in serie di potenze, ottenendo:
Z
∞
Z
itξ
ϕ(t) =
e Π(ξ)dξ =
−∞
Z
=
∞
∞
X
(itξ)k
−∞ k=0
∞
Z
∞
k!
Π(ξ)dξ
Z
∞
Π(ξ)dξ +
i2 t2 ξ 2
Π(ξ)dξ +
2!
itξΠ(ξ)dξ +
−∞
−∞
−∞
Z ∞ 44 4
Z ∞ 55 5
itξ
itξ
+
Π(ξ)dξ +
Π(ξ)dξ + ... .
4!
5!
−∞
−∞
Z
∞
−∞
i3 t3 ξ 3
Π(ξ)dξ
3!
(3.25)
Ricordando la denizione 9 di momento si ottiene immediatamente:
ϕ(t) = 1 + it < ξ > +i2
t2
t3
t4
t5
< ξ 2 > +i3 < ξ 3 > +i4 < ξ 4 > +i5 < ξ 5 > +... .
2!
3!
4!
5!
(3.26)
Possiamo quindi ricavare un'espressione approssimata per la
ϕ(t) a partire dai mo-
menti precedentemente stimati, per poi ottenere, tramite trasformata di Fourier
inversa, una formula analitica chiusa per la
Π(ξ),
ovvero la distribuzione di inte-
resse. Raccogliendo i termini di ordine pari, ed isolando contestualmente quelli di
3.3 La distribuzione teorica Π(ξ) delle uttuazioni
67
ordine dispari, si arriva alla relazione:
t3
t2
t4
1 < ξ5 > 2
2
4
3
ϕ(t) = 1 − < ξ > + < ξ > ... − i < ξ > 1 −
t + ...
2!
4!
3!
20 < ξ 3 >
dove abbiamo fatto esplicito uso del fatto che
< ξ >= 0.
(3.27)
Immaginiamo che anche il
momento quinto sia noto. Ritorneremo poi sulla possibilità di elaborare una stima
approssimata dello stesso.
−ξ 2
e
Ricordando quindi lo sviluppo in serie della funzione
possiamo pensare di approssimare la funzione caratteristica come:
t2
t3
1 < ξ5 > 2
ϕ(t) w exp − < ξ 2 > − i < ξ 3 > exp −
t
2!
3!
20 < ξ 3 >
(3.28)
espressione che risulta certamente corretta per l'ordine perturbativo considerato.
Poniamo
b2 =
1 <ξ 5 >
. Eettuiamo poi l'antitrasformata di Fourier della
20 <ξ 3 >
ϕ(t).
Il
termine gaussiano porta a:
FT
−1
t2
1
ξ2
2
exp − < ξ >
=p
,
exp −
2!
2 < ξ2 >
2π < ξ 2 >
mentre per quanto riguarda il secondo contributo otteniamo:
t3
< ξ 3 > d3
F T −1 − i < ξ 3 > exp(−b2 t2 ) = −
F T −1 (exp(−b2 t2 )) =
3!
3! dξ 3
1
1 < ξ 3 > d3
ξ2 −√ √
exp
−
.
4b2
2π 2b 3! dξ 3
(3.29)
D'altra parte:
ξ2 ξ2 1 h
ξ3 i
d3
exp
−
=
exp
−
3ξ
−
.
dξ 3
4b2
4b2 4b4
2b2
per cui abbiamo in conclusione la seguente espressione per la distribuzione delle
uttuazioni normalizzata:
ξ2 1 h
1
ξ2
1 < ξ3 >
ξ3 i
√
Π(ξ) = p
exp(−
)
−
exp
−
3ξ
−
.
2 < ξ2 >
4b2 4b4
2b2
2 πb2 3!
2π < ξ 2 >
(3.30)
Come già osservato, il termine
b2
contiene il momento quinto di cui non conosciamo
l'espressione analitica. È facile convincersi, ragionando in modo analogo con quanto
già fatto per il momento terzo, che il momento quinto scala come
√
a/ N ,
dove
a
è
un fattore numerico, di ordine uno, ignoto. In linea puramente teorica potremmo
3.3 La distribuzione teorica Π(ξ) delle uttuazioni
Figura 3.6:
68
Il momento quinto per diversi valori N. I simboli si riferiscono a valori
√
ricavati dalle simulazioni numeriche. La linea continua corrisponde alla curva a/ N con
a =< ξ 5 >N =512 = 0.1.
pensare di calcolare
< ξ5 >
procedendo con una generalizzazione all'ordine cinque
dei conti sviluppati nel paragrafo 3.2 per il momento terzo.
possiamo pensare di ottenere una stima numerica di
diretta per un valore di
fattore
√
1/ N ,
N
Alternativamente
a, realizzando una simulazione
ssato, ed utilizzando poi tale valore, riscalato dal
per la determinazione del momento
< ξ5 >
relativo a sistemi di
taglia diversa. La validità dello schema proposto è confermata dall'analisi in gura
3.6, dove confrontiamo i valori di
proposta
√
a/ N ,
e
a
< ξ5 >
è posto uguale a
0.1,
calcolati nelle simulazioni con la curva
valore stimato per
N = 512.
Possiamo ora chiederci se con le correzioni apportate alla distribuzione
Π(ξ)
siamo in grado di cogliere l'asimmetria riscontrata nelle gure del capitolo 2 per
bassi valori di N. Il confronto è operato per le quattro specie di riferimento, nelle
gure 3.6, 3.7, 3.8 e 3.9.
L'accordo fra simulazioni e curve teoriche è soddisfacente per tutti i valori di
N
considerati. La curva rappresentante l'equazione (3.30) risulta interpolare i dati
in maniera decisamente più accurata rispetto al prolo gaussiano che coinvolge
solo il momento secondo.
Siamo quindi in grado di spiegare l'asimmetria nella
distribuzione delle uttuazioni, fenomeno già discusso in conclusione del capitolo
2.
3.3 La distribuzione teorica Π(ξ) delle uttuazioni
Figura 3.7:
69
La linea continua nera è la distribuzione delle uttuazioni calcolata nel
capitolo 2. La linea continua rossa è la distribuzione (3.30). I simboli verdi sono i
risultati delle simulazioni con N = 100 α = β = 2 r = 10. La gura si riferisce alla specie
1. Le curve sono normalizzate dividendo per il rispettivo valore massimo.
Figura 3.8:
La linea continua nera è la distribuzione delle uttuazioni calcolata nel
capitolo 2. La linea continua rossa è la distribuzione (3.30). I simboli verdi sono i risultati
delle simulazioni con N = 250. Gli altri parametri sono ssati come in gura 3.6.
3.3 La distribuzione teorica Π(ξ) delle uttuazioni
Figura 3.9:
70
La linea continua nera è la distribuzione delle uttuazioni calcolata nel
capitolo 2. La linea continua rossa è la distribuzione (3.30). I simboli verdi sono i risultati
delle simulazioni con N = 500. Gli altri parametri sono ssati come in gura 3.6.
Figura 3.10:
La linea continua nera è la distribuzione delle uttuazioni calcolata nel
capitolo 2. La linea continua rossa è la distribuzione calcolata nell'equazione (3.30). I
simboli verdi sono i risultati delle simulazioni con N = 700. Gli altri parametri sono
ssati come in gura 3.6.
3.4 Probabilità di estinzione
71
3.4 Probabilità di estinzione
A partire dalla determinazione della funzione distribuzione delle uttuazioni, stimata approssimativamente sotto l'ipotesi di fattorizzazione discussa nel paragrafo
precedente, possiamo analizzare nel dettaglio il processo di estinzione nel quale
potenzialmente incorrono le specie interagenti.
Nel problema indagato infatti il
sistema tende naturalmente verso un punto sso non banale della dinamica, caratterizzato da una concentrazione di costituenti diversa da zero.
D'altra parte
il sistema ammette anche uno stato assorbente al bordo: uttuazioni di ampiezza maggiore di
√
φ∗ N
possono destabilizzare la dinamica di una singola specie,
determinandone l'estinzione. Nel caso del modello qui considerato è sempre possibile reintrodurre elementi della specie estinta, grazie al usso migratorio dal bagno
esterno verso il volume cellulare. Nel limite di
N
relativamente grande, le uttua-
zioni che sottendono al processo di estinzione sono gaussiane, come ampiamente
discusso in precedenza.
La probabilità di estinzione
est
Pgauss
è quindi banalmente
stimabile come:
est
Pgauss
√ p
1
∗
2
=
erf[∞] − erf[Φ N / 2 < ξ >] .
2
Per sistemi di taglia più contenuta le uttuazioni sono approssimativamente distribuite come previsto secondo la formula (3.30) ed in particolare mostrano una chiara
asimmetria. La coda sinistra del prolo di distribuzione, si veda ad es. la gura
3.7, decade più rapidamente della destra: sarà conseguentemente più plausibile registrare uttuazioni importanti nel semiasse a
che a
ξ
ξ
positive (grandi densità) piuttosto
negative (rischio di estinzione). Matematicamente possiamo stimare come
cambia la probabilità di estinzione ad
N
nito, usando la (3.30), rispetto al valore
2
precedentemente calcolato con riferimento al caso gaussiano ideale, ottenendo :
PNest
est
Pgauss
2 Nel
Π(ξ)
√ 2
√
∗
exp − (−φ4b2N ) [2C1 b2 − C1 (φ∗ N )2 ]
=1−
√ p
1
∗ N/
2 >]
erf[∞]
−
erf[φ
2
<
ξ
2
seguito ci limiteremo a considerare valori di
è garantita.
N
(3.31)
per i quali la positività della distribuzione
3.4 Probabilità di estinzione
dove:
72


C1 = − <ξ√3 >5
48 πb

b 2 =
1 <ξ 5 >
.
20 <ξ 3 >
I dettagli della procedura di calcolo che portano alla (3.31) sono riportati in appendice. L'espressione (3.31) è rappresentata in gura 3.11, in funzione della taglia
del sistema
N.
Al diminuire di
N
la probabilità di estinzione diventa più piccola
rispetto a quella calcolata sotto l'ipotesi di normalità. La diminuizione della probabilità risulta tuttavia poco signicativa (≈
3%)
per i parametri considerati. Si
tratta di una predizione analitica che intendiamo testare in futuro con simulazioni
al calcolatore.
Figura 3.11:
La linea continua rappresenta il rapporto espresso dalla formula (3.31) in
funzione della taglia del sistema N con r = 10, α = β = 2.
Conclusioni
In questo lavoro di tesi abbiamo studiato la dinamica stocastica di un sistema di
reazioni autocatalitiche. Come ricordato in sede introduttiva, il problema si inquadra in un contesto più ampio che mira all'elaborazione di un modello consistente
di cellula minimale.
Più specicatamente è ragionevole supporre che reazioni di tipo autocatalitico
abbiano avuto luogo all'interno delle protocellule, le progenitrici delle attuali unità
cellulari. Dal punto di vista dell'analisi teorica il problema si riconduce allo studio
della dinamica microscopica delle popolazioni coinvolte.
Il modello qui discusso
contempla, oltre al succitato schema autocatalitico, la possibilità che le molecole possano attraversare la membrana cellulare.
una riserva innita di reagenti.
La cellula è pensata immersa in
A causa della discretezza del mezzo molecolare,
e come eetto del rumore interno che ne consegue, insorgono dinamiche collettive auto-organizzate che abbiamo indagato.
Ci siamo serviti a tale scopo di un
approccio complementare, combinando tecniche numeriche ispirate al celebre algoritmo di Gillespie, ad una dettagliata caratterizzazione analitica del modello. Si è
in particolare proceduto all'applicazione sistematica dello sviluppo di van Kampen,
recuperando il livello descrittivo di campo medio ed elaborando sul ruolo cruciale
giocato dalle uttuazioni stocastiche.
Nella prima parte della tesi abbiamo rivisitato i risultati ottenuti nel lavoro di
Di Patti
et al [2], discutendo la derivazione formale dell'equazione di Fokker-Planck,
che governa la dinamica delle suddette uttuazioni. Con riferimento ad un modello
di quattro specie indipendenti, abbiamo calcolato in forma analitica chiusa i mo-
Conclusioni
74
menti secondi, e le relative correlazioni, spiegando su base teorica i meccanismi
di sincronizzazione rilevati nelle simulazioni.
Ricostruendo numericamente la di-
stribuzione delle uttuazioni relativa ad una qualsiasi delle specie interagenti, si
è mostrata la presenza di una chiara asimmetria della stessa, che interviene per
piccoli valori di
N,
la taglia del sistema.
Motivati da questa evidenza numerica, nella seconda parte della tesi abbiamo
esteso lo sviluppo perturbativo di van Kampen all'ordine successivo, rispetto all'approssimazione considerata in [2], nel tentativo dichiarato di dare conto di tali
aspetti di non gaussianità. La derivazione ha portato alla denizione di un'equazione di Fokker-Planck generalizzata, ovvero modicata per la presenza di termini
aggiuntivi dipendenti esplicitamente da
N.
Il calcolo dei momenti di ordine tre, ed
il prolo della distribuzione delle uttuazioni, conseguentemente ottenuto mostrano
un accordo soddisfacente con le simulazioni.
Il confronto operato tra teoria ed esperimenti al calcolatore di tipo Monte Carlo, costituisce una validazione a posteriori della procedura perturbativa adottata.
Sorprendentemente l'ipotesi di van Kampen, spesso invocata facendo ricorso al
teorema del limite centrale [3], riesce a cogliere i tratti non gaussiani nella distribuzione delle uttuazioni. Sono queste modiche del prolo atteso che intervengono
per sistemi di taglia ridotta e che possono avere un impatto non trascurabile nella
stima di quantità di interesse generale, quali il tempo caratteristico di estinzione.
Il lavoro qui discusso si colloca nell'ambito del dibattito sulla validità dell'ipotesi di
van Kampen, oltre il regime delle uttuazioni gaussiane, dimostrando l'adeguatezza
di tale procedura per un sistema complesso multidimensionale. È nostra intenzione speculare in futuro sui fondamenti matematici dell'assunto di van Kampen, nel
tentativo di inquadrare il problema in un contesto formalmente rigoroso, che muova da una approfondita discussione delle già citate connessioni con il teorema del
limite centrale.
Appendice
A.1 Sviluppo di van Kampen
Di seguito discutiamo la formulazione generale dello sviluppo di van Kampen, tecnica di approssimazione dell'equazione maestra. Tale sviluppo ha come punto di
partenza l'ipotesi (1.19), usata in precedenza, in cui la variabile x è estensiva (ad
esempio: numero di molecole) ed il parametro
ε
rispetto al quale si opera lo svi-
luppo rappresenta la taglia del sistema (ad esempio il volume del contenitore delle
molecole).
∆x
è una variabile intensiva (ad esempio la concentrazione di molecole).
ε
Inserendo nell'equazione maestra
ν = x − x0
densità di transizione le funzioni
Φ1 , Φ2 ...
e considerando che nello sviluppo della
siano trascurabili si ottiene:
x
o
X n x − ν ∂P (x, t)
= εf (ε)
Φ0
, ν P (x − ν, t) − Φ0 , −ν P (x, t)
∂t
ε
ε
ν
(A.32)
Eettuando il cambio di variabile:
x = εϕ(t) + ε1/2 ξ
ed inserendolo poi in (A.32) si ottiene:
hX
dϕ ∂Π
∂Π
− ε1/2
=εf (ε)
Φ0 (ϕ(t) + ε−1/2 ξ − ε−1/2 ν; ν)Π(ξ − ε−1/2 , t)−
∂t
dt ∂x
ν
i
X
−1/2
Φ0 (ϕ(t) + ε
ξ, −ν)Π(ξ, t)
ν
(A.33)
dove
Π(ξ, t)
è la distribuzione delle uttuazioni.
A.1 Sviluppo di van Kampen
76
Il fattore nella parentesi quadra va a zero come
ε−1/2 .
Per ottenere gli ordini
successivi è conveniente scriverlo nella seguente forma:
h i
=
Xn
− ε−1/2 ν
ν
o
∂
1
∂2
+ ε−1 ν 2 2 − ... Φ0 (ϕ + ε−1/2 ξ; ν)Π(ξ, t)
∂x 2
∂x
ricavando così un'equazione che non coinvolge più la probabilità
nuova funzione
Π(ξ, t).
stessa potenza di
ε.
ϕ
f (ε)t = τ
si ottiene:
X
∂Π
−1/2 ∂Π
=ε −ε
νΦ0 (ϕ, ν)
dτ ∂ξ
∂ξ
ν
1/2 dϕ
Entrambi i membri coinvolgono il fattore
ogni scelta di
ma una
Possiamo uguagliare tra loro i termini che presentano la
Eettuando un cambio di tempo
−ε
P (x, t)
(A.34)
(A.35)
∂Π
, quindi l'equazione è soddisfatta per
∂ξ
che risolve la seguente equazione:
dϕ X
=
νΦ0 (ϕ, ν).
dτ
ν
Questa è l'equazione che descrive l'evoluzione macroscopica della
x.
I contributi di
ordine zero invece danno luogo alla seguente equazione:
nX
o∂
o ∂ 2Π
∂Π
1n X 2
=−
νΦ00 (ϕ, ν)
ξΠ +
ν Φ0 (ϕ, ν)
∂τ
∂ξ
2 ν
∂ξ 2
ν
(A.36)
che coinvolge le uttuazioni, nota come l'equazione di Fokker-Plank. Lo sviluppo
di van Kampen è dunque un metodo generale con cui ottenere un'approssimazione
dell'equazione maestra.
A.2 Forma esplicita del sistema dei momenti terzi
77
A.2 Forma esplicita del sistema dei momenti terzi
In questa appendice riportiamo esplicitamente la forma del sistema ottenuto nel
capitolo 3, che caratterizza l'evoluzione dinamica dei momenti terzi.
prende la forma
Ẋ = V X + S ,
dove
V
è una matrice
20 × 20.
Il sistema
Il vettore
X
si può
scrivere come:
X=
h
X1 X2 X3 X4 X5
i
dove
X1 =
X2 =
h
X3 =
h
ξ23
>, <
S=
dove
ξ22 ξ1
h
<
<
ξ32 ξ1
ξ42 ξ1
>, <
>, <
ξ32 ξ2
ξ42 ξ2
>, <
>, <
ξ32 ξ4
ξ42 ξ3
>, <
ξ43
>
i
i
>, < ξ3 ξ4 ξ1 >
S
i
>
< ξ22 ξ3 >, < ξ22 ξ4 >, < ξ2 ξ3 ξ4 >, < ξ33 >
Con riferimento alla soluzione a punto sso, il vettore
h
i
< ξ13 >, < ξ12 ξ2 >, < ξ12 ξ3 >, < ξ12 ξ4 >
< ξ1 ξ2 ξ3 >, < ξ1 ξ2 ξ4 >, <
h
X4 =
X5 =
h
i
.
dei termini noti risulta:
s1 s2 s4 s3 s5 s5 s1 s3 s2 s4 s5 s1 s4 s3 s2 s1 s2 s4 s3 s5
si
con
i = 1, ..., 5
sono i coecienti riportati a pg 62.
scritta in forma estesa è data da:
Inne la matrice
V
i
.
0
0
0
0
0
0
2m3
0
0
0
0
0
0
0
0
0
m2
0
m3 m1
0
0
0
0
0
0 2m1
0
0
m1 m2 m2 m3
0
0
0
0
0
0
0
0
0
0
0
0
0 2m1
0 2m2
0
0
0
0
0
0 2m2
0
0
0
0
0
m1 m2
0 2m3
0
m3 m2 3m0 m1 2m2
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
m3 m1
0
0 2m1
0
0
0
m1 m2
0
0
0
0
0
m2 3m0 m1 m3
0 3m0 3m2 3m3 3m1
0
0
0
0
0
m1
0 2m2
0
0
0
0
0
m3
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0 2m1
0
0
0
m1 m2
0 2m2
0
0
0
m2 m3
0
0
0
0
0
0
0
m2 m3 3m0 m1
m3 3m0 m1 m2
0 3m0 3m1 3m2 3m3
0
0
0
0
0
0
0
0
0
0
0
0 2m3
0
0
0
0
m2
0
m1
0
m3
0 2m3 m1 m2 m3 3m0
0
0
0
0 2m3 m3 m1 m2 3m0
0 2m2 2m3
0
0
0
0
0
0 2m2
0
0
0 2m1 m1 m3 3m0 m2
0
0
m2 m3 3m0
0 2m3
0
0
0
0 2m3 m2 m1 m3 3m0 2m1
0 2m2
0
0
0
0
0 2m1 2m2 m1 3m0 m2 m3
0 2m3
m3
0
0
0
0
m1 m2
0
0
0
0
0
0 3m0 3m3 3m1 3m2
0
0
0
m3 m3 3m0
0
m1
0
0 3m0 m1
0 2m1
m2 m3
m2 m3 3m0
0
0
0
m3 3m0 m1 2m1
0
0 2m1
0
3m0 m1 m2 2m2 2m3
3m0 3m1 3m2 3m3


 m3


 m2


 m1


 0


 0


 0


 0


 0


 0
V =

 0


 0


 0


 0


 0


 0


 0


 0


 0

0




0 


2m3 


2m2 


m2 


m1 


0 


0 


0 


0 


m3 


0 


2m1 


0 


2m2 


0 


2m3 


0 


2m1 

3m0
0
A.2 Forma esplicita del sistema dei momenti terzi
78
A.3 Calcolo della probabilità di estinzione
79
A.3 Calcolo della probabilità di estinzione
In questa appendice discuteremo nel dettaglio i passaggi che hanno condotto alla
scrittura della formula (3.31). La stima della probabilità di estinzione consiste nel
calcolare l'integrale della distribuzione delle uttuazioni da
con
−∞
a
√
−φ∗ N ,
φ∗ abbiamo indicato il punto sso della dinamica di campo medio.
Z
√
−φ∗ N
−∞
Z
Si ha quindi:
1
ξ2
p
)dξ
exp(−
2 < ξ2 >
2π < ξ 2 >
√
−φ∗ N
−
−∞
dove
h
ξ3 i
1 <ξ >
2
2 1
√
exp(−ξ /4b ) 4 3ξ − 2 dξ.
4b
2b
2 πb2 3!
3
(A.37)
Separiamo i due integrali. Il primo può essere semplicemente riscritto come
√ p
1
erf[∞] − erf[φ∗ N / 2 < ξ 2 >]
2
dove abbiamo utilizzato la denizione della funzione errore:
2
erf(ξ) = √
π
Poniamo
Z
√
−φ∗ N
−∞
3
> 1
C1 = − 12<ξ√πb
2 4b4
ξ
Z
exp(−t2 )dt.
0
e separiamo il secondo integrale in due contributi come:
1 h
ξ3 i
1 < ξ3 >
√
exp(−ξ 2 /4b2 ) 4 3ξ − 2 dξ
4b
2b
2 πb2 3!
Z −φ∗ √N
Z −φ∗ √N
1
1 ξ3
= C1
exp(−ξ 2 /4b2 ) 4 3ξ −
C1 exp(−ξ 2 /4b2 ) 4 2
4b
4b 2b
−∞
−∞
= I1 − I2 .
Con facili passaggi si ottiene:
∗
−φ
I1 = −6C1 b2 exp(−ξ 2 /4b2 )|−∞
√
N
√
= −6C1 b2 exp(−(−φ∗ N )2 /4b2 )
−(−φ∗ √N )2 −(−φ∗ √N )2 i
√
+ 4b2 exp
.
I2 = C1 (−φ∗ N )2 exp
4b2
4b2
h
Bibliograa
[1] P. Baldi,
Calcolo delle probabilità, Mc Graw-Hill, Milano, (2007).
[2] T. Dauxois, F. Di Patti, D. Fanelli, A. J. McKane, Enhanced stochastic
oscillations in autocatalytic reactions,
Phys. Rev.E, 036112, 1-7, (2009).
[3] F. Di Patti, D. Fanelli, Can a microscopic stochastic model explan the
emergence of pain cycles in patients,
[4] F. Di Patti,
J. Stat. Mech. (1), P01004, 1-14, (2009).
Finite-size eects in stochastic modells of population dynamics:
Application to biomedicine and biology,
Tesi di Dottorato in Dinamica non
lineare e sistemi complessi, Università di Firenze, (2009).
[5] M.
Eigen,
P.
Schuster,
The
hypercycle.
A
principle
organization. Part A: Emergence of the hypercycle,
of
natural
self-
Naturwissenschaften 64,
541-565, (1977).
[6] C. W. Gardiner,
Handbook of stochastic Methods,
Third edition, Springer-
Verlag, Berlin, (2004).
[7] D. T. Gillespie, A general method for numerically simulating the stochastic
time evolution of coupled chemical reactions,
J. Comput. Phys. 22, 403-434,
(1976).
[8] D. T. Gillespie, Exact stochastic simulation of coupled chemical reactions,
J. Chem. Phys. 81 (25), 2340-2361, (1977).
[9] M.Gitterman, Mean rst passage time for anomalus diusion,
Review E, 62 (5), 6065-6070, (2000).
Physical
BIBLIOGRAFIA
81
[10] A. J. McKane, T. J. Newman, Predator-Prey cycles from resonant amplication of demographic stochasticity,
Phys. Rev. Lett. 94,
218102, 1-4,
(2005).
[11] A. J. McKane, T. J. Newman, Stochastic models in population biology and
their deterministic analogs,
[12] P.L. Luisi,
[13] M.Ochi,
Phys. Rev. E, 70, 041902, 1-19, (2004).
The Emergence of Life, Cambridge University press (2006).
Applied probability and stochastic process in engineering and physical
sciences, John Wiley and sons, New York, (1990).
[14] R.F.Pawula, Approximation of the linear Boltzman equation by the FokkerPlanck equation,
[15] R.F.Pawula,
Phys. Rev. 162 (1), 186-188 (1967).
Generalizations
Kolmogorov Equations,
and
Extensions
of
the
Fokker-Planck-
IEEE transactions on information theory, 13
(1),
33-41, (1967).
[16] H.Risken,
The Fokker-Planck Equation,
Second edition,
Springer-Verlag,
Berlin Heidelberg New York, (1989).
[17] H.Risken, H.D.Vollmer, On the application of truncated generalized FokkerPlanck Equations,
[18] Y. Rubinstein,
Zeitschrift für Physik B, 35, 313-315, (1979).
Simulation and the Monte Carlo method,
J.Wiley, New York,
(1981).
[19] Y. Togashi, K.Kaneko, Transition induced by the disceteness of molecules in
a small autocatalytic system,
[20] Y.
Togashi,
K.Kaneko,
Phys. Rev. Lett. 86, 2459-2462, (2001).
Alteration
of
chemical
concentrations
discreteness-induced transitions in a small autocatalytic system,
Jpn., 72, 62-68, (2003).
through
J. Phys. Soc.
BIBLIOGRAFIA
[21] N.G. van Kampen,
82
Stochastic Processes in Physics and Chemistry,
Elsevier,
Amsterdam, (2007). Third edition.
[22] N.G. van Kampen, The expansion of the master equation,
mical Physics, 34,
Advances in Che-
Prigogine and Stuart A. Rice John Wiley and sons New
York, 245-308, (1976).
[23] N.G. van Kampen,
A power series expansion of the master equation,
Can.J.Phys., 39, 551-567, (1961).
[24] N.G. van Kampen, The two expansion of the master equation,
Physics
Letters, 62A(6), 383-385, (1977).
[25] E.Weinstein, H.Benaroya, The van Kampen expansion for the Fokker-Planck
Equation of a dung oscillator,
Computational Stochastic Mechanics, 99-117,
(1993).
[26] S. Zamuner,
Descrizione stocastica delle reazioni auto-catalitiche,
laurea triennale in sica, Università degli studi di Padova, (2009).
Tesi di
Ringraziamenti
Vorrei ringraziare:
primo fra tutti, Duccio che in questi mesi mi ha sopportata e aiutata, e con cui ho
lavorato veramente bene;
Francesca che mi ha dato suggerimenti molto utili e nel momento del bisogno una
valida mano di aiuto;
Luigi Barletti per la disponibilità e la collaborazione;
Tommaso per le sue consulenze di sica;
i miei colleghi di ucio e corridoio a Santa Marta, che hanno subito i miei isterismi, ma che si sono fatti due risate per la mia imbranataggine; in particolare devo
ringraziare Franco e Graziano che sono stati spesso i miei tecnici di computer;
Lorenzo che mi ha accompagnato e sostenuto no ad oggi;
i miei genitori e mia sorella per aver sempre creduto nelle mie scelte e per non
avermi mai fatto mancare il loro appoggio;
Silvia, la mia splendida amica e compagna di studi, con cui posso dire di aver condiviso molte esperienze;
Inne, ma non per questo meno importanti, tutti i mitici compagni dell'Udinì.