Elementi di Fisica dei Sistemi Complessi 2010

Transcript

Elementi di Fisica dei Sistemi Complessi 2010
Elementi di Fisica dei Sistemi
Complessi
2010/2011
¦¦¦
A. Bazzani
a cura di G. Venturi
08 febbraio 2011
2
Contents
3
4
CONTENTS
0.1
Introduzione
Tutte le famiglie felici sono simili le une alle altre; ogni famiglia infelice é infelice
a nodo suo (L.N. Tolstoj ”Anna Karenina”).
Tutti i sistemi semplici sono simili gli uni agli altri; ogni sistema complesso é
complesso a modo suo.
Caratteristiche di sistemi complessi:
1. molti gradi di libertá;
2. diversa natura e dinamica dei componenti;
3. interazioni a lungo range basate su network di interazione;
4. i meccanismi di interazione sono collettivi e non riconducibili ad interazioni
fondamentali;
5. esistono interazioni basate su scambio di ”infomazione” per cui la dinamica
macroscopica puó influenzare la dinamica microscopica;
6. esistono meccanismi evolutivi.
Chapter 1
Sistemi Dinamici e
Meccanica Statistica
Un sistema complesso è un sistema dinamico a molti gradi di libertà. Consideriamo dunque la definzione di sistema dinamico: siano dati
• uno spazio delle fasi: M i cui punti siano associati allo stato dinamico del
sistema e su cui è definita una misura µ(x)
• un flusso di fase, ovvero un insieme di mappe su M dipendenti da un
parametro reale t dotato di proprietá di gruppo:
x(t) = Φt (x) x ∈ M
Φt ◦ Φs = Φt+s
Φ(t) sono differenziabili
Φ0 = I identità
• la misura µ(x) è invariante per la dinamica del flusso di fase:
∀A ⊆ M insieme misurabile, vale che µ(Φt (A)) = µ(A)
É possibile associare un campo vettoriale al flusso di fase definendo
a(x) = lim
t→0
d t
Φ (x)
dt
Le traiettorie x(t) = Φt (x0 ) sono soluzioni del sistema di equazioni differenziali
ẋ(t) = a(x(t))
Infatti dalle definzioni segue che
Φ∆t (x(t)) − x(t)
= a(x(t))
∆t→0
∆t
ẋ(t) = lim
Il campo vettoriale consente una rappresetazione formale del flusso di fase attraverso il concetto di derivata di Lie
Da(x) f (x) = a(x) ·
∂f
∂x
(1.1)
dove f (x) è una funzione regolare misurabile definita nello spazio delle fasi
(osservabile). Vale il seguente
5
6
CHAPTER 1. SISTEMI DINAMICI E MECCANICA STATISTICA
Lemma. Il flusso di fase sistema dinamico associato al campo vettoriale ẋ =
a(x) tale che la divergenza ∇ · a(x) = 0 conserva la misura di Lebesgue
⇒| ∂x Φt |= 1
(1.2)
La dimostrazione é basata sulla verifica che:
¯
d ¯¯
| ∂x Φt |= 0
dt ¯t=0
utilizzando lo sviluppo in t = 0 del flusso di fase
Φt (x)
= x + a(x)t + O(t2 )
Si utilizzano quindi le proprietá del calcolo dei determinanti e le proprietá di
grupppo del flusso di fase per estendere il risultato ad ogni t. Nella fisica i
sistemi dinamici più rilevanti sono i sistemi Hamiltoniani, per cui il flusso di
fase è associato alle equazioni differenziali:
x =
ẋ =
µ(dx) =
p =
q
=
(p, q)
∂H
J
∂x
dx
misura di Lebesgue
∂H
−
∂q
∂H
∂p
J é la matrice simplettica:
µ
0
I
−I
0
¶
con I matrice identitá di ordine pari al numero di gradi di libertá.
Dalla definizione segue che i sistemi dinamici Hamiltoniani conservano i volumi nello spazio delle fasi
Nel caso di sistemi a molti corpi non si parla più di condizioni iniziali, ma
di distribuzione ρ0 delle condizioni iniziali, che nel caso di sistemi con particelle
identiche può avera una interpretazione probabilistica come densità di probabilità di avere una particella nel punto x dello spazio delle fasi. Avremo la
condizione di normalizzazione
Z
ρ0 (x0 )dx = 1
M
In un approccio stocastico siamo interessati all’evoluzione della funzione di
distribuzione con condizioni iniziali fissate:
ρ(x, 0)
= ρ0 (x)
In generale la densitá ρ(x, t) puó essere una funzione generalizzata (distribuzione),
in tal caso ρ(x)dx denota la misura associata alla densitá. Se tutte le particelle
considerate partono dallo stesso punto avremo ρ0 (x) = δ(x − x0 ). L’integrale
7
calcolato su un insieme A dello spazio delle fasi (A si definisce ”evento” se
misurabile rispetto a ρ dx) ed indica la probabilitá che si verifichi A:
Z
P rob{x(t) ∈ A} =
ρ(x, t)dx = P (A)
(1.3)
A
Sia poi f una osservabile (funzione sommabile definita nello spazio delle fasi)
del sistema, si definisce valore aspettazione di f la quantità:
Z
f (x)ρ(x, t)dx
(1.4)
hf i =
M
Grazie all’invertibilitá del flusso di fase possiamo operare il cambio di variabile
x = Φt (y) e otteniamo
Z
hf i =
f (Φt (y))ρ0 (y)|∂y Φt |dy
M
t
dove |∂y Φ | é il determinante della matrice Jacobiana. f (Φt (y)) = f (y, t) si
interpreta come evoluto nel punto y dell’osservabile f . Nel caso di sistemi
dinamici che conservano la misura di Lebesgue avremo
Z
hf i =
f (Φt (y))ρ0 (y)dy
(1.5)
M
Consideriamo un sistema fisico scomponibile in due sottosistemi (ovvero lo
spazio delle fasi si puó scomporre in due parti disgiunte e la stato del sistema x
é somma diretta degli stati dei sottosistemi x = (x1 , x2 )), la distribuzione congiunta ρ(x1 , x2 , t) rappresenta la probabilitá che x1 e x2 siano rispettivamente lo
stato del primo e del secondo sottosistema. In generale non è possibile calcolare
la distribuzione congiunte dalle distribuzioni dei singoli sottosistemi in quanto
vi è una correlazione tra sistemi stessi dovuta alle interazioni. Ma se i sistemi
possono essere considerati indipendenti (la loro interazione è trascurabile) allora
è possibile approssimare
ρ(x1 , x2 , t) ' ρ1 (x1 , t)ρ2 (x2 , t)
(1.6)
dove ρ1,2 (x, t) sono le funzioni di distribuzione dei sottosistemi. Il concetto di
indipendenza viene dall Teoria delle Probabilità per cui la probabilità di eventi
indipendenti che si verificano insieme si calcola per moltiplicazione delle singole
probabilità. Eventi isolati sono evidentemente indipendenti, ma è impossibile
scomporre un sistema dinamico in sottosistemi indipendenti (salvo casi triviali)
in quanto l’inversione temporale implica una correlazione per ogni tempo nel
moto di particelle che siano venute in interazione. Tuttavia i sistemi caotici
forti mostrano una decorrelazione esponenzialmente rapida (esponenti di Ljapounov) tra la dinamica di particelle diverse per cui il concetto di indipendenza
si può applicare. Il concetto di indipendenza è di estrama utilità per un approccio di fisica statistico. Nei sistemi statistici fisici formati da particelle poco
interagenti (o molto caotici) la meccanica statistica spesso approssima la funzione di distribuzione del sistema con
Y
ρ(x, t) =
ρi (xi , t)
(1.7)
i=1,N
8
CHAPTER 1. SISTEMI DINAMICI E MECCANICA STATISTICA
Allora per i sistemi scomponibili in sottosistemi indipendenti la quantitá ln ρ(x)
puó diventare allora una grandezza estensiva: ovvero il suo valore si ottiene
sommando su tutti i sottosistemi. Nel caso di particelle identiche ρi = ρp ∀i
e la particella singola diventa rappresentativa di tutto il sistema. Nel caso di
sistemi complessi tale approccio non puó che essere applicato solo parzialmente:
ovvero in talune situazione si cerca di scomporre a varie scale il sistema in
sottosistemi la cui energia di interazione sia piccola rispetto alla loro energia
interna e eventualmente si considera un approccio perturbativo.
1.1
Evoluzione
La funzione di distribuzione ρ(x) contiene tutte le informazioni per una descrizione statistica di un sistema a molti gradi di libertá. Costruiamo un’equazione
per l’evoluzione di ρ(x, t).
Equazione di Evoluzione. Sia dato un sistema dinamico Φt (x) e sia A ⊆ M,
allora l’evoluzione della funzione di distribuzione è data da:
ρ0 (Φ−t (x)) | ∂x Φ−t |
ρ(x, t) =
(1.8)
Dimostrazione: dato un qualunque evento A vale che
Z
Z
ρ(x, t)dx =
ρ0 (y)dy
A
Φ−t (A)
Z
=
ρ0 (Φ−t (x)) | ∂x Φ−t | dx ∀A
A
e data l’arbitrarietá di A segue l’asserto.
Utilizzando le proprietá del flusso di fase segue la
Equazione di Liouville. Consideriamo lo sviluppo in serie di Taylor di Φt (x)
nella variabile t. Vale la seguente equazione di Liouville:
⇒ ∂t ρ(x, t) =
−∇ · (a(x)ρ(x, t))
(1.9)
Dimostrazione:
Assumendo soddisfatte tuute le condizioni di regolartá necessarie, consideriamo lo sviluppo
Φ∆t (x) = Φ0 (x) + Φ̇0 (x)∆t + O(∆t2 )
= x + a(x)∆t + O(∆t2 )
⇒| ∂x Φ−∆t (x) | =
=

=



det 


1 − ∂x1 a1 (x)∆t
..
.
..
.
..
.
| ∂x (x − a(x)∆t + O(∆t2 )) |
| I − ∂x a(x)∆t + O(∆t2 ) |
···
···
···
1 − ∂x2 a2 (x) · · ·
..
..
.
.
..
.
···
···
..
.
2
= 1 − (∇ · a(x))∆t + O(∆t )
1 − ∂xn an (x)







1.2. IL CONCETTO DI INDIPENDENZA E SUE CONSEGUENZE
9
Ne segue:
⇒ ρ(x, ∆t)
⇒
ρ(x, ∆t) − ρ(x, 0)
∆t
¡
¢
= ρ0 Φ−∆t (x) | ∂x Φ−∆t |
¡
¢
= ρ0 (x) − ∂t ρ0 (x)∆t + O(∆t2 ) | ∂x Φ−∆t |
¡
¢
= ρ0 (x) − ∂x ρ0 (x) · a(x)∆t + O(∆t2 ) | 1 − ∇ · a(x) ∆t + O(∆t2 ) |
=
ρ0 (x) − a(x) · ∂x ρ0 (x)∆t − ∇ · a(x)ρ0 (x)∆t + O(∆t2 )
=
−a(x) · ∂x ρ0 (x) − ∇ · a(x)ρ0 (x) + O(∆t2 )
Nel limite ∆t → 0 segue l’asserto: la generalizzazione ad un tempo generico
utilizza le proprietá di gruppo del flusso di fase Φt+∆t = Φ∆t ◦ Φt .
Per i sistemi Hamiltoniani avremo ẋ = a(x) = ∂x HJ da cui:
∇ · a(x) = 0
⇒ ∂t (x, t)ρ(x, t) = −a(x) · ∂x ρ(x, t) = −[H, ρ] = −DH ρ(x, t)
(1.10)
In cui [, ] sono le Parentesi di Poisson che sono in diretta relazione con la derivata
di Lie DH : DH = [H, ].
Di particolare interesse per le applicazioni sono le soluzioni stazionarie per
cui ρ(x, t) = ρ(x), per cui
∇ · a(x)ρ(x) = 0
La soluzione di tale equazione risulta semplice nel caso di campi vettoriali a
divergenza nulla per cui si ottiene
a(x) · ∇ρ(x) = 0
(1.11)
In tal caso ρ(x) risulta un integrale primo del moto: ovvero ρ(x) = ρ(H) nel
caso dei sistemi Hamiltoniani. Rimane aperto il problema di come il sistema
possa rilassare ad uno stato stazionario.
1.2
Il concetto di Indipendenza e sue conseguenze
Consideriamo un sistema a molti gradi di libertà e supponiamo di poterlo dividere in due parti x = (x1 , x2 ) non interagenti. Il sistema di equazioni differenziali che descrive la dinamica si fattorizza
ẋ1
ẋ2
=
=
a1 (x1 )
a2 (x2 )
(1.12)
e l’equazione di Liouville si può scrivere
∂ρ
∂
∂
=
a1 (x1 )ρ +
a1 (x1 )ρ
∂t
∂x1
∂x1
Cerchiamo la soluzione nella forma ρ(x, t) = ρ1 (x1 , t)ρ2 (x2 , t) fattorizzare l’equazione
in due equazioni dipendenti dalle variabili x1 e x2 . Questo risultati rispecchia la
definizione di eventi indipendenti nella teoria delle probabilità. Siano A, B due
insiemi misurabili nello spazio delle fasi di un sistema dinamico, la probabilitá
10
CHAPTER 1. SISTEMI DINAMICI E MECCANICA STATISTICA
di trovare una particella sia A che in B si calcola utilizzando la distribuzione
congiunta ρ(x1 , x2 , t)
Z Z
P (x1 ∈ A, x2 ∈ B) =
ρ(x1 , x2 , t)dx1 dx2
A
B
(1.13)
Nel caso valga
Z Z
Z
ρ(x1 , x2 , t)dx1 dx2
A
=
B
Z
ρ(x1 , t)dx1
A
=
ρ(x2 )dx2
B
P (x1 ∈ A)P (x2 ∈ B)
diremo che gli eventi sono indipendenti. Per i sistemi scomponibili in sottosistemi indipedenti, ogni coppia di eventi per i due sottosistemi risulta indipendente. Una conseguenza importante per sistemi scomponibili in sistemi indipendenti è che il logaritmo della funzione di distribuzione diventa una grandezza
additiva (vedi paragrafo successivo)
log ρ(x1 , x2 ) = log ρ1 (x1 ) + log ρ1 (x1 )
Tale situazione risulta particolarmente semplice nel caso possiamo considerera
un sistema formato da particelle identiche e non-interagenti. Ogni particella
avrà quindi una funzione di distribuzione identica a quella di tutte le altre e
possiamo interpretare la funzione di distribuzione delle singola particelle come
la funzione di distribuzione di tutte le particelle nello spazio delle fasi. Una
particelle risulta pertanto rappresentativa di tutto il sistema: ipotesi utilizzata
per ricavare la distribuzione statistica di Boltzmann.
1.3
Esempio di modello: il traffico
Consideriamo un esempio di sistema complesso che cercheremo di modellizzare
mediante un’equazione di Liouville. Supponiamo di avere un insieme di N
particelle che si muovono distribuite lungo una circoferenza secondo la legge
dinamica (optimal velocity model)
ẋk
v̇k
=
=
vk
k = 1, ...N
−β(vk − vopt (xk−1 − xk ))
(1.14)
dove vopt (d) è una funzione che definisce la velocità ottimale di un veicolo in
funzione della distanza d.È molto difficile determinare sperimentalmente la funzione vopt (d) (probabilimente non esiste una funzione universale che vada bene
per tutti gli individui), allora si adotto un approccio fisico-riduzionista definendo
una generica funzione vopt (d), che rispecchi le osservazioni sperimentali (anche
se parziali), dipendente da un numero piccolo (idealmente il più piccolo possibile
mantenendo le capacità descrittive del modello) di parametro
¶α ¶
µ
µ
dmin
d ≥ dmin
altrimento vopt = 0 (1.15)
vopt (d) = v∞ 1 −
d
Il modello viene quindi a dipendere dai seguenti parametri
1.3. ESEMPIO DI MODELLO: IL TRAFFICO
11
1. β che definisce l’inverso del tempo di reazione di un veicolo: più β è alto più
i veicoli reagiscono rapidamente ai combiamenti adattando lo loro velocitá
alla velocità ottimale;
2. v∞ è la velocità limite quando il veicolo è libero;
3. dmin è legata alla dimensione finita dei veicoli;
4. α definisce il comportamento dei veicoli a velociyà bassa: con α la velocità
ottimale aumenta rapidamente con la distanza.
Per il momento semplifcheremo il modello considerando il limite β → ∞ (si elimina l’inerzia) e la seconda equazione del modello diventa (la velocità si congela
al valore ottimale)
vk = vopt (xk−1 − xk )
avremo quindi il sistema
ẋk = vopt (xk−1 − xk )
k = 1, ...N
Possiamo quindi eliminare ancora i parametri v∞ a dmin scalando il tempo
t → tdmin/v∞ e lo spazio x → x/dmin , utilizzando la definizione (??) si ottiene
quindi
µ
¶α
1
ẋk = 1 −
k = 1, ...N
(1.16)
xk−1 − xk
La solutione del sistema (??) risulta comunque complicata, possiamo, però, calcolare le solutioni di equilibrio stazionario ẋk = v0 constante definita dall’equazione
µ
¶α
1
v0 = 1 −
(1.17)
∆x
dove ∆x è la distanza tra i veicoli che rimane constante (dato che la velocità é
constante). Se abbiamo N veicoli distribuiti su una distanza L avremo ∆x =
L/N e pertanto v0 è determinato. Notiamo che 1/Deltax definisce la densità
ρ di veicoli, quindi la relazione (??) si legge come v0 = v0 (ρ). Possiamo utilizzare tale analogia per semplificare il modello (??) in approssimazione continua.
Nell’ipotesi che la distanza tra i veicoli vari lentamente (ovvero più lentamente
del tempo caratteristico di evolzuione di xk ) allora possiamo approssimare la
densità locale con la densità media nell’intorno di un punto dato
ρ(xk ) '
2n
1
'
xk−n−1 − xk+n
xk−1 − xk
(ricordiamo che xk−1 − xk ≥ 1 per costruzione). Pertanto dal momento che
i veicoli sono identici, possimao fattorizzare l’equazione di Liouville ottenendo
un’equazione non lineare di continuità
∂ρ
∂ρ
=−
(1 − ρα ) ρ
∂t
∂x
(1.18)
Ricordiamo che tale equazione risulta applicabile solo in situazioni in cui la
densitá locale varia lentamente, altrimenti dobbiamo ritornare alla dinamica
12
CHAPTER 1. SISTEMI DINAMICI E MECCANICA STATISTICA
(??). Ovviamente le condizioni stazionarie sono descritte dall’equazione (??).
Possiamo introdurre il flusso locale
Φ = (1 − ρα ) ρ
(1.19)
e studiare la dipendenza del flusso dalla densità: fundamental Diagram (ρ, Φ).
Si noti che abbiamo un punto di flusso massimo per una densità critica ρ∗ :
dΦ
= 1 − (1 + α)ρα = 0
dρ
⇒
ρ∗ =
1
(1 + α)1/α
Al di sotto del valore critico ρ∗ un aumento di densità locale ha come conseguenza un aumento del flusso, viceversa al di sopra del valore critico ad un
aumento della densità corrisponde una diminzione del flusso. Questa semplice
considerazione mette in luce come nel primo caso il sistema in stato stazionario
reagisca ad una fluttuazione locale della densità modificando il flusso in modo da
ridurre la fluttuazione stessa, mentre nel secondo caso la diminuzione del flusso
tende a destabilizzare il sistema in quanto poterà ad amplificare l’aumento locale
della densità. Ci aspettiamo quindi che le soluzioni stazionarie dell’equazione
(??) siano stabili se ρ ≤ ρa st ed instabili altrimenti.
Chapter 2
Grandezze additive
In un approccio termodinamico i sistemi statistici sono descritti da variabili estensive (o additive) e variabili intensive che risultano tra loro accoppiate. In
un sistema dinamico scomponibile in parti indipendenti è possibile costruire alcune grandezze addittive medie, come l’energia ed il volume. Per definizione
un sistema scomponibile in sottosistemi non interagenti non può mai rilassare
ad una condizione di equilibrio, pertanto occorre rilassare tale ipotesi per descrivere i fenomeni naturali per cui si osserva una tendenza verso degli stati di
equilibrio. Tuttavia si caratterizza la nozione di equilibrio termodinamico con
la proprietà che un sistema all’equilibrio si possa pensare scomposto in sottosistemi non interagenti. Ovvero le mutue interazioni tra i sottostemi necessarie
per il raggiungimento di uno stato di equilibrio non contribuiscono a mantenere
lo stato di equilibrio stesso. Se isolassimo i sottosistemi di un sistema in equilibrio termodinamico non osserveremmo nessun combiamento. Allora trattando
di sistemi all’equilibrio possiamo considerare (per esempio) l’energia come una
grandezza additiva: l’energia totale è data dalla somma delle energie delle parti.
Z
E ≡ hHi =
H(x)ρ(x, t)dx
M
E
=
E1 + E2
(2.1)
La ricerca di grandezze additive d́i fondamentale importanza per un approccio
termodinamico all’evoluzione macroscopica di un sistema. Nel seguito vedremo
che gli stati di equilibrio termodinamico costituiscono un’eccezzione tra i possibili stati stazionari di un sistema statistico, e nel caso di sistemi complessi
lo studio di stati stazionari di non equilibrio (NESS) risulta particolarmente
importante.
2.1
Entropia
Il concetto di Entropia misura la degenerazione di uno stato di equilibrio macroscopico in termini di stati microscopici. La caratterizzazione dello stato macroscopico avviene tramite le grandezze medie (additive o intensive) e come esempio utilizzeremo una funzione ”energia” generica che si specificherà in modo
13
14
CHAPTER 2. GRANDEZZE ADDITIVE
diverso a seconda dei sistemi considerati (parleremo genericamente di una funzione costo). Associamo dunque, una funzione Energia allo stato macroscopico:
il numero di microstati corrispondenti ad un valore H(x) = E può essere dato
dalla misura della superficie Σ(E) = {H(x) = E} nello spazio delle fasi (nota:
evidentemente Σ(E) ha misura di volume nulla). I cosidetti principi entropici
assumo quindi l’equivalenza di tutti i microstati x ∈ Σ(E): in termini probabilitstici significa attribuire la stessa probabilità ad ogni microstato di essere
lo stato del sistema. Tale procedura si interpreta anche da un punto di vista
dell’ informazione sul sistema: in mancanza di informazione si equipartisce la
probabilità tra gli stati possibili (ovviamente gli stati considerati devono essere
stati fisici). Da un punto di vista dinamico tale assunzione é legata all’ ipotesi
ergodica nei sistemi dinamici: se consideriamo la traiettoria del sistema sulle
superfici Σ(E) e introduciamo su Σ(E) la misura di superficie ottenuta proiettando la misura invariante, per un qualunque sottoinsieme misurabile di Σ(E)
il tempo di permanenza (la frazione di tempo per cui la traiettoria appartiene
al sottoinsieme) è proporzionale alla misura del sottoinsieme stesso nel limite
t → ∞. Ne consegue che il sistema non ammette nessun altro invariante del
moto oltre ad H stesso. In modo più preciso supponendo che H = E definisca
una superficie compatta, possiamo operare un cambio di variabili che conserva
il volume tale che
dx = dσ ∧
dE
|gradH|
dove dσ è l’elemento di area sulla superficie. Dal momento che il sistema conserva la misura dx nello spazio delle fasi, la misura
µE (A) =
dσ
|gradE|
risulta una misura conservata dalla dinamica e l’ipotesi ergodica si scrive
µE (A)
1
= lim
µE (ΣE ) T →∞ T
Z
T
χA (x(t))dt
0
dove A ⊆ Σ(E) e χA è la funzione caratteristica dell’insieme A. La misura µE
consente quindi di calcolare i valori medi di un qualunque osservabile sul sistema
Z
1
< f >=
f (x)dmuE
(2.2)
µE (Σ)
La quantificazione del concetto di entropia è legata alla funzione di distribuzione
ρ(x) di un sistema all’equilibrio, dove ρ(x) dà la densità di probabilitá di essere
nello stato x. La funzione di distribuzione contiene quindi informazioni sulla
degenerazione dello stato definito dagli osservabili macroscopici. Dal momento
che siamo interessati ad una grandezza estensiva macroscopica, consideriamo
un sistema statistico in equilibrio separabile in due sottosistemi indipendenti:
allora per la funzione di distribuzione congiunta vale
ρ(x1 , x2 ) =
⇒ log ρ(x1 , x2 ) =
ρ1 (x1 )ρ2 (x2 )
log ρ1 (x1 ) + log ρ2 (x2 )
2.1. ENTROPIA
15
Se quindi scegliamo il valor medio di − log ρ per misurare la degenerazione
dello stato macroscopico si ottiene una grandezza estensiva nel caso di sistemi
scomponibili in sottosistemi indipedenti all’equilibrio
Z
S ≡ − hlog ρi = −
ρ log ρ dx
(2.3)
ZM
= −
ρ (log ρ1 + log ρ2 ) dx
ZM
Z
= −
ρ1 log ρ1 dx −
ρ2 log ρ2 dx
M1
=
M2
S1 + S2
S(ρ) si definisce l’Entropia di Gibbs (la definizione di Boltzmann di Entropia
é diversa). Da un punto di vista generale si intuisce la stretta relazione che vi
é tra i concetti di entropia ed informazione che é stata formalizzata da Shannon(Shannon, C.E. (1948), ”A Mathematical Theory of Communication”, Bell
System Technical Journal, 27, pp. 379-423 & 623-656.) A titolo di esempio
consideriamo un sistema con un numero finito di stati e sia pn n ∈ {1, .., H} la
funzione di distribuzione. Dalla definizione abbiamo
X
X
S{pn } = −
pn ln pn
pn = 1
n
n
Più le probabilità si concentrano su degli stati specifici maggiori sono le informazioni che abbiamo sul sistema (idealmente se pn∗ = 1 abbiamo la massima
informazione in quanto conosciamo lo stato del sistema stesso). Possiamo evidenziare questo fatto considerando il massimo dell’entropia sulle possibili distribuzioni pn . Utilizzando il metodo dei moltiplicatori di Lagrange abbiamo
X
δS = −
(1 + ln pn + λ)δpn = 0
n
Data l’arbitrarietà di δpn abbiamo la condizione
1 + ln pn + λ = 0
⇒
pn = exp −(1 + λ)
quindi pn sono tutti eguali e la condizione di vincolo che detremina il moltiplicatore di Lagrange fornisce pn = 1/n. Si tratta di un massimo stretto in
quanto
Ã
!
X
X 1
1
ln pn = S{pn } ∀ pn
pn
≤
S{1/n} = ln n = ln ln
n
p
n
n
n
dove abbiamo applicato la disegueglianza di Jensen (ln x è una funzione convessa). Tale risultato è un’applicazione del Principio di Maximum Entropy (E.
T. Jaynes, ”Information Theory and Statistical Mechanics” Physical Review,
vol. 106, no. 4, pp. 620-630; May 15, 1957.): si deve attribuire ad un sistema
statistico la distribuzione di probabilità che lasci la più grande incertezza compatibile con i vincoli sul sistema stesso. Ovvero non è giustificato introdurre
alcuna ipotesi o bias aggiuntivo sul sistema.
Tale principio lega la definizione di Entropia alle informazioni sul sistema
stesso.
16
2.2
CHAPTER 2. GRANDEZZE ADDITIVE
Entropia e carattere Hamiltoniano della dinamica
La definizione di Gibbs permette anche un calcolo dell’Entropia nel caso di un
sistema fuori dall’equilibrio per cui la funzione di distribuzione varia nel tempo
ρ = ρ(x, t). In tal caso la variazione di entropia si scrive
Z
d
dS
= −
ρ log ρdx
dt
dt M
Z
d
ρ log ρdx
= −
dt
¶
ZM µ
1
= −
∂t ρ log ρ + ρ ∂t ρ dx
ρ
ZM
= −
(log ρ + 1) ∂t ρdx
M
Supponendo che il sistema evolva secondo l’equazione di Liouville(vedi ??) abbiamo:
Z
dS
⇒
=
(log ρ + 1) ∂x (a(x)ρ) dx =
dt
ZM
Z
=
∂x (log ρ + 1)a(x)ρ) dx −
a(x)ρ∂x (1 + log ρ)dx
M
M
Z
Z
T h.div
=
[(log ρ + 1)a(x)ρ] dσ −
a(x)ρ∂x (1 + log ρ) dx
∂M
Z M
Z
Z
1
∂x (a(x)ρ) dx −
ρ∂x a(x)dx =
=
−
a(x)ρ ∂x ρdx = −
ρ
M
M
M
Z
T h.div
=
=−
ρ∂x a(x)dx = − h∂x a(x)i
(2.4)
M
dove abbiamo applicato il teorema della divergenza e la condizione che ρ si annulli alla frontiera. La variazione di entropia risulta pertanto legata al valor
medio della divergenza del campo vettoriale. Dalla definizione di sistema dinamico per cui è conservata una misura (che nel nostro caso è dx) l’Entropia
è automaticamente conservata e questa proprietà é intrinsecamente correlata
alla reversibilità nel tempo: ovvero l’evoluzione non può distinguere il futuro
o il passato qualunque sia l’osservabile considerato. In particolare nei sistemi
Hamiltoniani la variazione di entropia è nulla.
Nota: dal momento che la non conservazione dell’Entropia di Gibbs è legata
alla divergenza dato un campo vettoriale a(x) è sempre possibile scomporre il
campo secondo
∂V
+ â(x)
a(x) = −
∂x
dove il potenziale V (x) risolve l’equazione di Poisson
∂2V
= −diva(x)
∂x2
mentre â(x) è un campo a divergenza nulla (quindi conserva l’Entropia).
2.3. SISTEMI ALL’EQUILIBRIO TERMODINAMICO
17
Nota: la definzione di Entropia non è invariante per cambio di coordinate (se
questo non conserva la misura dx): da un calcolo diretto, se operiamo il cambio
y = T (x) la nuova funzione di distribuzione (rispetto all’elemento di volume dy)
diventa
ρ̂(y) = ρ(T −1 (y))|∂y T −1 |
dove |∂y T −1 | è il determinate della matrice Jacobiana. Ne segue che nelle nuove
variabili l’Entropia si trasforma
µ
¶
Z
Z
Z
Z
ρ̂(y)
ρ(x) ln ρ(x)dx = ρ̂(y) ln
dy
=
ρ̂(y)
ln
ρ(y)dy−
ρ̂(y) ln |∂y T −1 |dy
|∂y T −1 |
Abbiamo quindi un termine ulteriore rispetto alla definizione standard. Il problema è che la misura dell’Entropia è legata alla densità degli stati nello spazio
delle fasi in quanto si considerano equiprobabili gli stati in ciascun elemento
di volume, ma comabiando il modo con cui misuriamo gli elementi di volume
cambia anche l’Entropia.
2.3
Sistemi all’equilibrio termodinamico
Si consideri un sistema fisico all’equilibrio; in esso la funzione di distribuzione è
stazionaria rispetto al tempo:
∂t ρ(x, t) = 0 ⇒ ∂x a(x)ρ(x) = 0
Ricordando che la condizione perché un osservabile f sia un integrale primo del
moto per un sistema Hamiltoniano è che:
df
∂H ∂f
= [H, f ] =
J
=0
dt
∂x ∂x
dato che se:
∂H
∂x
diva(x) = 0
a(x) = J
la condizione ∂ρ
∂t = 0 implica che ρ è un integrale primo del moto.
Nel caso stazionario si ha che ρ(x) = ρ(E), quindi l’entropia del sistema si può
scrivere come:
S(E) = hlog ρ(E)i
2.4
(2.5)
Distribuzione di Maxwell-Boltzmann
Consideriamo un sistema di N >> 1 particelle che si possano distribuire in M
stati discreti di energia, soggette al vincolo della conservazione dell’energia totale
del sistema. Ipotizziamo che tutti gli stati siano equivalenti e che il sistema si
possa trovare in ciascuno di essi con eguale probabilità (ipotesi ergodica in caso
18
CHAPTER 2. GRANDEZZE ADDITIVE
di misura uniforme).
Posto:
E
=
M
X
nj EJ
(2.6)
j=1
nj
:
numero di particelle con energia Ej
Contando il numero di modi possibili che realizzano la condizione (2.5):
] modi
∼
N!
n1 ! · · · nM !
(2.7)
Massimizziamo il logaritmo della quantitá (??) considerando il vincolo (2.5) e
utilizzando i moltiplicatori di Lagrange:
PM
log(] modi) − β j=1 nj EJ = F (n1 , · · · , nM )
´
³
PM
M!
= log(M !) − j=1 log(nj !)
log(] modi) = log n1 !···n
M!
Dato che M ! è costante non contribuisce alla funzione da massimizzare:
PM
PM
⇒ F (n1 , · · · , nM ) = −β j=1 nj Ej − j=1 log(nj !)
Facendo tendere M → ∞, vale l’approssimazione:
Rn
Pnj
log(nj !) = k=1
log k ∼ 1 j log xdx = nj log nj − nj ∼ nj log nj
PM
⇒ F (n1 , · · · , nM ) ∼ − j=1 (nj log nj − nj + βnj Ej )
∂F
∂nj
= − log nj − βEj = 0 ⇒ nj ∼ e−βEj
Questa relazione è stata ottenuta massimizzando il logaritmo della (??), ovvero
cercando quale configurazione avrebbe generato un valore maggiore di entropia
per il sistema. Nel’ipotesi che il sistema statistico tenda ad evolvere verso stati
di massima entropia, resta il quesito di come sia possibile raggiungere questo
stato.
2.5
Grandezze termodinamiche
La definizione di Entropia per i sistemi all’equilibrio consente la seguente uguaglianza
differenziale:
dE
=
T dS − P dV
Nota: la derivata dell’energia rispetto a una grandezza additiva genera sempre
una grandezza estensiva.
Questa relazione mostra il legame tra tre grandezze addittive di un sistema
(energia, volume, entropia) e le grandezze termodinamiche estensive pressione
e temperatura, legando entropia con temperatura e volume con pressione:
T
P
= ∂S E | V
= −∂V E |S
2.5. GRANDEZZE TERMODINAMICHE
19
Il principio di aumento di entropia dei sistemi irreversibili si scrive come:
δQ < T δS
dove δQ e δS sono la variazione di energia interna per scambio di calore e la
variazione di entropia nel corrispondente stato di equilibrio. Dall’energia interna
si costruiscono i potenziali termodinamici attraverso trasformazioni di Legendre:
dE
Funzione Termica W
dW
CV
CP
⇒ dE
Energia libera:F
dF
= T dS − P dV = T dS − d (P V ) + V dP
= E + PV
= T dS + V dP
variazione di energia a pressione costante:
= ∂T E | V
= ∂T W | P
= T dS − P dV = d (T S) − SdT − P dV
= E − TS
= −SdT − P dV
L’energia libera consente di calcolare l’energia interna:
E
=
F − T ∂ T F |V
Infine si ottiene il potenziale termodinamico:
dF =
φ =
dφ =
−SdT − P dV = −SdT − d (P V ) + V dP
F + PV
−SdT + V dP
Nota: nei processi irreversibili a volume e temperatura costante avviene una
diminuzione dell’energia libera.
20
CHAPTER 2. GRANDEZZE ADDITIVE
Chapter 3
Urti tra particelle
Utilizzeremo gli urti di particelle per dare un esempio di come si costruisce un
modello mesoscopico ovvero un modello che pur trascurando i dettagli della
dinamica microscopcia riesce a riprodurne alcuni effetti da un punto di vista
statistico. Daremo innanzitutto alcune ipotesi ”fisiche” per la trattazzione degli
urti tra due particelle: assumiamo
1. Urti istantanei (tempo d’urto τ ¿ ∆t tempo caratteristico di evoluzione del sistema)
(ovvero degli osservabili del gas di particelle);
2. Urti binari (é un’approssimazione sensata: se il tempo d’urto è molto
piccolo, è molto difficile avere più di due particelle che si urtano simultaneamente);
3. Leggi di conservazione dell’Energia Cinetica e della Quantità di Moto.
Considero una particella test di massa M che interagisce con un gas di particelle
di massa m ¿ M . Siano rispettivamente P e p la quantità di moto della
particella test e di una particella urtante, sia PCM la quantità di moto rispetto
della particella test al sistema del centro di massa:
PCM = µ∆v
(3.1)
dove µ = M m/(m + M ) è la massa ridotta e ∆v = V − v. Nello studio di urti
successivo possimao considerare P 0 un processo stocastico che descrive legato
alla distribuzione delle particelle nel gas man mano che si susseguono gli urti.
Assumiamo che p abbia i seguenti valori di aspettazione e varianza:
E(p)
E(pi , pj ) = mT δi,j
=
0
= mT I
L’ultima relazione viene dalla definizione di temperatura in Meccanica Statistica
(ponendo a 1 la costante di Boltzmann)
µ 2¶
3
p
= T
(3.2)
E
2m
2
Durante il processo il vettore PCM viene ruotato di un angolo θ in seguito
all’urto in un piano definito da P e da p (supponiamo interazioni di tipo campo
21
22
CHAPTER 3. URTI TRA PARTICELLE
centrale cosı̀ che si conservi L):
∆P = (cos θ − 1) PCM + (ω × PCM ) sin θ
in cui θ è l’angolo di deflessione dipendente dal paramentro d’urto e ω è il
versore lungo la direzione del momento angolare L. La dinamica dell’urto può
essere espressa in modo discreto utilizzando il tempo di urto τ :
P (t + τ ) =
=
P (t) + ∆P
P (t) + (cos θ − 1) PCM + (ω × PCM ) sin θ
Cerchiamo di costruire un modello mesoscopico in grado di riprodurre le proprietà statistiche della dinamica P (t) senza dover descrivere la dinamica microscopica di ogni urto. La conservazione dell’energia cinetica nel sistema del
centro di massa E = µ∆v 2 /2 implica che la variazione della velocità relativa ak
quadrato deve essere nulla. Sia u = ∆v abbiamo
¡ ¢
2
∆ u2
= (u + ∆u) − u2
2
=
2u∆u + (∆u) = 0
=
−
2
⇒ ∆uq
(∆u)
2|u|
quindi, nel caso di piccole deviazioni (|∆u ¿ 1|), la componente lungo la direzione dell’urto risulta di secondo ordine rispetto. Assumiamo ora le seguenti
ipotesi sulla distribuzione delle variabili θ e ω:
1. θ è distribuita in modo simmetrico rispetto a θ = 0
2. ω è distribuita uniformemente su di una sfera unitaria
Inoltre supponiamo che θ e ω siano variabili indipendenti (e inoltre siano indipendenti tra un urto e il successivo). Per fissato P calcoliamo il valore di
aspettazione di ∆P con:
E (∆P ) =
E (cos θ − 1) E (PCM ) + E (ω × PCM ) E (sin θ)
Per la simmetria della distribuzione di θ, E (sin θ) = 0, quindi:
µ
¶
θ
E (∆P ) = E (cos θ − 1) E (PCM ) = −2E sin2
E (PCM )
2
dove si media sui porametri d’urto e sul momento P 0 della particella urtante
Nel calcolare la varianza il termine di doppio prodotto di annulla in quanto
PCM · (ω × PCM ) = 0. Quindi:
componente lungo la direzione dell0 urto
¡
E ∆P
2
¢
}| ´
{
z ³
¡
¢
2
2
E (cos θ − 1) E PCM
=
´
¡ 2 ¢ ³
2
+ E sin θ E (ω × PCM )
{z
}
|
componente ortogonale
23
Dal momento che ω é un versore (norma unitaria) distribuito uniformemente si
ha che:
³
´
¡
¢
2
E (ω × PCM )
= E PCM 2
³
´ ¡
¢
¡
¢
2
⇒ E ∆P 2
' E (cos θ − 1) + sin2 θ E PCM 2
µ
¶
¡
¢
2 θ
= 4E sin
E PCM 2
2
Introduciamo il parametro
γ
¢
¡
E sin2 θ2
= 2
τ
cosı̀ che possiamo scrivere
E(∆P ) = −τ γE(PCM )
2
E(∆P 2 ) = 2τ γE(PCM
)
(3.3)
e per trovare la variazione della P dopo un intervallo di tempo ∆t, sommiamo
i contributi di ognuno degli N = ∆t
τ urti subiti dalla particella test:
N
X
∆Pk =
k=1
N
X
∆Pk − N E(∆P ) + N E(∆P )
k=1
N E(∆P ) = −2N τ γE(PCM ) = ∆tγE(PCM )
∆P̂ = ∆P − E(∆P )
N
X
∆Pˆk =
√
k=1
N
1 X ˆ
√
N
∆Pk
N k=1
Ricordiamo la definizione (??) e nell’ipotesi m ¿ M per cui µ ' m possiamo
approssimare
m
E(PCM ) '
P
M
in quanto il contributo medio di p si annulla nel caso di isotropia. Analogamente
possiamo valutare
µ
¶
1 MV 2
1 3T
2
2
E(PCM ) = 2µ
+
' 3mT
M 2
m 2
pertanto vale la stima
N
1 X ¡ 2 ¢
E PCM
N
' 3mT
k=1
Ricordando che abbiamo 3 componenti, segue E(p2i ) = mT . Nell’ipotesi di urti
indipendenti possiamo applicare il teorema del limite centrale che afferma: la
somma di tante variabili aleatorie indipendenti a media e varianza finita tende
24
CHAPTER 3. URTI TRA PARTICELLE
ad una variabile Gaussiana con media somma delle medie a vraianza somma
delle varianze. Nel nostro caso la somma
N
1 X ˆ
√
∆Pk
N k=1
per N À 1 tenderà ad una variabile Gaussiana a media nulla e varianza
2
2γτ E(PCM
). Possiamo allora scrivere
q
p
m
2
P (t + ∆t) = P (t) − γ P (t)∆t + 2N γτ E(PCM
)δt
M
con δt variabile gaussiana normalizzata.
p
P (t + ∆t) − P (t)
m
δt
= −γ P (t) + 2γmT √
(3.4)
∆t
M
∆t
√
1
, che diverge per ∆t → 0:
Notiamo che la variabile δ(t)/ ∆t ha varianza ∆t
quindi la relazione (??) non definisce un’equazione differenziale ordinaria. Tuttavia è possibile dare un significato a tale√limite nell’ambito delle equazioni
differenziali stocastiche e la variabile δ(t)/ ∆t definisce quello che in fisica si
chiama rumore bianco. Se definiamo il coefficiente di drift α = γm/M e il coefficiente di diffusione D = γmT si ottiene la relazione (Relazione di Einstein):
D
MT
=
α
(3.5)
che lega il coefficiente di diffusione stocastica con la dissipazione dinamica.