Elementi di Fisica dei Sistemi Complessi 2010
Transcript
Elementi di Fisica dei Sistemi Complessi 2010
Elementi di Fisica dei Sistemi Complessi 2010/2011 ¦¦¦ A. Bazzani a cura di G. Venturi 08 febbraio 2011 2 Contents 3 4 CONTENTS 0.1 Introduzione Tutte le famiglie felici sono simili le une alle altre; ogni famiglia infelice é infelice a nodo suo (L.N. Tolstoj ”Anna Karenina”). Tutti i sistemi semplici sono simili gli uni agli altri; ogni sistema complesso é complesso a modo suo. Caratteristiche di sistemi complessi: 1. molti gradi di libertá; 2. diversa natura e dinamica dei componenti; 3. interazioni a lungo range basate su network di interazione; 4. i meccanismi di interazione sono collettivi e non riconducibili ad interazioni fondamentali; 5. esistono interazioni basate su scambio di ”infomazione” per cui la dinamica macroscopica puó influenzare la dinamica microscopica; 6. esistono meccanismi evolutivi. Chapter 1 Sistemi Dinamici e Meccanica Statistica Un sistema complesso è un sistema dinamico a molti gradi di libertà. Consideriamo dunque la definzione di sistema dinamico: siano dati • uno spazio delle fasi: M i cui punti siano associati allo stato dinamico del sistema e su cui è definita una misura µ(x) • un flusso di fase, ovvero un insieme di mappe su M dipendenti da un parametro reale t dotato di proprietá di gruppo: x(t) = Φt (x) x ∈ M Φt ◦ Φs = Φt+s Φ(t) sono differenziabili Φ0 = I identità • la misura µ(x) è invariante per la dinamica del flusso di fase: ∀A ⊆ M insieme misurabile, vale che µ(Φt (A)) = µ(A) É possibile associare un campo vettoriale al flusso di fase definendo a(x) = lim t→0 d t Φ (x) dt Le traiettorie x(t) = Φt (x0 ) sono soluzioni del sistema di equazioni differenziali ẋ(t) = a(x(t)) Infatti dalle definzioni segue che Φ∆t (x(t)) − x(t) = a(x(t)) ∆t→0 ∆t ẋ(t) = lim Il campo vettoriale consente una rappresetazione formale del flusso di fase attraverso il concetto di derivata di Lie Da(x) f (x) = a(x) · ∂f ∂x (1.1) dove f (x) è una funzione regolare misurabile definita nello spazio delle fasi (osservabile). Vale il seguente 5 6 CHAPTER 1. SISTEMI DINAMICI E MECCANICA STATISTICA Lemma. Il flusso di fase sistema dinamico associato al campo vettoriale ẋ = a(x) tale che la divergenza ∇ · a(x) = 0 conserva la misura di Lebesgue ⇒| ∂x Φt |= 1 (1.2) La dimostrazione é basata sulla verifica che: ¯ d ¯¯ | ∂x Φt |= 0 dt ¯t=0 utilizzando lo sviluppo in t = 0 del flusso di fase Φt (x) = x + a(x)t + O(t2 ) Si utilizzano quindi le proprietá del calcolo dei determinanti e le proprietá di grupppo del flusso di fase per estendere il risultato ad ogni t. Nella fisica i sistemi dinamici più rilevanti sono i sistemi Hamiltoniani, per cui il flusso di fase è associato alle equazioni differenziali: x = ẋ = µ(dx) = p = q = (p, q) ∂H J ∂x dx misura di Lebesgue ∂H − ∂q ∂H ∂p J é la matrice simplettica: µ 0 I −I 0 ¶ con I matrice identitá di ordine pari al numero di gradi di libertá. Dalla definizione segue che i sistemi dinamici Hamiltoniani conservano i volumi nello spazio delle fasi Nel caso di sistemi a molti corpi non si parla più di condizioni iniziali, ma di distribuzione ρ0 delle condizioni iniziali, che nel caso di sistemi con particelle identiche può avera una interpretazione probabilistica come densità di probabilità di avere una particella nel punto x dello spazio delle fasi. Avremo la condizione di normalizzazione Z ρ0 (x0 )dx = 1 M In un approccio stocastico siamo interessati all’evoluzione della funzione di distribuzione con condizioni iniziali fissate: ρ(x, 0) = ρ0 (x) In generale la densitá ρ(x, t) puó essere una funzione generalizzata (distribuzione), in tal caso ρ(x)dx denota la misura associata alla densitá. Se tutte le particelle considerate partono dallo stesso punto avremo ρ0 (x) = δ(x − x0 ). L’integrale 7 calcolato su un insieme A dello spazio delle fasi (A si definisce ”evento” se misurabile rispetto a ρ dx) ed indica la probabilitá che si verifichi A: Z P rob{x(t) ∈ A} = ρ(x, t)dx = P (A) (1.3) A Sia poi f una osservabile (funzione sommabile definita nello spazio delle fasi) del sistema, si definisce valore aspettazione di f la quantità: Z f (x)ρ(x, t)dx (1.4) hf i = M Grazie all’invertibilitá del flusso di fase possiamo operare il cambio di variabile x = Φt (y) e otteniamo Z hf i = f (Φt (y))ρ0 (y)|∂y Φt |dy M t dove |∂y Φ | é il determinante della matrice Jacobiana. f (Φt (y)) = f (y, t) si interpreta come evoluto nel punto y dell’osservabile f . Nel caso di sistemi dinamici che conservano la misura di Lebesgue avremo Z hf i = f (Φt (y))ρ0 (y)dy (1.5) M Consideriamo un sistema fisico scomponibile in due sottosistemi (ovvero lo spazio delle fasi si puó scomporre in due parti disgiunte e la stato del sistema x é somma diretta degli stati dei sottosistemi x = (x1 , x2 )), la distribuzione congiunta ρ(x1 , x2 , t) rappresenta la probabilitá che x1 e x2 siano rispettivamente lo stato del primo e del secondo sottosistema. In generale non è possibile calcolare la distribuzione congiunte dalle distribuzioni dei singoli sottosistemi in quanto vi è una correlazione tra sistemi stessi dovuta alle interazioni. Ma se i sistemi possono essere considerati indipendenti (la loro interazione è trascurabile) allora è possibile approssimare ρ(x1 , x2 , t) ' ρ1 (x1 , t)ρ2 (x2 , t) (1.6) dove ρ1,2 (x, t) sono le funzioni di distribuzione dei sottosistemi. Il concetto di indipendenza viene dall Teoria delle Probabilità per cui la probabilità di eventi indipendenti che si verificano insieme si calcola per moltiplicazione delle singole probabilità. Eventi isolati sono evidentemente indipendenti, ma è impossibile scomporre un sistema dinamico in sottosistemi indipendenti (salvo casi triviali) in quanto l’inversione temporale implica una correlazione per ogni tempo nel moto di particelle che siano venute in interazione. Tuttavia i sistemi caotici forti mostrano una decorrelazione esponenzialmente rapida (esponenti di Ljapounov) tra la dinamica di particelle diverse per cui il concetto di indipendenza si può applicare. Il concetto di indipendenza è di estrama utilità per un approccio di fisica statistico. Nei sistemi statistici fisici formati da particelle poco interagenti (o molto caotici) la meccanica statistica spesso approssima la funzione di distribuzione del sistema con Y ρ(x, t) = ρi (xi , t) (1.7) i=1,N 8 CHAPTER 1. SISTEMI DINAMICI E MECCANICA STATISTICA Allora per i sistemi scomponibili in sottosistemi indipendenti la quantitá ln ρ(x) puó diventare allora una grandezza estensiva: ovvero il suo valore si ottiene sommando su tutti i sottosistemi. Nel caso di particelle identiche ρi = ρp ∀i e la particella singola diventa rappresentativa di tutto il sistema. Nel caso di sistemi complessi tale approccio non puó che essere applicato solo parzialmente: ovvero in talune situazione si cerca di scomporre a varie scale il sistema in sottosistemi la cui energia di interazione sia piccola rispetto alla loro energia interna e eventualmente si considera un approccio perturbativo. 1.1 Evoluzione La funzione di distribuzione ρ(x) contiene tutte le informazioni per una descrizione statistica di un sistema a molti gradi di libertá. Costruiamo un’equazione per l’evoluzione di ρ(x, t). Equazione di Evoluzione. Sia dato un sistema dinamico Φt (x) e sia A ⊆ M, allora l’evoluzione della funzione di distribuzione è data da: ρ0 (Φ−t (x)) | ∂x Φ−t | ρ(x, t) = (1.8) Dimostrazione: dato un qualunque evento A vale che Z Z ρ(x, t)dx = ρ0 (y)dy A Φ−t (A) Z = ρ0 (Φ−t (x)) | ∂x Φ−t | dx ∀A A e data l’arbitrarietá di A segue l’asserto. Utilizzando le proprietá del flusso di fase segue la Equazione di Liouville. Consideriamo lo sviluppo in serie di Taylor di Φt (x) nella variabile t. Vale la seguente equazione di Liouville: ⇒ ∂t ρ(x, t) = −∇ · (a(x)ρ(x, t)) (1.9) Dimostrazione: Assumendo soddisfatte tuute le condizioni di regolartá necessarie, consideriamo lo sviluppo Φ∆t (x) = Φ0 (x) + Φ̇0 (x)∆t + O(∆t2 ) = x + a(x)∆t + O(∆t2 ) ⇒| ∂x Φ−∆t (x) | = = = det 1 − ∂x1 a1 (x)∆t .. . .. . .. . | ∂x (x − a(x)∆t + O(∆t2 )) | | I − ∂x a(x)∆t + O(∆t2 ) | ··· ··· ··· 1 − ∂x2 a2 (x) · · · .. .. . . .. . ··· ··· .. . 2 = 1 − (∇ · a(x))∆t + O(∆t ) 1 − ∂xn an (x) 1.2. IL CONCETTO DI INDIPENDENZA E SUE CONSEGUENZE 9 Ne segue: ⇒ ρ(x, ∆t) ⇒ ρ(x, ∆t) − ρ(x, 0) ∆t ¡ ¢ = ρ0 Φ−∆t (x) | ∂x Φ−∆t | ¡ ¢ = ρ0 (x) − ∂t ρ0 (x)∆t + O(∆t2 ) | ∂x Φ−∆t | ¡ ¢ = ρ0 (x) − ∂x ρ0 (x) · a(x)∆t + O(∆t2 ) | 1 − ∇ · a(x) ∆t + O(∆t2 ) | = ρ0 (x) − a(x) · ∂x ρ0 (x)∆t − ∇ · a(x)ρ0 (x)∆t + O(∆t2 ) = −a(x) · ∂x ρ0 (x) − ∇ · a(x)ρ0 (x) + O(∆t2 ) Nel limite ∆t → 0 segue l’asserto: la generalizzazione ad un tempo generico utilizza le proprietá di gruppo del flusso di fase Φt+∆t = Φ∆t ◦ Φt . Per i sistemi Hamiltoniani avremo ẋ = a(x) = ∂x HJ da cui: ∇ · a(x) = 0 ⇒ ∂t (x, t)ρ(x, t) = −a(x) · ∂x ρ(x, t) = −[H, ρ] = −DH ρ(x, t) (1.10) In cui [, ] sono le Parentesi di Poisson che sono in diretta relazione con la derivata di Lie DH : DH = [H, ]. Di particolare interesse per le applicazioni sono le soluzioni stazionarie per cui ρ(x, t) = ρ(x), per cui ∇ · a(x)ρ(x) = 0 La soluzione di tale equazione risulta semplice nel caso di campi vettoriali a divergenza nulla per cui si ottiene a(x) · ∇ρ(x) = 0 (1.11) In tal caso ρ(x) risulta un integrale primo del moto: ovvero ρ(x) = ρ(H) nel caso dei sistemi Hamiltoniani. Rimane aperto il problema di come il sistema possa rilassare ad uno stato stazionario. 1.2 Il concetto di Indipendenza e sue conseguenze Consideriamo un sistema a molti gradi di libertà e supponiamo di poterlo dividere in due parti x = (x1 , x2 ) non interagenti. Il sistema di equazioni differenziali che descrive la dinamica si fattorizza ẋ1 ẋ2 = = a1 (x1 ) a2 (x2 ) (1.12) e l’equazione di Liouville si può scrivere ∂ρ ∂ ∂ = a1 (x1 )ρ + a1 (x1 )ρ ∂t ∂x1 ∂x1 Cerchiamo la soluzione nella forma ρ(x, t) = ρ1 (x1 , t)ρ2 (x2 , t) fattorizzare l’equazione in due equazioni dipendenti dalle variabili x1 e x2 . Questo risultati rispecchia la definizione di eventi indipendenti nella teoria delle probabilità. Siano A, B due insiemi misurabili nello spazio delle fasi di un sistema dinamico, la probabilitá 10 CHAPTER 1. SISTEMI DINAMICI E MECCANICA STATISTICA di trovare una particella sia A che in B si calcola utilizzando la distribuzione congiunta ρ(x1 , x2 , t) Z Z P (x1 ∈ A, x2 ∈ B) = ρ(x1 , x2 , t)dx1 dx2 A B (1.13) Nel caso valga Z Z Z ρ(x1 , x2 , t)dx1 dx2 A = B Z ρ(x1 , t)dx1 A = ρ(x2 )dx2 B P (x1 ∈ A)P (x2 ∈ B) diremo che gli eventi sono indipendenti. Per i sistemi scomponibili in sottosistemi indipedenti, ogni coppia di eventi per i due sottosistemi risulta indipendente. Una conseguenza importante per sistemi scomponibili in sistemi indipendenti è che il logaritmo della funzione di distribuzione diventa una grandezza additiva (vedi paragrafo successivo) log ρ(x1 , x2 ) = log ρ1 (x1 ) + log ρ1 (x1 ) Tale situazione risulta particolarmente semplice nel caso possiamo considerera un sistema formato da particelle identiche e non-interagenti. Ogni particella avrà quindi una funzione di distribuzione identica a quella di tutte le altre e possiamo interpretare la funzione di distribuzione delle singola particelle come la funzione di distribuzione di tutte le particelle nello spazio delle fasi. Una particelle risulta pertanto rappresentativa di tutto il sistema: ipotesi utilizzata per ricavare la distribuzione statistica di Boltzmann. 1.3 Esempio di modello: il traffico Consideriamo un esempio di sistema complesso che cercheremo di modellizzare mediante un’equazione di Liouville. Supponiamo di avere un insieme di N particelle che si muovono distribuite lungo una circoferenza secondo la legge dinamica (optimal velocity model) ẋk v̇k = = vk k = 1, ...N −β(vk − vopt (xk−1 − xk )) (1.14) dove vopt (d) è una funzione che definisce la velocità ottimale di un veicolo in funzione della distanza d.È molto difficile determinare sperimentalmente la funzione vopt (d) (probabilimente non esiste una funzione universale che vada bene per tutti gli individui), allora si adotto un approccio fisico-riduzionista definendo una generica funzione vopt (d), che rispecchi le osservazioni sperimentali (anche se parziali), dipendente da un numero piccolo (idealmente il più piccolo possibile mantenendo le capacità descrittive del modello) di parametro ¶α ¶ µ µ dmin d ≥ dmin altrimento vopt = 0 (1.15) vopt (d) = v∞ 1 − d Il modello viene quindi a dipendere dai seguenti parametri 1.3. ESEMPIO DI MODELLO: IL TRAFFICO 11 1. β che definisce l’inverso del tempo di reazione di un veicolo: più β è alto più i veicoli reagiscono rapidamente ai combiamenti adattando lo loro velocitá alla velocità ottimale; 2. v∞ è la velocità limite quando il veicolo è libero; 3. dmin è legata alla dimensione finita dei veicoli; 4. α definisce il comportamento dei veicoli a velociyà bassa: con α la velocità ottimale aumenta rapidamente con la distanza. Per il momento semplifcheremo il modello considerando il limite β → ∞ (si elimina l’inerzia) e la seconda equazione del modello diventa (la velocità si congela al valore ottimale) vk = vopt (xk−1 − xk ) avremo quindi il sistema ẋk = vopt (xk−1 − xk ) k = 1, ...N Possiamo quindi eliminare ancora i parametri v∞ a dmin scalando il tempo t → tdmin/v∞ e lo spazio x → x/dmin , utilizzando la definizione (??) si ottiene quindi µ ¶α 1 ẋk = 1 − k = 1, ...N (1.16) xk−1 − xk La solutione del sistema (??) risulta comunque complicata, possiamo, però, calcolare le solutioni di equilibrio stazionario ẋk = v0 constante definita dall’equazione µ ¶α 1 v0 = 1 − (1.17) ∆x dove ∆x è la distanza tra i veicoli che rimane constante (dato che la velocità é constante). Se abbiamo N veicoli distribuiti su una distanza L avremo ∆x = L/N e pertanto v0 è determinato. Notiamo che 1/Deltax definisce la densità ρ di veicoli, quindi la relazione (??) si legge come v0 = v0 (ρ). Possiamo utilizzare tale analogia per semplificare il modello (??) in approssimazione continua. Nell’ipotesi che la distanza tra i veicoli vari lentamente (ovvero più lentamente del tempo caratteristico di evolzuione di xk ) allora possiamo approssimare la densità locale con la densità media nell’intorno di un punto dato ρ(xk ) ' 2n 1 ' xk−n−1 − xk+n xk−1 − xk (ricordiamo che xk−1 − xk ≥ 1 per costruzione). Pertanto dal momento che i veicoli sono identici, possimao fattorizzare l’equazione di Liouville ottenendo un’equazione non lineare di continuità ∂ρ ∂ρ =− (1 − ρα ) ρ ∂t ∂x (1.18) Ricordiamo che tale equazione risulta applicabile solo in situazioni in cui la densitá locale varia lentamente, altrimenti dobbiamo ritornare alla dinamica 12 CHAPTER 1. SISTEMI DINAMICI E MECCANICA STATISTICA (??). Ovviamente le condizioni stazionarie sono descritte dall’equazione (??). Possiamo introdurre il flusso locale Φ = (1 − ρα ) ρ (1.19) e studiare la dipendenza del flusso dalla densità: fundamental Diagram (ρ, Φ). Si noti che abbiamo un punto di flusso massimo per una densità critica ρ∗ : dΦ = 1 − (1 + α)ρα = 0 dρ ⇒ ρ∗ = 1 (1 + α)1/α Al di sotto del valore critico ρ∗ un aumento di densità locale ha come conseguenza un aumento del flusso, viceversa al di sopra del valore critico ad un aumento della densità corrisponde una diminzione del flusso. Questa semplice considerazione mette in luce come nel primo caso il sistema in stato stazionario reagisca ad una fluttuazione locale della densità modificando il flusso in modo da ridurre la fluttuazione stessa, mentre nel secondo caso la diminuzione del flusso tende a destabilizzare il sistema in quanto poterà ad amplificare l’aumento locale della densità. Ci aspettiamo quindi che le soluzioni stazionarie dell’equazione (??) siano stabili se ρ ≤ ρa st ed instabili altrimenti. Chapter 2 Grandezze additive In un approccio termodinamico i sistemi statistici sono descritti da variabili estensive (o additive) e variabili intensive che risultano tra loro accoppiate. In un sistema dinamico scomponibile in parti indipendenti è possibile costruire alcune grandezze addittive medie, come l’energia ed il volume. Per definizione un sistema scomponibile in sottosistemi non interagenti non può mai rilassare ad una condizione di equilibrio, pertanto occorre rilassare tale ipotesi per descrivere i fenomeni naturali per cui si osserva una tendenza verso degli stati di equilibrio. Tuttavia si caratterizza la nozione di equilibrio termodinamico con la proprietà che un sistema all’equilibrio si possa pensare scomposto in sottosistemi non interagenti. Ovvero le mutue interazioni tra i sottostemi necessarie per il raggiungimento di uno stato di equilibrio non contribuiscono a mantenere lo stato di equilibrio stesso. Se isolassimo i sottosistemi di un sistema in equilibrio termodinamico non osserveremmo nessun combiamento. Allora trattando di sistemi all’equilibrio possiamo considerare (per esempio) l’energia come una grandezza additiva: l’energia totale è data dalla somma delle energie delle parti. Z E ≡ hHi = H(x)ρ(x, t)dx M E = E1 + E2 (2.1) La ricerca di grandezze additive d́i fondamentale importanza per un approccio termodinamico all’evoluzione macroscopica di un sistema. Nel seguito vedremo che gli stati di equilibrio termodinamico costituiscono un’eccezzione tra i possibili stati stazionari di un sistema statistico, e nel caso di sistemi complessi lo studio di stati stazionari di non equilibrio (NESS) risulta particolarmente importante. 2.1 Entropia Il concetto di Entropia misura la degenerazione di uno stato di equilibrio macroscopico in termini di stati microscopici. La caratterizzazione dello stato macroscopico avviene tramite le grandezze medie (additive o intensive) e come esempio utilizzeremo una funzione ”energia” generica che si specificherà in modo 13 14 CHAPTER 2. GRANDEZZE ADDITIVE diverso a seconda dei sistemi considerati (parleremo genericamente di una funzione costo). Associamo dunque, una funzione Energia allo stato macroscopico: il numero di microstati corrispondenti ad un valore H(x) = E può essere dato dalla misura della superficie Σ(E) = {H(x) = E} nello spazio delle fasi (nota: evidentemente Σ(E) ha misura di volume nulla). I cosidetti principi entropici assumo quindi l’equivalenza di tutti i microstati x ∈ Σ(E): in termini probabilitstici significa attribuire la stessa probabilità ad ogni microstato di essere lo stato del sistema. Tale procedura si interpreta anche da un punto di vista dell’ informazione sul sistema: in mancanza di informazione si equipartisce la probabilità tra gli stati possibili (ovviamente gli stati considerati devono essere stati fisici). Da un punto di vista dinamico tale assunzione é legata all’ ipotesi ergodica nei sistemi dinamici: se consideriamo la traiettoria del sistema sulle superfici Σ(E) e introduciamo su Σ(E) la misura di superficie ottenuta proiettando la misura invariante, per un qualunque sottoinsieme misurabile di Σ(E) il tempo di permanenza (la frazione di tempo per cui la traiettoria appartiene al sottoinsieme) è proporzionale alla misura del sottoinsieme stesso nel limite t → ∞. Ne consegue che il sistema non ammette nessun altro invariante del moto oltre ad H stesso. In modo più preciso supponendo che H = E definisca una superficie compatta, possiamo operare un cambio di variabili che conserva il volume tale che dx = dσ ∧ dE |gradH| dove dσ è l’elemento di area sulla superficie. Dal momento che il sistema conserva la misura dx nello spazio delle fasi, la misura µE (A) = dσ |gradE| risulta una misura conservata dalla dinamica e l’ipotesi ergodica si scrive µE (A) 1 = lim µE (ΣE ) T →∞ T Z T χA (x(t))dt 0 dove A ⊆ Σ(E) e χA è la funzione caratteristica dell’insieme A. La misura µE consente quindi di calcolare i valori medi di un qualunque osservabile sul sistema Z 1 < f >= f (x)dmuE (2.2) µE (Σ) La quantificazione del concetto di entropia è legata alla funzione di distribuzione ρ(x) di un sistema all’equilibrio, dove ρ(x) dà la densità di probabilitá di essere nello stato x. La funzione di distribuzione contiene quindi informazioni sulla degenerazione dello stato definito dagli osservabili macroscopici. Dal momento che siamo interessati ad una grandezza estensiva macroscopica, consideriamo un sistema statistico in equilibrio separabile in due sottosistemi indipendenti: allora per la funzione di distribuzione congiunta vale ρ(x1 , x2 ) = ⇒ log ρ(x1 , x2 ) = ρ1 (x1 )ρ2 (x2 ) log ρ1 (x1 ) + log ρ2 (x2 ) 2.1. ENTROPIA 15 Se quindi scegliamo il valor medio di − log ρ per misurare la degenerazione dello stato macroscopico si ottiene una grandezza estensiva nel caso di sistemi scomponibili in sottosistemi indipedenti all’equilibrio Z S ≡ − hlog ρi = − ρ log ρ dx (2.3) ZM = − ρ (log ρ1 + log ρ2 ) dx ZM Z = − ρ1 log ρ1 dx − ρ2 log ρ2 dx M1 = M2 S1 + S2 S(ρ) si definisce l’Entropia di Gibbs (la definizione di Boltzmann di Entropia é diversa). Da un punto di vista generale si intuisce la stretta relazione che vi é tra i concetti di entropia ed informazione che é stata formalizzata da Shannon(Shannon, C.E. (1948), ”A Mathematical Theory of Communication”, Bell System Technical Journal, 27, pp. 379-423 & 623-656.) A titolo di esempio consideriamo un sistema con un numero finito di stati e sia pn n ∈ {1, .., H} la funzione di distribuzione. Dalla definizione abbiamo X X S{pn } = − pn ln pn pn = 1 n n Più le probabilità si concentrano su degli stati specifici maggiori sono le informazioni che abbiamo sul sistema (idealmente se pn∗ = 1 abbiamo la massima informazione in quanto conosciamo lo stato del sistema stesso). Possiamo evidenziare questo fatto considerando il massimo dell’entropia sulle possibili distribuzioni pn . Utilizzando il metodo dei moltiplicatori di Lagrange abbiamo X δS = − (1 + ln pn + λ)δpn = 0 n Data l’arbitrarietà di δpn abbiamo la condizione 1 + ln pn + λ = 0 ⇒ pn = exp −(1 + λ) quindi pn sono tutti eguali e la condizione di vincolo che detremina il moltiplicatore di Lagrange fornisce pn = 1/n. Si tratta di un massimo stretto in quanto à ! X X 1 1 ln pn = S{pn } ∀ pn pn ≤ S{1/n} = ln n = ln ln n p n n n dove abbiamo applicato la disegueglianza di Jensen (ln x è una funzione convessa). Tale risultato è un’applicazione del Principio di Maximum Entropy (E. T. Jaynes, ”Information Theory and Statistical Mechanics” Physical Review, vol. 106, no. 4, pp. 620-630; May 15, 1957.): si deve attribuire ad un sistema statistico la distribuzione di probabilità che lasci la più grande incertezza compatibile con i vincoli sul sistema stesso. Ovvero non è giustificato introdurre alcuna ipotesi o bias aggiuntivo sul sistema. Tale principio lega la definizione di Entropia alle informazioni sul sistema stesso. 16 2.2 CHAPTER 2. GRANDEZZE ADDITIVE Entropia e carattere Hamiltoniano della dinamica La definizione di Gibbs permette anche un calcolo dell’Entropia nel caso di un sistema fuori dall’equilibrio per cui la funzione di distribuzione varia nel tempo ρ = ρ(x, t). In tal caso la variazione di entropia si scrive Z d dS = − ρ log ρdx dt dt M Z d ρ log ρdx = − dt ¶ ZM µ 1 = − ∂t ρ log ρ + ρ ∂t ρ dx ρ ZM = − (log ρ + 1) ∂t ρdx M Supponendo che il sistema evolva secondo l’equazione di Liouville(vedi ??) abbiamo: Z dS ⇒ = (log ρ + 1) ∂x (a(x)ρ) dx = dt ZM Z = ∂x (log ρ + 1)a(x)ρ) dx − a(x)ρ∂x (1 + log ρ)dx M M Z Z T h.div = [(log ρ + 1)a(x)ρ] dσ − a(x)ρ∂x (1 + log ρ) dx ∂M Z M Z Z 1 ∂x (a(x)ρ) dx − ρ∂x a(x)dx = = − a(x)ρ ∂x ρdx = − ρ M M M Z T h.div = =− ρ∂x a(x)dx = − h∂x a(x)i (2.4) M dove abbiamo applicato il teorema della divergenza e la condizione che ρ si annulli alla frontiera. La variazione di entropia risulta pertanto legata al valor medio della divergenza del campo vettoriale. Dalla definizione di sistema dinamico per cui è conservata una misura (che nel nostro caso è dx) l’Entropia è automaticamente conservata e questa proprietà é intrinsecamente correlata alla reversibilità nel tempo: ovvero l’evoluzione non può distinguere il futuro o il passato qualunque sia l’osservabile considerato. In particolare nei sistemi Hamiltoniani la variazione di entropia è nulla. Nota: dal momento che la non conservazione dell’Entropia di Gibbs è legata alla divergenza dato un campo vettoriale a(x) è sempre possibile scomporre il campo secondo ∂V + â(x) a(x) = − ∂x dove il potenziale V (x) risolve l’equazione di Poisson ∂2V = −diva(x) ∂x2 mentre â(x) è un campo a divergenza nulla (quindi conserva l’Entropia). 2.3. SISTEMI ALL’EQUILIBRIO TERMODINAMICO 17 Nota: la definzione di Entropia non è invariante per cambio di coordinate (se questo non conserva la misura dx): da un calcolo diretto, se operiamo il cambio y = T (x) la nuova funzione di distribuzione (rispetto all’elemento di volume dy) diventa ρ̂(y) = ρ(T −1 (y))|∂y T −1 | dove |∂y T −1 | è il determinate della matrice Jacobiana. Ne segue che nelle nuove variabili l’Entropia si trasforma µ ¶ Z Z Z Z ρ̂(y) ρ(x) ln ρ(x)dx = ρ̂(y) ln dy = ρ̂(y) ln ρ(y)dy− ρ̂(y) ln |∂y T −1 |dy |∂y T −1 | Abbiamo quindi un termine ulteriore rispetto alla definizione standard. Il problema è che la misura dell’Entropia è legata alla densità degli stati nello spazio delle fasi in quanto si considerano equiprobabili gli stati in ciascun elemento di volume, ma comabiando il modo con cui misuriamo gli elementi di volume cambia anche l’Entropia. 2.3 Sistemi all’equilibrio termodinamico Si consideri un sistema fisico all’equilibrio; in esso la funzione di distribuzione è stazionaria rispetto al tempo: ∂t ρ(x, t) = 0 ⇒ ∂x a(x)ρ(x) = 0 Ricordando che la condizione perché un osservabile f sia un integrale primo del moto per un sistema Hamiltoniano è che: df ∂H ∂f = [H, f ] = J =0 dt ∂x ∂x dato che se: ∂H ∂x diva(x) = 0 a(x) = J la condizione ∂ρ ∂t = 0 implica che ρ è un integrale primo del moto. Nel caso stazionario si ha che ρ(x) = ρ(E), quindi l’entropia del sistema si può scrivere come: S(E) = hlog ρ(E)i 2.4 (2.5) Distribuzione di Maxwell-Boltzmann Consideriamo un sistema di N >> 1 particelle che si possano distribuire in M stati discreti di energia, soggette al vincolo della conservazione dell’energia totale del sistema. Ipotizziamo che tutti gli stati siano equivalenti e che il sistema si possa trovare in ciascuno di essi con eguale probabilità (ipotesi ergodica in caso 18 CHAPTER 2. GRANDEZZE ADDITIVE di misura uniforme). Posto: E = M X nj EJ (2.6) j=1 nj : numero di particelle con energia Ej Contando il numero di modi possibili che realizzano la condizione (2.5): ] modi ∼ N! n1 ! · · · nM ! (2.7) Massimizziamo il logaritmo della quantitá (??) considerando il vincolo (2.5) e utilizzando i moltiplicatori di Lagrange: PM log(] modi) − β j=1 nj EJ = F (n1 , · · · , nM ) ´ ³ PM M! = log(M !) − j=1 log(nj !) log(] modi) = log n1 !···n M! Dato che M ! è costante non contribuisce alla funzione da massimizzare: PM PM ⇒ F (n1 , · · · , nM ) = −β j=1 nj Ej − j=1 log(nj !) Facendo tendere M → ∞, vale l’approssimazione: Rn Pnj log(nj !) = k=1 log k ∼ 1 j log xdx = nj log nj − nj ∼ nj log nj PM ⇒ F (n1 , · · · , nM ) ∼ − j=1 (nj log nj − nj + βnj Ej ) ∂F ∂nj = − log nj − βEj = 0 ⇒ nj ∼ e−βEj Questa relazione è stata ottenuta massimizzando il logaritmo della (??), ovvero cercando quale configurazione avrebbe generato un valore maggiore di entropia per il sistema. Nel’ipotesi che il sistema statistico tenda ad evolvere verso stati di massima entropia, resta il quesito di come sia possibile raggiungere questo stato. 2.5 Grandezze termodinamiche La definizione di Entropia per i sistemi all’equilibrio consente la seguente uguaglianza differenziale: dE = T dS − P dV Nota: la derivata dell’energia rispetto a una grandezza additiva genera sempre una grandezza estensiva. Questa relazione mostra il legame tra tre grandezze addittive di un sistema (energia, volume, entropia) e le grandezze termodinamiche estensive pressione e temperatura, legando entropia con temperatura e volume con pressione: T P = ∂S E | V = −∂V E |S 2.5. GRANDEZZE TERMODINAMICHE 19 Il principio di aumento di entropia dei sistemi irreversibili si scrive come: δQ < T δS dove δQ e δS sono la variazione di energia interna per scambio di calore e la variazione di entropia nel corrispondente stato di equilibrio. Dall’energia interna si costruiscono i potenziali termodinamici attraverso trasformazioni di Legendre: dE Funzione Termica W dW CV CP ⇒ dE Energia libera:F dF = T dS − P dV = T dS − d (P V ) + V dP = E + PV = T dS + V dP variazione di energia a pressione costante: = ∂T E | V = ∂T W | P = T dS − P dV = d (T S) − SdT − P dV = E − TS = −SdT − P dV L’energia libera consente di calcolare l’energia interna: E = F − T ∂ T F |V Infine si ottiene il potenziale termodinamico: dF = φ = dφ = −SdT − P dV = −SdT − d (P V ) + V dP F + PV −SdT + V dP Nota: nei processi irreversibili a volume e temperatura costante avviene una diminuzione dell’energia libera. 20 CHAPTER 2. GRANDEZZE ADDITIVE Chapter 3 Urti tra particelle Utilizzeremo gli urti di particelle per dare un esempio di come si costruisce un modello mesoscopico ovvero un modello che pur trascurando i dettagli della dinamica microscopcia riesce a riprodurne alcuni effetti da un punto di vista statistico. Daremo innanzitutto alcune ipotesi ”fisiche” per la trattazzione degli urti tra due particelle: assumiamo 1. Urti istantanei (tempo d’urto τ ¿ ∆t tempo caratteristico di evoluzione del sistema) (ovvero degli osservabili del gas di particelle); 2. Urti binari (é un’approssimazione sensata: se il tempo d’urto è molto piccolo, è molto difficile avere più di due particelle che si urtano simultaneamente); 3. Leggi di conservazione dell’Energia Cinetica e della Quantità di Moto. Considero una particella test di massa M che interagisce con un gas di particelle di massa m ¿ M . Siano rispettivamente P e p la quantità di moto della particella test e di una particella urtante, sia PCM la quantità di moto rispetto della particella test al sistema del centro di massa: PCM = µ∆v (3.1) dove µ = M m/(m + M ) è la massa ridotta e ∆v = V − v. Nello studio di urti successivo possimao considerare P 0 un processo stocastico che descrive legato alla distribuzione delle particelle nel gas man mano che si susseguono gli urti. Assumiamo che p abbia i seguenti valori di aspettazione e varianza: E(p) E(pi , pj ) = mT δi,j = 0 = mT I L’ultima relazione viene dalla definizione di temperatura in Meccanica Statistica (ponendo a 1 la costante di Boltzmann) µ 2¶ 3 p = T (3.2) E 2m 2 Durante il processo il vettore PCM viene ruotato di un angolo θ in seguito all’urto in un piano definito da P e da p (supponiamo interazioni di tipo campo 21 22 CHAPTER 3. URTI TRA PARTICELLE centrale cosı̀ che si conservi L): ∆P = (cos θ − 1) PCM + (ω × PCM ) sin θ in cui θ è l’angolo di deflessione dipendente dal paramentro d’urto e ω è il versore lungo la direzione del momento angolare L. La dinamica dell’urto può essere espressa in modo discreto utilizzando il tempo di urto τ : P (t + τ ) = = P (t) + ∆P P (t) + (cos θ − 1) PCM + (ω × PCM ) sin θ Cerchiamo di costruire un modello mesoscopico in grado di riprodurre le proprietà statistiche della dinamica P (t) senza dover descrivere la dinamica microscopica di ogni urto. La conservazione dell’energia cinetica nel sistema del centro di massa E = µ∆v 2 /2 implica che la variazione della velocità relativa ak quadrato deve essere nulla. Sia u = ∆v abbiamo ¡ ¢ 2 ∆ u2 = (u + ∆u) − u2 2 = 2u∆u + (∆u) = 0 = − 2 ⇒ ∆uq (∆u) 2|u| quindi, nel caso di piccole deviazioni (|∆u ¿ 1|), la componente lungo la direzione dell’urto risulta di secondo ordine rispetto. Assumiamo ora le seguenti ipotesi sulla distribuzione delle variabili θ e ω: 1. θ è distribuita in modo simmetrico rispetto a θ = 0 2. ω è distribuita uniformemente su di una sfera unitaria Inoltre supponiamo che θ e ω siano variabili indipendenti (e inoltre siano indipendenti tra un urto e il successivo). Per fissato P calcoliamo il valore di aspettazione di ∆P con: E (∆P ) = E (cos θ − 1) E (PCM ) + E (ω × PCM ) E (sin θ) Per la simmetria della distribuzione di θ, E (sin θ) = 0, quindi: µ ¶ θ E (∆P ) = E (cos θ − 1) E (PCM ) = −2E sin2 E (PCM ) 2 dove si media sui porametri d’urto e sul momento P 0 della particella urtante Nel calcolare la varianza il termine di doppio prodotto di annulla in quanto PCM · (ω × PCM ) = 0. Quindi: componente lungo la direzione dell0 urto ¡ E ∆P 2 ¢ }| ´ { z ³ ¡ ¢ 2 2 E (cos θ − 1) E PCM = ´ ¡ 2 ¢ ³ 2 + E sin θ E (ω × PCM ) {z } | componente ortogonale 23 Dal momento che ω é un versore (norma unitaria) distribuito uniformemente si ha che: ³ ´ ¡ ¢ 2 E (ω × PCM ) = E PCM 2 ³ ´ ¡ ¢ ¡ ¢ 2 ⇒ E ∆P 2 ' E (cos θ − 1) + sin2 θ E PCM 2 µ ¶ ¡ ¢ 2 θ = 4E sin E PCM 2 2 Introduciamo il parametro γ ¢ ¡ E sin2 θ2 = 2 τ cosı̀ che possiamo scrivere E(∆P ) = −τ γE(PCM ) 2 E(∆P 2 ) = 2τ γE(PCM ) (3.3) e per trovare la variazione della P dopo un intervallo di tempo ∆t, sommiamo i contributi di ognuno degli N = ∆t τ urti subiti dalla particella test: N X ∆Pk = k=1 N X ∆Pk − N E(∆P ) + N E(∆P ) k=1 N E(∆P ) = −2N τ γE(PCM ) = ∆tγE(PCM ) ∆P̂ = ∆P − E(∆P ) N X ∆Pˆk = √ k=1 N 1 X ˆ √ N ∆Pk N k=1 Ricordiamo la definizione (??) e nell’ipotesi m ¿ M per cui µ ' m possiamo approssimare m E(PCM ) ' P M in quanto il contributo medio di p si annulla nel caso di isotropia. Analogamente possiamo valutare µ ¶ 1 MV 2 1 3T 2 2 E(PCM ) = 2µ + ' 3mT M 2 m 2 pertanto vale la stima N 1 X ¡ 2 ¢ E PCM N ' 3mT k=1 Ricordando che abbiamo 3 componenti, segue E(p2i ) = mT . Nell’ipotesi di urti indipendenti possiamo applicare il teorema del limite centrale che afferma: la somma di tante variabili aleatorie indipendenti a media e varianza finita tende 24 CHAPTER 3. URTI TRA PARTICELLE ad una variabile Gaussiana con media somma delle medie a vraianza somma delle varianze. Nel nostro caso la somma N 1 X ˆ √ ∆Pk N k=1 per N À 1 tenderà ad una variabile Gaussiana a media nulla e varianza 2 2γτ E(PCM ). Possiamo allora scrivere q p m 2 P (t + ∆t) = P (t) − γ P (t)∆t + 2N γτ E(PCM )δt M con δt variabile gaussiana normalizzata. p P (t + ∆t) − P (t) m δt = −γ P (t) + 2γmT √ (3.4) ∆t M ∆t √ 1 , che diverge per ∆t → 0: Notiamo che la variabile δ(t)/ ∆t ha varianza ∆t quindi la relazione (??) non definisce un’equazione differenziale ordinaria. Tuttavia è possibile dare un significato a tale√limite nell’ambito delle equazioni differenziali stocastiche e la variabile δ(t)/ ∆t definisce quello che in fisica si chiama rumore bianco. Se definiamo il coefficiente di drift α = γm/M e il coefficiente di diffusione D = γmT si ottiene la relazione (Relazione di Einstein): D MT = α (3.5) che lega il coefficiente di diffusione stocastica con la dissipazione dinamica.