Meccanica statistica - Universita` di Udine
Transcript
Meccanica statistica - Universita` di Udine
Chapter 2 Meccanica statistica Prima di iniziare l’analisi dei fondamenti della Meccanica Statistica risolviamo il problema già posto all’inizio del capitolo 1. Esso costituirà un esempio di approccio alle questioni a cui tale disciplina è interessata. 2.1 Gas ideale: un semplice approccio statistico Supponiamo che le particelle che compongono il gas ideale siano puntiformi e che non risentono di forze, se non durante gli urti con le pareti del recipiente; confideremo tali urti perfettamente elastici. In queste condizioni, una particella che urta contro la parete deve conservare la sua energia. Ad esempio, consideriamo una particella che urta contro un elemento di parete verticale (vedi figura). Avremo: vx0 = −vx ; vy0 = vy ; vz0 = vz ; (v0 )2 = v2 (2.1) La variazione di quantità di moto della particella (perpendicolare alla superficie e diretta verso sinistra) è quindi ∆p = 2mvx . Nel tempo dt le particelle che urtano la superficie ∆S con velocità v sono quelle che si trovano nel parallelepipedo di base ∆S e altezza vx dt (tratteggiato in figura) di volume ∆Svx dt. Se nv rappresenta il numero di particelle per unità di volume che hanno velocità pari a v, il numero medio di particelle che nel tempo dt urta l’elemento di superficie ∆S sarà pari a 1 n(v)∆Svx dt, 2 (2.2) dato che, in media, solo metà delle particelle nel volumetto suddetto si dirigerà verso la parete. Si noti che l’esiguità del tempo dt ci ha permesso di trascurare gli urti tra le particelle. La variazione di quantità di moto relativa alle particelle che urtano la superficie ∆S a velocità v è perciò mn(v)∆Svx2 dt, e includendo le altre particelle 11 otteniamo complessivamente una variazione pari a " m∆Sdt # X n(v)vx2 . (2.3) v Tale quantità deve uguagliare l’impulso della forza media risultante dalle azioni esercitate sulla superficie ∆S nel tempo dt pari a Fx dt. Conseguentemente sulla superficie ∆S è esercitata una pressione p = Fx ∆S pari a " p=m # X n(v)vx2 = mnvx2 (2.4) v dove vx2 = v n(v)vx2 /n è il valore quadratico medio della componente lungo x della velocità delle particelle e n è il numero medio di particelle per unità di volume. Infine, essendo il moto delle particelle isotropo dovremo avere vx2 = vy2 = vz2 = v 2 /3 e perciò P 2 2N 1 1 K p = nmv 2 = n mv 2 = 3 3 2 3V (2.5) dove K = 21 mv 2 è l’energia cinetica media delle particelle. Si noti che ricordando che l’equazione di stato di un gas ideale è pV = N kB T (dove kB è la costante di Boltzmann), il risultato precedente mostra che per un gas ideale 3 K = kB T. 2 2.2 (2.6) Le basi della Meccanica Statistica: Dinamica e Microstati La teoria è ricavata postulando le leggi statistiche che regolano come i microstati di un sistema sono visitati nella dinamica di equilibrio. Prima di tutto osserviamo che uno stato microscopico di un sistema richiede molti parametri per essere specificato esattamente. Precisazione: il calcolo dei microstati di un sistema classico imporrebbe la soluzione simultanea delle equazioni del moto delle N particelle che lo compongono: cioè dvi dri = Fi , = vi (2.7) mi dt dt con ∂U ∂U ∂U (2.8) , , Fi = −∇i U (r1 , ...rN ) = . ∂xi ∂yi ∂zi Ovviamente, ciò è possibile solo per sistemi particolarmente piccoli (costituiti da poche particelle) e/o semplici. Per sistemi macroscopici questa via, anche se rigorosa, è impraticabile. 12 2.2.1 Microstati e Insiemi In alternativa consideriamo lo spazio costituito dagli stati che il sistema stesso può assumere (spazio delle fasi nel caso classico, spazio di Hilbert degli stati |ψi nel caso quantistico). A seconda dei casi potremmo imporre delle condizioni diverse nella loro costruzione: E =cost. e/o N = cost. e/o V =cost. ⇒ Le diverse condizioni determineranno diversi sottospazi e cioè diversi sottoinsiemi di microstati. Tali sottospazi, intesi come insiemi di microstati del sistema, sono detti insiemi statistici (statistical ensembles). Ipotesi: un sistema in equilibrio visita (prima o poi) tutti i suoi microstati. Con questa ipotesi si ammette che tutti i microstati di un particolare insieme statistico adatto a descrivere una dato sistema siano accessibili. Nella sua dinamica (intesa anche come dinamica di equilibrio) si suppone che il sistema possa spaziare su tutti i microstati. In un tempo relativamente lungo, effettuiamo M misure (M molto grande) di una generica grandezza G. Diremo che il valore osservabile di G è M 1 X Gj M j=1 Goss = (2.9) e cioè, supponendo il sistema all’equilibrio, il valore osservabile della grandezza è il valor medio tra i valori collezionati nelle M misure; dato che le M misure sono fatte in successione, una dopo l’altra, possiamo dire che tale media è una media temporale (la stabilità dell’osservabile nello stato di equilibrio impone che tale media abbia essenzialmente lo stesso valore anche per set diversi di M misure ognuno). Se ogni misura è cosı̀ rapida da poter supporre che il sistema (durante la misura) sia in un unico microstato ν, potremo scrivere Goss = X Pν Gν ≡ hGi (2.10) ν dove Gν è il valore di G corrispondente allo stato ν; Pν corrisponde alla probabilità che tale microstato sia visitato (Pν = numero di volte in cui lo stato ν è osservato tra le M misure, diviso M ). Si noti che la quantitàhGiè ora una media sull’insieme dei microstati visitati e quindi è una media spaziale (nel senso dello spazio dei microstati!). Più propriamente, tale media è una media sull’insieme statistico (o ensemble average). 2.2.2 Ergodicità e Insiemi Statistici La Meccanica Statistica classica (quella che ci interessa) si basa su varie ipotesi iniziali. Una delle ipotesi fondamentali è la seguente: All’equilibrio il sistema visita tutti i suoi microstati, e per una serie di misure in un tempo sufficientemente lungo, la media temporale e la media sull’insieme statistico si equivalgono. I sistemi che soddisfano tale equivalenza vengono detti ergodici. In natura molti sistemi sono ergodici (ma esistono delle eccezioni: per esempio due oscillatori accoppiati). Si noti che se un sistema soddisfa l’ipotesi di ergodicità, 13 all’equilibrio i valori medi delle grandezze possono essere ottenuti effettuando delle medie sugli insieme dei microstati che ben rappresenta il sistema. In generale, a seconda del tipo di microstati che includiamo nell’insieme statistico, diamo all’insieme statistico stesso nomi diversi. Ecco vari esempi e nomi di diversi insiemi statistici: 1. Insieme Microcanonico: è costituito da tutti i microstati di un sistema di N particelle, volume V ed energia E; 2. Insieme Canonico: corrisponde all’insieme dei microstati di un sistema di N particelle e volume V : E può ora fluttuare; 3. Insieme Grancanonico: corrisponde all’insieme dei microstati di un sistema di volume V : in quest’ultimo caso sia E che N possono fluttuare. 2.3 L’ Insieme Microcanonico Per cominciare a costruire la statistica degli insiemi, cominciamo dall’insieme Microcanonico. In tale insieme a tutti i microstati compete lo stesso valore dell’energia. In generale, come vedremo anche in seguito, l’energia ha un ruolo centrale nel determinare la statistica di un’insieme. Nell’insieme microcanonico, che può essere visto come il precursore di tutti gli altri, l’iso-energeticità tra i microstati viene sfruttata in modo particolarmente semplice. L’ipotesi fondante è la seguente: Dato un sistema di N particelle in un volume V in equilibrio, tutti i microstati con la stessa energia E hanno la stessa probabilità di essere visitati. Se con Ω(N, V, E) indichiamo il numero di microstati con energia tra E ed E + dE, la probabilità di un particolare stato microscopico con energia Eν è Pν = 1 Ω(N, V, Eν ) (2.11) per qualsiasi stato nell’insieme. 2.3.1 Insieme Microcanonico: Entropia e Temperatura In tale insieme alla funzione entropia viene assegnata la seguente espressione: S(N, V, E) = kB ln Ω(N, V, E). (2.12) Tale scelta per la funzione entropia è compatibile con le proprietà che dell’entropia introdotte nel precedente capitolo. Infatti: • S è una funzione estensiva: Presi due sottosistemi indipendenti, A e B, con numero di stati ΩA e ΩB , il numero di stati complessivo è pari a ΩA · ΩB .Quindi S = kB ln(ΩA · ΩB ) = kB ln ΩA + kB ln ΩB = SA + SB . 14 (2.13) • S soddisfa la II legge: In un sistema con N particelle, volume V ed energia E, prendiamo una partizione in due sottosistemi con N (1) + N (2) = N , V (1) + V (2) = V , ed E (1) + E (2) = E. La partizione determina una riduzione del numero di microstati Ω(N, V, E; v.i.) rispetto a quello originario Ω(N, V, E). ⇒ S(N, V, E) > S(N, V, E; v.i.) (2.14) Da notare: la massimizzazione dell’entropia all’equilibrio corrisponde al massimo disordine molecolare. • Temperatura: 1 = T ∂S ∂E = kB N,V ∂ ln Ω ∂E (2.15) N,V T > 0 ⇒ Ω(N, V, E) è una funzione monotona crescente di E. 2.4 Insieme Canonico È costituito dai microstati con N e V fissati. L’energia può quindi fluttuare. L’equilibrio di un tale sistema è legato allo scambio di energia (calore) con l’ambiente a temperatura T (sistemi a temperatura costante). Tale insieme statistico è adatto a descrivere sistemi a massa costante (il numero di particelle non cambia) in equilibrio termico. Vediamo come possiamo ricavare la distribuzione di probabilità associata dei microstati. Si abbia un sistema A in contatto termico con un sistema B molto più grande; i due sistemi siano isolati dal resto dell’universo; in tali condizioni A + B è un sistema trattabile con l’insieme microcanonico. Si noti anche che se B è molto grande allora EB >> EA e quindi le energie dei microstati di B formano un continuo e la quantità ∂ΩB /∂EB può essere calcolata. EA può fluttuare, ma EB + EA = cost. Quindi, se A è in un particolare microstato con energia EA , il numero di microstati accessibili ad A + B sarà pari a ΩB (EB ) = ΩB (E − EA ). Tutti i microstati ν di A con Eν = EA hanno la stessa probabilità Pν (EA ) = 1/ΩA (EA ), e perciò, dovendo essere Ω(E) = ΩA (EA ) · ΩB (E − EA ) = cost., sarà Pν (EA ) ∝ ΩB (E − EA ) = exp[ln ΩB (E − EA )]. (2.16) Sviluppando ora ln ΩB (E − EA ) in serie di Taylor fino al prim’ordine, si ottiene d ln ΩB EA + ... Pν (EA ) ∝ exp ln ΩB (E) − (2.17) dE d ln ΩB EA = ΩB (E) · exp − EA = exp − = e−βEA dE kB T Questa distribuzione corrisponde alla distribuzione canonica di Boltzmann. 15 2.4.1 Funzione di Partizione Canonica Imponendo la normalizzazione P ν Pν = 1, possiamo scrivere Pν = 1 −βEν e Q (2.18) con X Q(N, V, β) = e−βEν (2.19) ν Quest’ultima è la cosiddetta funzione di partizione canonica. Tale funzione è particolarmente importante perché da essa possono essere ricavate praticamente tutte le grandezze rilevanti per l’equilibrio del sistema. Ad esempio, l’energia interna del sistema, E(N, V, β), in meccanica statistica corrisponde al valor medio dell’energia, hEi, calcolato sulla distribuzione canonica. Si vede facilmente che tale quantità può essere ricavata anche come segue: P −βEν 1 ∂Q ν Eν e hEi = hEν i = P −βEν = − ν e Q ∂β ∂ ln Q =− ∂β N,V . (2.20) N,V Come già detto molte funzioni termodinamiche possono essere espresse in termini della funzione di partizione. Anche l’energia libera di Helmholtz è legata ad essa e la sua espressione è data da A = −kB T ln Q(N, V, β) = − 2.4.2 1 ln Q(N, V, β). β (2.21) Insieme Canonico: fluttuazioni di energia Contrariamente a quanto succede per l’insieme microcanonico, nell’insieme canonico l’energia fluttua. Tuttavia, nel limite termodinamico i due insiemi sono equivalenti. Ciò è dovuto al fatto che le fluttuazioni (macroscopiche) dell’energia sono trascurabili. Calcoliamo il valor medio delle fluttuazioni al quadrato dell’energia rispetto a hEi. Si vede facilmente che tale quantità può essere scritta come segue: !2 2 2 2 2 h(δE) i = h(E − hEi) i = hE i − hEi = X Pν Eν2 − X ν = 1 Q ∂2Q ∂β 2 ! N,V 1 − 2 Q ∂Q ∂β 2 = N,V Pν E ν (2.22) ν ∂ 2 ln Q ∂β 2 ! N,V ∂hEi =− ∂β N,V e ricordando ora che CV = ∂E/∂T N,V e che ∂/∂β = −kB T 2 ∂/∂T , abbiamo anche (2.23) h(δE)2 i = kB T 2 CV . Ora possiamo valutare l’entità relativa delle fluttuazioni delle energia rispetto al suo valor medio. Per fare ciò ricordiamo che sia CV che E sono funzioni estensive, e quindi sono proporzionali ad N . Perciò p √ h(δE)2 i kB T 2 CV 1 = ∝√ . (2.24) hEi hEi N 16 Ciò sta a significare che per sistemi macroscopici (quantità di sostanza dell’ordine di una mole o numero di particelle N ∼ NA = 6 · 1023 ) la deviazione standard delle fluttuazioni dell’energia intorno al suo valor medio è dell’ordine di ≈ 10−11 hEi. Morale: le fluttuazioni dell’energia sono trascurabili e questo comporta che i microstati che contribuiscono in maniera essenziale allo stato di equilibrio del sistema sono praticamente iso-energetici, come in un insieme canonico. 2.4.3 Applicazioni degli Insiemi Statistici Vediamo qui qualche esempio di applicazioni degli insiemi microcanonico e canonico. Applicazione 1: Particelle indipendenti con due livelli energetici Consideriamo un sistema costituito da N particelle identiche distinguibili e indipendenti, ognuna delle quali può assumere energia 0 o > 0. Un particolare stato (microstato), ν sarà quindi specificato dai numeri ν ≡ (n1 , n2 , ...., nN ), (2.25) nj = 0, 1 dove i valori di nj , 0 o 1, si identificano con il fatto che la particella j assume gli stati con energia 0 e , rispettivamente. Corrispondentemente, l’energia del sistema può essere scritta nella forma Eν = n1 + n2 + ... + nN = N X nj = m, (2.26) j=1 dove m = N j=1 nj è pari al numero di particelle che si trovano nello stato ad energia . Perciò il numero di stati con energia E sarà pari al numero di combinazioni di N elementi uguali a gruppi di m, cioè: P Ω(N, E = m) = N! . (N − m)!m! (2.27) Ricordando quanto visto in precedenza, l’entropia del sistema corrisponde a S = kB ln Ω(N, E) e quindi possiamo scrivere per la temperatura: β= 1 = kB T ∂ ln Ω ∂E = N 1 ∂ ln Ω ∂m . (2.28) N Questa espressione ha significato solo nel limite N → ∞; in queste condizioni infatti Ω(N, E) può essere vista come una funzione continua in m. Sfruttiamo la formula di Stirling, valida per grandi N : ln N ! ' N ln N − N, (2.29) ln Ω(N, E) = ln N ! − (N − m)! ln(N − m)! − m ln m! (2.30) ' N ln N − (N − m) ln(N − m) − m ln m. (2.31) per riscrivere ln Ω: 17 Da qui otteniamo ∂ ln Ω N = ln(N − m) − ln m = ln −1 ∂m m (2.32) che inserita nell’Eq.(2.28) dà infine il risultato cercato 1 m = N 1 + eβ ovvero N . 1 + eβ E= (2.33) Tale relazione ci permette di esprimere l’energia del sistema in funzione della temperatura. Possiamo vedere che a T = 0 anche l’energia si annulla. Questo è in pieno accordo con il fatto che a T = 0 il sistema occupa il suo stato di minima energia, lo stato fondamentale (in queste condizioni vince il principio di minima energia!). Al contrario, per T → ∞ si ha E = N /2. Questo corrisponde ad avere ogni particella con uguale probabilità nei due stati possibili. In questa situazione si ha il massimo disordine (domina il principio di massima entropia!). Studiamo lo stesso modello con l’insieme canonico. La funzione di partizione è ora la seguente: Q(N, β) = X e−βEν = ν X exp −β n1 ,n2 ,...,nN N X nj . (2.34) j=1 Fattorizzando l’esponenziale, possiamo scrivere e−βn1 · · · ·e−βnN = X Q(N, β) = n1 ,n2 ,...,nN N X 1 Y e−βnj = (1 + e−β )N . (2.35) j=1 nj =0 Il valor medio dell’energia può essere perciò calcolato molto semplicemente ∂ ln Q hEi = − ∂β = −N ∂ ln(1 + e−β ) ∂β ! = N e−β N = , −β 1+e 1 + eβ (2.36) e risulta essere esattamente uguale a quello ricavato con l’insieme microcanonico. Questa è un’ulteriore conferma dell’equivalenza dei due insiemi statistici. 2.4.4 Applicazione 2: Gas di Particelle Classiche (gas ideale) Prendiamo qui in esame un gas ideale formato da particelle uguali di massa m all’interno di una scatola di lato L (volume V = L3 ). L’energia di una singola particella libera è solo cinetica e i suoi possibili valori possibili sono 1 p2 h̄2 k 2 p = mv2 = ≡ 2 2m 2m (2.37) dove p = h̄k e 2π (nx x̂ + ny ŷ + nz ẑ) L J· s è la costante di Planck (h̄ = h/2π). k= e h = 6.63 · 10−34 18 (2.38) Si noti che qui abbiamo utilizzato le energie quantistiche delle particelle. Come vedremo, la spaziatura fine dei livelli energetici permetterà di passare velocemente ad una distribuzione continua delle energie. La funzione di partizione del sistema è quindi N ∞ 2 2 1 X e−βh̄ k (nx ,ny ,nz )/2m Q= N ! nx ,ny ,nz (2.39) dove il fattore 1/N ! elimina le permutazioni. Sfruttando il fatto che la spaziatura tra i valori di k è molto fine (infatti ∆kx = 2π∆nx /L = 2π/L) la sommatoria all’interno delle parentesi può essere trasformata in un integrale: ∞ X nx ,ny ,nz L3 → (2π)3 Z ∞ Z ∞ Z ∞ −∞ −∞ V dkx dky dkz = (2π)3 −∞ Z V dk = 3 h Z dp (2.40) dove abbiamo sfruttato la relazione p = h̄k. Quindi: ∞ X −βp2 /2m e nx ,ny ,nz V = 3 h Z ∞ Y α=x,y,z −∞ 2 e−βpα /2m dpα . (2.41) Gli integrali sono ben noti: Z ∞ s −βp2α /2m e −∞ dpα = Z ∞ 2m β s −s2 e ds = 2πm β 3N/2 −∞ 2πm . β (2.42) Infine si ricava la funzione di partizione Q(N, V, β) = VN N !h3N . (2.43) Da questa si può ricavare l’energia media ∂ ln Q hEi = − ∂β 3 = N kB T. 2 (2.44) Inoltre, essendo dA = −SdT − pdV + µdN e A = −kB T ln Q, avremo p=− ∂A ∂ ln Q N = kB T = kB T , ∂V ∂V V (2.45) dalla quale otteniamo immediatamente l’equazione di stato dei gas ideali pV = N kB T. 2.4.5 (2.46) Applicazione 3: Paramagnetismo . . . semplice Consideriamo un sistema di N spins distinguibili non interagenti in un campo magnetico H. Ogni spin ha un momento di dipolo magnetico µ, che può essere parallelo o anti-parallelo al campo. L’energia di un particolare microstato ν è Eν = − N X Hµni , i=1 19 ni = ±1. (2.47) Se in un microstato abbiamo m spins anti-paralleli al campo H, la sua energia sarà pari a 1 E N+ . E = (2m − N )Hµ da cui m = 2 Hµ (2.48) D’altra parte il numero di microstati con m spins antiparalleli è dato dalla stessa espressione che nell’Eq.(2.27): Ω(N, m) ≡ Ω(N, E(m)) = N! . (N − m)!m! (2.49) Nell’insieme microcanonico l’entropia è definita come S = kB ln Ω e la temperatura è data da: 1 ∂S ∂ ln Ω ∂m = = kB . (2.50) T ∂E ∂m ∂E Osservando che dall’Eq.(2.48) deriva ∂m 1 = ∂E 2Hµ (2.51) e ricordando il risultato dell’Eq.(2.32) con l’approssimazione di Stirling: ∂ ln Ω N = ln −1 ∂m m abbiamo (2.52) 1 1 N Hµ − E = ln kB T 2Hµ N Hµ + E β= (2.53) Ricavando quindi E otteniamo 1 − e2βHµ E(β, H, N ) = N Hµ 1 + e2βHµ dove tanh(x) = ! = −N Hµ tanh(βHµ) (2.54) ex − e−x 1 − e2x = − ex + e−x 1 + e2x (2.55) è la tangente iperbolica. Riscrivendo invece l’Eq.(2.27) come segue: ln Ω = N ln N N −m + m ln N −m m (2.56) e 1 E m= N+ 2 Hµ N = , 1 + e2βHµ 1 E N −m= N− 2 Hµ = N e2βHµ 1 + e2βHµ (2.57) troviamo la seguente espressione per l’entropia: " S(β, N, H) = N kB 1 + e2βHµ ln e2βHµ 20 ! # 2βHµ + . 1 + e2βHµ (2.58) Si noti che nel limite T → 0 si ha lim E = −N Hµ; lim S = 0 T →0 (2.59) T →0 Inoltre per piccoli campi H (cioè quando 2βHµ << 1) abbiamo E ' −N H 2 βµ2 = − N H 2 µ2 kB T (2.60) La magnetizzazione media hM i del sistema è definita come hM i = *N X + µni i=1 *N X 1 = H + Hµni =− i=1 hEi . H (2.61) Nel limite 2βHµ << 1 si ha N Hµ2 . kB T hM i ' (2.62) Quest’ultima relazione è in accordo con la legge di Curie della magnetizzazione di un paramagnete. Si noti che la magnetizzazione è proporzionale al campo magnetico H e inversamente alla temperatura. Considerando ora l’insieme canonico, abbiamo Q= X e−βEν = X ν e−β P i Hµni ν = N Y X e−βHµni (2.63) i=1 ni =−1,1 da cui Q = (eβHµ + e−βHµ )N = 2N coshN (βHµ) (2.64) dove cosh(x) = (ex + e−x )/2 è la funzione coseno iperbolico (il seno iperbolico è ovviamente sinh(x) = (ex − e−x )/2). Da questa otteniamo immediatamente hEi = − ∂ ln Q ∂ ln [cosh(βHµ)] 1 ∂ cosh(βHµ) = −N = −N (2.65) ∂β ∂β cosh(βHµ) ∂β e infine hEi = −N Hµ sinh(βHµ) = −N Hµ tanh(βHµ) cosh(βHµ) (2.66) uguale a quella calcolata in precedenza. 2.5 Insieme Grancanonico Riprendiamo il passaggio dall’insieme microcanonico all’insieme canonico. Abbiamo considerato un sistema in equilibrio con E fluttuante,descritto come parte di un sistema composto isolato, in cui l’altra parte (molto grande) costituisce una riserva di E. Per l’entropia del nostro sistema vale (a V e N fissati): dS = 1 1 dE ⇒ dS = βdE. T kB 21 (2.67) Da qui si deriva la probabilità per un microstato della distribuzione canonica: Pv = 1 −βEν e , Q Q= X e−βEν . (2.68) ν Immaginiamo ora un sistema in equilibrio con E ed N fluttuanti. Tale sistema può essere visto come parte di un sistema composto isolato (E ed N costanti) in cui l’altra parte (molto grande) costituisce una riserva di E e N . Per l’entropia del nostro sistema vale (a V fissato, N variabile): dS = µ 1 1 dE − dN ⇒ dS = βdE − βµdN. T T kB (2.69) La probabilità di un microstato con energia Eν e numero di particelle Nν si ottiene analogamente a come si è ottenuta la legge di distribuzione canonica, e cioè: Pν = 1 exp(−βEν + βµNν ) Z con Z = X exp(−βEν + βµNν ) (2.70) ν Quindi E ed N si ottengono tramite le medie hEi = X ν ∂ ln Z Pν E ν = − ∂β hN i = ; βµ,V X Pν N ν = ν ∂ ln Z ∂(βµ) , β,V (2.71) e di conseguenza è possibile scrivere la seguente espressione: d ln Z = −hEidβ − hN id(βµ). (2.72) L’espressione dell’entropia in tale insieme può essere ricavata attraverso l’introduzione P della seguente funzione: S = −kB ν Pν ln Pν . Esplicitando i Pν si vede che S = −kB X Pν [− ln Z − βEν + βµNν ] = kB [ln Z + βhEi − βµhN i], (2.73) ν e inoltre dS = kB [d ln Z + βdhEi + hEidβ − βµdhN i − hN id(βµ)], (2.74) da cui dS = kB β[dhEi − βµdhN i], dhEi = T dS + µdhN i. (2.75) Di conseguenza la funzione S S = −kB X Pν ln Pν (2.76) ν può essere vista come l’entropia nell’insieme grancanonico. In effetti, tale espressione dell’entropia è anche detta entropia di Gibbs ed è utilizzabile in qualsiasi insieme statistico. Riassumendo: L’insieme grancanonico è appropriato per un sistema aperto con volume fisso V dove sia E che N possono fluttuare. Le variabili che controllano tali fluttuazioni sono β e µβ. 22 Se ν denota uno stato con Nν particelle ed energia Eν, allora Pν = X 1 exp(−βEν + βµNν ) ⇒ S = −kB Pν [− ln Z − βEν + βµNν ] (2.77) Z ν da cui S = kB [ln Z + βhEi − βµhN i], (2.78) Da questa, ricordando l’espressione termodinamica S = E/T + (p/T )V − (µ/T )N e identificando E ed N con i loro valori medi, si ha (2.79) ln Z = βpV. Infine, Z= X e−βEν +βµNν ≡ ν X Q(N, V, β)eβµNν (2.80) N è la funzione di partizione grancanonica. Q(N, V, β) è la funzione di partizione canonica dei microstati con N particelle. La funzione di partizione Z è funzione di β, µβ e del volume (le energie Eν dipendono implicitamente dal volume del sistema). Talvolta si definisce il cosiddetto granpotenziale (”grand potential”) Ξ = −kB T ln Z = −pV (2.81) che può essere visto come l’energia libera nell’insieme grancanonico, alla stregua dell’energia libera di Helmholtz per l’insieme canonico. 2.5.1 Fluttuazioni nel numero di particelle Le fluttuazioni delle grandezze si possono analizzare in maniere analoga a come effettuato nell’insieme canonico. Ad esempio, per le fluttuazioni nel numero di particelle avremo: h(δN )2 i = h(N − hN i)2 i = hN 2 i − (hN i)2 = X Nν2 Pν − XX ν ν N ν N ν 0 Pν Pν 0 ν0 (2.82) da cui 2 h(δN ) i = ∂ 2 ln Z ∂(βµ)2 ! = β,V ∂hN i ∂(βµ) . (2.83) β,V È facile generalizzare a sistemi a più componenti. 2.5.2 Calcolo dell’energia libera: particelle indipendenti con due livelli di energia e minimizzazione dell’energia libera In quest’ultima sezione di questo capitolo riesaminiamo l’applicazione 1, trattata con l’insieme canonico, allo scopo di valutare l’energia libera del sistema e le sue proprietà. 23 Ricordando che il sistema è costituito da N particelle identiche, distinguibili e indipendenti, ognuna delle quali può assumere energia 0 o > 0, la funzione di partizione canonica è pari, come abbiamo già calcolato, a Q(N, β) = X e−βEν = ν X exp −β n1 ,n2 ,...,nN N X nj = (1 + e−β )N . (2.84) j=1 A partire da tale espressione possiamo calcolare l’energia libera di Helmholtz del sistema che risulta essere data dalla seguente: N 1 ln Q(N, β) = − ln(1 + e−β ) = −N kB T ln(1 + e−/kB T ). β β (2.85) D’altra parte, essendo l’energia del sistema pari a E = m (m è il numero di particelle che si trovano nello stato ad energia ) potremmo calcolare la funzione di partizione suddividendo i microstati in base all’energia. In questo modo potremmo scrivere A(N, β) = − Q(N, β) = X Ω(N, E)e−βE con Ω(N, E) = Ω(N, m) = E N! . (N − m)!m! (2.86) E’ importante notare che le quantità e Q(N, β, E) = Ω(N, E)e−βE o e Q(N, β, m) = Ω(N, m)e−βm (2.87) rappresentano il peso statistico complessivo di tutti i microstati del sistema con energia E (o equivalentemente con m = E/ particelle nel livello superiore). Tali quantità possono essere viste come le funzioni di partizioni ristrette ad un particolare valore dell’energia E (o di m) e la funzione di partizione totale può essere scritta come Q(N, β) = X e Q(N, β, E) o Q(N, β) = N X e Q(N, β, m). (2.88) m=0 E e Analogamente a quanto fatto sopra, possiamo associare alle Q(N, β, m) le quantità seguenti: e e A(N, β, m) = −kB T ln Q(N, β, m). (2.89) che rappresentano ora delle energie libere associate ai pesi dei diversi gruppi di microstati. A questo punto potremmo domandarci: a) ha qualche utilità analizzare le proprietà di tale funzione? b) la dipendenza da m (o da E) espressa da e A(N, β, m) ha qualche relazione con lo stato di equilibrio del sistema? In effetti, essendo Ae una funzione diretta dei termini della funzione di partizione, è abbastanza naturale aspettarsi che il suo andamento sia direttamente e al contrario di A, legato allo stato di equilibrio del sistema. La funzione A, e esprime la dipendenza dell’energia libera da E (o da m). In A(N, β, m), viene esplicitata la dipendenza dal “grado di libertà” energia (o m), che invece in A(N, β) è stata eliminata. 24 Come abbiamo già detto in precedenza, ad una data temperatura, l’energia e libera A(N, β, m) minimizza in corrispondenza dello stato di equilibrio; in generale, essa deve presentare (perlomeno) un minimo e il valore di m (o E) in corrispondenza di tale minimo corrisponde al valore di equilibrio. e Calcoliamo esplicitamente il valore di A(N, β, m) nel nostro caso. Utilizzando l’espressione di Ω(N, m) e la formula di Stirling possiamo ricavare e A(N, β, m) = −kB T [N ln N − m ln m − (N − m) ln(N − m) − βm] m m m m m − 1− ln 1 − − β = −N kB T − ln N N N N N N = [x ln x + (1 − x) ln (1 − x) + βx] β x ln x + (1 − x) ln(1 − x) (2.90) = N x + β dove abbiamo posto x = m/N . Quindi, in funzione di x la nostra funzione energia libera può essere espressa nella forma e A(N, β, m) = N f (β, x) (2.91) con f (β, x) = x + 1 [x ln x + (1 − x) ln(1 − x)] . β (2.92) Il comportamento della funzione f (β, x) definisce il e comportamento di A(N, β, m). Qui a fianco si è riportato il grafico di f (β, x)per valori di β = 0.1, 0.5, 1, 5. Si può notare che per qualsiasi valore di β la funzione presenta sempre un minimo: tanto più β → 0 (T → ∞) tanto più il minimo è vicino a x = 1/2; invece, tanto più β → ∞ (T → 0) tanto più il minimo è vicino a x = 0. In effetti, la posizione del minimo è data da ∂ Ae ∂f =0⇒ = 0 → ln x − ln(1 − x) + β = 0. ∂x ∂x (2.93) Quindi ln x x e−β 1 = −β → = e−β → x = = 1−x 1−x 1 + e−β 1 + eβ (2.94) Si noti che quest’ultimo risultato corrisponde a x= m E N = ⇒E= N N 1 + eβ (2.95) che ci dà la stessa relazione ottenuta in precedenza. Il minimo dell’energia e libera A(N, β, x) corrisponde allo stato di equilibrio del sistema. 25