Meccanica statistica - Universita` di Udine

Transcript

Meccanica statistica - Universita` di Udine
Chapter 2
Meccanica statistica
Prima di iniziare l’analisi dei fondamenti della Meccanica Statistica risolviamo
il problema già posto all’inizio del capitolo 1. Esso costituirà un esempio di
approccio alle questioni a cui tale disciplina è interessata.
2.1
Gas ideale: un semplice approccio statistico
Supponiamo che le particelle che compongono il gas ideale siano puntiformi e
che non risentono di forze, se non durante gli urti con le pareti del recipiente;
confideremo tali urti perfettamente elastici. In queste condizioni, una particella
che urta contro la parete deve conservare la sua energia.
Ad esempio, consideriamo una particella che urta contro un
elemento di parete verticale (vedi figura). Avremo:
vx0 = −vx ;
vy0 = vy ;
vz0 = vz ;
(v0 )2 = v2
(2.1)
La variazione di quantità di moto della particella (perpendicolare alla superficie e diretta verso sinistra) è quindi
∆p = 2mvx .
Nel tempo dt le particelle che urtano la superficie ∆S con velocità v sono
quelle che si trovano nel parallelepipedo di base ∆S e altezza vx dt (tratteggiato
in figura) di volume ∆Svx dt. Se nv rappresenta il numero di particelle per unità
di volume che hanno velocità pari a v, il numero medio di particelle che nel
tempo dt urta l’elemento di superficie ∆S sarà pari a
1
n(v)∆Svx dt,
2
(2.2)
dato che, in media, solo metà delle particelle nel volumetto suddetto si dirigerà
verso la parete. Si noti che l’esiguità del tempo dt ci ha permesso di trascurare
gli urti tra le particelle.
La variazione di quantità di moto relativa alle particelle che urtano la superficie ∆S a velocità v è perciò mn(v)∆Svx2 dt, e includendo le altre particelle
11
otteniamo complessivamente una variazione pari a
"
m∆Sdt
#
X
n(v)vx2
.
(2.3)
v
Tale quantità deve uguagliare l’impulso della forza media risultante dalle azioni
esercitate sulla superficie ∆S nel tempo dt pari a Fx dt. Conseguentemente sulla
superficie ∆S è esercitata una pressione p = Fx ∆S pari a
"
p=m
#
X
n(v)vx2
= mnvx2
(2.4)
v
dove vx2 = v n(v)vx2 /n è il valore quadratico medio della componente lungo
x della velocità delle particelle e n è il numero medio di particelle per unità di
volume.
Infine, essendo il moto delle particelle isotropo dovremo avere vx2 = vy2 =
vz2 = v 2 /3 e perciò
P
2
2N
1
1
K
p = nmv 2 = n
mv 2 =
3
3
2
3V
(2.5)
dove K = 21 mv 2 è l’energia cinetica media delle particelle. Si noti che ricordando
che l’equazione di stato di un gas ideale è pV = N kB T (dove kB è la costante
di Boltzmann), il risultato precedente mostra che per un gas ideale
3
K = kB T.
2
2.2
(2.6)
Le basi della Meccanica Statistica: Dinamica e
Microstati
La teoria è ricavata postulando le leggi statistiche che regolano come i microstati
di un sistema sono visitati nella dinamica di equilibrio.
Prima di tutto osserviamo che uno stato microscopico di un sistema richiede
molti parametri per essere specificato esattamente.
Precisazione: il calcolo dei microstati di un sistema classico imporrebbe
la soluzione simultanea delle equazioni del moto delle N particelle che lo compongono: cioè
dvi
dri
= Fi ,
= vi
(2.7)
mi
dt
dt
con
∂U ∂U ∂U
(2.8)
,
,
Fi = −∇i U (r1 , ...rN ) =
.
∂xi ∂yi ∂zi
Ovviamente, ciò è possibile solo per sistemi particolarmente piccoli (costituiti
da poche particelle) e/o semplici. Per sistemi macroscopici questa via, anche
se rigorosa, è impraticabile.
12
2.2.1
Microstati e Insiemi
In alternativa consideriamo lo spazio costituito dagli stati che il sistema stesso
può assumere (spazio delle fasi nel caso classico, spazio di Hilbert degli stati |ψi
nel caso quantistico). A seconda dei casi potremmo imporre delle condizioni
diverse nella loro costruzione: E =cost. e/o N = cost. e/o V =cost. ⇒ Le
diverse condizioni determineranno diversi sottospazi e cioè diversi sottoinsiemi
di microstati. Tali sottospazi, intesi come insiemi di microstati del sistema,
sono detti insiemi statistici (statistical ensembles).
Ipotesi: un sistema in equilibrio visita (prima o poi) tutti i suoi
microstati.
Con questa ipotesi si ammette che tutti i microstati di un particolare insieme statistico adatto a descrivere una dato sistema siano accessibili. Nella sua
dinamica (intesa anche come dinamica di equilibrio) si suppone che il sistema
possa spaziare su tutti i microstati.
In un tempo relativamente lungo, effettuiamo M misure (M molto grande)
di una generica grandezza G. Diremo che il valore osservabile di G è
M
1 X
Gj
M j=1
Goss =
(2.9)
e cioè, supponendo il sistema all’equilibrio, il valore osservabile della grandezza
è il valor medio tra i valori collezionati nelle M misure; dato che le M misure
sono fatte in successione, una dopo l’altra, possiamo dire che tale media è una
media temporale (la stabilità dell’osservabile nello stato di equilibrio impone
che tale media abbia essenzialmente lo stesso valore anche per set diversi di M
misure ognuno).
Se ogni misura è cosı̀ rapida da poter supporre che il sistema (durante la
misura) sia in un unico microstato ν, potremo scrivere
Goss =
X
Pν Gν ≡ hGi
(2.10)
ν
dove Gν è il valore di G corrispondente allo stato ν; Pν corrisponde alla probabilità che tale microstato sia visitato (Pν = numero di volte in cui lo stato ν
è osservato tra le M misure, diviso M ). Si noti che la quantitàhGiè ora una
media sull’insieme dei microstati visitati e quindi è una media spaziale (nel
senso dello spazio dei microstati!). Più propriamente, tale media è una media
sull’insieme statistico (o ensemble average).
2.2.2
Ergodicità e Insiemi Statistici
La Meccanica Statistica classica (quella che ci interessa) si basa su varie ipotesi
iniziali. Una delle ipotesi fondamentali è la seguente:
All’equilibrio il sistema visita tutti i suoi microstati, e per una serie di
misure in un tempo sufficientemente lungo, la media temporale e la media
sull’insieme statistico si equivalgono.
I sistemi che soddisfano tale equivalenza vengono detti ergodici. In natura
molti sistemi sono ergodici (ma esistono delle eccezioni: per esempio due oscillatori accoppiati). Si noti che se un sistema soddisfa l’ipotesi di ergodicità,
13
all’equilibrio i valori medi delle grandezze possono essere ottenuti effettuando
delle medie sugli insieme dei microstati che ben rappresenta il sistema.
In generale, a seconda del tipo di microstati che includiamo nell’insieme
statistico, diamo all’insieme statistico stesso nomi diversi. Ecco vari esempi e
nomi di diversi insiemi statistici:
1. Insieme Microcanonico: è costituito da tutti i microstati di un sistema
di N particelle, volume V ed energia E;
2. Insieme Canonico: corrisponde all’insieme dei microstati di un sistema
di N particelle e volume V : E può ora fluttuare;
3. Insieme Grancanonico: corrisponde all’insieme dei microstati di un
sistema di volume V : in quest’ultimo caso sia E che N possono fluttuare.
2.3
L’ Insieme Microcanonico
Per cominciare a costruire la statistica degli insiemi, cominciamo dall’insieme
Microcanonico. In tale insieme a tutti i microstati compete lo stesso valore
dell’energia. In generale, come vedremo anche in seguito, l’energia ha un ruolo
centrale nel determinare la statistica di un’insieme. Nell’insieme microcanonico,
che può essere visto come il precursore di tutti gli altri, l’iso-energeticità tra i
microstati viene sfruttata in modo particolarmente semplice.
L’ipotesi fondante è la seguente:
Dato un sistema di N particelle in un volume V in equilibrio, tutti
i microstati con la stessa energia E hanno la stessa probabilità di
essere visitati.
Se con Ω(N, V, E) indichiamo il numero di microstati con energia tra E ed
E + dE, la probabilità di un particolare stato microscopico con energia Eν è
Pν =
1
Ω(N, V, Eν )
(2.11)
per qualsiasi stato nell’insieme.
2.3.1
Insieme Microcanonico: Entropia e Temperatura
In tale insieme alla funzione entropia viene assegnata la seguente espressione:
S(N, V, E) = kB ln Ω(N, V, E).
(2.12)
Tale scelta per la funzione entropia è compatibile con le proprietà che dell’entropia
introdotte nel precedente capitolo. Infatti:
• S è una funzione estensiva:
Presi due sottosistemi indipendenti, A e B, con numero di stati ΩA e ΩB ,
il numero di stati complessivo è pari a ΩA · ΩB .Quindi
S = kB ln(ΩA · ΩB ) = kB ln ΩA + kB ln ΩB = SA + SB .
14
(2.13)
• S soddisfa la II legge:
In un sistema con N particelle, volume V ed energia E, prendiamo una
partizione in due sottosistemi con N (1) + N (2) = N , V (1) + V (2) = V , ed
E (1) + E (2) = E. La partizione determina una riduzione del numero di
microstati Ω(N, V, E; v.i.) rispetto a quello originario Ω(N, V, E).
⇒ S(N, V, E) > S(N, V, E; v.i.)
(2.14)
Da notare: la massimizzazione dell’entropia all’equilibrio corrisponde al
massimo disordine molecolare.
• Temperatura:
1
=
T
∂S
∂E
= kB
N,V
∂ ln Ω
∂E
(2.15)
N,V
T > 0 ⇒ Ω(N, V, E) è una funzione monotona crescente di E.
2.4
Insieme Canonico
È costituito dai microstati con N e V fissati. L’energia può quindi fluttuare.
L’equilibrio di un tale sistema è legato allo scambio di energia (calore) con
l’ambiente a temperatura T (sistemi a temperatura costante). Tale insieme
statistico è adatto a descrivere sistemi a massa costante (il numero di particelle
non cambia) in equilibrio termico.
Vediamo come possiamo ricavare la distribuzione di probabilità associata dei
microstati. Si abbia un sistema A in contatto termico con un sistema B molto
più grande; i due sistemi siano isolati dal resto dell’universo; in tali condizioni
A + B è un sistema trattabile con l’insieme microcanonico.
Si noti anche che se B è molto grande allora EB >> EA e quindi le energie
dei microstati di B formano un continuo e la quantità ∂ΩB /∂EB può essere
calcolata.
EA può fluttuare, ma EB + EA = cost. Quindi, se A è in un particolare
microstato con energia EA , il numero di microstati accessibili ad A + B sarà
pari a ΩB (EB ) = ΩB (E − EA ). Tutti i microstati ν di A con Eν = EA hanno
la stessa probabilità Pν (EA ) = 1/ΩA (EA ), e perciò, dovendo essere Ω(E) =
ΩA (EA ) · ΩB (E − EA ) = cost., sarà
Pν (EA ) ∝ ΩB (E − EA ) = exp[ln ΩB (E − EA )].
(2.16)
Sviluppando ora ln ΩB (E − EA ) in serie di Taylor fino al prim’ordine, si ottiene
d ln ΩB
EA + ...
Pν (EA ) ∝ exp ln ΩB (E) −
(2.17)
dE
d ln ΩB
EA
= ΩB (E) · exp −
EA = exp −
= e−βEA
dE
kB T
Questa distribuzione corrisponde alla distribuzione canonica di Boltzmann.
15
2.4.1
Funzione di Partizione Canonica
Imponendo la normalizzazione
P
ν
Pν = 1, possiamo scrivere
Pν =
1 −βEν
e
Q
(2.18)
con
X
Q(N, V, β) =
e−βEν
(2.19)
ν
Quest’ultima è la cosiddetta funzione di partizione canonica. Tale funzione
è particolarmente importante perché da essa possono essere ricavate praticamente tutte le grandezze rilevanti per l’equilibrio del sistema.
Ad esempio, l’energia interna del sistema, E(N, V, β), in meccanica statistica corrisponde al valor medio dell’energia, hEi, calcolato sulla distribuzione
canonica. Si vede facilmente che tale quantità può essere ricavata anche come
segue:
P
−βEν
1 ∂Q
ν Eν e
hEi = hEν i = P −βEν = −
ν
e
Q
∂β
∂ ln Q
=−
∂β
N,V
.
(2.20)
N,V
Come già detto molte funzioni termodinamiche possono essere espresse in
termini della funzione di partizione. Anche l’energia libera di Helmholtz è legata
ad essa e la sua espressione è data da
A = −kB T ln Q(N, V, β) = −
2.4.2
1
ln Q(N, V, β).
β
(2.21)
Insieme Canonico: fluttuazioni di energia
Contrariamente a quanto succede per l’insieme microcanonico, nell’insieme canonico l’energia fluttua. Tuttavia, nel limite termodinamico i due insiemi sono
equivalenti. Ciò è dovuto al fatto che le fluttuazioni (macroscopiche) dell’energia
sono trascurabili.
Calcoliamo il valor medio delle fluttuazioni al quadrato dell’energia rispetto
a hEi. Si vede facilmente che tale quantità può essere scritta come segue:
!2
2
2
2
2
h(δE) i = h(E − hEi) i = hE i − hEi =
X
Pν Eν2
−
X
ν
=
1
Q
∂2Q
∂β 2
!
N,V
1
− 2
Q
∂Q
∂β
2
=
N,V
Pν E ν
(2.22)
ν
∂ 2 ln Q
∂β 2
!
N,V
∂hEi
=−
∂β
N,V
e ricordando ora che CV = ∂E/∂T N,V e che ∂/∂β = −kB T 2 ∂/∂T , abbiamo
anche
(2.23)
h(δE)2 i = kB T 2 CV .
Ora possiamo valutare l’entità relativa delle fluttuazioni delle energia rispetto
al suo valor medio. Per fare ciò ricordiamo che sia CV che E sono funzioni estensive, e quindi sono proporzionali ad N . Perciò
p
√
h(δE)2 i
kB T 2 CV
1
=
∝√ .
(2.24)
hEi
hEi
N
16
Ciò sta a significare che per sistemi macroscopici (quantità di sostanza dell’ordine
di una mole o numero di particelle N ∼ NA = 6 · 1023 ) la deviazione standard delle fluttuazioni dell’energia intorno al suo valor medio è dell’ordine di
≈ 10−11 hEi. Morale: le fluttuazioni dell’energia sono trascurabili e questo
comporta che i microstati che contribuiscono in maniera essenziale allo stato
di equilibrio del sistema sono praticamente iso-energetici, come in un insieme
canonico.
2.4.3
Applicazioni degli Insiemi Statistici
Vediamo qui qualche esempio di applicazioni degli insiemi microcanonico e
canonico.
Applicazione 1: Particelle indipendenti con due livelli energetici
Consideriamo un sistema costituito da N particelle identiche distinguibili e
indipendenti, ognuna delle quali può assumere energia 0 o > 0. Un particolare
stato (microstato), ν sarà quindi specificato dai numeri
ν ≡ (n1 , n2 , ...., nN ),
(2.25)
nj = 0, 1
dove i valori di nj , 0 o 1, si identificano con il fatto che la particella j assume
gli stati con energia 0 e , rispettivamente. Corrispondentemente, l’energia del
sistema può essere scritta nella forma
Eν = n1 + n2 + ... + nN =
N
X
nj = m,
(2.26)
j=1
dove m = N
j=1 nj è pari al numero di particelle che si trovano nello stato
ad energia . Perciò il numero di stati con energia E sarà pari al numero di
combinazioni di N elementi uguali a gruppi di m, cioè:
P
Ω(N, E = m) =
N!
.
(N − m)!m!
(2.27)
Ricordando quanto visto in precedenza, l’entropia del sistema corrisponde a
S = kB ln Ω(N, E) e quindi possiamo scrivere per la temperatura:
β=
1
=
kB T
∂ ln Ω
∂E
=
N
1
∂ ln Ω
∂m
.
(2.28)
N
Questa espressione ha significato solo nel limite N → ∞; in queste condizioni
infatti Ω(N, E) può essere vista come una funzione continua in m. Sfruttiamo
la formula di Stirling, valida per grandi N :
ln N ! ' N ln N − N,
(2.29)
ln Ω(N, E) = ln N ! − (N − m)! ln(N − m)! − m ln m!
(2.30)
' N ln N − (N − m) ln(N − m) − m ln m.
(2.31)
per riscrivere ln Ω:
17
Da qui otteniamo
∂ ln Ω
N
= ln(N − m) − ln m = ln
−1
∂m
m
(2.32)
che inserita nell’Eq.(2.28) dà infine il risultato cercato
1
m
=
N
1 + eβ
ovvero
N
.
1 + eβ
E=
(2.33)
Tale relazione ci permette di esprimere l’energia del sistema in funzione della
temperatura. Possiamo vedere che a T = 0 anche l’energia si annulla. Questo
è in pieno accordo con il fatto che a T = 0 il sistema occupa il suo stato di
minima energia, lo stato fondamentale (in queste condizioni vince il principio
di minima energia!).
Al contrario, per T → ∞ si ha E = N /2. Questo corrisponde ad avere ogni
particella con uguale probabilità nei due stati possibili. In questa situazione si
ha il massimo disordine (domina il principio di massima entropia!).
Studiamo lo stesso modello con l’insieme canonico. La funzione di partizione
è ora la seguente:

Q(N, β) =
X
e−βEν =
ν
X
exp −β
n1 ,n2 ,...,nN
N
X

nj  .
(2.34)
j=1
Fattorizzando l’esponenziale, possiamo scrivere
e−βn1 · · · ·e−βnN =
X
Q(N, β) =
n1 ,n2 ,...,nN
N X
1
Y
e−βnj = (1 + e−β )N . (2.35)
j=1 nj =0
Il valor medio dell’energia può essere perciò calcolato molto semplicemente
∂ ln Q
hEi = −
∂β
= −N
∂ ln(1 + e−β )
∂β
!
=
N e−β
N
=
,
−β
1+e
1 + eβ
(2.36)
e risulta essere esattamente uguale a quello ricavato con l’insieme microcanonico. Questa è un’ulteriore conferma dell’equivalenza dei due insiemi statistici.
2.4.4
Applicazione 2: Gas di Particelle Classiche (gas ideale)
Prendiamo qui in esame un gas ideale formato da particelle uguali di massa m
all’interno di una scatola di lato L (volume V = L3 ). L’energia di una singola
particella libera è solo cinetica e i suoi possibili valori possibili sono
1
p2
h̄2 k 2
p = mv2 =
≡
2
2m
2m
(2.37)
dove p = h̄k e
2π
(nx x̂ + ny ŷ + nz ẑ)
L
J· s è la costante di Planck (h̄ = h/2π).
k=
e h = 6.63 · 10−34
18
(2.38)
Si noti che qui abbiamo utilizzato le energie quantistiche delle particelle.
Come vedremo, la spaziatura fine dei livelli energetici permetterà di passare
velocemente ad una distribuzione continua delle energie.
La funzione di partizione del sistema è quindi
N

∞
2 2
1  X
e−βh̄ k (nx ,ny ,nz )/2m 
Q=
N ! nx ,ny ,nz
(2.39)
dove il fattore 1/N ! elimina le permutazioni.
Sfruttando il fatto che la spaziatura tra i valori di k è molto fine (infatti
∆kx = 2π∆nx /L = 2π/L) la sommatoria all’interno delle parentesi può essere
trasformata in un integrale:
∞
X
nx ,ny ,nz
L3
→
(2π)3
Z ∞ Z ∞ Z ∞
−∞ −∞
V
dkx dky dkz =
(2π)3
−∞
Z
V
dk = 3
h
Z
dp
(2.40)
dove abbiamo sfruttato la relazione p = h̄k. Quindi:
∞
X
−βp2 /2m
e
nx ,ny ,nz
V
= 3
h
Z ∞
Y
α=x,y,z −∞
2
e−βpα /2m dpα .
(2.41)
Gli integrali sono ben noti:
Z ∞
s
−βp2α /2m
e
−∞
dpα =
Z ∞
2m
β
s
−s2
e
ds =
2πm
β
3N/2
−∞
2πm
.
β
(2.42)
Infine si ricava la funzione di partizione
Q(N, V, β) =
VN
N !h3N
.
(2.43)
Da questa si può ricavare l’energia media
∂ ln Q
hEi = −
∂β
3
= N kB T.
2
(2.44)
Inoltre, essendo dA = −SdT − pdV + µdN e A = −kB T ln Q, avremo
p=−
∂A
∂ ln Q
N
= kB T
= kB T ,
∂V
∂V
V
(2.45)
dalla quale otteniamo immediatamente l’equazione di stato dei gas ideali
pV = N kB T.
2.4.5
(2.46)
Applicazione 3: Paramagnetismo . . . semplice
Consideriamo un sistema di N spins distinguibili non interagenti in un campo
magnetico H. Ogni spin ha un momento di dipolo magnetico µ, che può essere
parallelo o anti-parallelo al campo. L’energia di un particolare microstato ν è
Eν = −
N
X
Hµni ,
i=1
19
ni = ±1.
(2.47)
Se in un microstato abbiamo m spins anti-paralleli al campo H, la sua energia
sarà pari a
1
E
N+
.
E = (2m − N )Hµ da cui m =
2
Hµ
(2.48)
D’altra parte il numero di microstati con m spins antiparalleli è dato dalla
stessa espressione che nell’Eq.(2.27):
Ω(N, m) ≡ Ω(N, E(m)) =
N!
.
(N − m)!m!
(2.49)
Nell’insieme microcanonico l’entropia è definita come S = kB ln Ω e la temperatura è data da:
1
∂S
∂ ln Ω
∂m
=
= kB
.
(2.50)
T
∂E
∂m
∂E
Osservando che dall’Eq.(2.48) deriva
∂m
1
=
∂E
2Hµ
(2.51)
e ricordando il risultato dell’Eq.(2.32) con l’approssimazione di Stirling:
∂ ln Ω
N
= ln
−1
∂m
m
abbiamo
(2.52)
1
1
N Hµ − E
=
ln
kB T
2Hµ
N Hµ + E
β=
(2.53)
Ricavando quindi E otteniamo
1 − e2βHµ
E(β, H, N ) = N Hµ
1 + e2βHµ
dove
tanh(x) =
!
= −N Hµ tanh(βHµ)
(2.54)
ex − e−x
1 − e2x
=
−
ex + e−x
1 + e2x
(2.55)
è la tangente iperbolica. Riscrivendo invece l’Eq.(2.27) come segue:
ln Ω = N ln
N
N −m
+ m ln
N −m
m
(2.56)
e
1
E
m=
N+
2
Hµ
N
=
,
1 + e2βHµ
1
E
N −m=
N−
2
Hµ
=
N e2βHµ
1 + e2βHµ
(2.57)
troviamo la seguente espressione per l’entropia:
"
S(β, N, H) = N kB
1 + e2βHµ
ln
e2βHµ
20
!
#
2βHµ
+
.
1 + e2βHµ
(2.58)
Si noti che nel limite T → 0 si ha
lim E = −N Hµ;
lim S = 0
T →0
(2.59)
T →0
Inoltre per piccoli campi H (cioè quando 2βHµ << 1) abbiamo
E ' −N H 2 βµ2 = −
N H 2 µ2
kB T
(2.60)
La magnetizzazione media hM i del sistema è definita come
hM i =
*N
X
+
µni
i=1
*N
X
1
=
H
+
Hµni
=−
i=1
hEi
.
H
(2.61)
Nel limite 2βHµ << 1 si ha
N Hµ2
.
kB T
hM i '
(2.62)
Quest’ultima relazione è in accordo con la legge di Curie della magnetizzazione
di un paramagnete. Si noti che la magnetizzazione è proporzionale al campo
magnetico H e inversamente alla temperatura.
Considerando ora l’insieme canonico, abbiamo
Q=
X
e−βEν =
X
ν
e−β
P
i
Hµni
ν
=
N
Y
X
e−βHµni
(2.63)
i=1 ni =−1,1
da cui
Q = (eβHµ + e−βHµ )N = 2N coshN (βHµ)
(2.64)
dove cosh(x) = (ex + e−x )/2 è la funzione coseno iperbolico (il seno iperbolico
è ovviamente sinh(x) = (ex − e−x )/2). Da questa otteniamo immediatamente
hEi = −
∂ ln Q
∂ ln [cosh(βHµ)]
1
∂ cosh(βHµ)
= −N
= −N
(2.65)
∂β
∂β
cosh(βHµ)
∂β
e infine
hEi = −N Hµ
sinh(βHµ)
= −N Hµ tanh(βHµ)
cosh(βHµ)
(2.66)
uguale a quella calcolata in precedenza.
2.5
Insieme Grancanonico
Riprendiamo il passaggio dall’insieme microcanonico all’insieme canonico. Abbiamo considerato un sistema in equilibrio con E fluttuante,descritto come parte
di un sistema composto isolato, in cui l’altra parte (molto grande) costituisce
una riserva di E. Per l’entropia del nostro sistema vale (a V e N fissati):
dS =
1
1
dE ⇒
dS = βdE.
T
kB
21
(2.67)
Da qui si deriva la probabilità per un microstato della distribuzione canonica:
Pv =
1 −βEν
e
,
Q
Q=
X
e−βEν .
(2.68)
ν
Immaginiamo ora un sistema in equilibrio con E ed N fluttuanti. Tale sistema
può essere visto come parte di un sistema composto isolato (E ed N costanti) in
cui l’altra parte (molto grande) costituisce una riserva di E e N . Per l’entropia
del nostro sistema vale (a V fissato, N variabile):
dS =
µ
1
1
dE − dN ⇒
dS = βdE − βµdN.
T
T
kB
(2.69)
La probabilità di un microstato con energia Eν e numero di particelle Nν si
ottiene analogamente a come si è ottenuta la legge di distribuzione canonica, e
cioè:
Pν =
1
exp(−βEν + βµNν )
Z
con Z =
X
exp(−βEν + βµNν )
(2.70)
ν
Quindi E ed N si ottengono tramite le medie
hEi =
X
ν
∂ ln Z
Pν E ν = −
∂β
hN i =
;
βµ,V
X
Pν N ν =
ν
∂ ln Z
∂(βµ)
,
β,V
(2.71)
e di conseguenza è possibile scrivere la seguente espressione:
d ln Z = −hEidβ − hN id(βµ).
(2.72)
L’espressione dell’entropia in tale insieme può essere ricavata attraverso l’introduzione
P
della seguente funzione: S = −kB ν Pν ln Pν . Esplicitando i Pν si vede che
S = −kB
X
Pν [− ln Z − βEν + βµNν ] = kB [ln Z + βhEi − βµhN i],
(2.73)
ν
e inoltre
dS = kB [d ln Z + βdhEi + hEidβ − βµdhN i − hN id(βµ)],
(2.74)
da cui
dS = kB β[dhEi − βµdhN i],
dhEi = T dS + µdhN i.
(2.75)
Di conseguenza la funzione S
S = −kB
X
Pν ln Pν
(2.76)
ν
può essere vista come l’entropia nell’insieme grancanonico. In effetti, tale
espressione dell’entropia è anche detta entropia di Gibbs ed è utilizzabile in
qualsiasi insieme statistico.
Riassumendo:
L’insieme grancanonico è appropriato per un sistema aperto con volume
fisso V dove sia E che N possono fluttuare. Le variabili che controllano tali
fluttuazioni sono β e µβ.
22
Se ν denota uno stato con Nν particelle ed energia Eν, allora
Pν =
X
1
exp(−βEν + βµNν ) ⇒ S = −kB
Pν [− ln Z − βEν + βµNν ] (2.77)
Z
ν
da cui
S = kB [ln Z + βhEi − βµhN i],
(2.78)
Da questa, ricordando l’espressione termodinamica S = E/T + (p/T )V −
(µ/T )N e identificando E ed N con i loro valori medi, si ha
(2.79)
ln Z = βpV.
Infine,
Z=
X
e−βEν +βµNν ≡
ν
X
Q(N, V, β)eβµNν
(2.80)
N
è la funzione di partizione grancanonica. Q(N, V, β) è la funzione di partizione
canonica dei microstati con N particelle.
La funzione di partizione Z è funzione di β, µβ e del volume (le energie Eν
dipendono implicitamente dal volume del sistema).
Talvolta si definisce il cosiddetto granpotenziale (”grand potential”)
Ξ = −kB T ln Z = −pV
(2.81)
che può essere visto come l’energia libera nell’insieme grancanonico, alla stregua
dell’energia libera di Helmholtz per l’insieme canonico.
2.5.1
Fluttuazioni nel numero di particelle
Le fluttuazioni delle grandezze si possono analizzare in maniere analoga a come
effettuato nell’insieme canonico.
Ad esempio, per le fluttuazioni nel numero di particelle avremo:
h(δN )2 i = h(N − hN i)2 i = hN 2 i − (hN i)2 =
X
Nν2 Pν −
XX
ν
ν
N ν N ν 0 Pν Pν 0
ν0
(2.82)
da cui
2
h(δN ) i =
∂ 2 ln Z
∂(βµ)2
!
=
β,V
∂hN i
∂(βµ)
.
(2.83)
β,V
È facile generalizzare a sistemi a più componenti.
2.5.2
Calcolo dell’energia libera: particelle indipendenti con
due livelli di energia e minimizzazione dell’energia libera
In quest’ultima sezione di questo capitolo riesaminiamo l’applicazione 1, trattata con l’insieme canonico, allo scopo di valutare l’energia libera del sistema e
le sue proprietà.
23
Ricordando che il sistema è costituito da N particelle identiche, distinguibili
e indipendenti, ognuna delle quali può assumere energia 0 o > 0, la funzione
di partizione canonica è pari, come abbiamo già calcolato, a

Q(N, β) =
X
e−βEν =
ν
X
exp −β
n1 ,n2 ,...,nN
N
X

nj  = (1 + e−β )N .
(2.84)
j=1
A partire da tale espressione possiamo calcolare l’energia libera di Helmholtz
del sistema che risulta essere data dalla seguente:
N
1
ln Q(N, β) = − ln(1 + e−β ) = −N kB T ln(1 + e−/kB T ).
β
β
(2.85)
D’altra parte, essendo l’energia del sistema pari a E = m (m è il numero
di particelle che si trovano nello stato ad energia ) potremmo calcolare la
funzione di partizione suddividendo i microstati in base all’energia. In questo
modo potremmo scrivere
A(N, β) = −
Q(N, β) =
X
Ω(N, E)e−βE
con
Ω(N, E) = Ω(N, m) =
E
N!
.
(N − m)!m!
(2.86)
E’ importante notare che le quantità
e
Q(N,
β, E) = Ω(N, E)e−βE
o
e
Q(N,
β, m) = Ω(N, m)e−βm
(2.87)
rappresentano il peso statistico complessivo di tutti i microstati del sistema con
energia E (o equivalentemente con m = E/ particelle nel livello superiore).
Tali quantità possono essere viste come le funzioni di partizioni ristrette ad un
particolare valore dell’energia E (o di m) e la funzione di partizione totale può
essere scritta come
Q(N, β) =
X
e
Q(N,
β, E)
o Q(N, β) =
N
X
e
Q(N,
β, m).
(2.88)
m=0
E
e
Analogamente a quanto fatto sopra, possiamo associare alle Q(N,
β, m) le quantità seguenti:
e
e
A(N,
β, m) = −kB T ln Q(N,
β, m).
(2.89)
che rappresentano ora delle energie libere associate ai pesi dei diversi gruppi di
microstati.
A questo punto potremmo domandarci: a) ha qualche utilità analizzare
le proprietà di tale funzione? b) la dipendenza da m (o da E) espressa da
e
A(N,
β, m) ha qualche relazione con lo stato di equilibrio del sistema?
In effetti, essendo Ae una funzione diretta dei termini della funzione di partizione, è abbastanza naturale aspettarsi che il suo andamento sia direttamente
e al contrario di A,
legato allo stato di equilibrio del sistema. La funzione A,
e
esprime la dipendenza dell’energia libera da E (o da m). In A(N,
β, m), viene
esplicitata la dipendenza dal “grado di libertà” energia (o m), che invece in
A(N, β) è stata eliminata.
24
Come abbiamo già detto in precedenza, ad una data temperatura, l’energia
e
libera A(N,
β, m) minimizza in corrispondenza dello stato di equilibrio; in
generale, essa deve presentare (perlomeno) un minimo e il valore di m (o E) in
corrispondenza di tale minimo corrisponde al valore di equilibrio.
e
Calcoliamo esplicitamente il valore di A(N,
β, m) nel nostro caso. Utilizzando l’espressione di Ω(N, m) e la formula di Stirling possiamo ricavare
e
A(N,
β, m) = −kB T [N ln N − m ln m − (N − m) ln(N − m) − βm]
m
m m
m
m
− 1−
ln 1 −
− β
= −N kB T − ln
N N
N
N
N
N
=
[x ln x + (1 − x) ln (1 − x) + βx]
β
x ln x + (1 − x) ln(1 − x)
(2.90)
= N x +
β
dove abbiamo posto x = m/N .
Quindi, in funzione di x la nostra funzione energia libera può essere espressa
nella forma
e
A(N,
β, m) = N f (β, x)
(2.91)
con
f (β, x) = x +
1
[x ln x + (1 − x) ln(1 − x)] .
β
(2.92)
Il comportamento della funzione f (β, x) definisce il
e
comportamento di A(N,
β, m). Qui a fianco si è riportato il grafico di f (β, x)per valori di β = 0.1, 0.5, 1, 5.
Si può notare che per qualsiasi valore di β la funzione presenta sempre un minimo: tanto più β → 0
(T → ∞) tanto più il minimo è vicino a x = 1/2; invece, tanto più β → ∞ (T → 0) tanto più il minimo
è vicino a x = 0.
In effetti, la posizione del minimo è data da
∂ Ae
∂f
=0⇒
= 0 → ln x − ln(1 − x) + β = 0.
∂x
∂x
(2.93)
Quindi
ln
x
x
e−β
1
= −β →
= e−β → x =
=
1−x
1−x
1 + e−β
1 + eβ
(2.94)
Si noti che quest’ultimo risultato corrisponde a
x=
m
E
N
=
⇒E=
N
N
1 + eβ
(2.95)
che ci dà la stessa relazione ottenuta in precedenza. Il minimo dell’energia
e
libera A(N,
β, x) corrisponde allo stato di equilibrio del sistema.
25