Dall`entropia termodinamica all`entropia di entanglement

Transcript

Dall`entropia termodinamica all`entropia di entanglement
Universitá del Salento
FACOLTÀ DI SCIENZE MATEMATICHE, FISICHE E NATURALI
Corso di Laurea Triennale in Fisica
Dall’entropia termodinamica
all’entropia di entanglement
Candidato:
Relatore:
Francesco Foggetti
Prof. Luca Girlanda
Anno Accademico 2012–2013
Indice
1 Introduzione
3
2 L’entropia termodinamica
2.1 L’entropia in senso macroscopico . . . . . . .
2.2 L’entropia in senso microscopico . . . . . . .
2.2.1 Legge dell’aumento dell’entropia . . .
2.3 Entropia di Gibbs ed Entropia di Boltzmann
2.4 Entropia e Disordine . . . . . . . . . . . . . .
2.4.1 Il paradosso di Gibbs . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
4
7
9
10
14
16
3 L’entropia quantistica
3.1 Discretizzazione dell’energia e ipotesi di Planck . . . .
3.2 Matrice densità . . . . . . . . . . . . . . . . . . . . .
3.3 Entropia di Von Neumann . . . . . . . . . . . . . . . .
3.4 Entanglement quantistico ed entropia di entanglement
3.5 Entropia e tempo . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
18
18
20
24
26
29
4 Entropia ed informazione
4.1 Entropia di Shannon e compressione di informazione
4.2 Proprietà dell’entropia . . . . . . . . . . . . . . . . .
4.2.1 Entropia Binaria . . . . . . . . . . . . . . . .
4.2.2 Entropia relativa . . . . . . . . . . . . . . . .
4.2.3 Mutua informazione . . . . . . . . . . . . . .
4.3 Teoremi di Shannon . . . . . . . . . . . . . . . . . .
4.4 Il diavoletto di Maxwell e il principio di Landauer. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
33
33
34
34
34
35
35
37
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Capitolo 1
Introduzione
Questa tesi si presenta in tre parti fondamentali, l’entropia nella termodinamica, nella meccanica quantistica e infine nella teoria dell’informazione:
nella prima parte riprendiamo la definizione classica di entropia[1] che incontriamo nei primi corsi di fisica richiamando alcuni risultati già noti. Entriamo
inoltre nel campo della meccanica statistica[2] analizzando con il suo formalismo le caratteristiche dei sistemi macroscopici. Infine in questa parte proviamo
ad esplicitare il legame tra entropia e disordine ed analizziamo il paradosso di
Gibbs riguardante l’entropia di miscelamento;
nella seconda parte, oltre ad introdurre alcuni concetti chiave della meccanica quantistica, affrontiamo il problema di definie l’entropia a partire dalla
conoscenza che possiamo avere dei sistemi quantistici in termini di funzione
d’onda o di matrice densità provando anche a chiarire il legame tra entropia
quantistica ed entanglement tra le particelle di un sistema: Definiamo inoltre
una possibile misura per quantificare il grado di entanglement di un sisetma
composto; infine analizziamo il legame tra l’ entropia ed il tempo citando il
paradosso di Loschmidt ed interpretando i risultati ottenuti;
la terza parte comprende i concetti fondamentali della teoria dell’informazione e si pone il problema dell’immagazinare l’informazione in sistemi fisici;
anche da questo punto di vista l’entropia “d’informazione” risulta essere un indicatore fondamentale della nostra possibilità di immagazzinare informazione
in un sistema fisico. La tesi si conclude ricollegando i risultati ricavati nell’ambito della termodinamica e della teoria dell’informazione all’interno della
risoluzione del paradosso del “diavoletto di Maxwell”.
3
Capitolo 2
L’entropia termodinamica
2.1
L’entropia in senso macroscopico
Supponiamo di avere un certo sistema soggetto ad una trasformazione ciclica. Supponiamo che tale trasformazione avvenga scambiando calore con una
serie di n termostati le cui temperature sono T1 , T2 , ... Tn .
Siano Q1 , Q2 , ...Qn i calori ceduti o assorbiti dai rispettivi termostati con segno
positivo se il calore è assorbito dal sistema e negativo se è ceduto dal sistema.
Introduciamo un altro termostato a temperatura T0 ed n macchine termiche
reversibili tali da avere n cicli di Carnot C1 , C2 , ...Cn ; nel ciclo Ci viene assorbito il calore −Qi alla temperatura Ti e ceduto il calore Qi0 alla teneratura T0 .
Risulta quindi nell’i -esimo ciclo
Qi0
T0
=− .
Qi
Ti
(2.1)
Il sistema complessivo (macchine termiche incluse quindi) scambierà calore solo
con il termostato a temperatura T0 . Il calore assorbito complessivamente sarà
quindi
n
n
X
X
Qi
.
(2.2)
Q0 =
−Qi0 = T0
T
i=1
i=1 i
Inoltre poiché il sistema e le macchine reversibili considerate tornano tutti nel
loro stato iniziale l’unico risultato del ciclo è la trasformazione del calore scambiato in lavoro, tale calore non può che essere negativo, altrimenti contradirebbe
il secondo principio della termodinamica nella formulazione di Kelvin, risulta
quindi
n
X
Qi
≤ 0.
(2.3)
T
i=1 i
L’uguaglianza vale se il ciclo cui è sottoposto il sistema è reversibile, se cosı̀
fosse infatti potremmo applicare il ragionamento precedente procedendo dallo
stato finale a quello iniziale e otterremmo
n
X
i=1
−
Qi
≤ 0,
Ti
4
(2.4)
2.1. L’ENTROPIA IN SENSO MACROSCOPICO
cioé
n
X
Qi
i=1
Ti
≥ 0;
5
(2.5)
poiché deve valere sia la (2.5) che la (2.3) deve essere valida necessariamente
l’uguaglianza.
n
X
Qi
= 0.
(2.6)
T
i=1 i
L’equazione si generalizza al caso in cui avvengano scambi di calore infinitamente piccoli δQ tra il sistema e la sorgente di calore a temperatura T
I
δQ
≤ 0,
(2.7)
T
valida in ogni caso, in particolare nel caso di trasformazione reversibile
I
δQ
= 0.
T
(2.8)
Il risultato che abbiamo ottenuto è generalmente noto come “Teorema di Clausius”.
Sottoponiamo ora il nostro sistema ad una trasformazione ciclica che porta
il sistema dal suo stato A nello stato B, per poi riportarlo di nuovo in A
−
attraverso due differenti cammini reversibili →
γ1 (rosso) e ←
γ−2 (nero):
Figura 2.1: Generica trasformazione ciclica nel piano di Clapeyron
sappiamo che
I
δQ
= 0,
T
(2.9)
−
l’integrale può essere scomposto nell’integrale sui due cammini →
γ1 e ←
γ−2
Z
Z
δQ
δQ
+
=0
(2.10)
−
→
←
−
γ1 T
γ2 T
6
CAPITOLO 2. L’ENTROPIA TERMODINAMICA
essendo reversibili possono essere percorsi al contrario:
Z
Z
δQ
δQ
=−
,
←
−
−
→
T
γ2
γ2 T
da cui
Z
−
→
γ
1
δQ
=
T
Z
−
→
γ
2
δQ
.
T
(2.11)
(2.12)
L’integrale tra gli stati A e B non dipende dal cammino percorso; tale quantità,
funzione solo degli stati tra cui è calcolato l’integrale, definisce la varizione
d’entropia del nostro sistema tra gli statiA e B. Dalla nostra definizione segue
che l’entropia di un certo stato è definita a meno di una costante additiva e che
è la differenza di entropia tra due stati ad essere univocamente determinata,
inoltre date le proprietà di linearità dell’integrale l’entropia risulta essere una
grandezza estensiva, cioè è una grandezza additiva del sistema, si può calcolare
sommando i contributi a tale grandezza dati da ogni parte del sistema stesso.
Mostriamo ora un’altra importante proprietà dell’entropia, supponiamo di
sottoporre il sistema che studiamo ad una trasformazione ciclica irreversibile,
il sistema procede dal suo stato A a B in maniera irreversibile, poi però si porta
da B ad A in maniera reversibile come mostrato in fig.2.2.
Figura 2.2: trasformazione irreversibile
Vale l’equazione
I
δQ
≤0
T
(2.13)
che si scompone nei termini
Z
irr
δQ
+
T
Z
A
B
δQ
≤ 0,
T
ma per l’integrale calcolato sul cammino reversibile vale la relazione
Z A
δQ
= S(A) − S(B)
T
B
(2.14)
(2.15)
2.2. L’ENTROPIA IN SENSO MICROSCOPICO
7
quindi
Z
S(B) − S(A) ≥
irr
δQ
.
T
(2.16)
In particolare per un sistema isolato δQ = 0 per cui risulta S(B) ≥ S(A), cioè
l’entropia di un sistema non può mai diminuire.
2.2
L’entropia in senso microscopico
Consideriamo un sistema in equilibrio formato da un gran numero di particelle, il loro moto è casuale e non ci sono direzioni privilegiate in cui possono
muoversi. Supponiamo di dividere il sistema in un gran numero di più piccoli
sottosistemi e consideriamone uno qualunque tra di essi, tale sottosistema sarà
il nuovo sottosistema oggetto di studio. Sia ω la funzione di distribuzione del
sistema in esame nello spazio delle fasi, a partire dal teorema di Liouville
∂ω
= {H, ω}
∂t
(2.17)
si dimostra che ω può essere espressa come combinazione linerare delle costanti
del moto del sistema, in particolare essa può essere espressa come funzione della
sola energia E del sistema[2]; nota ω(E) possiamo quindi ottenere la probabilità W (E) che l’energia del sistema appartenga all’intervallo [E, E + dE];
per ottenere tale probabilità ci basta moltiplicare la ω(E) per il numero di stati
del sistema la cui energia appartiene all’intervallo considerato.
Detto dΓ(E) tale numero, risulta:
W (E)dE = dΓ(E)ω(E),
(2.18)
essendo Γ(E) la funzione che ad un valore di E associa il numero di stati del
sistema considerato; risulta dΓ(E) = dΓ(E)
dE dE, quindi:
dΓ(E)
ω(E),
dE
R
vale inoltre la condizione di normalizzazione W (E)dE = 1.
W (E) =
(2.19)
È possibile dimostrare che per sistemi come quello considerato, composti da
un gran numero di particelle (limite termodinamico), la funzione W (E) è fortemente piccata attorno al suo massimo E = Ē, detto perciò ∆E l’intorno di
Ē in cui W (E) è non nulla e per cui vale
W (E)∆E = 1
(2.20)
ω(E)∆Γ = 1
(2.21)
dΓ
∆Γ
=
∆E
dE
(2.22)
otteniamo:
dove
8
CAPITOLO 2. L’ENTROPIA TERMODINAMICA
Osserviamo che ∆Γ corrisponde al numero di stati microscopici associati all’intervallo d’energia ∆E il cui ordine di grandezza è quello delle fluttuazioni
dell’energia che avvengono nel sistema. Per poter contare questi stati è necessario discretizzare lo spazio delle fasi introducendo la cella elementare nello
spazio delle fasi:
∆p∆q
(2.23)
∆Γ =
(2πh̄)ν
dove ν è il numero di gradi di libertà del sistema. Questa operazione oltre
che ad essere un artificio matematico è ben motivata fisicamente dall’ esistenza
del quanto elementare di azione h. Possiamo infine chiamare la grandezza ∆Γ
peso statistico del sistema; la relazione che lega entropia termodinamica a ∆Γ
risulta, come sarà discusso nel prossimo capitolo:
S = k log ∆Γ = k log
∆p∆q
.
(2πh̄)ν
(2.24)
Un’osservazione che è necessario fare è che l’argomento del logaritmo è una
quantità adimensionale, se non fossimo partiti dal peso statistico ∆Γ ma avessimo definito l’entropia a partire dal volume nello spazio delle fasi ∆p∆q l’argomento del logaritmo avrebbe avuto la dimensione di un’azione, quindi al
cambiare di sistema di unità di misura nell’espressione dell’entropia dovrebbe
comparire una costante additiva diversa da zero, infatti l’entropia termodinamica classica (macroscopica) è definita a meno di una costante. Il valore di
questa costante nella formulazione microscopia è determinato nell’ambito della
meccanica quantistica.
Ricordiamo ora che avevamo considerato solo un sottositema di un più grande
sistema isolato, il nostro obiettivo è quindi calcolarne l’entropia; consideriamo
ora un n-esimo sottosistema del sistema di partenza, dallo studio delle caratteristiche di tali sistemi, detta ω(En ) la funzione di distribuzione del sottosistema,
risulta[2]:
log ω(En ) = α + βEn
(2.25)
con α e β coefficienti reali; essendo tale espressione lineare
< log ω(En ) >= log ω(E n ) = α + βE n ,
(2.26)
il simbolo < > indica il valore medio della grandezza; ricordando che ω(E)∆Γ =
1 l’entropia del sistema risulta:
Sn = − log ω(E n )
(2.27)
analogamente l’entropia totale:
S = − log ω(E)
(2.28)
per la definizione di valor medio risulta:
S=−
X
n
ωn log ωn
(2.29)
9
2.2. L’ENTROPIA IN SENSO MICROSCOPICO
Considerando ora l’intero sistema siano ∆Γ1 , ∆Γ2 , ...∆Γn i pesi statistici di
tutti i sottostistemi in cui è diviso, il peso statistico totale sarà
∆Γ =
Y
∆Γn ,
(2.30)
n
passando ai logaritmi risulta che l’entropia totale del sistema è una grandezza
additiva
X
S=
Sn .
(2.31)
n
2.2.1
Legge dell’aumento dell’entropia
Nell’analisi precedente abbiamo considerato un sistema in stato di equilibrio; supponiamo di avere un sistema non in stato di equilibrio, esso evolverà
nel tempo fino a raggiungere tale condizione, il sistema passerà da stati di minore probabilità a stati di maggiore probabilità. Il primo passo nello studiare
il comportamento di un sistema che si porta nello stato di equilibrio è richiamare la distribuzione microcanonica mediante la quale possiamo descrivere le
proprità statistiche di un sistema isolato
dω = costante δ(E − E0 )
Y
dΓn ,
(2.32)
n
dove dΓn è il differenziale della funzione Γ(En ) che fornisce il numero di stati
del sottosistema con energia compresa nell’intervallo [En , En + dEn ]. Posso
riscrivere l’espressione:
dω = costante δ(E − E0 )
Y dΓn
dEn
dEn
n
(2.33)
∆Γn
dΓn
= ∆E
e ricordando la definizione di entropia in
nell’approssimazione che dE
n
n
S
termini
Q 1 di peso statistico risulta e = ∆Γ, inoltre la dipendenza del termine
n ∆En da E può essere trascurata rispetto alla dipendenza esponenziale del
termine eS (E), per cui può essere inglobato nella costante, quindi:
dω = costante δ(E − E0 )eS
Y
dEn
(2.34)
n
La probabilità di un certo stato è perciò legata all’entropia del sistema, intoltre, poiché il sistema tende a variare da stati di minore probabilità a stati di
maggiore probabilità ed essendo la dipendenza esponenziale in S possiamo dire
che i processi che avvengono in un sistema che raggiunge l’equilibrio fanno sı̀
che esso passi in modo continuo da stati ad entropia minore a stati ad entropia
maggiore finché un equilibrio non viene raggiunto e l’entropia raggiunge il suo
valore massimo.
Abbiamo cosı̀ espresso la legge dell’aumento dell’entropia, essa afferma che
l’evoluzione più probabile di un sistema avviene in stati successivi in cui l’entropia cresce sempre o, al limite, resta invariata.
Bisogna osservare che la questa legge, parlando di conseguenza più probabile, considera che la probabilità che S aumenti è incredibilmente più elevata
10
CAPITOLO 2. L’ENTROPIA TERMODINAMICA
rispetto alla probabilità che diminuisca. Altro elemento da puntualizzare è l’applicazione della suddetta legge al mondo circostante e all’universo in generale;
secondo tale legge l’universo, e ogni sua parte macroscopica, dovrebbe trovarsi
in uno stato di equilibrio dopo un intervallo di tempo sufficientemente lungo. Senza introdurre argomentazioni troppo formali possiamo affermare che,
citando la relatività generale, considerando le enormi dimensioni dell’universo non possiamo trascurare gli effetti gravitazionali che influenzano la metrica
spazio temporale dell’universo stesso, essendo l’universo in espansione tale metrica varia nel tempo, quindi i campi gravitazionali possono considerarsi come
condizioni esterne non stazionarie per l’universo. La legge dell’aumento dell’entropia non si traduce quindi nel raggiungimento immediato dell’equilibrio
del sistema universo.[3]
2.3
Entropia di Gibbs ed Entropia di Boltzmann
La definizione di entropia che fin’ora abbiamo utilizzato è dovuta a Gibbs.
Storicamente[4] si è data un’altra definizione per la stessa grandeza, dovuta a
Boltzmann, utilizzata per la formulazione del suo teorema H.
Considerando un gas monoatomico di N particelle la densità di probabilità
WN nello spazio delle fasi risulta:
WN = WN (x1 , p1 , ...xn , pn ; t);
la funzione HG introdotta da Gibbs è definita come
Z
HG = WN log WN dτ
(2.35)
(2.36)
dove dτ raccoglie tutte le coordinate della spazio delle fasi, mentre la corrispondente funzione HB di Boltzmann è definita mediante la probabilità di singola
particella,
wi = wi (xi , pi ; t),
(2.37)
come
Z
HB = N
w1 log w1 dτ1 .
(2.38)
dτ1 si riferisce solo le coordinate della particella 1 che è equivalente a tutte le
altre N − 1 particelle.
In particolare risulta:
Z
Z
3
3
3
3
w1 (x1 , p1 ; t) = WN d x2 d p2 ...d xn d pn = WN dτ−1
(2.39)
con dτ−1 = d3 x2 d3 p2 ...d3 xn d3 pn .
Sia w1 che WN sono normalizzate ad 1, poiché WN è simmetrica rispetto a
permutazioni delle particelle, ricordando la forma di w1 dalla (2.39) possiamo
riscrivere la HB come
Z
HB = N WN log w1 (x1 , p1 )dτ
Z
=
WN log[w1 (x1 , p1 )w2 (x2 , p2 )...wn (xn , pn )]dτ,
(2.40)
2.3. ENTROPIA DI GIBBS ED ENTROPIA DI BOLTZMANN
11
ed essendo le varie distribuzioni di singola particella equivalenti risulta
Z
w1 (1)...w1 (N )
HB − HG = WN log
dτ.
(2.41)
WN (1, ..., N )
con (xi , pi ) = i.
Ora, essendo w e W distribuzioni positive, per le proprietà dei logaritmi risulta
che log x ≤ x − 1 per cui risulta
Z
w1 (1)...w1 (N )
− 1 dτ
(2.42)
HB − HG ≤ WN
WN
segue quindi che
HB ≤ HG ,
(2.43)
dove l’uguaglianza vale se WN = w1 , ...wN , cioè se WN è fattorizabile. La
differenza HB −HG dipende dalla funzione di distribuzione del sistema. Siamo
interessati al caso dell’equilibrio termico, in questo caso la distribuzione è quella
canonica
WN ∝ e−βH ,
(2.44)
dove β = 1/kT e H è l’hamiltoniana del sistema
H=
N
X
p2i
+ V (x1 , ...xN ),
2m
i=1
(2.45)
con V funzione simmetrica rispetto alle coordinate delle particelle. Detta Z
una costante di normalizzazione tale che
Z
Z = Z(β, Ω) = Ω e−βV d3 x2 ...d3 xN
(2.46)
con Ω volume ottenuto integrando sulle coordinate del centro di massa, essa è
legata alla energia libera di Helmotz F dalla relazione
1
= eβF .
Z
(2.47)
Risulta quindi
WN =
β
2πm
3N
2
Z −1 e−β
p2
i
i=1 2m −βV
PN
,
(2.48)
otteniamo la distribuzione per singola particella
w1 (x, p) =
β
2πm
3/2
p2
Ω−1 e−β 2m
(2.49)
sostituendo quest’equazione nella precedente otteniamo
w1 (1)...w1 (N )
= ZΩ−N eβV ,
WN (1...N )
(2.50)
HB − HG = log Z − N log Ω + β < V >
(2.51)
da cui
12
CAPITOLO 2. L’ENTROPIA TERMODINAMICA
dove < V > indica la media di V calcolata sulla distribuzione canonica, infatti
Z
WN βV dτ = β < V > .
(2.52)
Ricaviamo ora due relazioni ben note dell’ensemble canonico; il valor medio di
V
Z
< V >= WN V dτ
(2.53)
utilizzando la forma esplicita di WN risulta
< V >=
β
2πm
32 N
1
Z
Z
e−β
p2
i
i=1 2m −βV
PN
V dτ.
(2.54)
Integrando la parte dipendente solo dagli impulsi e ricordando che V non
dipende dalle coordinate del centro di massa ottengo
Z
Ω
< V >=
e−βV d3 x2 ...d3 xN ;
(2.55)
Z
ora considero la quantità log Z e ne calcolo la derivata in β,
Z
∂ log Z
1 ∂Z
Ω
=
=−
e−βV d3 x2 ...d3 xN ;
∂β
Z ∂β
Z
per cui:
< V >= −
(2.56)
∂ log Z
.
∂β
(2.57)
∂ log Z
.
∂Ω
(2.58)
Dall’equazione (2.47) si deduce inoltre
β < P >=
Adesso, sfruttando le equazioni appena ricavate, studiamo la differenza HB −
HG per cambi di stati infinitesimi
d(HB − HG ) = β < P > dΩ− < V > dβ −
N
dΩ + βd < V > + < V > dβ;
Ω
(2.59)
inoltre
N
= βP0 ,
(2.60)
Ω
con P0 pressione del gas ideale con volume e temperature pari a quella del
nostro sistema; risulta quindi
d(HB − HG ) = βd < V > +β(< P > −P0 )dΩ.
(2.61)
Possiamo introdurre le entropie S associate alle rispettive funzioni H
S = −kH,
(2.62)
con k costante di Boltzmann e integrando la (2.61) su un cammino reversibile.
Z 2
d < V > +(< P > −P0 )dΩ
(SG − SB )2 − (SG − SB )1 =
(2.63)
T
1
2.3. ENTROPIA DI GIBBS ED ENTROPIA DI BOLTZMANN
13
Dal momento che la forma di w1 è nota è possibile ricavare l’entropia di
Boltzmann
3
3
(2.64)
SB = N k log(2πmkT ) + N K log Ω + N k.
2
2
Ricavo da questa espressione che:
∂SB
3 N kdT
d<K>
dT =
=
(2.65)
∂T Ω
2 T
T
Nk
P0 dΩ
∂SB
=
dΩ =
(2.66)
∂Ω T
Ω
T
dove < K >= 3/2N kT è l’energia cinetica del sistema; integrando sullo stesso
cammino reversibile otteniamo:
Z 2
d < K > +P0 dΩ
(2.67)
(SB )2 − (SB )1 =
T
1
e per differenza con l’equazione (2.63) otteniamo l’entropia di Gibbs,
Z
(SG )2 − (SG )1 =
1
2
d < K + V > + < P > dΩ
.
T
(2.68)
essendo Ω il volume e K + V l’energia totale del sistema, invocando il primo
principio della termodinamica risulta
Z 2
δQ
.
(2.69)
(SG )2 − (SG )1 =
T
1
Quindi dalla nostra analisi emerge che l’entropia di Boltzmann è l’entropia di
un gas con le stesse caratteristiche del nostro sistema ma che non tiene conto delle forze intermolecolari delle particelle, mentre l’entropia di Gibbs che
ne tiene conto è l’entropia sperimentalmente osservata che si riconduce all’entropia come definita macroscopicamente da Clausius; infine possiamo affermare che la differenza tra i due tipi di entropie non è trascurabile se gli effetti
delle forze intermolecolari del sistema hanno effetti osservabili sulle proprietà
termodinamiche del sistema.
14
2.4
CAPITOLO 2. L’ENTROPIA TERMODINAMICA
Entropia e Disordine
Descriviamo adesso con un esempio come il concetto di entropia si ricolleghi
al concetto di disordine e quale legame ci sia tra i due. Consideriamo un
sistema molto semplice, formato da poche particelle distinguibili, ad esempio
4. Il sistema è posto inizialmente in un contenitore costituito da due cavità
separate da un setto removibile e completamente concentrato in una delle due
cavità (a).
Figura 2.3:
Alla rimozione del setto le particelle spontaneamente diffonderanno verso la
cavità (b) fino a raggiungere l’equilibrio, in questo caso rappresentato da due
particelle per cavità; vedremo inoltre che a questa configurazione del sistema è
anche associata l’entropia maggiore.
Figura 2.4:
Osserviamo come tale configurazione sia la più probabile semplicemente
elencando tutte le possibili configurazioni come mostriamo in tabella 2.1.
15
2.4. ENTROPIA E DISORDINE
a)
4
3
2
1
0
b)
0
1
2
3
4
n.combinazioni
1
4
6
4
1
probabilità
1/16
4/16
6/16
4/16
1/16
Tabella 2.1: configurazioni e probabilità
La configurazione in cui le molecole sono equi-distribuite è la più probabile
ed è lo stato d’equilibrio ad entropia maggiore cui il sistema tende; infatti,
come visto in precedenza, l’entropia è proporzionale al logaritmo del numero
dei microstati, e dove le particelle sono equidistribuite il numero dei microstati
del sistema considerato è massimo.
Più in generale fissato il numero totale N di particelle, supposto molto grande, sia m il numero di particelle nella cavità (a); Il numero di possibili combinazioni di m particelle prese tra N totali risulta essere dato dal coefficiente
binomiale
N!
N
=
.
(2.70)
m
m!(N − m)!
Vogliamo ora ricavare il valore di m per cui tale numero di combinazioni, e
con esso la probabilità che il sistema si trovi in quello stato, è massimo. È più
semplice studiare il logaritmo di questa quantità ed esprimere il comportamento
dei fattoriali mediante la formula di Stirling:
1
1
log n! ' n +
(2.71)
log n − n + log 2π,
2
2
tale approssimazione è tanto più accurata quanto più è grande il numero n
considerato. Nel nostro caso, trattandosi di un sistema macroscopico, N è un
numero dell’ordine del numero di Avogadro ed m, trattandosi del numero di
particelle dello stato più probabile, sarà anche esso un numero molto grande.
Ricordiamo che, essendo il logaritmo una funzione monotona, il massimo della
quantità originale, e quello del suo logaritmo coincidono.
Risulta quindi:
N
log
m
'
1
1
N+
log N − N − m +
log m + m
2
2
1
− N −m+
log(N − m) + (N − m)
2
(2.72)
dove abbiamo trascurato il contributo del termine log 2π;
Imponendo che la derivata in m sia nulla otteniamo
− log m + log(N − m) −
1
1
+
= 0,
2m 2(N − m)
(2.73)
e nell’ipotesi di N ed m molto grandi posso trascurare i termini senza i logaritmi, per cui ottengo
N −m
log
=0
(2.74)
m
16
CAPITOLO 2. L’ENTROPIA TERMODINAMICA
che è soddisfatta per m = N/2.
Abbiamo mostrato perciò che lo stato più probabile è quello in cui le particelle sono distribuite ugualmente tra le due cavità del recipiente. Il concetto di
disordine si ricollega a questo, inizialmente le particelle erano state tutte ordinate nella stessa parte del recipiente, tuttavia rimuovendo il setto separatore il
sistema ha avuto la possibilità di evolvere spontaneamente, si è portato quindi ad uno stato ad entropia maggiore, in cui tutte le molecole erano disposte
casualmente tra le due cavità, in uno stato visibilmente più disordinato senza
alcuna imposizione specifica sul dove tali particelle dovessero essere.
Va fatto notare che, preso un certo sistema in equilibrio, è possibile, spendendo energia, riportarlo in uno stato di ordine a minore entropia, tuttavia, il
bilancio totale dell’entropia sistema-ambiente risulta comunque in positivo.
2.4.1
Il paradosso di Gibbs
Un altro argomento da discutere in relazione al legame tra entropia e disordine è il paradosso di Gibbs. Tale paradosso si riferisce al mescolamento di
due gas alla stessa temperatura e pressione inizialmente separati da un setto
removibile.
Consideriamo come sistema isolato un contenitore di volume V separato da un
setto removibile in due sottovolumi V1 e V2 contenenti ciascuno un differente
gas con N1 e N2 particelle ma entrambi a temperatura T e pressione p. Rimuovendo il setto osserviamo l’espansione di entrambi i gas nel volume disponibile
e il reciproco mescolamento dei due fino a raggiungere uno stato di equilibrio.
Possiamo calcolare la variazione di entropia associata a questo processo a partire dalla variazione di entropia cui sono soggetti i due gas e sfruttando poi
l’additività dell’entropia. Sapendo che il mescolamento avviene a temperatura
costante, possiamo calcolare la variazione di entropia lungo una trasformazione
reversibile isoterma che collega gli stessi stati finale e iniziale, risulta
dS =
δQ
.
T
(2.75)
per gas ideali ∆E = 0 lungo trasformazioni isoterme, quindi per il primo
principio della termodinamica risulta
δL = δQ,
(2.76)
kN dV
pdV
=
T
V
(2.77)
essendo δL = pdV risulta
dS =
quindi, integrando tra gli stati iniziale e finale otteniamo:
- per il gas 1 ∆S1 = kN1 log
V
V1 ;
- per il gas 2 ∆S2 = kN2 log
V
V2 ;
2.4. ENTROPIA E DISORDINE
17
nel caso semplice di N1 = N2 = N e V1 = V2 = V risulta:
∆S = 2kN log 2.
(2.78)
È è importante osservare il significato di questo risultato, un’entropia di mescolamento diversa da zero indica che per riportare il sistema nello stato iniziale,
cioè per separare i due gas e riordinare il sistema, devo necessariamente compiere lavoro.
Altro elemento da puntualizzare è che nell’espressione finale dell’entropia il tipo
di gas in questione non fa diferenza ai fini del risultato. Considerando gas identici però esso sarebbe diverso, se infatti considerassi il sistema appena studiato
con l’unica differenza che in entrambi i vani del contenitore ci sia lo stesso gas
non ossererverei alcuna variazione di entropia tra stato finale ed iniziale.
Eppure ci aspettavamo un valore ben determinato di tale entropia, qual è il
problema?
Macroscopicamente questo risultato può essere inteso considerando che il sistema è sempre nello stesso stato, sia prima che dopo la rimozione del setto. I
valori delle quantità macroscopiche infatti non variano alla sua rimozione, inoltre trattandosi dello stesso gas se reinserissi il setto riotterrei lo stato iniziale
senza aver dovuto compiere lavoro, non è possibile infatti macroscopicamente
identificare le particelle che inizialmente si trovavano nell’uno o nell’altro vano.
Chiariamo ora perché si parli di paradosso considerando questo problema;
è assodato che al mescolamento di gas differenti è associata una variazione di
entropia non nulla, indipendente dalla natura dei gas, purché non identici. Se a
questo punto potessimo identificare genericamente le differenze tra i due gas e
fossimo in grado di modificarne uno in modo che tale differenza vari con continuità osserveremmo che la variazione d’entropia, finché i gas sono distinguibili
resta costante, ma che ad un certo punto cala bruscamente a zero non appena
essi non sono più distinguibili.
Matematicamente il paradosso risiede nel fatto che, detto λ il parametro che
quantifica la distinguibilità (o differenza) dei gas, al tendere con continuità di
λ a zero corrisponda una variazione discontinua della funzione entropia. Per
superare questa difficoltà concettuale occorre ricordare che l’entropia è legata
alla nostra conoscenza del sistema, supponendo di poter rendere sempre più
piccole le differenze tra i due gas e di poterle misurare per verificare se i gas
sono diventati indistinguibili o no ad un certo punto arriverei ad avere differenze cosı̀ piccole da non essere rilevate dai miei strumenti di misura, la mia
conoscenza del sistema in questo caso crolla bruscamente, per quanto ora posso
conoscere del sistema esso è composto di particelle indistinguibili, quindi la sua
entropia di mescolamento è nulla.
La soluzione del paradosso appare più chiara se considerata dal punto di
vista della meccanica quantistica, a stati macroscopicamente identici corrispondono stati microscopicamente identici; infatti quella che avevamo supposto essere una limitazione pratica nel distinguere i sistemi si rivela essere una
caratteristica intrinseca dei sistemi quantistici di particelle identiche.
Capitolo 3
L’entropia quantistica
3.1
Discretizzazione dell’energia e ipotesi di Planck
Uno degli elementi peculiari della meccanica quantistica è il concetto di
quanto per gli scambi di energia: diversamente che nel caso classico due sistemi che interagiscono possono scambiare una quantità di energia solo pari ad
un multiplo di una quantità fondamentale, appunto il quanto di energia. Si
dice cosı̀ che l’energia è scambiata in maniera discreta, contrariamente al caso
classico in cui è scambiata in maniera continua, cioè potendo assumere uno
qualunque dei possibili valori all’interno di un certo intervallo.
Il ruolo della discretizzazione può essere analizzato nel contesto della meccanica
statistica classica. Consideriamo infatti un sistema di N [5] particelle a volume
V fissato e immerso in un bagno termico a temepratura T . Ogni particella può
assumere i valori di energia compresi tra [0, ∞]. Vogliamo esprimere l’energia
e l’entropia del sistema in funzione della sua temperatura T nell’ambito ndell’ensemble canonico.
Risolveremo il problema sotto le due ipotesi di energia scambiata con continuità e di energia scambiata in maniera discreta.
Nel primo caso l’energia totale del sistema, detta k la costante di Boltzmann,
risulta essere:
R∞
E0
N 0 E 0 e− kT dE 0
E = R ∞ E0
(3.1)
e− kT dE 0
0
da cui
E = N kT.
(3.2)
È possibile a partire dall’energia ricavare l’entropia del sistema, essendo
∂S
dE = T dS − pdV risulta ∂T
= T1 ∂E
∂T quindi
S = N K log
e T0 compare come costante d’integrazione.
18
T
T0
,
(3.3)
3.1. DISCRETIZZAZIONE DELL’ENERGIA E IPOTESI DI PLANCK
19
Studiamo ora il caso in cui l’energia è scambiata per contributi discreti proporzionali ad una certa costante C. Quindi l’energia di ogni particella potrà
essere:
E = nC
con
n = 0, 1, 2...
(3.4)
La funzione di ripartizione del sistema risulta
Z=
∞
X
nC
e− kT ,
(3.5)
n=0
C
somma di una serie geometrica di ragione e− kT ; nota la funzione di ripartizione
si ricava l’energia libera:
F = −kN T log Z = −kN T log
1
C
1 − e− kT
,
(3.6)
da cui, ricordando le relazioni E = F − T S ed S = − ∂F
∂T , risulta:
E=
CN
e
C
kT
−1
C
ed S = −kN log(1 − e− kT ) −
1
NC
.
C
T e kT − 1
(3.7)
Osserviamo il comportamento delle quantità calcolate quando la temperatura
tende allo zero:
nel primo caso, mandando a zero la temperatura T , l’entropia diverge, nel
secondo caso invece l’entropia si annulla, proprio come atteso dalla terza legge
della termodinamica. Sempre nel secondo caso, supponendo di mandare a zero
la costante C per studiare il caso limite al continuo, osserviamo che l’energia
tende al valore kN T coerentemente al primo caso, mentre l’entropia diverge,
tuttavia è sempre possibile calcolare la differenza di entropia tra stati differenti.
Abbiamo mostrato con questo esempio che la discretizzazione dei microstati
accessibili al sistema gioca un ruolo determinante per definire un’entropia che
possegga le giuste proprietà termodinamiche. Nella meccanica quantistica questa operazione trova anche un fondamento fisico già a partire dalla spiegazione
dello spettro d’emissione del corpo nero ad opera di Planck. Prima del suo
contributo infatti, ipotizzando che l’energia potesse essere scambiata con continuità tra pareti del corpo nero e ambiente circostante, i tentativi di spiegare
tale spettro avevano portato alla formulazione della legge di Rayleigh-Jeans:
uν = kT
8π 2
ν dν
c3
(3.8)
con uν densità di energia per unità di fequenza di emissione ν. È facile vedere
che tale equazione non descrive correttamente il fenomeno, infatti provando
ad integrarla essa diverge per il contributo delle alte frequenze, portando alla
cosiddettacatastrofe ultravioletta. Planck risolse il problema introducendo il
quanto fondamentale d’azione h che porta il suo nome, e che determinò a
partire dalla sua famosa relazione di corpo nero
uν =
8π 2 hν
ν hν
.
c3 e kT
−1
(3.9)
20
3.2
CAPITOLO 3. L’ENTROPIA QUANTISTICA
Matrice densità
Oltre a fornire la base fisica per una corretta descrizione statistica dell’entropia termodinamica, e a introdurre la nozione di indistinguibilità (v. paradosso
di Gibbs) dei microstati, la meccanica quantistica permette anche di definire
un’entropia per sistemi microscopici.
A tale riguardo va considerato che in generale un sistema quantistico, visto
come parte di un sistema più esteso, non è sempre descrivibile in termine di
una singola funzione d’onda. È necessario in questo caso utilizzare quella che è
definita matrice densità. Questo si può verificare quando la procedura di preparazione del sistema in esame non determina univocamente lo stato. Risulta
in questo caso conveniente considerare una collezione di sistemi ciascuno dei
quali possa trovarsi in uno tra gli stati |ψii (i = 0, 1, 2...k), non necessariamente
ortogonali, con probabilità pi . È importante puntualizzare che tali probabilità
esprimono una indeterminazione di tipo classico; in particolare non si può dire
che il sistema si trovi in una combinazione degli stati |ψi i. Detta f una generica osservabile, cui è associato l’operatore fˆ e di cui vogliamo effettuare una
misura sul sistema, possiamo calcolare il valore aspettato di fˆ mediante una
media pesata sulle probabilità dei vari stati, risulta[6]
f¯ =
k
X
pi hψi | fˆ |ψi i .
(3.10)
i=0
Detti ora |a0 i e |a00 i elementi di una base nello spazio di Hilbert degli stati |ψi i
introduco nell’espressione del valore atteso di fˆ le relazioni di completezza dei
suddetti elementi
k XX
X
a0
i=0
pi hψi |a0 i ha0 | fˆ |a00 i ha00 |ψi i ,
(3.11)
a00
quindi risulta
k
XX X
(
pi ha00 |ψi i hψi |a0 i) ha0 | fˆ |a00 i .
a0
a00
(3.12)
i=0
Posso infine definire loperatore densità:
ρ=
k
X
pi |ψi i hψi | ,
(3.13)
ha00 | ρ |a0 i ha0 | fˆ |a00 i = Tr(ρfˆ)
(3.14)
i=0
per cui risulta
f¯ =
X
a0 ,a00
cioè posso ricavare i valori medi delle osservabili di un sistema mediante l’operatore densità associato ad esso.
Lo stesso tipo di descrizione può essere ottenuta, prescindendo da miscele
statistiche, considerando un sottosistema di un sistema quantistico in un determinato stato. Supponiamo di avere un sistema isolato cui è associato uno
spazio di Hilbert H. Al sottosistema in esame è associato lo spazio di Hilbert
21
3.2. MATRICE DENSITÀ
X sottospazio di H. Detto infine Q il sottospazio di H associato al rimanente
sistema risulta
H =Q⊗X
(3.15)
Riferendoci per semplicità ai sistemi considerati con gli spazi di Hilbert ad
essi associati si parla in questo caso di H come di un sistema composto dei
sistemi X e Q, matematicamente la composizione di più sistemi si esprime
mediante il prodotto tensoriale indicato dal simbolo ⊗. Se il sistema H si
troverà in un certo stato |ψi, in generale però non esistono due stati |ϕi e
|χi rispettivamente dei sistemi Q ed X tali che |ψi ne sia il prodotto, cioè in
generale non è fattorizzabile,
|ψi =
6 |ϕi |χi .
(3.16)
Allo stesso modo, dette |qi e |xi basi dei sistemi Q e X si possono associare
delle funzioni d’onda agli stati considerati tali che:
Z
|ψi = ψ(q, x) |qi |xi dqdx
(3.17)
Z
|ϕi =
ϕ(q) |qi dq
(3.18)
χ(x) |xi dx
(3.19)
Z
|χi =
e anche per le funzioni d’onda in generale risulta:
ψ(q, x) 6= ϕ(q)χ(x).
(3.20)
Sia ora f una certa grandezza osservabile cui è associato l’operatore fˆ che opera
solo sul sottosistema X
fˆ = fˆX ⊗ 1Q .
(3.21)
Il valore atteso di fˆ sullo stato considerato risulta
Z
¯
ˆ
f = hψ|f |ψi = dq 0 dx0 dq dx ψ ∗ (q, x)ψ(q, x) hq 0 , x0 |fˆ|q, xi ;
(3.22)
inoltre la fˆ agisce solo su X, per cui
Z
¯
f = dq 0 dx0 dq dx ψ ∗ (q, x)ψ(q, x) hx0 |fˆ|xi hq 0 |qi ,
(3.23)
ed essendo hq 0 |qi una delta di Dirac
Z
f¯ = dq dx0 dx ψ ∗ (q, x)ψ(q, x) hx0 |fˆ|xi .
(3.24)
Quindi posso definire l’ operatore densità
Z
0
ρ(x , x) = dq ψ ∗ (q, x0 )ψ(q, x),
(3.25)
in termini del quale si ha
f¯ =
Z
dx0 dx ρ(x0 , x) hx0 |fˆ|xi .
(3.26)
22
CAPITOLO 3. L’ENTROPIA QUANTISTICA
Nel caso discreto, dette |xi i e |qj i (i = 1, 2, ...n) (j = 1, 2, ...m) due basi
ortonormali di X e Q, uno stato del sistema totale sarà esprimibile come
|ψi =
X
λij |xi i |qj i .
(3.27)
i,j
Il valor medio della solita osservabile sarà
f¯ =
hxi0 , qj 0 |fˆ|xi , qj i λ∗i0 j 0 λij ,
X
(3.28)
i,j,i0 ,j 0
e dal momento fˆ agisce solo su X,
f¯ =
hqj 0 |qj i hxi0 |fˆ|xi i λ∗i0 j 0 λij .
X
(3.29)
i,j,i0 ,j 0
Posto ρi,i0 =
P
j
λ∗i0 j λij risulta
f¯ =
X
hxi0 |fˆ|xi i ρi,i0 = Tr(fˆρ).
(3.30)
ρi,i0 = hxi |ρ|xi0 i
(3.31)
i,i0
con
da cui
X
ρ=
λ∗nj λmj |xm i hxn | .
(3.32)
j,n,m
P
Osserviamo che, posto n λjn |xn i = aj |αj i, con |αj i normalizzato, ρ risulta
essere espresso in una forma equivalente a quella precedentemente ricavata:
ρ=
X
|aj |2 |αj i hαj | ,
(3.33)
j
infatti, dalla condizione di normalizzazione per |αj i, poiché anche |ψi è normalizzato risulta
X
X
|aj |2 =
|λnj |2 ≤
|λnj |2 = 1,
(3.34)
n
jn
quindi le due definizioni sono equivalenti; una miscela statistica e un sottostistema di un sistema dato sono descritti dallo stesso oggetto matematico.
Alcune proprietà dell’ operatore densità sono:
- l’operatore densità è un operatore hermitiano e positivo, infatti per ogni
|Ψi si ha hΨ|ρ|Ψi ≥ 0, come si vede dall’equazione (3.33);
- la traccia dell’operatore densità è uguale ad uno; infatti dalla (3.32)
possiamo calcolare la traccia di ρ
T r(ρ) =
X
k
hxk |
X
j,n,m
λ∗nj λmj |xn i hxm |xk i =
X
j,k
|λkj |2 = 1;
(3.35)
23
3.2. MATRICE DENSITÀ
alternativamente dalla (3.13), detta {|ϕi i} una base ortonormale nello spazio di Hilbert considerato, dato che gli |ψi i sono normalizzati, la
traccia risulta essere
X
j
hϕj |
k
X
pi |ψi i hψi |ϕj i =
i
k
X
pi
i
X
| hϕj |ψi i |2 = 1
(3.36)
j
L’operatore densità è usato quindi per descrivere stati di cui non abbiamo
completa conoscenza detti miscele statistiche o stati misti. Il caso specifico di
stati puri, di cui si ha completa conoscenza, è ottenuto quando le pi nell’equazione (3.13) sono tutte nulle tranne una. L’opertore densità corrispondente ad
uno stato puro si riduce quindi ad un proiettore, per cui T r(ρ2 ) = 1.
Analogamente nel caso in cui lo stato del sistema globale |ψi sia fattorizzabile
|ψi = |χi |ϕi ,
(3.37)
con |χi e |ϕi vettori normalizzati di X e Q,
|χi =
X
ai |xi i ,
|ϕi =
X
i
bj |qj i ,
(3.38)
j
risulta nell’equazione (3.32) λij = ai bj e quindi
ρ=
k
X
a∗n b∗j am bj |xn i hxm | = |χi hχ| ;
(3.39)
j,n,m
- possiamo quindi affermare che
T r(ρ2 ) ≤ T r(ρ) = 1,
(3.40)
dove l’uguaglianza è soddisfatta nel caso di stati puri;
- dall’equazione di Schröedinger di evoluzione temporale degli stati si ottiene
∂ρ
= [H, ρ]
(3.41)
∂t
La desrizione di un sottostitema nel caso in cui il sistema composto non
si trovi in uno stato puro si ottiene mediante una immediata generalizzazione
del procedimento illustrato nella sezione precedente[7]: detti A e B due sistemi
formanti un sistema composto AB descritto da una matrice densità ρAB , si
definisce l’operatore densità ridotto relativo al sistema A
ρA = TrB (ρAB )
(3.42)
e analogamente per il sistema B
ρB = TrA (ρAB ),
dove l’operazione di traccia parziale agisce ad esempio come segue:
X
TrB (ρ) =
hbi |ρ|bi i
i
essendo |bi i una base ortonormale dello spazio B.
(3.43)
(3.44)
24
CAPITOLO 3. L’ENTROPIA QUANTISTICA
3.3
Entropia di Von Neumann
Possiamo ora parlare di entropia nel senso quantistico del termine, detto A
un certo sistema fisico descritto da un operatore densità ρ, l’l’entropia di Von
Neumann S(ρ)ad esso associata è definita da
S(ρ) = −Tr(ρ log ρ),
(3.45)
dove per log ρ s’intende l’operatore che ha per autovalori il logaritmo degli
autovalori di ρ.
Nella base in cui ρ è diagonale siano pi , al variare di i, gli autovalori di ρ,
allora:
X
S=−
pi log pi .
(3.46)
i
Osserviamo che:
- L’entropia S(ρ) è positiva;
- se il sistema è in uno stato puro esiste un unico valore di i, ī per cui pī = 1
e tutti gli altri autovalori sono nulli, quindi l’entropia di Von Neumann è
nulla in uno stato puro;
- il valore massimo dell’entropia di Von Neumann si ottiene dalle seguenti
equazioni,
(
P
∂
∂pi [S − λ(P j pj − 1)] = 0
(3.47)
∂
j pj − 1)] = 0
∂λ [S − λ(
doveP
λ è un moltiplicatore di Lagrange inteso ad assicurare la condizione
che i pi = 1, da cui
log pi +P
1+λ=0
(3.48)
j pj = 1
e quindi ∀i pi = e−(λ+1) = N1 . Tutti gli stati sono quindi equiprobabili e
si ha
X 1
1
SMax = −
log
= log N.
(3.49)
N
N
Quindi un sistema privo di vincoli ha entropia massima quando la matrice
densità che lo descrive è proporzionale all’identità, si parla del sistema come di
una“miscela completamente incoerente”.
Possiamo ricavare anche l’entropia di un sistema all’equilibrio termodinamico ma sottoposto a vincoli, ad esempio un preciso valore dell’energia. Posto
hHi = U ed essendo il sistema in equilibrio risulta
∂ρ
= 0,
∂t
(3.50)
e dall’equazione (3.41) si ha [H, ρ] = 0: esiste perciò una base comune di
autovettori per ρ e H; essendo anche hHi = T r(ρH) e detti pi ed Ei gli
autovalori di ρ ed H risulta:
X
U=
pi Ei
i
25
3.3. ENTROPIA DI VON NEUMANN
che, assieme a
Lagrange
P
i
pi = 1 è un vincolo per l’equazione ai moltiplicatori di
X
X
X
∂
= [−
pj log pj − λ(
pj − 1) − β(
pj Ej − U )] = 0,
∂pi
j
j
j
(3.51)
si ricava che log pi = −βEi − λ − 1, da cui
pi = ceβEi
(3.52)
con c = e−λ−1 , inoltre dalla condizione di normalizzazione
e−βEi
pi = P −βEj .
je
(3.53)
La matrice densità risulta allora
P
i
ρ=
e−βEi |ψi i hψi |
P −βE
j
je
(3.54)
per cui, nota ρ possiamo ricavare l’entropia del sistema, essendo:

 −βE1
0
···
0
−e
0 
e−βE2 · · ·
1 

 0
(3.55)
ρ= 
..
..
.. 
..
Z
.
.
.
. 
0
0
· · · e−βEn
Pn
con n numero totale di stati e Z = i e−βEi , la funzione di ripartizione del
sistema. Calcoliamo la quantità ρ log ρ:
 −βE1

e
1 
ρ log ρ = − 
Z
(βE1 + log Z)
0
.
.
.
0
0
e−βE2 (βE2 + log Z)
.
.
.
0
···
···
..
.
···
0
0

.

.
.
−βEn
e
(βE2 + log Z)
(3.56)
per cui essendo S = −T r(ρ log ρ) risulta
" n
#
1 X −βEi
S=
e
(βEi + log Z) ;
Z
i
(3.57)
separando la somma e ricordando la definizione di Z risulta
S = log Z +
ma la somma
Pn
i
n
β X
Ei e−βEi ,
Z i
(3.58)
Ei e−βEi rappresenta il valore medio U dell’energia quindi
S = log Z +
U
.
kT
(3.59)
Dunque è possibile legare l’entropia di Von Neumann a quella termodinamica
mediante la costante di Boltzmann:
ST d = kS(ρ)
(3.60)
26
CAPITOLO 3. L’ENTROPIA QUANTISTICA
per cui l’entropia termodinamica di un sistema all’equilibrio termico risulta:
ST d = k log Z +
U
T
(3.61)
equazione già nota dalla meccanica statistica se si osserva che il termine log Z
rappresenta l’energia libera del sistema.
3.4
Entanglement quantistico ed entropia di entanglement
Dato un sistema composto da due sottosistemi A e B, questo sarà descritto
da stati non necessariamente fattorizzabili in prodotto tensore di stati del sistema A e del sistema B. Si parla in questo caso di stati “entangled” (intricati,
aggrovigliati). Esempi tipici di stati entangled per sistemi composti da due
sstemi a due livelli sono
|00i ± |11i
√
2
|10i ± |01i
√
2
(3.62)
noti come stati di Bell ed epressi nella cosiddetta base computazionale |0i |1i
in ciascuno dei due sistemi. È facile vedere che le matrici densità associate
ai sottosistemi A e B sono proporzionali all’identità e danno quindi luogo a
valori massimi dell’entropia di Von Neumann. Si parla in questo caso di stati
massimamente entangled, in effetti l’entropia di Von Neumann può essere usata come misura del grado di entanglement in un dato stato. Ciò è dovuto al
fatto che le entropie di Von Neumann dei due sottosistemi coincidono e misurano quindi non quantità relative ai singoli due sistemi ma comuni ad entrambi.
Supponiamo infatti che il sistema composto AB cui è associato lo spazio di
Hilbert H = Ha ⊗ HB si trovi in uno stato puro cioè, detto ρ l’operatore
densità ad esso associato,
ρ = |ψi hψ| .
(3.63)
Siamo interessati a studiare l’entropia dei due sottosistemi A e B che compongono il sistema complessivo. Possiamo esprimere lo stato |ψi mediante basi
ortonormali degli spazi HA ed HB , rispettivamente |αn i e |βk i:
|ψi =
N X
M
X
n
cnk |αn i |βk i
(3.64)
k
dove N ed M sono le dimensioni degli spazi di Hilbert associati ai sottosistemi
A e B. Posso porre:
X
|Bn i =
cnk |βk i ,
(3.65)
k
da cui
|ψi =
X
n
|αn i |Bn i ,
(3.66)
3.4. ENTANGLEMENT QUANTISTICO ED ENTROPIA DI ENTANGLEMENT27
dove gli |Bj i non sono necessariamente ortonormali;
supponendo che |αn i sia base di autovettori per ρA , dove ρA è la matrice densità
ridotta associata al sottosistema A, risulta
ρA =
X
pn |αn i hαn |
(3.67)
n
ed anche:
ρA = T rB (ρ) =
X
cnk c∗n0 k |αn i hαn0 | ;
(3.68)
nn0 k
dovendo le due espressioni coincidere segue che, avendo imposto che αn
fosse base per ρA , i termini con n 6= n0 non danno contributo, quindi
X
cnk c∗n0 k = δnn0 pn .
(3.69)
k
Da notare che nell’equazione (3.67), possiamo considerare la somma estesa ai
solo valori di n per cui pn 6= 0. Sia N̄ il numero di tali valori. Nel caso in cui
N > M la relazione (3.69) implica che N̄ ≤ N . Risulta quindi dalla (3.65),
ricordando che i |βk i sono ortonormali,
hBn |Bm i = pn δnm .
(3.70)
Definendo dei ket ortonormali
|Bn i
|bn i = √
pn
(3.71)
per i soli n per cui pn 6= 0 e completando il set per ottenere una base ortonormale, si ha, avendo ridefinito per comodità di notazione |ai i = |αi i,
|ψi =
N
X
√
pn |an i |bn i ,
(3.72)
n
nota come decomposizione di Smidth dello stato |ψi. Possiamo calcolare la
matrice densità ridotta per B
ρB =
M
X
pj |bn i hbn |
(3.73)
n
dove, come prima possiamo considerare la somma estesa ai soli valori di n per
cui pn 6= 0. Dal confronto con l’equazione (3.67), i due operatori densità hanno
gli stessi autovalori quindi essendo
SA = −T r(ρA log ρA )
(3.74)
SB = −T r(ρB log ρB )
(3.75)
risulta che le entropie di sottosistemi di un sistema in uno stato puro sono
uguali
SA = SB .
(3.76)
28
CAPITOLO 3. L’ENTROPIA QUANTISTICA
Al valore comune delle entropie viene assegnato il nome di entropia di entanglement. Se lo stato del sistema AB oltre ad essere puro è fattorizzabile,
cioè:
|ψi = |ϕi |χi
(3.77)
con |ϕi e |χi rispettivamente stati di A e B, gli operatori densità ridotti
risultano
ρA = |ϕi hϕ| ,
ρB = |χi hχ| ,
(3.78)
per cui SA ed SB sono entrambe nulle.
In generale la (3.76) non vale se il sistema non si trova in uno stato puro. Ad
esempio se A e B sono entrambi sistemi a due livelli sia ρ la matrice densità
del sistema composto AB data da
ρ=
1
1
|00i h00| + |00i h01| + |01i h00| + |01i h01| .
2
2
(3.79)
Le matrici densità ridotte risultano essere
ρA = |0i h0|
e
ρB =
1
1
|0i h0| + |0i h1| + |1i h0| + |1i h1| ;
2
2
(3.80)
(3.81)
per cui
1
(3.82)
2
cioè per stati non puri le entropie d’entanglement dei sottositemi non sono
uguali. Diverse misure di entanglement possono essere adottate nel caso di stati
non puri[8]. Una di queste fa riferimento all’entropia relativa S(ρ1 ||ρ2 ) tra due
miscele statistiche che sarà definita nel capitolo 4. A tale scopo si individua
nell’insieme T delle matrici densità che descrivono il sistema composto AB,
il sottoinsieme D delle matrici associate a stati non entangled. Una generica
matrice densità di D sarà espressa nella forma ρA ⊗ρB . Il grado di entaglement
tra i due sistemi A e B nello stato descritto dalla matrice densità ρ è dato da
S(ρA ) = 0,
S(ρB ) = log
E(ρ) = min S(ρ||ρD )
ρD ∈D
(3.83)
29
3.5. ENTROPIA E TEMPO
3.5
Entropia e tempo
Un altro importante, e controverso, aspetto riguardante l’entropia è la definizione di una “freccia del tempo”. Nelle equazioni della meccanica classica
cosı̀ come in quelle della meccanica quantistica (salvo per il collasso delle funzioni d’onda) non compare alcuna direzione privilegiata del tempo, cioè non è
specificato che un fenomeno fisico debba accadere nel senso delle t crescenti o
decrescenti e, dato un certo sistema, è possibile conoscerne l’evoluzione temporale nel futuro o la situazione in cui si trovava nel passato ed invertendo le
condizioni inziali è possibile un evoluzione del sistema “all’indietro”.
La seconda legge della termodinamica rompe questa simmetria affermando
che l’entropia dell’universo non può far altro che crescere, individuando quindi
una direzione obbligata che i fenomeni fisici devono seguire, identificando il
passato come gli stati ad entropia minore che si sono evoluti in stati ad entropia
maggiore, il futuro.
Partiamo dal caso classico[9]. Considerando l’entropia di Gibbs di un certo sistema essa è ricavata a partire dalla funzione HG di Gibbs. Detta ρ la
distribuzione di probabilità del sistema risulta
Z
HG = ρ log ρdτ,
(3.84)
dove in dτ sono presenti tutte le variabili del sistema; la relazione tra la
funzione HG e l’entropia di Gibbs è determinata dalla costante di Boltzmann
SG = −kHG .
(3.85)
La HG varia al variare della ρ, in particolare detta Se l’entropia ricavata
sperimentalmente risulta
SG ≤ Se .
(3.86)
L’uguaglianza vale quando la SG è calcolata sulla distribuzione canonica, che
può essere ricavata minimizzando HG con la condizione che il valor medio
dell’energia si U :
Z
hHi =
ρHdτ = U.
(3.87)
D’altra parte la HG e quindi la SG restano costanti nel tempo. Ciò che appare
strano è l’osservare come la HG e quindi anche la SG restino costanti nel tempo,
infatti
Z
dρ
dHG
=
log ρdτ = 0,
(3.88)
dt
dt
per il teorema di Liouville ρ è stazionaria, quindi HG è costante.
Bisogna quindi specificare il rapporto tra l’entropia di Gibbs e quella ricavata sperimentalmente. Al tempo t = 0 consideriamo un sistema in equilibrio
termodinamico, la sua distribuzione sarà quella canonica, quindi vale l’uguaglianza SG = Se . Se si forza il sistema ad un cambio di stato adiabatico la
sua SG non varierà, tuttavia, al tempo successivo t0 il sistema raggiungerà di
nuovo l’equilibrio e la sua funzione di distribuzione sarà in questo caso ρ(t0 ),
ancora canonica, ma differente rispetto alla precedente in dipendenza dal cambio di stato che è avvenuto. Detta quindi Se0 l’entropia di questo nuovo stato
d’equilibrio varrà la diseguaglianza stretta
SG < Se0 ;
(3.89)
30
CAPITOLO 3. L’ENTROPIA QUANTISTICA
inoltre, poiché SG è rimasta costante, risulta
Se < Se0 ,
(3.90)
che in pratica è la seconda legge della termodinamica. È importante osservare
come l’entropia di Gibbs resti costante nel tempo mentre quella sperimentale,
cioè quella che misuriamo, varia.
Nel caso quantistico invece avevamo calcolato l’entropia di un sistema preso in
esame a partire dalla sua matrice densità ρ, ci si ricollegava all’entropia termodinamica mediante la costante di Boltzmann. Per stati puri risulta S = 0; essendo ρ un operatore unitario nell’applicare l’equazione di Srödinger osserviamo
che:
ρ(t) = e−iHt ρ(0)eiHt
(3.91)
Gli autovalori di ρ non variano al variare del tempo, quindi la sua traccia, e
l’entropia del sistema, restano costanti, ciò accade anche per processi irreversibili perché l’evoluzione è unitaria.
Il carattere probabilistico della legge dell’aumento dell’entropia può essere illlustrato attraverso un semplice esempio. Immaginiamo di avere un contenitore
diviso in due parti e contente un numero molto basso di particelle, nel nostro
caso 50, tutte confinate in un’unica parte. Supponendo che sia possibile per
una a caso tra le particelle di passare da un lato all’altro del contenitore ad intervalli regolari e che ogni volta che ciò accade misuriamo il numero di particelle
nella metà contenitore inizialmente piena, otterremmo la situazione riprodotta
in fig.3.1, dove rappresentiamo il numero di particelle nella metà contenitore
in funzione del numero di misurazioni effettuate.
Figura 3.1: Andamento temporale del numero di particelle presente in una delle
due metà del recipiente.
E’ facile rendersi conto di come il sistema evolva verso una situazione di
equilibrio in cui il numero di particelle è bilanciato tra le due metà del con-
3.5. ENTROPIA E TEMPO
31
tenitore. Ci si rende subito conto di quale sia lo stato iniziale del sistema e
possiamo associare una direzione del tempo parallela alla direzione in cui il
sistema si porta in equilibrio, cioè se invertissimo il grafico “a specchio” si capirebbe che la situazione in cui tutte le particelle si distribuiscono in un’unica
metà necessita di un intervento esterno e non accade mai spontaneamente.
Se tuttavia considerassimo il sistema ormai all’equilibrio dimenticandoci
dello stato iniziale e cancellando dal grafico il contributo delle prime centinaia
di scambi non osserveremmo alcun comportamento particolare delle particelle,
ma solo le generiche fluttuazioni che avvengono all’equilibrio, invertendo specularmente il grafico non noteremmo la differenza, cioè in assenza di condizioni
iniziali il sistema è simmetrico rispetto al tempo, come mostrato in fig.3.2.
Figura 3.2: Andamento temporale del numero di particelle in una metà del
recipiente eliminando il contributo delle prime centinaia di scambi.
Ciò significa che il concetto di “freccia del tempo” è legato a quelle che noi
chiamiamo “condizioni iniziali” che coincidono spesso a stati poco probabili del
sistema. Imponendo queste condizioni rompiamo la simmetria temporale che il
sistema ha invece in stato di equilibrio. In linea di principio possiamo eliminare
l’azione di uno sperimentatore esterno, è possibile infatti supporre che il sistema in questione sia frutto non di una preparazione da parte dell’osservatore
ma di una “fluttuazione statistica estremamente rara”, anche in quest’ottica il
sistema resta però simmetrico rispetto al tempo in quanto rispetto alla sua storia precedente tale fluttuazione sarebbe speculare o equiprobabile all’evoluzione
che noi osserviamo. È possibile ampliare il discorso arrivando a ipotizzare che
l’intero universo possa essere frutto di una tale rarissima fluttuazione giustificando il fatto che la sua entropia totale è più bassa di quanto atteso o che tutto
sommato si tratta di un universo ancora molto ordinato nella sua struttura
fatta di aggregati di galassie e nebulose, ma questa resta una speculazione.
32
CAPITOLO 3. L’ENTROPIA QUANTISTICA
L’evoluzione verso l’equilibrio è descritta dalla master equation che determina l’evoluzione temporale della matrice densità ridotta per sistemi non isolati, vista come matrice ridotta di un sistema composto isolato, quest’ultimo
soggetto ad un l’evoluzione unitaria[10]. Il paradosso di Loschimdt, cioè l’emergere di una freccia del tempo da una dinamica simmetrica rispetto inversione
temporale, rimane se si considera un sistema isolato, al limite l’intero universo.
In ultima analisi la simmetria riguarda la nostra conoscenza di un sistema
fisico più che la sua dinamica: è il processo di acquisizione di informazioni sul sistema infatti ad essere asimmetrico. Questo ci porta ad esplorare il
collegamento tra entropia ed informazione.
Capitolo 4
Entropia ed informazione
Provando a dare una definizione semplice di informazione possiamo dire
che essa è ciò che è scambiato attraverso la comunicazione, è codificata in
un linguaggio (le parole, la scrittura) e viene trasmessa attraverso di esso.
Proveremo ad analizzare l’informazione e le problematiche ad essa legate dal
punto di vista fisico arrivando a definire un’entropia di informazione.
4.1
Entropia di Shannon e compressione di informazione
Nel definire e quantificare l’informazione sorge il problema di possibili ambiguità, ad esempio volendo quantificare tramite la sua lunghezza l’informazione
contenuta in un messaggio scritto quest’ultima dipende da molteplici fattori
quali l’alfabeto o la lingua in cui è espresso. Il contributo fondamentale dovuto a Shannon[11] alla teoria dell’informazione consiste nell’aver definito una
grandezza che risolve questa ambiguità.
Un semplice esempio può chiarire il concetto: supponiamo che l’informazione da trasmettere sia uno tra i valori 1, 2, 3, 4; possiamo sempre con 2
bit trasmettere univocamente i quattro valori considerati. Un messaggio di
lunghezza n sarà in generale costituito da una successione di n occorrenze di
uno di questi quattro valori. Poiché possiamo sempre con 2 bit trasmettere
univocamente i quattro valori considerati, saranno sufficienti 2n bit per trasmettere il messaggio; per bit intendiamo la minima quantità di informazione
che possiamo trasmettere in logica binaria. Tuttavia supponiamo che le occorrenze dei quattro valori non siano ugualmente probabili. Un esempio di questo
fenomeno si trova nel linguaggio in cui certe lettere di un alfabeto compaiono
più frequentemente di altre. Sia ad esempio
p(1) =
1
,
2
p(2) =
1
,
4
p(3) = p(4) =
1
.
8
In questo caso, al fine di risparmiare risorse, possiamo assegnare meno bit ai
valori più frequenti e più bit a quelli più rari; una buona configurazione risulta
essere
1→0
2 → 10
33
34
CAPITOLO 4. ENTROPIA ED INFORMAZIONE
3 → 110
4 → 111
Questa scelta garantisce l’individuazione univoca in una stringa delle singole
occorrenze. La media dei bit impiegati, pesata con la loro probabilità, risulta essere 7/4, quindi il messaggio inviato necessiterà si soli 74 n bit per essere
trasmesso. Risulta in effetti che questa è la scelta ottimale per minimizzare il
numero di bit utilizzati, come conseguenza del teorema di Shannon.
Si definisce infatti la cosiddetta entropia di Shannon associata ad una certa
variabile stocastica x come
X
H(x) = −
pi log2 pi
(4.1)
i
dove pi rappresenta la probabilità di occorrenza dell’i-esimo valoredi x. Nel
caso precedente il valore di H risulta essere proprio 7/4. L’entropia di Shannon
quantifica quindi il minimo numero di risorse necessarie alla trasmissione di
informazione. Formalmente l’entropia di Shannon è equivalente all’entropia di
Von Neumann a meno di una costante moltiplicativa pari al log 2; come già
visto in quel contesto, essa è massima nel caso in cui i pi siano tutti uguali.
Se nell’esempio precedente si fosse imposta la condizione pi = 1/4 per ogni
valore di i, sarebbe risultato H = 2 cioè l’informazione trasmessa da ogni cifra
è massima.
4.2
Proprietà dell’entropia
Analizzeremo le varie forme in cui l’entropia di Shannon può presentarsi e
le proprietà che ne derivano;
4.2.1
Entropia Binaria
Nel caso in cui la variabile assuma solo due valori si parla dientropia binaria,
cioè, detta x una variabile con due valori possibili, x1 e x2 con probabilità
rispettivamente di p e (1 − p) risulta :
H(x) = −p log2 p − (1 − p) log2 (1 − p)
(4.2)
È facile vedere che H è massima quando p = 1/2, cioè quando i valori sono
completamente casuali l’incertezza è massima; inoltre si dimostra facilmente,
derivando in p, che la funzione H è concava.
4.2.2
Entropia relativa
L’entropia di Shannon è un ottimo strumento anche per verificare la “vicinanza” di due differenti distribuzioni di probabilità relative allo stesso set di
indici di una certa variabile X; dette p(x) e q(x) due distribuzioni di probabilità
definiamo entropia relativa di p(x) rispetto q(x) la quantità:
H(p(x)||q(x)) =
X
x
p(x) log2
X
p(x)
= −H(X) −
p(x) log2 q(x)
q(x)
x
(4.3)
35
4.3. TEOREMI DI SHANNON
Si dimostra che l’entropia relativa è non negativa. Consideriamo infatti la
diseguaglianza
log2 x log 2 = log x ≤ x − 1
∀x > 0,
(4.4)
l’entropia relativa è
H(p(x)||q(x)) = −
X
p(x) log2
x
essendo − log2 x ≥
1−x
log2
q(x)
;
p(x)
(4.5)
risulta
1 X
q(x)
1 X
H(p(x)||q(x)) ≥
p(x) 1 −
=
[p(x) − q(x)]
log 2 x
p(x)
log 2 x
(4.6)
ed essendo entrambe le distribuzioni normalizzate:
H(p(x)||q(x)) ≥ 0
(4.7)
Come si è visto nella sezione 3.4 l’entropia relativa è utilizzata per quantificare
l’entanglement tra due sottostistemi nel caso in cui il sistema composto si trovi
in uno stato non puro.
4.2.3
Mutua informazione
Dette X e Y due variabili, il contenuto di informazione che trasmettono
può essere collegato, si definisce a tale scopo l’entropia congiunta:
H(X, Y ) = −
X
p(x, y) log2 p(x, y)
(4.8)
x,y
Se oltre alla variabile Y è nota l’entropia ad essa associata H(Y ) allora
abbiamo dell’informazione in più e possiamo definire l’entropia condizionata:
H(X|Y ) = H(X, Y ) − H(Y )
(4.9)
La quantità di informazione può essere intesa anche come il grado di sorpresa
rispetto alla conoscenza dell’esito dell’occorrenza di un certo valore della variabile stocastica. L’entropia condizionata quindi quantifica il grado di sorpresa
rispetto all’esito di X una volta noto l’esito di Y .
Infine possiamo calcolare l’informazione comune che due variabili X e Y
trasmettono; La somma H(X) + H(Y ) quantifica sia l’informazione comune
che quella individuale che trasmettono, considerando due volte però quella
comune. Quest’ultima si può ottenere quindi come mutua informazione
H(X : Y ) = H(X) + H(Y ) − H(X, Y ) = H(X) − H(X|Y ).
4.3
(4.10)
Teoremi di Shannon
Sia x1 , x2 , ...xn una sequenza di numeri casualmente estratti da un alfabeto
binario, e p la probabilità che un generico elemento della sequenza abbia valore
1 e (1 − p) la probabilità che esso abbia valore 0. Si dicono stringhe tipiche
36
CAPITOLO 4. ENTROPIA ED INFORMAZIONE
tutte quelle stringhe di n elementi che possiedono np elementi con valore 1 ed
n(1 − p) elementi con valore 0. Il numero massimo di stringhe tipiche è dato in
termini dell’entropia di Shannon da 2nH(x) . Consideriamo infatti una sequenza
tipica: essendo i vari elementi della sequenza indipendenti, la probabilità di
occorrenza della stringa è fattorizzabile, quindi
p(x1 , x2 , ...xn ) = p(x1 )p(x2 )...p(xn ) = pnp (1 − p)n(1−p) .
(4.11)
Passando ai logaritmi, e ricordando la definizione di H si ottiene
− log2 p(x1 , x2 ...xn ) = − log2 p − n(1 − p) log2 (1 − p) = nH(x),
(4.12)
dove per x si intende la variabile stocastica che assume i valori 0, 1. A questo punto risulta che la probabilità di ottenere una sequenza tipica tra le 2n
sequenze possibili è:
p(x1 , x2 , ...xn ) = 2−nH(x)
(4.13)
il che significa che al massimo possiamo ottenere 2nH(x) sequenze tipiche. Inoltre una sequenza tipica necessiterà qundi di un numero di bit pari ad nH(x),
questo è il contenuto del teorema di Shannon per la codifica attraverso un canale privo di rumore, in relatà qualunque canale di comunicazione è affetto da
disturbi, interviene in questo caso il teorema di Shannon per la codifica attraverso canale disturbato.
Introduciamo preliminarmente un modello di canale d’informazione affetto da
rumore, il canale simmetrico binario rappresentato in fig. 4.1:
Figura 4.1: Canale simmetrico binario
un canale di questo tipo inverte il valore trasmesso con probabilità p e lo
trasmette invariato con probabilità 1 − p; esso agisce allo stesso modo su tutte
le cifre, è per questo un canale senza memoria. Per trasmettere affidabilmente
informazione attraverso un canale disturbato la strategia da utilizzare è di
impiegare più bit del necessario. Per cui, volendo trasmettere una stringa di k
bit, se ne utilizzeranno n, con n > k, si definisce allora il tasso della codifica
k
.
(4.14)
n
Osserviamo che tra la stringa in entrata e quella in uscita da un canale disturbato c’è in genere una differenza di np bit, con un’approssimazione tanto più
R=
4.4. IL DIAVOLETTO DI MAXWELL E IL PRINCIPIO DI LANDAUER.37
accurata quanto più n è grande; questa differenza di bit è detta “distanza di
Humming” tra le stringhe, e tutte le stringhe che distano da quella iniziale
di np bit si possono considerare appartenere ad una certa sfera di Humming
centrata nella nostra stringa di partenza. Affinché la codifica utilizzata per
trasmettere le stringhe sia affidabile esse devono distare più di np bit l’una
dall’altra, cioè le varie sfere di Humming centrate in ogni stringa inviata non
devono intersecarsi. Affinché tale condizione sia verificata basta imporre che
2k 2nH(p) = 2n[R+H(p)] ≤ 2n
(4.15)
per cui otteniamo una condizione sul tasso di codifica R:
R ≤ 1 − H(p).
(4.16)
Possiamo definire la capacità di un canale disturbato come il massimo valore
di R
C(p) = 1 − H(p).
(4.17)
Il teorema di Shannon per codifica attraverso canale disturbato è la generalizzazione del risultato riferito al canale simmetrico binario mirata a definire la
capacità di un generico canale disturbato senza memoria. Questo è caratterizzato da una certa distribuzione di probabilità condizionata p(y|x) dove x è la
generica occorrenza di una variabile stocastica X, distribuita secondo una p(x)
ed Y la variabile stocastica in uscita dal canale. La capacità del canale è data
da
C = max H(X : Y )
(4.18)
p(x)
dove il massimo è effettuato su tutte le possibili variabili in ingresso.
4.4
Il diavoletto di Maxwell e il principio di
Landauer.
Partendo dall’entropia termodinamica abbiamo mostrato come il concetto
di entropia sia legato alla conoscenza che abbiamo di un sistema fisico, quindi all’informazione relativa ad esso. È interessante osservare che il punto di
vista della teoria dell’informazione ha una precisa rilevanza anche sulla termodinamica. Per mostrare questo concetto descriveremo quello che è noto come
il paradosso del diavoletto di Maxwell, che risolveremo proprio in termini di
informazione immagazzinata in un certo sistema[12]. Il ponte tra teoria dell’informazione e termodinamica è dato dal principio di Landauer.
Il paradosso
Il paradosso nel trattato “Teoria del calore” di Maxwell:
Immaginiamo un essere le cui capacità siano cosı̀ acute che possa seguire qualunque molecola nel suo corso, tale essere, le cui capacità sono essenzialmente
finite, come le nostre, sarebbe capace di fare ciò che per noi è impossibile.
Poiché abbiamo visto che le molecole in un contenitore pieno d’aria a temperatura uniforme si muovono muovono a velocità niente affatto uniforme, tuttavia
38
CAPITOLO 4. ENTROPIA ED INFORMAZIONE
Figura 4.2: Schema semplificato del paradosso fi Maxwell[12]
.
la velocità media di qualunque gruppo di molecole sufficientemente grande, arbitrariamente selezionato, è quasi esattamente uniforme. Ora supponiamo che
tale contenitore sia diviso in due parti, A e B, da una parete che presenta una
piccola apertura, e che tale essere, che può vedere le molecole singolarmente,
apra e chiuda questa apertura, cosı̀ da permettere solo alle molecole più veloci
di passare da A a B, e solo a quelle più lente da B ad A. Allora, senza compiere lavoro, egli aumenterà la temperatura di B e diminuirà la temperatura du
A contrariamente alla seconda legge della termodinamica
Una versione semplificata di questo paradosso consiste nel supporre di avere una certa macchina termica che opera con un gas costituito da un’unica
particella, come in fig. 4.2. Inizialmente (a) il gas è libero di muoversi in un
volume V . Nel paradosso si suppone che un essere microscopico e senziente
(più realisticamente un computer di dimensioni molto piccole o comunque un
particolare strumento) inserisca una partizione (b) nel volume V , poi misurando in quale delle due sezioni del volume si trovi la particella memorizzi dove
essa si trovi, quindi la partizione viene sostituita con un sistema di pistoni e
pesi (c), infine il gas è messo in contatto con un termostato e si espande isotermicamente spostando il pistone e compiendo lavoro convertendo unicamente il
calore fornito dal termostato in lavoro (d), poi tornando al volume e allo stato
iniziale contradirrebbe apparentemente la seconda legge della termodinamica.
Risoluzione : Il principio di Landauer
La soluzione al paradosso sta nel notare che in realtà nel sistema formato
dal diavoletto e dalla macchina stato iniziale e finale non coincidono; infatti
il diavoletto ha ancora immagazzinata l’informazione riguardo alla posizione
della particella, per tornare allo stato iniziale quest’informazione deve essere
necessariamente cancellata.
Secondo il principio di Landauer la cancellazione di informazione necessita di un
costo in energia, la stessa quantità che il diavoletto guadagnerebbe dall’espansione del gas considerato; per cui, infine, non c’è nessun guadagno d’energia e
nessuna diminuzione di entropia nel sistema.
4.4. IL DIAVOLETTO DI MAXWELL E IL PRINCIPIO DI LANDAUER.39
Il principio di Landauer può essere illustrato immaginando un sistema di conservazione di informazione binario formato da un gas di un’unica particella e
da un volume separato da un setto.
1. particella nello stato 0 o nello stato 1
2. per cancellare l’informazione rimuoviamo il setto separatore e
comprimiamo isotermicamente il gas
3. indipendentemente dallo stato iniziale adesso la particella si trova nello
stato 0, l’informazione è stata cancellata.
Questa compressione necessita di un lavoro minimo pari a kT log 2 che viene
trasferito all’ambiente sotto forma di calore. Corrispondentemente l’entropia
del gas diminuisce di di k log 2.
Quindi il paradosso è risolto considerando anche l’informazione contenuta
nel sistema, c’è infatti una grande differenza nell’avere un generico gas in un
40
CAPITOLO 4. ENTROPIA ED INFORMAZIONE
contenitore e nell’avere un gas di cui si conosce la posizione e il moto di ogni
particella, nel secondo caso infatti è possibile sfruttare tale informazione per
estrarre energia dal gas.
Bibliografia
[1] E. Fermi, Thermodynamics, Dover Publication, Inc. New York 1956.
[2] L. D. Landau, E. M. Lifshitz, Fisica Teorica Volume 5 Meccanica statistica,
Editori Riuniti Edizioni Mir 1986.
[3] [2] Cap. I § 8.
[4] E. T. Janes, Gibbs vs Boltzmann Entropies, Am. J. Phys. 33 (1965) 391.
[5] L. Benguigui, The different paths to entropy, Eur. J. Phys. 34 (2013)303.
[6] J. J. Sakurai, Meccanica Quantistica Moderna, Zanichelli 1990.
[7] M. A.Nielsen, I. L. Chuang, Quantum Computation and Quantum Information, Cambridge University Press 2000. ry Physics, 42 (2001)
25.
[8] V. Vedral, M. B. Plenio, M. A. Rippin, P. L. Knight, Quantifying
Entanglement, Phys. Rev. Lett. 78 (1997) 2275.
[9] [4]
[10] S. Kryszewski, J. Czechowska-Kryszk, Master Equation-tutorial approach
arXiv:0801.1757
[11] [7]
[12] M. B. Plenio V. Vitelli, The physics of forgetting: Landauer’s erasure
principle and information theory, Contempora
41