articolato - Kalidoxa.com

Transcript

articolato - Kalidoxa.com
Roberto Weitnauer
Ottobre 2005, immagini aggiunte giugno 2007
(10 pagine, 8 immagini)
www.kalidoxa.com
Diritti riservati
L’entropia, dal vapore all’idea incompresa di Boltzmann
L’entropia è una grandezza fondamentale nella fisica; il suo continuo aumento
traduce il “secondo principio della termodinamica” che, a sua volta, riflette
un’asimmetria di fondo di Madre Natura, tale per cui le cose vanno solo in un senso
e non nell’altro, proprio come il tempo. Questa variabile di stato fu dapprima
inquadrata dal nostro macrocosmo, cioè in termini energetici globali, senza
conoscere le dinamiche minute della materia. Poi venne Ludwig Boltzmann che verso
la fine del 1800 ne svelò l’intima natura, gettando il suo sguardo nel microcosmo e
rendendo conto dell’evoluzione della materia in termini di disordine. Ma Boltzmann
non fu mai ben compreso in vita.
La parola “termodinamica” evoca il calore e macchinari sbuffanti. In effetti, questa
disciplina muove i primi passi col francese Carnot, un ex-ufficiale del genio militare
che in epoca napoleonica s’interessò assiduamente alla forza del vapore. Questi morì
nel 1832 solo 36-enne a seguito di un’epidemia di colera che colpì Parigi, ma il suo
approccio matematico al calore e al lavoro meccanico fece in tempo a stimolare
l’interesse scientifico.
Anni più tardi l’inglese Joule corresse alcuni errori di Carnot, dimostrando che il
calore non è un fluido, bensì la manifestazione di un’entità che può convertirsi da una
forma all’altra. Così, il lavoro poteva convertirsi in calore. Nasceva il concetto
centrale di energia. Calore e lavoro sono due forme di energia. Lord Kelvin e il
tedesco Clausius compresero in seguito che l’energia percorre vie irreversibili, cioè a
senso unico. Una circostanza davvero cruciale per la comprensione dell’universo che
abitiamo.
Clausius, in particolare, aveva iniziato la sua indagine, ricercando qualche
principio di conservazione del calore e si era invece imbattuto in un cambiamento
continuo e caratteristico nella materia; insomma, tutt’altro che una conservazione.
D’altra parte, questa variazione appariva caratteristica e, se non dipendeva da una
grandezza che si conserva, rispecchiava quantomeno una dinamica che si conservava,
ossia indicava la presenza di una legge naturale che fino a quel punto nessuno aveva
descritto.
Clausius aveva notato che una variazione di temperatura e una trasformazione
dell’energia meccanica in calore si accompagnano sistematicamente a un’asimmetria,
tale per cui la natura procede sempre a senso unico. Ad esempio, è sempre il corpo
caldo che scalda quello freddo e mai viceversa. Analogamente, tutto il lavoro può
trasformarsi in calore, ma non è vero l’inverso. Il tedesco decise così di riflettere i
mutamenti spontanei e asimmetrici della natura nell’aumento sistematico di una certa
variabile di stato che decise di chiamare entropia e che significa letteralmente “dentro
il cambiamento”.
Egli espresse precisamente le variazioni di questa grandezza nei termini del calore
che entra o esce da un sistema che si trovi a una particolare temperatura. Non
entreremo qui nei dettagli, ma l’importante è considerare che l’entropia cresce ogni
qualvolta in un sistema avvenga un trasferimento di energia spontaneo, cioè
irreversibile, e diminuisce se questo richiede invece una forzatura esterna. Un
aumento tipicamente spontaneo è appunto il transito calorico da un corpo caldo a uno
freddo. Una forzatura che provoca una diminuzione locale di entropia è quella
relativa al funzionamento di un frigorifero.
Rudolf Clausius (1822-1888) a sinistra e William Thomson (1824-1907), cioè Lord Kelvin.
http://www.matematycy.interklasa.pl/images/matematycy/clausius.jpg
http://phys.strath.ac.uk/images/history/Kelvin-1000.jpg
Per esempio, quando mescoliamo acqua calda e fredda in una vasca, ottenendo
spontaneamente un liquido tiepido l’entropia aumenta. L’energia fluisce dalle zone
più calde a quelle più fredde, ma non può successivamente procedere a ritroso,
separando il caldo dal freddo. Eppure, il flusso di energia può essere forzato in loco.
È quello che succede in un frigorifero: l’energia viene costretta a fluire da oggetti
freddi all’ambiente a maggior temperatura. Qui abbiamo allora una diminuzione
locale di entropia, ma non è una variazione spontanea; in altre parole, il sistema è
condizionato dall’esterno.
L’entropia non ha dunque a che vedere solo con un’aggiunta o una sottrazione di
energia, ma anche con la sua ridistribuzione interna. Il trasferimento di energia da una
parte a un’altra di un sistema (nella forma di calore) ne muta l’assetto. Quando la
distribuzione è statisticamente uniforme si ha la massima entropia per il sistema
contenente quell’energia che allora non si sposta più dallo stato raggiunto. Clausius e
Kelvin non si erano focalizzati sulla statistica dei movimenti energetici interni di un
sistema, tuttavia avevano compreso che il modo in cui si spostava il calore giocasse
un ruolo centrale nella faccenda.
!
"# #
∆
L’energia fluisce irreversibilmente da dove ce n’è di più (sistema a sinistra rosso) a dove ce n’è di
meno (sistema blu), in maniera simile a quanto succede a un liquido che scorra per vasi
comunicanti. Il salto di energia potenziale ∆ indicato in figura (dovuto al campo gravitazionale)
viene infine annullato e si ha l’equilibrio. L’entropia è nella fisica classica un indice di consumo
irreversibile di energia potenziale e quindi all’equilibrio finale corrisponde un’entropia più elevata
della condizione iniziale. Tuttavia, è in termodinamica che questa grandezza la fa da padrona,
legandosi al calore che è una forma di energia in transito. L’aumento di entropia è una storica e
cruciale interpretazione del “secondo principio della termodinamica” in virtù del quale il calore
passa sempre dal corpo più caldo a quello più freddo. Ciò è perfettamente in sintonia con quanto si
diceva prima: l’energia ha la tendenza a trasferirsi da dove ce n’è di più (corpo caldo) a dove ce
n’è di meno (corpo freddo). Nella figura l’equilibrio finale dei vasi comunicanti, usati come
modello di comprensione, riflette l’equilibrio termico dei due corpi che raggiungono un’unica
temperatura intermedia. L’energia cessa di spostarsi (fluttuazioni statistiche a parte).
(Grafica dell’autore).
Si può dire che l’entropia del mondo aumenti costantemente. È una caratteristica di
fondo di Madre Natura. Come può allora aversi un flusso di energia localmente
invertito, tale, ad esempio, da separare una zona di fluido calda da una fredda in un
sistema inizialmente a un’unica temperatura? In effetti, è questa la condizione retta da
un frigorifero o un condizionatore. Tutto dipende da come si guardano le cose. In
effetti, un’entropia locale in diminuzione non è possibile per alcun sistema isolato. È
però possibile per un sistema non isolato, proprio perché in tal caso si produce una
forzatura dall’esterno.
In altre parole, una diminuzione di entropia è senz’altro possibile, ma a scapito di
una maggiore produzione di entropia altrove. Così, un sistema isolato e articolato in
più parti può anche presentare componenti che subiscano una diminuzione di
entropia, ma allora deve aversi per altre componenti un aumento entropico tale da
compensare e superare quella diminuzione.
"
∆
∆
Forzatura: un processo ne sospinge un altro, contro la direzione naturale. Un sistema a mulinello
viene azionato dal flusso del sistema di sinistra. Il mulinello è collegato con una pompa che agisce
sul sistema di destra: viene compiuto un lavoro (il lavoro, come il calore, è energia in transito)
contro la gravità. Il sistema forzato subisce una diminuzione entropica, anziché un aumento, come
avverrebbe se fosse isolato. L’entropia a sinistra aumenta però di più di quanto non diminuisca
quella a destra. Così, il sistema complessivo subisce comunque un aumento di entropia. Se così non
fosse il fenomeno non potrebbe prodursi. In un sistema fisico come quello idraulico mostrato,
l’entropia è legata all’energia potenziale. Nella fattispecie, è necessario che l’energia potenziale
disponibile a sinistra sia superiore a quella disponibile a destra (∆ %∆ ); in caso contrario è il
sistema di destra a forzare quello di sinistra.
Grafica dell’autore.
Qualunque corpo viene attirato verso il basso, ma se un bambino pesante e uno
leggero sono ai capi di un’altalena a fulcro, quest’ultimo verrà inesorabilmente
sospinto verso l’alto. E la dinamica dell’altalena è irreversibile. Se infatti vediamo in
un filmato il bambino più pesante salire e quello più leggero scendere, capiamo che la
ripresa scorre alla rovescia. Per l’entropia che diminuisce è la stessa cosa: essa è
indice della presenza di un’altra entropia collegata che aumenta in maggior misura.
Possiamo dire in un certo senso che un frigorifero corrisponde a una particolare
disposizione della materia (attraverso la tecnologia), atta ad ottenere uno scorrimento
dell’energia localmente contrario al suo verso naturale. Non si tratta di un’eccezione,
ma semplicemente di un assetto dinamico tra i tanti possibili. Il mondo continua
imperterrito a scaldarsi, come attesta il calore prodotto dietro all’elettrodomestico.
Con le formule che legavano l’energia totale, il calore e il lavoro Kelvin e Clausius
fecero entrare la termodinamica in una fase più matura. La legge entropica, nota
anche come secondo principio della termodinamica, impediva che tutto il calore
prelevato da una sorgente potesse trasformarsi in lavoro, così come impediva che un
corpo freddo scaldasse un corpo più caldo (in un sistema isolato). Da notare che il
secondo principio fu formulato prima della legge di conservazione dell’energia (che
in termodinamica si chiama “primo principio”). Tuttavia, come si accennava, Kelvin
e Clausius non entrarono nei dettagli del comportamento della materia e non seppero
spiegare l’asimmetria della natura che la legge entropica così bene descriveva.
Kelvin e Clausius avevano descritto quel che succedeva all’energia mediante
potenti formule matematiche che vertevano sul sistema termodinamico preso nel suo
$
insieme, cioè visto dal macrocosmo. Il tedesco e l’inglese non avevano però idea del
perché tutto ciò succedesse, ovvero del perché l’energia dovesse sempre scorrere
secondo modalità globalmente irreversibili.
∆
'
(
(
)
*
Il calore è la forma più degradata di energia: esso corrisponde a un flusso di particelle
microscopiche che si muovono scorrelate, cioè in modo caotico (conduzione e convezione; poi c’è
l’irraggiamento che viaggia con onde elettromagnetiche). Il lavoro è invece una forma coerente di
energia in transito, dato che è costituita da un flusso di particelle che procedono con ordine, quasi
come una “truppa”. La natura energetica di calore e lavoro è dunque qualitativamente diversa se
osservata nel microcosmo. Il potenziale ∆ contenuto nel salto iniziale tra i livelli dei vasi non può
trasformarsi tutto in lavoro. Una parte è inesorabilmente e irreversibilmente destinata a dissiparsi
nell’ambiente in forma di calore (freccia grigia). Questo perché la “truppa”, per modo di dire, non
è in grado di tenere saldamente i ranghi e una parte finisce inesorabilmente per scomporsi mentre
marcia. Il sollevamento del peso è un processo coerente, ma si accompagna sempre a una
dispersione di alcuni soldati della “truppa”. Lo stesso vale per il calore proveniente dal corpo
caldo: una parte può essere convertita in lavoro (una porzione della truppa si ordina), ma il resto
deve necessariamente finire per dispersione al corpo più freddo che è tipicamente l’ambiente.
Grafica dell’autore.
Ludwig Boltzmann prese a cuore la questione. L’austriaco portava lenti spesse, ma
ebbe una visione acuta. Egli afferrò che l’entropia nel nostro mondo grossolano non
fosse altro che una conseguenza di quel che accade nella materia quando si ha un
flusso di energia. Nella fattispecie, l’entropia diventava il riflesso del disordine
dinamico che si manifesta mentre l’energia si disperde tra le particelle agitate del
microcosmo. L’idea era che l’energia (calore e lavoro) rilevata nel macrocosmo non
fosse altro che il risultato complessivo di tante energie che caratterizzavano le singole
minute componenti dei sistemi termodinamici.
Così, ad esempio, le molecole veloci (elevata energia cinetica) dell’acqua calda e
quelle lente (bassa energia cinetica) dell’acqua fredda si urtano come biglie, finché i
moti nella vasca risultano uniformemente distribuiti in senso statistico. Come dire
che alla fine le energie delle particelle si sono distribuite con maggiore uniformità,
disperdendosi nello spazio a disposizione, non certo relegandosi in precipue porzioni
&
della vasca. Facciamo insomma il bagno tra configurazioni spaziali microscopiche
complessivamente più disordinate.
La termodinamica diventava con Boltzmann una meccanica statistica applicata a
sistemi composti di tanti parti che si possono scambiare energia e che, di fatto, la
diffondono caoticamente tra di loro. In effetti, la termodinamica può oggi essere
largamente intesa come lo studio dei trasferimenti di energia in complessi formati da
innumerevoli parti meccaniche che non possono essere seguite una per una e devono
invece essere inquadrate globalmente in senso probabilistico.
(
,(
'
,
,
,(
'
,(
'
.
,
,
- -,
.
,
,
Qui sopra altrettanti modi di guardare a un processo irreversibile che interessa un sistema
termodinamico isolato e composto di due parti. Potremmo considerare che il sistema sia il cosmo
intero. In tal caso la situazione finale contraddistinta da temperatura “tiepida” corrisponde a ciò
che gli scienziati chiamano “morte termica”. È una situazione astratta ed estrapolata in cui tutta
l’energia del mondo si è degradata in calore e distribuita uniformemente: il disordine universale è
all’apice. Una specie di fine del tempo termodinamico.
Grafica dell’autore.
In effetti, la nuova formula per l’entropia messa a punto da Boltzmann considerava
la probabilità dei vari stati microscopici che un sistema può assumere. Per intenderci,
ogni complesso termodinamico, essendo formato da tante molecole o atomi che
possono traslare o ruotare in vario modo e con varie velocità, ha un certo numero di
gradi di libertà interni, sfruttando i quali esso può assumere una serie di
configurazioni o, come si dice, di “complessioni”.
Per ogni data energia disponibile tra le particelle sono compatibili diverse
complessioni. A lungo andare tutte le complessioni possibili vengono raggiunte, così
come a furia di gettare un dado tutte le facce vengono sorteggiate. Presa
singolarmente, ciascuna complessione ha la stessa probabilità di presentarsi. Ma
questo non toglie che il sistema presenterà a livello macroscopico delle distribuzioni
complessive più frequenti e altre più rare. In linea del tutto generale, maggiori sono i
modi con cui un sistema può raggiungere un certo stato globale più quest’ultimo sarà
ricorrente.
+
Per capire meglio l’approccio di Boltzmann supponiamo di avere un contenitore
che divideremo idealmente in due comparti, ad esempio la metà destra e sinistra.
Supponiamo che in esso fluttuino due sole molecole di un gas. Queste ultime possono
accumularsi tutte in uno scomparto o tutte nell’altro; si tratta di due alternative. Le
molecole possono poi collocarsi una nella metà di destra e l’altra nella metà di
sinistra; anche in questo caso dobbiamo distinguere due possibilità. Abbiamo in
complesso due alternative di segregazione e due alternative distribuite. Ogni
configurazione ha quindi una probabilità pari a 1/4 (25%) di stabilirsi. Nel complesso
è ugualmente probabile che le molecole si segreghino o che si disperdano in tutto il
contenitore.
Con tre molecole le cose già cambiano. Chiamiamole per semplicità A, B e C. Le
alternative di segregazione sono sempre due: tutte a destra o tutte a sinistra. A costo
di essere pedanti, contiamo ora le possibilità distributive in entrambi gli spazi: A e B
a sinistra; C a destra. A e C a sinistra; B a destra. B e C a sinistra; A a destra. Se in
questa sequela invertiamo la destra con la sinistra completiamo il quadro. In totale
abbiamo dunque 8 complessioni di cui 6 distribuite e 2 segregate. La probabilità che
le molecole si disperdano in entrambi gli scomparti è quindi pari già a 3/4 (75%),
mentre la probabilità che si accumulino tutte da una parte è uguale a solo 1/4 (25%).
Un sistema di 3 molecole è ovviamente ancora qualcosa di estremamente semplice
e poco realistico. Non è però il caso di continuare con i conteggi. Sebbene le nostre
rappresentazioni siano ridotte all’osso, si vede subito come l’aggiunta di una sola
molecola incrementi le configurazioni più distribuite. Si capisce allora che queste
ultime crescono vertiginosamente col quantitativo di particelle che si agitano.
Parallelamente, cala drasticamente la probabilità d’incappare in complessioni
concentrate da una parte sola del contenitore. S’intuisce anche che le distribuzioni più
numerose sono quelle che maggiormente si avvicinano a una ripartizione omogenea
tra le due metà del contenitore.
Si consideri a titolo informativo che un solo grammo di idrogeno contiene già circa
300'
000 biliardi di molecole. Qual’è dunque l’aspetto cruciale che dobbiamo
sottolineare in relazione ai sistemi reali composti da un quantitativo esorbitante di
particelle? Il fatto cruciale è che, sebbene ogni configurazione spaziale abbia la stessa
probabilità di verificarsi di qualunque altra, le complessioni che occupano
omogeneamente lo spazio a disposizione sono straordinariamente più numerose di
quelle che lo riempiono in modo piuttosto eterogeneo e, a maggior ragione, di quelle
che risultano concentrate in regioni parziali dello spazio.
Ognuna delle n molecole di un gas ha una probabilità pari a 1/2 (50%) di
comparire in una metà del contenitore. Tutte le n molecole hanno quindi una
probabilità paria a 1/2 x 1/2 x 1/2 x .... = 1/2n di concentrarsi contemporaneamente in
quell’emispazio. Per rendere le idee, si tratta della stessa probabilità di ottenere n
volte di seguito “testa” con il lancio di una moneta bilanciata. Si capisce che la
probabilità di trovare i 300'
000 biliardi di molecole di un grammo di idrogeno in una
metà del contenitore diventa assai prossima al valore zero, come la probabilità di
ottenere “testa” 300'
000 biliardi di volte consecutive, lanciando una monetina.
/
,(
'
,
,
,(
'
,(
'
.
,
,
- -,
.
,
,
L’evoluzione di un sistema termodinamico verso stati di maggiore entropia corrisponde nell’ottica
di Boltzmann a transizioni interne verso gruppi di complessioni statisticamente più disordinate,
cioè verso condizioni globali più probabili. All’equilibrio il disordine è massimo, come massima è
la probabilità che quel genere di condizione generale venga raggiunta. Nella figura qui sopra ci
sono due possibilità che le 19 molecole si segreghino tutte a destra o tutte a sinistra, ma molte di
più che si distribuiscano. La distribuzione può essere raggiunta in più modi della segregazione ed è
per questo che è più frequente nelle fluttuazioni del sistema. Il discorso è qui semplificato, anche
perché per “complessione” non bisogna intendere semplicemente una distribuzione spaziale delle
particelle, ma piuttosto una distribuzione delle energie che le riguardano e che implicano quindi
anche le loro velocità di spostamento o di rotazione su vari assi. Questa precisazione nulla toglie
comunque al principio generale qui illustrato.
Grafica dell’autore.
Non insisteremo qui con i numeri. Quanto esposto basta a capire di quale genere
fossero i ragionamenti dai quali prese spunto Boltzmann per inquadrare l’entropia in
termini probabilistici. Per Boltzmann il secondo principio non era una legge puntuale
di natura, del tipo di quelle di Newton, ma un fatto probabilistico che diventa
sostanzialmente certo, in virtù della straordinaria quantità di elementi che sono
aleatoriamente coinvolti nei processi reali. L’equilibrio dei sistemi compositi inteso
su base molecolare come una condizione dinamica statisticamente omogenea si
prestava a fornire un’ottima spiegazione dei fenomeni termodinamici, facendo tra
l’altro una grande economia di concetti.
Boltzmann interpretò così l’entropia come una semplice conseguenza su larga
scala del fatto che le configurazioni energetiche molecolari più frequenti fossero
quelle che maggiormente sfruttano lo spazio disponibile. L’aumento dell’entropia
doveva dunque rispecchiare l’evoluzione irreversibile verso stati microscopici sempre
più disordinati e probabili e cioè verso stati che permettono alle molecole e ai relativi
moti di occupare lo spazio in più modi diversi, compatibilmente con i vincoli esterni
e l’energia disponibile.
0
Per Boltzmann l’entropia doveva dunque potersi ricondurre all’incremento delle
probabilità di distribuzione. In altre parole, egli pensò di esprimere l’entropia in
funzione del numero di complessioni microscopiche accessibili. Le sue ingegnose
argomentazioni lo condussero alla formulazione di una relazione matematica che
rappresentò un notevolissimo ponte intellettuale tra il vecchio punto di vista
macroscopico di Clausius e Kelvin e le considerazioni attorno al mondo microscopico
delle particelle di materia.
Questa relazione è un colosso concettuale, un elemento matematico irrinunciabile
nell’ambito di una genuina comprensione scientifica dell’universo in cui esistiamo.
Anche senza entrare in maggiori dettagli dell’analisi statistica dell’entropia, si può
intuire quale traguardo costituì l’interpretazione termodinamica di Boltzmann nella
comprensione dell’evoluzione della materia che, in ultima istanza, non è altro che
evoluzione dell’energia.
Purtroppo, la sua formula venne scritta prima che l’esistenza degli atomi fosse
realmente avvalorata. Gli scienziati erano inoltre poco inclini all’evoluzionismo,
come testimoniò il caso di Darwin che dovette fare i conti con polemiche durissime.
Infine, l’ottica probabilistica mal si conciliava col determinismo imperante nelle
università. Tutto ciò fu di enorme ostacolo a Boltzmann, sia in termini operativi che
psicologici.
Il suo impegno e la sua visione originale e acuta delle trasformazioni
termodinamiche gli portarono onori e aule colme, ma l’accanita opposizione dei
colleghi finì per logorare un animo sensibile e già ferito dalla perdita di un figlio. Il
5/10/1906, durante una vacanza in Italia, Boltzmann s’impiccò. Accadde poco prima
che il suo lavoro venisse sperimentalmente verificato.
Chi va oggi al cimitero centrale di Vienna può vedere incisa sulla lapide della sua
tomba la formula dell’entropia; una relazione matematica elegante e carica di un
significato universale, un’equazione che vale più di mille parole sopra i resti di un
uomo che aveva mille volte ragione.
1
Ritratto di Ludwig Boltzmann (Vienna 1844 – Duino 1906).
http://www.bezirksmuseum.at/Landstrasse/data/media/1739.jpg
Scorcio sulla tomba di Boltzmann al Zentralfriedhof di Vienna. Si osserva la formula ch’egli aveva
elaborato per l’entropia, la grandezza termodinamica introdotta a suo tempo da Clausius.
L’intuizione di Boltzmann, sfociata poi in quella relazione universale, è un pilastro della scienza.
http://upload.wikimedia.org/wikipedia/commons/6/63/Zentralfriedhof_Vienna_-_Boltzmann.JPG
Roberto Weitnauer