articolato - Kalidoxa.com
Transcript
articolato - Kalidoxa.com
Roberto Weitnauer Ottobre 2005, immagini aggiunte giugno 2007 (10 pagine, 8 immagini) www.kalidoxa.com Diritti riservati L’entropia, dal vapore all’idea incompresa di Boltzmann L’entropia è una grandezza fondamentale nella fisica; il suo continuo aumento traduce il “secondo principio della termodinamica” che, a sua volta, riflette un’asimmetria di fondo di Madre Natura, tale per cui le cose vanno solo in un senso e non nell’altro, proprio come il tempo. Questa variabile di stato fu dapprima inquadrata dal nostro macrocosmo, cioè in termini energetici globali, senza conoscere le dinamiche minute della materia. Poi venne Ludwig Boltzmann che verso la fine del 1800 ne svelò l’intima natura, gettando il suo sguardo nel microcosmo e rendendo conto dell’evoluzione della materia in termini di disordine. Ma Boltzmann non fu mai ben compreso in vita. La parola “termodinamica” evoca il calore e macchinari sbuffanti. In effetti, questa disciplina muove i primi passi col francese Carnot, un ex-ufficiale del genio militare che in epoca napoleonica s’interessò assiduamente alla forza del vapore. Questi morì nel 1832 solo 36-enne a seguito di un’epidemia di colera che colpì Parigi, ma il suo approccio matematico al calore e al lavoro meccanico fece in tempo a stimolare l’interesse scientifico. Anni più tardi l’inglese Joule corresse alcuni errori di Carnot, dimostrando che il calore non è un fluido, bensì la manifestazione di un’entità che può convertirsi da una forma all’altra. Così, il lavoro poteva convertirsi in calore. Nasceva il concetto centrale di energia. Calore e lavoro sono due forme di energia. Lord Kelvin e il tedesco Clausius compresero in seguito che l’energia percorre vie irreversibili, cioè a senso unico. Una circostanza davvero cruciale per la comprensione dell’universo che abitiamo. Clausius, in particolare, aveva iniziato la sua indagine, ricercando qualche principio di conservazione del calore e si era invece imbattuto in un cambiamento continuo e caratteristico nella materia; insomma, tutt’altro che una conservazione. D’altra parte, questa variazione appariva caratteristica e, se non dipendeva da una grandezza che si conserva, rispecchiava quantomeno una dinamica che si conservava, ossia indicava la presenza di una legge naturale che fino a quel punto nessuno aveva descritto. Clausius aveva notato che una variazione di temperatura e una trasformazione dell’energia meccanica in calore si accompagnano sistematicamente a un’asimmetria, tale per cui la natura procede sempre a senso unico. Ad esempio, è sempre il corpo caldo che scalda quello freddo e mai viceversa. Analogamente, tutto il lavoro può trasformarsi in calore, ma non è vero l’inverso. Il tedesco decise così di riflettere i mutamenti spontanei e asimmetrici della natura nell’aumento sistematico di una certa variabile di stato che decise di chiamare entropia e che significa letteralmente “dentro il cambiamento”. Egli espresse precisamente le variazioni di questa grandezza nei termini del calore che entra o esce da un sistema che si trovi a una particolare temperatura. Non entreremo qui nei dettagli, ma l’importante è considerare che l’entropia cresce ogni qualvolta in un sistema avvenga un trasferimento di energia spontaneo, cioè irreversibile, e diminuisce se questo richiede invece una forzatura esterna. Un aumento tipicamente spontaneo è appunto il transito calorico da un corpo caldo a uno freddo. Una forzatura che provoca una diminuzione locale di entropia è quella relativa al funzionamento di un frigorifero. Rudolf Clausius (1822-1888) a sinistra e William Thomson (1824-1907), cioè Lord Kelvin. http://www.matematycy.interklasa.pl/images/matematycy/clausius.jpg http://phys.strath.ac.uk/images/history/Kelvin-1000.jpg Per esempio, quando mescoliamo acqua calda e fredda in una vasca, ottenendo spontaneamente un liquido tiepido l’entropia aumenta. L’energia fluisce dalle zone più calde a quelle più fredde, ma non può successivamente procedere a ritroso, separando il caldo dal freddo. Eppure, il flusso di energia può essere forzato in loco. È quello che succede in un frigorifero: l’energia viene costretta a fluire da oggetti freddi all’ambiente a maggior temperatura. Qui abbiamo allora una diminuzione locale di entropia, ma non è una variazione spontanea; in altre parole, il sistema è condizionato dall’esterno. L’entropia non ha dunque a che vedere solo con un’aggiunta o una sottrazione di energia, ma anche con la sua ridistribuzione interna. Il trasferimento di energia da una parte a un’altra di un sistema (nella forma di calore) ne muta l’assetto. Quando la distribuzione è statisticamente uniforme si ha la massima entropia per il sistema contenente quell’energia che allora non si sposta più dallo stato raggiunto. Clausius e Kelvin non si erano focalizzati sulla statistica dei movimenti energetici interni di un sistema, tuttavia avevano compreso che il modo in cui si spostava il calore giocasse un ruolo centrale nella faccenda. ! "# # ∆ L’energia fluisce irreversibilmente da dove ce n’è di più (sistema a sinistra rosso) a dove ce n’è di meno (sistema blu), in maniera simile a quanto succede a un liquido che scorra per vasi comunicanti. Il salto di energia potenziale ∆ indicato in figura (dovuto al campo gravitazionale) viene infine annullato e si ha l’equilibrio. L’entropia è nella fisica classica un indice di consumo irreversibile di energia potenziale e quindi all’equilibrio finale corrisponde un’entropia più elevata della condizione iniziale. Tuttavia, è in termodinamica che questa grandezza la fa da padrona, legandosi al calore che è una forma di energia in transito. L’aumento di entropia è una storica e cruciale interpretazione del “secondo principio della termodinamica” in virtù del quale il calore passa sempre dal corpo più caldo a quello più freddo. Ciò è perfettamente in sintonia con quanto si diceva prima: l’energia ha la tendenza a trasferirsi da dove ce n’è di più (corpo caldo) a dove ce n’è di meno (corpo freddo). Nella figura l’equilibrio finale dei vasi comunicanti, usati come modello di comprensione, riflette l’equilibrio termico dei due corpi che raggiungono un’unica temperatura intermedia. L’energia cessa di spostarsi (fluttuazioni statistiche a parte). (Grafica dell’autore). Si può dire che l’entropia del mondo aumenti costantemente. È una caratteristica di fondo di Madre Natura. Come può allora aversi un flusso di energia localmente invertito, tale, ad esempio, da separare una zona di fluido calda da una fredda in un sistema inizialmente a un’unica temperatura? In effetti, è questa la condizione retta da un frigorifero o un condizionatore. Tutto dipende da come si guardano le cose. In effetti, un’entropia locale in diminuzione non è possibile per alcun sistema isolato. È però possibile per un sistema non isolato, proprio perché in tal caso si produce una forzatura dall’esterno. In altre parole, una diminuzione di entropia è senz’altro possibile, ma a scapito di una maggiore produzione di entropia altrove. Così, un sistema isolato e articolato in più parti può anche presentare componenti che subiscano una diminuzione di entropia, ma allora deve aversi per altre componenti un aumento entropico tale da compensare e superare quella diminuzione. " ∆ ∆ Forzatura: un processo ne sospinge un altro, contro la direzione naturale. Un sistema a mulinello viene azionato dal flusso del sistema di sinistra. Il mulinello è collegato con una pompa che agisce sul sistema di destra: viene compiuto un lavoro (il lavoro, come il calore, è energia in transito) contro la gravità. Il sistema forzato subisce una diminuzione entropica, anziché un aumento, come avverrebbe se fosse isolato. L’entropia a sinistra aumenta però di più di quanto non diminuisca quella a destra. Così, il sistema complessivo subisce comunque un aumento di entropia. Se così non fosse il fenomeno non potrebbe prodursi. In un sistema fisico come quello idraulico mostrato, l’entropia è legata all’energia potenziale. Nella fattispecie, è necessario che l’energia potenziale disponibile a sinistra sia superiore a quella disponibile a destra (∆ %∆ ); in caso contrario è il sistema di destra a forzare quello di sinistra. Grafica dell’autore. Qualunque corpo viene attirato verso il basso, ma se un bambino pesante e uno leggero sono ai capi di un’altalena a fulcro, quest’ultimo verrà inesorabilmente sospinto verso l’alto. E la dinamica dell’altalena è irreversibile. Se infatti vediamo in un filmato il bambino più pesante salire e quello più leggero scendere, capiamo che la ripresa scorre alla rovescia. Per l’entropia che diminuisce è la stessa cosa: essa è indice della presenza di un’altra entropia collegata che aumenta in maggior misura. Possiamo dire in un certo senso che un frigorifero corrisponde a una particolare disposizione della materia (attraverso la tecnologia), atta ad ottenere uno scorrimento dell’energia localmente contrario al suo verso naturale. Non si tratta di un’eccezione, ma semplicemente di un assetto dinamico tra i tanti possibili. Il mondo continua imperterrito a scaldarsi, come attesta il calore prodotto dietro all’elettrodomestico. Con le formule che legavano l’energia totale, il calore e il lavoro Kelvin e Clausius fecero entrare la termodinamica in una fase più matura. La legge entropica, nota anche come secondo principio della termodinamica, impediva che tutto il calore prelevato da una sorgente potesse trasformarsi in lavoro, così come impediva che un corpo freddo scaldasse un corpo più caldo (in un sistema isolato). Da notare che il secondo principio fu formulato prima della legge di conservazione dell’energia (che in termodinamica si chiama “primo principio”). Tuttavia, come si accennava, Kelvin e Clausius non entrarono nei dettagli del comportamento della materia e non seppero spiegare l’asimmetria della natura che la legge entropica così bene descriveva. Kelvin e Clausius avevano descritto quel che succedeva all’energia mediante potenti formule matematiche che vertevano sul sistema termodinamico preso nel suo $ insieme, cioè visto dal macrocosmo. Il tedesco e l’inglese non avevano però idea del perché tutto ciò succedesse, ovvero del perché l’energia dovesse sempre scorrere secondo modalità globalmente irreversibili. ∆ ' ( ( ) * Il calore è la forma più degradata di energia: esso corrisponde a un flusso di particelle microscopiche che si muovono scorrelate, cioè in modo caotico (conduzione e convezione; poi c’è l’irraggiamento che viaggia con onde elettromagnetiche). Il lavoro è invece una forma coerente di energia in transito, dato che è costituita da un flusso di particelle che procedono con ordine, quasi come una “truppa”. La natura energetica di calore e lavoro è dunque qualitativamente diversa se osservata nel microcosmo. Il potenziale ∆ contenuto nel salto iniziale tra i livelli dei vasi non può trasformarsi tutto in lavoro. Una parte è inesorabilmente e irreversibilmente destinata a dissiparsi nell’ambiente in forma di calore (freccia grigia). Questo perché la “truppa”, per modo di dire, non è in grado di tenere saldamente i ranghi e una parte finisce inesorabilmente per scomporsi mentre marcia. Il sollevamento del peso è un processo coerente, ma si accompagna sempre a una dispersione di alcuni soldati della “truppa”. Lo stesso vale per il calore proveniente dal corpo caldo: una parte può essere convertita in lavoro (una porzione della truppa si ordina), ma il resto deve necessariamente finire per dispersione al corpo più freddo che è tipicamente l’ambiente. Grafica dell’autore. Ludwig Boltzmann prese a cuore la questione. L’austriaco portava lenti spesse, ma ebbe una visione acuta. Egli afferrò che l’entropia nel nostro mondo grossolano non fosse altro che una conseguenza di quel che accade nella materia quando si ha un flusso di energia. Nella fattispecie, l’entropia diventava il riflesso del disordine dinamico che si manifesta mentre l’energia si disperde tra le particelle agitate del microcosmo. L’idea era che l’energia (calore e lavoro) rilevata nel macrocosmo non fosse altro che il risultato complessivo di tante energie che caratterizzavano le singole minute componenti dei sistemi termodinamici. Così, ad esempio, le molecole veloci (elevata energia cinetica) dell’acqua calda e quelle lente (bassa energia cinetica) dell’acqua fredda si urtano come biglie, finché i moti nella vasca risultano uniformemente distribuiti in senso statistico. Come dire che alla fine le energie delle particelle si sono distribuite con maggiore uniformità, disperdendosi nello spazio a disposizione, non certo relegandosi in precipue porzioni & della vasca. Facciamo insomma il bagno tra configurazioni spaziali microscopiche complessivamente più disordinate. La termodinamica diventava con Boltzmann una meccanica statistica applicata a sistemi composti di tanti parti che si possono scambiare energia e che, di fatto, la diffondono caoticamente tra di loro. In effetti, la termodinamica può oggi essere largamente intesa come lo studio dei trasferimenti di energia in complessi formati da innumerevoli parti meccaniche che non possono essere seguite una per una e devono invece essere inquadrate globalmente in senso probabilistico. ( ,( ' , , ,( ' ,( ' . , , - -, . , , Qui sopra altrettanti modi di guardare a un processo irreversibile che interessa un sistema termodinamico isolato e composto di due parti. Potremmo considerare che il sistema sia il cosmo intero. In tal caso la situazione finale contraddistinta da temperatura “tiepida” corrisponde a ciò che gli scienziati chiamano “morte termica”. È una situazione astratta ed estrapolata in cui tutta l’energia del mondo si è degradata in calore e distribuita uniformemente: il disordine universale è all’apice. Una specie di fine del tempo termodinamico. Grafica dell’autore. In effetti, la nuova formula per l’entropia messa a punto da Boltzmann considerava la probabilità dei vari stati microscopici che un sistema può assumere. Per intenderci, ogni complesso termodinamico, essendo formato da tante molecole o atomi che possono traslare o ruotare in vario modo e con varie velocità, ha un certo numero di gradi di libertà interni, sfruttando i quali esso può assumere una serie di configurazioni o, come si dice, di “complessioni”. Per ogni data energia disponibile tra le particelle sono compatibili diverse complessioni. A lungo andare tutte le complessioni possibili vengono raggiunte, così come a furia di gettare un dado tutte le facce vengono sorteggiate. Presa singolarmente, ciascuna complessione ha la stessa probabilità di presentarsi. Ma questo non toglie che il sistema presenterà a livello macroscopico delle distribuzioni complessive più frequenti e altre più rare. In linea del tutto generale, maggiori sono i modi con cui un sistema può raggiungere un certo stato globale più quest’ultimo sarà ricorrente. + Per capire meglio l’approccio di Boltzmann supponiamo di avere un contenitore che divideremo idealmente in due comparti, ad esempio la metà destra e sinistra. Supponiamo che in esso fluttuino due sole molecole di un gas. Queste ultime possono accumularsi tutte in uno scomparto o tutte nell’altro; si tratta di due alternative. Le molecole possono poi collocarsi una nella metà di destra e l’altra nella metà di sinistra; anche in questo caso dobbiamo distinguere due possibilità. Abbiamo in complesso due alternative di segregazione e due alternative distribuite. Ogni configurazione ha quindi una probabilità pari a 1/4 (25%) di stabilirsi. Nel complesso è ugualmente probabile che le molecole si segreghino o che si disperdano in tutto il contenitore. Con tre molecole le cose già cambiano. Chiamiamole per semplicità A, B e C. Le alternative di segregazione sono sempre due: tutte a destra o tutte a sinistra. A costo di essere pedanti, contiamo ora le possibilità distributive in entrambi gli spazi: A e B a sinistra; C a destra. A e C a sinistra; B a destra. B e C a sinistra; A a destra. Se in questa sequela invertiamo la destra con la sinistra completiamo il quadro. In totale abbiamo dunque 8 complessioni di cui 6 distribuite e 2 segregate. La probabilità che le molecole si disperdano in entrambi gli scomparti è quindi pari già a 3/4 (75%), mentre la probabilità che si accumulino tutte da una parte è uguale a solo 1/4 (25%). Un sistema di 3 molecole è ovviamente ancora qualcosa di estremamente semplice e poco realistico. Non è però il caso di continuare con i conteggi. Sebbene le nostre rappresentazioni siano ridotte all’osso, si vede subito come l’aggiunta di una sola molecola incrementi le configurazioni più distribuite. Si capisce allora che queste ultime crescono vertiginosamente col quantitativo di particelle che si agitano. Parallelamente, cala drasticamente la probabilità d’incappare in complessioni concentrate da una parte sola del contenitore. S’intuisce anche che le distribuzioni più numerose sono quelle che maggiormente si avvicinano a una ripartizione omogenea tra le due metà del contenitore. Si consideri a titolo informativo che un solo grammo di idrogeno contiene già circa 300' 000 biliardi di molecole. Qual’è dunque l’aspetto cruciale che dobbiamo sottolineare in relazione ai sistemi reali composti da un quantitativo esorbitante di particelle? Il fatto cruciale è che, sebbene ogni configurazione spaziale abbia la stessa probabilità di verificarsi di qualunque altra, le complessioni che occupano omogeneamente lo spazio a disposizione sono straordinariamente più numerose di quelle che lo riempiono in modo piuttosto eterogeneo e, a maggior ragione, di quelle che risultano concentrate in regioni parziali dello spazio. Ognuna delle n molecole di un gas ha una probabilità pari a 1/2 (50%) di comparire in una metà del contenitore. Tutte le n molecole hanno quindi una probabilità paria a 1/2 x 1/2 x 1/2 x .... = 1/2n di concentrarsi contemporaneamente in quell’emispazio. Per rendere le idee, si tratta della stessa probabilità di ottenere n volte di seguito “testa” con il lancio di una moneta bilanciata. Si capisce che la probabilità di trovare i 300' 000 biliardi di molecole di un grammo di idrogeno in una metà del contenitore diventa assai prossima al valore zero, come la probabilità di ottenere “testa” 300' 000 biliardi di volte consecutive, lanciando una monetina. / ,( ' , , ,( ' ,( ' . , , - -, . , , L’evoluzione di un sistema termodinamico verso stati di maggiore entropia corrisponde nell’ottica di Boltzmann a transizioni interne verso gruppi di complessioni statisticamente più disordinate, cioè verso condizioni globali più probabili. All’equilibrio il disordine è massimo, come massima è la probabilità che quel genere di condizione generale venga raggiunta. Nella figura qui sopra ci sono due possibilità che le 19 molecole si segreghino tutte a destra o tutte a sinistra, ma molte di più che si distribuiscano. La distribuzione può essere raggiunta in più modi della segregazione ed è per questo che è più frequente nelle fluttuazioni del sistema. Il discorso è qui semplificato, anche perché per “complessione” non bisogna intendere semplicemente una distribuzione spaziale delle particelle, ma piuttosto una distribuzione delle energie che le riguardano e che implicano quindi anche le loro velocità di spostamento o di rotazione su vari assi. Questa precisazione nulla toglie comunque al principio generale qui illustrato. Grafica dell’autore. Non insisteremo qui con i numeri. Quanto esposto basta a capire di quale genere fossero i ragionamenti dai quali prese spunto Boltzmann per inquadrare l’entropia in termini probabilistici. Per Boltzmann il secondo principio non era una legge puntuale di natura, del tipo di quelle di Newton, ma un fatto probabilistico che diventa sostanzialmente certo, in virtù della straordinaria quantità di elementi che sono aleatoriamente coinvolti nei processi reali. L’equilibrio dei sistemi compositi inteso su base molecolare come una condizione dinamica statisticamente omogenea si prestava a fornire un’ottima spiegazione dei fenomeni termodinamici, facendo tra l’altro una grande economia di concetti. Boltzmann interpretò così l’entropia come una semplice conseguenza su larga scala del fatto che le configurazioni energetiche molecolari più frequenti fossero quelle che maggiormente sfruttano lo spazio disponibile. L’aumento dell’entropia doveva dunque rispecchiare l’evoluzione irreversibile verso stati microscopici sempre più disordinati e probabili e cioè verso stati che permettono alle molecole e ai relativi moti di occupare lo spazio in più modi diversi, compatibilmente con i vincoli esterni e l’energia disponibile. 0 Per Boltzmann l’entropia doveva dunque potersi ricondurre all’incremento delle probabilità di distribuzione. In altre parole, egli pensò di esprimere l’entropia in funzione del numero di complessioni microscopiche accessibili. Le sue ingegnose argomentazioni lo condussero alla formulazione di una relazione matematica che rappresentò un notevolissimo ponte intellettuale tra il vecchio punto di vista macroscopico di Clausius e Kelvin e le considerazioni attorno al mondo microscopico delle particelle di materia. Questa relazione è un colosso concettuale, un elemento matematico irrinunciabile nell’ambito di una genuina comprensione scientifica dell’universo in cui esistiamo. Anche senza entrare in maggiori dettagli dell’analisi statistica dell’entropia, si può intuire quale traguardo costituì l’interpretazione termodinamica di Boltzmann nella comprensione dell’evoluzione della materia che, in ultima istanza, non è altro che evoluzione dell’energia. Purtroppo, la sua formula venne scritta prima che l’esistenza degli atomi fosse realmente avvalorata. Gli scienziati erano inoltre poco inclini all’evoluzionismo, come testimoniò il caso di Darwin che dovette fare i conti con polemiche durissime. Infine, l’ottica probabilistica mal si conciliava col determinismo imperante nelle università. Tutto ciò fu di enorme ostacolo a Boltzmann, sia in termini operativi che psicologici. Il suo impegno e la sua visione originale e acuta delle trasformazioni termodinamiche gli portarono onori e aule colme, ma l’accanita opposizione dei colleghi finì per logorare un animo sensibile e già ferito dalla perdita di un figlio. Il 5/10/1906, durante una vacanza in Italia, Boltzmann s’impiccò. Accadde poco prima che il suo lavoro venisse sperimentalmente verificato. Chi va oggi al cimitero centrale di Vienna può vedere incisa sulla lapide della sua tomba la formula dell’entropia; una relazione matematica elegante e carica di un significato universale, un’equazione che vale più di mille parole sopra i resti di un uomo che aveva mille volte ragione. 1 Ritratto di Ludwig Boltzmann (Vienna 1844 – Duino 1906). http://www.bezirksmuseum.at/Landstrasse/data/media/1739.jpg Scorcio sulla tomba di Boltzmann al Zentralfriedhof di Vienna. Si osserva la formula ch’egli aveva elaborato per l’entropia, la grandezza termodinamica introdotta a suo tempo da Clausius. L’intuizione di Boltzmann, sfociata poi in quella relazione universale, è un pilastro della scienza. http://upload.wikimedia.org/wikipedia/commons/6/63/Zentralfriedhof_Vienna_-_Boltzmann.JPG Roberto Weitnauer