L`AFFINITA` CHIMICA un percorso storico
Transcript
L`AFFINITA` CHIMICA un percorso storico
1 L’AFFINITA’ CHIMICA un percorso storico Definire e comprendere la reattività è stato il passaggio centrale nello sviluppo della chimica, perché ha costituito, in qualche modo, l’aspetto chimico del quesito esistenziale cui le Scienze, istituzionalmente, devono dare una risposta, spiegando e prevedendo come, quando e perché si verifichino i diversi fenomeni naturali. Nel caso della chimica, occorre soprattutto, spiegare perché alcune sostanze hanno la capacità di interagire tra di loro, mentre altre non lo fanno e di chiarire perché alcune reazioni decorrono fino a completa conversione dei reagenti nei prodotti, mentre altre sembrano arrestarsi prima di completarsi, in quella condizione che è definita stato di equilibrio. Il primo tentativo di chiarire il concetto di reattività fu , ovviamente, di natura speculativa : tutti i popoli primitivi, ed i Greci in particolare, avevano una visione antropomorfa della Natura e cercavano di spiegarne i fenomeni sulla base dei comportamenti degli uomini o degli animali. Così, nel IV secolo a.C. IPPOCRATE di Coos (ca 460-ca 377a.C.), fondatore della omonima scuola medica, formulò l’ipotesi che ciascuna sostanza reagisse soltanto con quelle sostanze con le quali avesse un legame di parentela o affinità, e non con le altre. L’affinità era considerata una proprietà intrinseca delle sostanze, che le legava a coppie, che perciò non poteva essere prevista, ma soltanto osservata sperimentalmente. Empedocle riteneva che gli oggetti materiali si originassero dall’azione dell’amore che unisce gli elementi e dell’odio che li separa. Gli alchimisti avevano cercato di codificare le cause delle trasformazioni, formulando massime quali il simile attrae il simile e il simile scioglie il simile; ammettere che le sostanze provassero simpatie o antipatie le inquadrava in una prospettiva magica , di corrispondenza tra il macrocosmo e il microcosmo. Il termine affinità fu ripreso più tardi, con lo stesso significato, negli scritti di Alberto Magno. Nella Summa Perfectionis Magisterii, attribuita a GEBER, è riportata per la prima volta una classificazione dei metalli allora conosciuti (stagno, ferro, rame, piombo, argento, oro) in serie di affinità nei confronti di zolfo, mercurio e aria, sulla base della loro reattività con queste sostanze. GIROLAMO FRACASTORO (1483-1553), medico, astronomo e poeta, riteneva che alla base delle reazioni chimiche ci fosse una simpatia e un’antipatia tra le varie sostanze.Tutta la chimica del ‘600, e in parte quella del ‘700, era pervasa dal concetto che l’affinità fosse una proprietà intrinseca delle sostanze e che tutti i corpi avessero una predisposizione innata gli uni verso gli altri. FRANCESCOBACONE(1561-1626), nel Silva Silvarum (1626), riteneva che ogni corpo avesse una percezione degli altri corpi: quando esso si avvicinava o si poneva in relazione con un altro corpo, si aveva una specie di elezione, che accoglieva di esso solo quello che era confacente ed escludeva ciò che era importuno. Glauber giustificava la formazione del burro di antimonio (SbCl3) ammettendo che lo spirito (cioè la parte volatile, il cloruro) del sublimato corrosivo (HgCl2) preferiva l’antimonio e quindi abbandonava il mercurio per legarsi allo zolfo di antimonio (Sb2S3). Per Becher e Stahl le sostanze reagivano in maniera differente, in base all’analogia e affinità tra i loro costituenti e l’entità di questa reazione dipendeva dal grado di similitudine delle loro proprietà interne e dalla loro maggiore o minore compenetrazione. [Vil, 111]. Tuttavia, con il nascere e consolidarsi del metodo scientifico, queste spiegazioni apparivano sempre più come un retaggio dell’antico occultismo, che Newton aveva cercato di superare : nella prefazione dei Principia, avanzò l’ipotesi - seppure in forma dubitativa che i corpi microscopici fossero soggetti alle stesse forze che governano i corpi macroscopici, chiedendosi se queste potessero essere utilizzate per spiegare il com- 2 portamento delle sostanze chimiche. Egli sollecitava i chimici a partire dalla osservazione dei fenomeni e concentrarsi sulle forze che li causano, per formulare poi le leggi che le regolano [Lev, 45]. Così, mentre i chimici sperimentali si sforzavano di misurare, o almeno quantificare qualitativamente, le forze di affinità , i teorici cercavano nelle forme delle particelle (meccanicisti) o nelle loro reciproche attrazioni (newtoniani) le cause del comportamento chimico. I meccanicisti, come Lémery e GORGE LOUIS LECLERC DE BUFFON (1707-1788), attribuivano la reattività degli acidi nei confronti di basi e metalli alle dimensioni e, soprattutto, alla forma delle particelle. Nell’introduzione al XIII volume della sua Histoire naturelle (1765), Buffon attribuisce la specificità della reattività chimica alla forma delle particelle, che è ininfluente nell’attrazione tra i corpi macroscopici (pianeti), ma nella scala delle particelle elementari non può più essere trascurata. Sotto l’influenza egemonica della fisica newtoniana, i chimici abbandonarono ogni ipotesi sulla forma delle particelle, per porsi il problema di confrontare le forze chimiche con quella di attrazione gravitazionale, per verificare se esistesse qualche relazione tra di esse. Il tentativo di inglobare la reattività chimica nel quadro più ampio delle gravitazione universale, mise però in evidenza il carattere selettivo dell’azione chimica, contrapposta all’universalità dell’attrazione gravitazionale. I due fenomeni furono perciò distinti anche nei termini usati: attrazione definiva la forza che tiene assieme le particelle nei solidi e nei liquidi, mentre affinità era usata per descrivere le unioni chimiche, perché le sostanze chimiche, come gli esseri umani, sono capricciose e non si legano a qualunque altra sostanza. Per svincolarsi definitivamente dalla fisica newtoniana , i chimici negarono persino ogni relazione tra affinità e massa o accelerazione, ritenendo che essa agisse per contatto e non a distanza e fosse solo attrattiva, spiegando i fenomeni chimici repulsivi con la combinazione delle sostanze con un corpo materiale, fluido e imponderabile [Vil, 112]. Anche PIERRE-JOSEPH MACQUER(1718-1784) accettò la spiegazione newtoniana dell’affinità come proprietà essenziale della materia: nel 1766, alle voci Affinité e Pesanteur del suo Dictionnaire de Chymie affermò che gli effetti prodotti dalle proprietà attrattive della materia vanno esaminate dal punto di vista chimico, valutando i rapporti reciproci tra le diverse sostanze. Nell’articolo enunciava le leggi che regolano le interazioni chimiche: 1) l’affinità di aggregazione, di tipo fisico, che si realizza tra particelle omogenee, è opposta alla affinità di composizione, più propriamente chimica , che si realizza tra le particelle eterogenee, e l’una e l’altra sono inversamente proporzionali. 2) ogni corpo può avere facilità a combinarsi con ogni altro corpo. 3) questa facilità non dipende soltanto dal grado di affinità tra i reagenti, ma anche dalla forza dell’aderenza che li tiene uniti. L’affermazione contenuta nel punto 1, come abbiamo visto, condizionerà pesantemente il futuro della chimica : particelle identiche, e quindi dello stesso elemento, possono solo aggregarsi, ma non combinarsi chimicamente. Questo sarà il presupposto dell’ipotesi atomica di Dalton , il quale negherà la possibilità di formare molecole biatomiche. Abbattere questo preconcetto impegnerà i chimici per tutta la prima metà dell’ottocento.ANTOINE FRANÇOIS DE FOURCROY (1755-1809) riteneva che la forza di attrazione agisse sia sui corpi macroscopici che su quelli microscopici, ma con leggi diverse in funzione del volume, della massa e della distanza dei corpi tra cui si esercita ; per esempio, la forza chimica si esercita sui corpi piccolissimi e per contatto. Anche per lui le sostanze omogenee potevano solo aggregarsi, quelle eterogenee combinarsi. Boscovich (1785) cercò di razionalizzare la differenza tra affinità e attrazione sulla base della distanza tra i corpi coinvolti: l’attrazione gravitazionale agisce a distanza, in maniera 3 uniforme e indipendente dalle proprietà specifiche dei corpi, mentre le forze chimiche agiscono soltanto se i corpi vengono a contatto e, soprattutto, possono essere attrattive o repulsive, in funzione della loro distanza. E’ importante sottolineare come, nella sua concezione, la natura di queste forze spiegasse, non solo la reattività chimica , ma anche la complessa struttura dei corpi, che risultava da un equilibrio di attrazioni e repulsioni tra le particelle [Ben, 66]. Le diverse concezioni di newtoniani e meccanicisti portarono a diversi atteggiamenti anche nei confronti del possibile sviluppo della chimica : mentre infatti Boscovich considerava chimerica la possibilità di chiarire le strutture dei corpi, Buffon era certo che i suoi nipoti sarebbero stati in grado di prevedere il decorrere delle reazioni, come Newton aveva previsto la posizione dei corpi celesti. Per questo riteneva che la chimica non sarebbe diventata una scienza compiuta fino a quando le tabelle di affinità che si andavano compilando su base empirica non fossero state interpretate e giustificate da una legge generale. Misura delle affinità Il grande compito dei chimici del XVIII secolo fu quello di definire e quantificare la forza di affinità , per trasformare in leggi matematiche le varie tabelle di affinità , proprio come Keplero e Newton avevano trasformato in leggi matematiche le numerose tabelle di osservazioni astronomiche accumulate, senza alcun criterio ordinatore, nel corso dei secoli [Ben, 66]. In campo chimico questo lavoro sperimentale era stato iniziato da tempo e indirizzato allo studio delle reazioni di sostituzione, molte delle quali erano già note e non avevano mancato di affascinare i chimici. Per esempio, l’osservazione sperimentale che un chiodo di ferro si scioglie in una soluzione di solfato di rame, mentre si deposita il rame, era stata spiegata, attribuendo al ferro un’affinità per l’acido solforico maggiore di quella del rame. Ripetendo il confronto per diverse coppie di sali, si erano potute compilare diverse tabelle di affinità anche se spesso i risultati si mostravano inconsistenti ed il tentativo di prevedere in quale direzione si sarebbe evoluta una reazione di doppia decomposizione si rivelava più difficile del previsto. L’unica cosa chiara era che, in questo caso, la legge della gravitazione universale era assolutamente inappropriata. Un risultato immediato di questo lavoro sperimentale fu la creazione delle tabelle di affinità , che rappresentarono il tentativo di inglobare tutte le possibili reazioni entro il limiti dei costituenti dei composti chimici. Lo scopo non era soltanto quello di fornire una sintesi dei dati e una chiave per conoscere le reazioni, ma anche quello di prevedere reazioni che non erano state ancora osservate. Perciò, le tabelle avevano un ruolo sia descrittivo che di previsione, e potevano essere usate sia come strumento di rapida consultazione, per la descrizione e la classificazione delle reazioni osservate, che come strumento per realizzare nuove scoperte. [Lev, 45]. La prima ricerca sistematica sugli ordini di affinità fu stata condotta da ETIENNE FRANÇOIS GEOFFROY il vecchio (1672-1731), che, a partire dal 1699 aveva frequentato l’Accademia di Parigi come allievo di Homberg, e ne era diventato poi membro associato, oltre che membro straniero della Royal Society [Lev, 46]. Nel 1718 presentò all’accademia una Table des différents rapports observés entre différentes substances, nella quale le differenti sostanze erano disposte in colonne, secondo un ordine di affinità decrescente, stabilita sperimentalmente, nei confronti della sostanza riportata in testa alla colonna. Esse erano compilate con criterio qualitativo, come suggerito da Newton nella Query 31 dell’Opticks: la sostanza posta in cima alla colonna era seguita da tutte quelle con cui essa poteva combinarsi, secondo un ordine, determinato dalla loro attrazione per la prima sostanza. Se due sostanze sono già combinate, una terza può combinarsi con una di esse e 4 costringere l’altra a lasciare il composto, se ha, per quella con cui si lega , un’affinità maggiore di quella che ne esce, oppure non è capace di congiungersi a nessuna delle due, se ha scarsa affinità per entrambe: nel reagire con la sostanza in cima alla colonna, ogni sostanza spiazza tutte quelle che la seguono o è spiazzata da quelle che la precedono nella graduatoria [Ben, 54]. Nel concetto di sostituzione , era implicita l’assunzione che le reazioni avvenivano attraverso processi di associazione e dissociazione. Non è possibile sopravvalutare l’importanza innovativa dei concetti espressi da Geoffroy nel compilare la sua tavola: mentre prima la reattività era attribuita a una caratteristica individuale di ciascuna sostanza (simpatia o affinità ), nella tabella sono confrontati i diversi rapporti, quindi essa è espressa in termini relazionali. Per questo la scala non era assoluta, ma relativa, e la successione delle sostanze cambiava al cambiare della sostanza di riferimento [Ben, 55; Lev, 46]. Geoffroy evitò accuratamente di menzionare l’attrazione gravitazionale, ma si limitò a mettere in evidenza il carattere selettivo delle combinazioni chimiche, che dipende dalla relazioni tra le sostanze, le quali hanno gradi differenti e obbediscono a leggi proprie. Le reazioni di sostituzione mettevano in evidenza questo carattere selettivo, perché, in una miscela di sostanze, ciascuna reagiva sempre con una, a preferenza delle altre [Lev, 46].Come si è detto, l’idea di classificare le sostanze secondo l’ordine della loro tendenza a reagire non era affatto nuova ; l’originalità di Geoffroy non stava soltanto nell’aver rifiutato l’attrazione di Newton e il concetto di affinità insita nelle sostanze di Stahl. Essa risiedeva piuttosto nella potenziale universalità delle tabelle di rapporti e nel loro potere predittivo: poiché, sebbene incomplete, già consentivano di fare qualche previsione attendibile, era chiaro che, quando sarebbero state rese complete e universali, si sarebbero potute dedurre da esse tutte le reazioni possibili e immaginabili [Lev, 47]. Nonostante l’Eloge de Geoffroy, letto all’Accademia nel 1731 dal segretario BERNARD LE BOVIER DE FONTENELLE (1657-1757), le tavole dei rapporti non ebbero successo immediato: solo nella seconda metà del secolo ripresero gli sforzi per migliorarle e integrarle con nuovi dati sperimentali e, seguendo il suggerimento di Buffon, di dotarle di basi quantitative.Nel 1776, Guyton de Morveau tentò di misurare l’attrazione chimica , senza ricorrere alle reazioni di sostituzione, che potevano fornire soltanto una misura relativa. Pose delle piastre metalliche su un bagno di mercurio, e cercò di misurare la forza meccanica necessaria per separare ciascuna di esse dal mercurio.CARL FRIEDRICH WENZEL (1740-1793), professore di chimica nella fabbrica di porcellane di Meissen, cercò nella velocità della reazione la base numerica quantitativa al concetto di affinità [Ben, 68]. Studiò i fattori che influenzano l’andamento delle reazioni chimiche, come la forma delle particelle, la massa dei reagenti e la velocità: partendo dall’assunto che l’affinità dei corpi verso un dato solvente fosse inversamente proporzionale al tempo necessario a scioglierlo. Nella sua lezione sulle affinità chimiche dei corpi (Lehre von der chemischen Affinität der Körpen, 1777), riporta i risultati delle sue osservazioni sulla velocità con la quale i metalli si sciolgono nei differenti acidi, determinando la perdita in peso di cilindri metallici tenuti per un’ora in un bagno acido. A conferma dei risultati di Bergman, notò che, per ciascun metallo, la velocità di dissoluzione non dipendeva soltanto dal tipo di acido, ma anche dalla sua quantità. Il chimico irlandese RICHARD KIRWAN (1733-1812), riteneva invece di poter misurare le affinità di un acido per gli alcali, determinando la quantità in peso delle diverse basi che neutralizzano la stessa quantità di acido. I dati da lui raccolti servirono come punto di partenza per formulare il concetto di equivalente chimico, ma non portarono nessun contributo alla misura delle affinità . Questi tentativi testimoniano chiaramente la confusione che regnava tra il concetto di rapporto quantitativo di combinazione e tendenza a reagire, che sarebbe stata esasperata da Berthollet. 5 Le affinità elettive Un’enorme mole di lavoro sperimentale fu effettuata da Bergman, professore di chimica ad Uppsala, che studiò migliaia di reazioni chimiche. Tra il 1775 ed il 1783 pubblicò diverse tabelle, di concezione simile a quelle di Geoffroy, costituite da 49 colonne (27 per gli acidi, 8 per gli alcali, 14 per i metalli e altro) e discriminanti, come suggerito da Baumé nel 1772, tra reazioni per via umida (attrazione in soluzione) e per via secca (attrazione nella fusione) [Ben, 69]. Sebbene ciò costituisse un passo in avanti rispetto a Geoffroy, che non considerava né la temperatura né la concentrazione dei reattivi, Bergman, che pure attribuiva grande importanza alle condizioni di reazione, e in particolare alla temperatura, si limitò a considerarne due, quella ambiente e quella elevata, e non prese in considerazione la quantità dei reattivi [Sol, 117]. Nel 1775 pubblicò il trattato De Attractionibus Electivis Disquisitio, nel quale considerava le combinazioni chimiche come il risultato di affinità elettive che si stabiliscono tra le sostanze reagenti e che dipendono esclusivamente dalla loro natura. Definì anche un metodo obiettivo e generale per la valutazione delle diverse affinità : se la sostanza C è in grado di interagire con AB per formare AC e liberare B dal composto originario, la sostanza C ha per A un’affinità maggiore di B. Il criterio delle affinità elettive fu accettato dai contemporanei cui permise di razionalizzare le conoscenze sulle reazioni chimiche. Bergman riteneva che le proprietà chimiche non fossero un attributo intrinseco di ciascuna sostanza, ma dipendessero dalle relazioni che si instauravano tra di esse; così le loro proprietà non potevano essere definite in senso assoluto, ma come risultato delle conoscenze sperimentali dell’insieme delle relazioni con gli altri corpi. La reazione chimica passa da strumento di sintesi o di analisi a fenomeno centrale nello sviluppo della chimica. Per questo motivo, Bergman ne studiò moltissime, notando però che, molto spesso, la reazione di scambio non giungeva a completamento, in accordo con l’osservazione fatta da Boyle che, per completare certe reazioni, era necessario usare quantità dei reattivi molto maggiori di quelle prevedibili sulla base della composizione stechiometrica dei prodotti. Bergman non diede alcuna spiegazione, contentandosi di avere individuato nelle affinità elettive la causa del decorrere delle reazioni. Tuttavia, perché l’ulteriore osservazione che, in dipendenza della quantità di reattivi disponibili, la reazione può procedere in una direzione o in quella opposta non mettesse in crisi il presupposto che stava alla base della compilazione delle tabelle, fu costretto a moltiplicare le distinzioni tra le affinità autenticamente chimiche e i fattori fisici che impedivano alle sostituzioni di completarsi. Anche Lavoisier riteneva che il progresso della chimica dipendeva dallo studio dell’affinità, intesa come capacità delle sostanze di reagire in modo specifico e selettivo. Insieme a Laplace progettò una serie di esperimenti per quantificare ed esprimere numericamente la forza dell’affinità e nel 1783 pubblicò una tabella di affinità dell’ossigeno per differenti sostanze, sottolineando la necessità che le reazioni fossero condotte a temperatura costante, visto che l’affinità dipende dalla temperatura [Sol, 117]. Nel 1786, nell’Encyclopedié Métodique, alla voce Chymie, viene pubblicato il capitolo Affinité nel quale de Morveau passa in rassegna le teorie dell’affinità chimica sviluppate nel XVI e XVII secolo. Ribadisce i concetti già espressi da Macquer, definendo quattro specie fondamentali di affinità : affinità dello stato di aggregazione, che agisce solo su particelle di una stessa specie; affinità di combinazione, che unisce sostanze diverse in nuove sostanze omogenee; affinità di distribuzione, che deriva dal cambiamento di composizione di una delle sostanze che si vuol far reagire, per dare un composto che non si sarebbe potuto ottenere senza tale cambiamento; affinità di azione combinata, o doppia affinità , che si ha quando nella reazione intervengono quattro o più sostanze. Dai tentativi 6 precedenti di riunire i fenomeni di affinità in un unico sistema, per ricavare un certo numero di leggi, egli astrae cinque leggi di affinità : 1) l’affinità si manifesta solo tra le minutissime molecole che costituiscono una sostanza; 2) l’eccesso di una delle due sostanze modifica la loro affinità ; 3) affinché l’affinità di combinazione possa essere effettiva, è necessario che superi l’affinità dello stato di aggregazione; 4) come risultato dell’azione dell’affinità di combinazione, si ottiene una sostanza con caratteristiche sue proprie, differenti da quelle delle sostanze di partenza; 5) esistono condizioni di temperatura alle quali l’azione dell’affinità si accelera o si rallenta, si annulla o, al contrario, si rafforza. Come si vede al punto due, solo in caso di forte eccesso la quantità dei reattivi ha effetto sull’affinità ; negli altri casi, la massa non è presa in considerazione, almeno per il momento. Il punto quattro attribuisce all’affinità le differenze tra le proprietà del prodotto e quelle dei reagenti, mentre al punto cinque, per la prima volta, si rinuncia al concetto di affinità come proprietà intrinseca di ciascuna sostanza, e si ammette che cessa possa variare anche in funzione delle condizioni sperimentali. Azione di massa. Sebbene i suoi risultati abbiano avuto poca risonanza tra i contemporanei, l’opera di Bergman era nota a CLAUDE LOUIS BERTHOLLET (1748-1822), il quale razionalizzò le anomalie notate da Bergman e altri, trasformandole in leggi e giungendo alla conclusione che le forze attrattive non potessero spiegare la distinzione tra miscuglio e composto e che questa distinzione, semplicemente, non esistesse [Ben, 70]. Pur accettando la teoria delle affinità elettive, riteneva che essa non fosse il solo fattore che determina il decorso delle reazioni chimiche, e che, piuttosto che limitarsi al piano empirico della descrizione dei fenomeni, i chimici dovessero sforzarsi di pervenire ad una teoria generale delle trasformazioni. Durante la Rivoluzione francese, impegnato nella sorveglianza della produzione della polvere da cannone, aveva cercato di standardizzare il processo di estrazione del salnitro. Assistendo alle fasi di lavaggio del minerale appena estratto, si era reso conto che esso è più efficace se la roccia viene lavata diverse volte, ogni volta con acqua fresca. Probabilmente questo fatto era già stato notato da molti operai, ma Berthollet lo tradusse in linguaggio scientifico: la tendenza di un corpo a combinarsi con un altro diminuisce proporzionalmente al grado di combinazione già raggiunto (1795). In questo modo, la tendenza a reagire non era più considerata esclusivamente come una proprietà intrinseca delle sostanze, ma una funzione della concentrazione dei reagenti. Va notato che il processo di dissoluzione è considerato una vera e propria reazione chimica . Divenuto, dopo la Rivoluzione, uno dei consiglieri più ascoltati di Napoleone, lo seguì nella campagna d’Egitto (1798-1799) dove, come riportato nella memoria Observations sur le natron, ebbe modo di osservare che lungo le rive di certi laghi ipersalini, situati in un bacino pluviale prosciugato, a un centinaio di chilometri ad ovest del Cairo, si formavano cospicui depositi di un minerale chiamato trona, costituito da carbonato di sodio. Questi depositi si trovavano in formazioni calcaree, alternate a zone a prevalente carattere argilloso, ricche di sale e prive di carbonato di sodio. Berthollet dedusse che, nelle zone calcaree, in presenza di calore e umidità, il cloruro di sodio decomponeva il carbonato di 7 calcio, per dare incrostazioni di trona, che seccava e solidificava in superficie, mentre il cloruro di calcio, essendo deliquescente, assorbiva acqua e si infiltrava nel terreno. L’aspetto più significativo della scoperta di Berthollet era che, in questo particolare ambiente di reazione, avveniva spontaneamente una reazione opposta a quella che si verifica in laboratorio, dove carbonato di sodio e cloruro di calcio reagiscono per dare carbonato di calcio e cloruro di sodio. Poichè nelle acque di quei laghi era presente una grande quantità di cloruro di sodio, giunse alla conclusione che un’eccessiva quantità di un prodotto di reazione potesse contrastare così efficacemente le affinità elettive dei reagenti da impedirne la trasformazione. A conferma di ciò, egli riuscì a decomporre (cioè a solubilizzare) due sali estremamente insolubili come carbonato di calcio e solfato di bario (formati quindi da sostanze che hanno un’elevata affinità l’una per l’altra) con una quantità molto elevata di idrossido di potassio. Riportò queste osservazioni nelle Recherches sur les lois de l’affinité (1801) enell’Essai de statique chimique (1803), traendo la radicale conclusione che il decorrere di una reazione chimica non dipende soltanto dalla forza di affinità dei reagenti, ma anche dalla loro massa, la quale può integrare l’effetto di un’affinità troppo debole. L’affinità è soltanto uno tra i fattori che intervengono nelle reazioni chimiche; Berthollet aggiunse ad essa la massa (o quantità) dei reagenti, la temperatura, la solubilità, la pressione e lo stato fisico. Tutti questi fattori contribuiscono a determinare l’entità delle forze in gioco tra i reagenti, fino a farle variare in maniera significativa: per questo, le reazioni non hanno una loro direzione naturale, ma risultano da un complesso sistema di interazioni tra forze contrapposte. Queste interazioni cessano quando vengono saturate le affinità dei reagenti e dei prodotti: la situazione finale che si realizza nel corso normale di una reazione è una condizione di equilibrio, considerata di tipo statico. Perciò, il completamento di una reazione non costituisce la regola, ma un’anomalia, che si verifica quando uno dei prodotti si allontana dal sistema, o perché è volatile o perché precipita: la sola peculiarità dell’affinità è quella di una forza di attrazione che non può essere manipolata direttamente dal chimico. La forza con la quale una sostanza si combina con un’altra non dipende soltanto dalla loro affinità o soltanto dalla loro massa, ma dalla combinazione di questi due fattori, detta massa chimica o massa effettiva, un concetto piuttosto complesso e oscuro, che in qualche modo può essere considerato il prodotto dell’affinità per la quantità. L’intuizione geniale di Berthollet che l’entità del procedere di certe reazioni chimiche dipenda dalla quantità dei reattivi e che esse possano arrestarsi per l’instaurarsi di un equilibrio rimase senza seguito per oltre 50 anni. A suo sfavore giocò probabilmente il fatto che egli estese indebitamente la teoria fino ad affermare che, al variare della quantità dei reagenti, non solo varia la quantità dei prodotti che si formano nel corso di una reazione, ma anche la loro composizione percentuale, che risulta perciò compresa tra due estremi a composizione definita: dal limite al quale la combinazione comincia a essere possibile, fino ad arrivare al limite estremo al quale viene raggiunto l’ultimo gradino possibile[Sol, 124]. Così, il composto chimico non ha una identità stabilita, ma è una miscela particolare la cui composizione dipende dalle condizioni nelle quali è stato prodotto. In realtà, Berthollet sapeva e accettava che esistono svariate sostanze che sembrano avere una composizione definita, ma riteneva che questi fossero casi particolari, che si verificavano con una certa frequenza, perché determinati dalle condizioni sperimentali particolari nelle quali solitamente si conduce la loro sintesi; sarebbe bastato variare significativamente soltanto uno di questi parametri per ottenere un prodotto a composizione diversa. In questo modo, Berthollet sferrava un colpo all’essenza stessa della chimica come scienza sperimentale: se avesse avuto ragione, tutte le procedure che ne costituiscono il trionfo, non solo sarebbero risultati singoli casi particolari, ma non avrebbero assolto al compito che si proponevano, di razionalizzare la chimica . Il chimico, che aveva faticosamente imparato a caratterizzare 8 una sostanza dalla sua composizione, avrebbe perso il criterio con il quale generalizzava e sistematizzava le proprie osservazioni [Ben, 73]. Questa concezione coinvolse Berthollet nella ben nota disputa con Proust, che si risolse a favore di quest’ultimo, ma, come commentò Gay-Lussac, Berthollet , pur essendo in errore per quanto riguarda la composizione dei prodotti , era nel giusto nei riguardi delle reazioni, che in genere raggiungono una situazione di equilibrio che dipende dalle condizioni sperimentali. Il sogno newtoniano di scoprire delle relazioni che permettessero di spiegare nello stesso tempo i rapporti tra le particelle e le cause delle reazioni era definitivamente svanito. I due problemi presero strade diverse: il chimico poteva manipolare le reazioni in funzione della temperatura, della concentrazione e di altri parametri, ma non poteva manipolare i rapporti di combinazione, che perciò garantivano l’identità della sostanza chimica . Resta il rammarico che, insieme alla teoria della composizione variabile, i chimici del tempo abbiano, in generale, rigettato le idee di Berthollet sull’equilibrio chimico. Questa nozione non interessò nessuno per decenni, perché la reazione chimica era tornata ad essere considerata uno strumento e non un fenomeno in sé, degno di essere studiato ; per di più, l’interesse pratico dell’industria era rivolto soltanto al fatto che le reazioni chimiche andassero a completamento. Nonostante tutto ciò, dell’importanza dell’azione di massa nelle reazioni chimiche erano ben consapevoli illustri chimici come Gay-Lussac, allievo di Berthollet, e Berzelius, anche perché essa era suffragata da sempre nuove evidenze sperimentali. Nel 1842 HEINRICHSE (1795-1864) mostrò che, nonostante l’elevata affinità dei metalli alcalino terrosi per il solfuro, una grande quantità di acqua poteva invertire il decorso della reazione, decomponendo i solfuri in questione per dare idrogeno solforato e l’idrossido corrispondente. Nel 1855 JOHN HALL GLADSTONE(1827-1902), studiando la reazione tra ioni ferrici e tiocianato, mostrò che l’intensità del colore rosso che si formava variava in funzione della quantità sia dell’uno che dell’altro reagente. Affinità e elettricità All’inizio dell’ottocento erano state formulate due differenti teorie sulle cause dell’elettrolisi: la prima era la teoria del contatto, di stampo fisico, elaborata da Volta , secondo la quale l’elettricità erogata dalla pila si generava semplicemente dal contatto tra i due metalli dissimili, e la soluzione che li separava serviva soltanto ad assicurare la chiusura del circuito. Questo non spiegava la formazione di nuove sostanze agli elettrodi, per cui i chimici formularono l’ipotesi che fosse invece la decomposizione chimica a generare l’elettricità. Davy cercò di conciliare le due teorie, che riteneva scorrette: il contatto tra i metalli li caricava elettricamente, causando il loro potere di azione, che alterava l’equilibrio chimico delle sostanze disciolte e generava un’azione permanente nella pila. La causa iniziale del potere d’azione era l’affinità chimica , che si manifestava nell’unione di particelle aventi stato elettrico opposto [Vil, 132]. Per Davy l’elettricità e l’affinità chimica erano manifestazioni di un’unica forza: l’azione chimica generava l’elettricità nella pila di Volta, mentre l’elettricità poteva produrre una decomposizione chimica [Kni, 75]. Egli riteneva che l’affinità fosse impensabile senza che una sostanza cedesse elettricità e l’altra l’acquistasse; di conseguenza, poiché l’energia elettrica dei corpi può essere misurata, e siccome essa corrisponde alla loro attrazione chimica , anche le leggi dell’affinità possono essere formulate matematicamente [Sol, 183]. Quando Berzelius, sulla scia delle ipotesi di Davy, formulò la teoria del dualismo elettrochimico, la pila cessò di essere un semplice strumento di indagine, per diventare principio interpretativo e l’elettricità fu vista come la causa primaria dell’azione chimica , 9 la realizzazione del sogno newtoniano. L’intensità della carica elettrica determinava la forza di combinazione degli elementi, il loro grado di affinità . Sulla semplice base di due forze era possibile mettere a punto la scala delle elettronegatività degli elementi, uno strumento per effettuare previsioni sulle reazioni chimiche [Ben, 110]: la tendenza a reagire era tanto maggiore quanto maggiore era la distanza tra due sostanze nella scala [Sol, 183]. Tutte le interazioni chimiche erano considerate da Berzelius come una conseguenza delle interazioni elettriche tra le cariche opposte delle diverse particelle e quindi l’elettricità era condizionata dalla differente intensità polare [Vil, 133]. Sembrava in questo modo che l’elettricità potesse risolvere il mistero dell’affinità che Lavoisier non aveva osato affrontare: grazie alla teoria dualistica , l’affinità era ora ben integrata nello schema della combinazione chimica . L’approccio elettrochimico aveva cercato di risolvere il problema della natura dell’affinità , ma l’impossibilità sperimentale, a quei tempi, di eseguire misure quantitative dell’elettricità nascosta nelle sostanze scoraggiò i chimici. Coulomb aveva dimostrato che la forza di attrazione tra due cariche elettriche diminuiva all’aumentare del quadrato delle distanze, proprio come la forza di gravità, ma Faraday aveva dimostrato che la distanza non aveva alcun effetto nel processo di scarica delle sostanze sugli elettrodi. Inoltre, se la stabilità di un composto fosse dipesa dalla forza di attrazione tra le cariche dei suoi componenti, l’elettricità necessaria per scaricare, per esempio, il sodio avrebbe dovuto variare da composto a composto, in funzione della loro stabilità. Invece, con leggi dell’elettrolisi, Faraday aveva dimostrato che la quantità di elettricità necessaria a decomporre la stessa quantità di sodio era la stessa, qualunque fosse stato il composto di partenza [Cob, 219]. Con la crisi della teoria dualistica, per la sua incompatibilità con certe reazioni organiche, la via elettrochimica alla determinazione dell’affinità cedette il passo alle tecniche termochimiche [Vil, 131]. La misura delle forze. Poiché era ormai noto che la maggior parte delle reazioni era accompagnata da emissione o assorbimento di calore, fu formulata l’ipotesi che la quantità del calore messa in gioco potesse essere correlata alle forze chimiche che determinano il decorso della reazione. La possibilità di misurare l’entità del calore liberato nel corso di una reazione fu consentita dall’uso delle tecniche di una nuova branca della chimica , la termochimica , nei primi anni dell’800 in rapido sviluppo. Le sue fondamenta erano state poste da Lavoisier e PIERRESIMONE DE Laplace (1749-1827), che compresero chiaramente l’importanza dei fenomeni termici nelle reazioni chimiche. Misero a punto un calorimetro ad acqua, con il quale dimostrarono che il calorico, a differenza del flogisto, può essere misurato, determinarono i calori specifici, latenti e di combustione di molte sostanze, e dimostrarono che il calore sviluppato in una reazione è eguale a quello assorbito nella reazione inversa, enunciando così la prima legge termochimica [Vil, 130]. Nel 1840, GERMAIN HENRI HESS (1802-1850), a San Pietroburgo, dimostrò che, in una data reazione, è coinvolta sempre la stessa quantità di calore, sia che la reazione si completi in un unico stadio, sia che risulti dalla somma di due o più stadi consecutivi. Formulata questa legge fondamentale della termochimica, espresse a Berzelius la propria convinzione che il calore così liberato desse la misura delle affinità . [Sol,360], perché era in stretta relazione con le forze chimiche distrutte durante la reazione[Vil, 130]. Due anni dopo, il fisico tedesco ROBERT MAYER (1814-1878) dimostrò che la legge di Hess, che stabilisce la conservazione del calore, era una forma più limitata della legge della conservazione dell’energia, da lui stesso enunciata. Proprio lo studio e la determinazione dei calori di reazione permise di acquisire una tecnica per la determinazione indiretta delle forze chimiche, auspicata fin dai tempi di Newton. 10 Ingenerale, per misurare una forza, sono disponibili due metodi: il primo,statico, consiste nell’opporre ad essa una forza di valore noto, fino ad una situazione di equilibrio, come quando si determina il peso di un oggetto, misurando l’estensione della molla cui esso è appeso. Il secondo, dinamico, consiste nel valutare l’entità del lavoro che può essere effettuato dalla forza da misurare. Già a metà dell’800, il lavoro compiuto da una forza poteva essere agevolmente misurato per via calorimetrica, perché, negli anni ’40, il fisico inglese JAMES PRESCOTT JOULE (1818-1889), sulla base delle sue precise determinazioni, dimostrò che il lavoro può essere convertito completamente in calore, che calore e lavoro possono essere convertiti l’uno nell’altro e che il calore non è una sostanza, ponendo così le basi del concetto di equivalente meccanico del calore (1845). In quegli stessi anni si era sviluppata la consapevolezza che l’energia elettrica poteva essere convertita in energia termica, a sua volta consumata in reazioni chimiche,o produrre luce, che a sua volta poteva determinare reazioni chimiche, come in fotografia [Ben, 219]. Le forze chimiche non si prestano ad una misura statica ma, essendo accompagnate da scambi di calore, possono essere determinate con metodo dinamico. Tra l’altro, in quegli anni, Favre aveva osservato che ogni acido sviluppa sempre la stessa quantità di calore reagendo con quantità equivalenti di base; aveva così definito gli equivalenti calorifici delle sostanze e ne aveva determinato i valori. Noti questi parametri, si potevano effettuare previsioni sul decorso delle reazioni, perché si era potuto stabilire che, tra i possibili prodotti cui potevano dar luogo due reagenti, si formavano sempre quelli accompagnati dallo sviluppo della maggiore quantità di calore. MARCELIN BERTHELOT (1827-1907) e il danese HANS PETER JÖRGEN JULIUS THOMSEN (1826-1909) sostituirono il modello statico di Berthollet, nel quale le forze attrattive giustificavano la formazione dei composti e le loro strutture, con un modello dinamico nel quale si rinunciava a ogni ipotesi sulla natura delle forze, per dare enfasi a concetti come lavoro e energia. Come la caduta dei gravi è caratterizzata dal lavoro di forze meccaniche che portano a una diminuzione di energia potenziale, che si converte in energia cinetica, così una reazione chimica deve essere definita dal lavoro delle forze chimiche e dalla diminuzione del loro potenziale, che potevano essere misurate dalla quantità di calore liberata nel corso della reazione [Ben, 219]. Thomsen evidenziò che il calore liberato durante una reazione chimica risulta dalla differenza tra il contenuto energetico delle sostanze prima della reazione e quello delle sostanze alla fine dalla reazione, e quindi dipende dall’affinità chimica dei reagenti. Per lui l’affinità era la forza che tiene insieme le parti costituenti di un composto, che deve essere vinta da una forza opposta per decomporlo; essa poteva essere misurata dal calore coinvolto nella reazione di formazione del composto, partendo da reattivi ben stabiliti. Per ogni composto, questa forza aveva un’intensità costante a temperatura costante [Sol, 361]. Berthelot espresse concetti simili, aggiungendo, nel 1865, il principio del lavoro massimo, secondo il quale un sistema evolverà, spontaneamente, cioè senza l’intervento di energia esterna, in maniera da effettuare la massima quantità di lavoro chimico e fisico. Dato che il lavoro prodotto dalle forze che agiscono durante una reazione è quello che può essere misurato dal calore liberato, solo le reazioni che decorrono con sviluppo di calore, che Berthelot chiamò esotermiche, sono spontanee: viceversa, le reazioni endotermiche, che procedono con assorbimento di calore erano costrette dall’intervento esterno del chimico che fornisce calore. Man mano che cresceva il numero delle reazioni chimiche studiate, diventava più difficile distinguere tra i processi puramente chimici (esotermici) e quelli costretti (endotermici). E, d’altro canto, diventava sempre più importante, soprattutto nel campo della sintesi chimica, ampliare la varietà delle reazioni a disposizione per ottenere qualche specifica trasformazione. Questo rendeva estremamente importante poter conoscere a priori la resa di una reazione ed i metodi per aumentare quella delle reazioni incomplete: ci si cominciò a 11 chiedere se il principio di conservazione dell’energia, che è sempre rispettato nelle reazioni chimiche, potesse aiutare a formulare previsioni sullo stato di equilibrio, cioè sulla direzione naturale delle reazioni, in funzione della loro composizione iniziale, e anche sulla concentrazione dei prodotti finali. Va tuttavia sottolineato come il principio del lavoro massimo fosse un principio statico, che non riusciva a spiegare le cause della mobilità degli equilibri chimici. Prima di esaminare in dettaglio come fu risolto questo problema, è opportuno riferire brevemente su come questo concetto, e prima ancora quello di velocità di reazione, fossero stati acquisiti. La cinetica chimica. La definizione di forza chimica integrava col modello della meccanica lo studio fenomenologico di un nuovo concetto, elaborato in quegli anni, quello di velocità di reazione, inteso come variazione delle concentrazioni dei reagenti con l’evolvere della reazione, e quindi del tempo. Intorno agli anni cinquanta, l’azione di massa era studiata, non solo per i suoi effetti sulla direzione e sul decorso di una reazione, ma anche sulla sua velocità, che cominciava ad essere quantificata. Il fattore tempo è stato preso in considerazione molto in ritardo dai chimici, e solo intorno alla metà del XIX secolo ALEXANDER WILLIAM WILLIAMSON (1824-1904) propose di passare dal punto di vista statico a quello dinamico, considerando, anche in chimica , oltre alla misura dello spazio e della massa, anche quella del tempo. Le cause di questo ritardo furono sia teoriche che sperimentali. Dal punto di vista microscopico, nessuna ipotesi poteva essere formulata sull’aspetto dinamico delle reazioni chimiche, se prima non si fosse acquisita un’idea della struttura molecolare delle sostanze e dei meccanismi delle trasformazioni. Dal punto di vista macroscopico, l’istantaneo verificarsi della maggior parte delle reazioni chimiche ritardò il formarsi della consapevolezza che tutte le reazioni richiedessero un tempo finito per completarsi [Vil, 252]. Molto più avanti, da questo punto di vista, erano gli alchimisti, che si erano posto il problema di accelerare i processi naturali di crescita e maturazione che dovevano, secondo loro, portare alla formazione dell’oro. Paradossalmente, le evidenze sperimentali portarono a formulare il meccanismo di reazione e di specie intermedia (Laurent, Kekulé, Butlerov) e di catalizzatore (Berzelius, Liebig), che non quello di velocità [Vil, 253]. Il primo a cercare un approccio matematico al problema della velocità di reazione fu, nel 1850, il chimico tedesco LUDWIG FERDINAND WILHELMY (1812-1864), che studiava la reazione di inversione del saccarosio. Quando una soluzione otticamente attiva di zucchero di canna è lasciata a sé stessa o scaldata leggermente in presenza di un acido diluito, esso si decompone in due sostanze, destrosio e levulosio. Poiché, nel corso di questa reazione, cambia la direzione di rotazione della luce polarizzata che attraversa la soluzione, questa reazione è chiamata di inversione, anche se a essere invertito non è il saccarosio. Wilhelmy potè usare un polarimetro per seguire il procedere della reazione a differenti concentrazioni di acido [Lev, 163]. Concluse così che, in presenza di un eccesso di acqua, ad ogni istante, la velocità di cambiamento della concentrazione di saccarosio, dZ/dt, era direttamente proporzionale, sia alla concentrazione Z di saccarosio che ancora non aveva subito inversione, che a quella S di acido forte aggiunta alla miscela, secondo la relazione –dC/dt = MZS, che rappresenta la prima espressione matematica utilizzata in connessione con un processo chimico. In essa M è equivalente al moderno concetto di costante cinetica, perché rappresenta la quantità media di saccarosio che ha reagito nel tempo infinitesimo dt, sotto l’azione dell’acido catalizzante, a concentrazione unitaria [Vil, 256]. Sebbene ricavata per un processo specifico, Wilhelmy riteneva che questa legge avesse validità generale, almeno per le reazioni che avvenivano in presenza di un catalizzatore e lasciò ai suoi colleghi chimici il compito di verificarlo; il suo lavoro non fu però notato dai contemporanei [Vil, 12 256], e soltanto nel1884, quando ormai la cinetica chimica era ben sviluppata, Ostwald lo rivalutò, pubblicandolo nei suoi classici [Lev, 163]. Nello stesso 1850, ALEXANDER WILLIAM WILLIAMSON (1824-1904) suggerì per primo il carattere dinamico dell’equilibrio chimico, che risulta dalla contrapposizione di due reazioni che procedono con la stessa velocità. Neanche questa ipotesi fu accolta con favore, e per alcuni anni si continuò a considerare statico l’equilibrio chimico. Nel 1862, Berthelot e L. PEAN DE Saint Gilles (1832-863) studiarono la reazione organica più nota a quel tempo, l’esterificazione dell’etanolo da parte dell’acido acetico: CH3COOH + CH3CH2OH = CH3COOCH2CH3+ H2O,esaminando l’influenza della natura e della quantità dei reagenti e delle condizioni di reazione (ambiente, temperatura, pressione, natura delle pareti del recipiente) sulla velocità [Vil, 256, Sol, 335]. Trovarono che, ad ogni istante, la velocità di formazione dell’estere è proporzionale alla massa dei reattivi ancora presenti e inversamente al volume della miscela, per cui la velocità di reazione diminuisce man mano che ci si avvicina alla situazione di equilibrio. Sebbene si fosse così dimostrato che la velocità di una reazione è proporzionale alla concentrazione dei reagenti, questa evidenza non fu generalizzata, estendendola alle altre reazioni. Essi inoltre osservarono che, quando la reazione si arresta, si ottiene una miscela di reagenti e prodotti, la cui composizione è identica a quella della miscela che si ottiene idrolizzando l’acetato di etile: CH3COOCH2CH3+ H2O = CH3COOH + CH3CH2OH La possibilità di realizzare la stessa composizione della miscela di equilibrio, sia che si parta dai reagenti, sia dai prodotti, è ancor oggi considerata condizione indispensabile e sufficiente per stabilire l’effettivo raggiungimento di uno stato di equilibrio. Essi infine poterono determinare quantitativamente l’aumento della quantità di prodotti formati, all’aumentare della quantità di reagenti impiegata. Tutti questi esperimenti costituiscono una tappa fondamentale nello sviluppo del concetto di equilibrio chimico perché convinsero la comunità scientifica ad accettare l’azione di massa come fattore determinante nel procedere di una reazione chimica . L’intento della cinetica era quello di determinare il numero di molecole che partecipano alle collisioni reattive (quello che sarà chiamato l’ordine di reazione) e di dimostrare che dietro una reazione spesso si nascondevano una serie di reazioni intermedie molto più complicate (meccanismo di reazione). Le questioni concernenti l’affinità , le forze dei reagenti, la differenza tra reazioni endotermiche ed esotermiche, la composizione del sistema all’equilibrio erano al di fuori degli scopi della teoria cinetica, che comunque ebbe il merito di riconoscere chiaramente le molecole dei chimici, al di là dei simboli con cui venivano identificate dai chimici sperimentali, come entità discrete, dal comportamento individuale, capaci di movimento e collisioni. E infine, aprì la strada ad una interpretazione termodinamica dell’equilibrio chimico, diversa da quella fornita dalla legge di azione di massa. L’equilibrio chimico Nel 1864, due professori all’università di Christiania (oggi Oslo), PETERWAAGE (18331900), chimico, e il cognato CATO MAXIMILIAN GULDBERG (1836-1902), matematico, pubblicarono in norvegese (e solo nel 1867 in francese) l’enunciato della legge generale di azione di massa, destinata a segnare una tappa fondamentale nella comprensione del fenomeno dell’equilibrio chimico. Essa aboliva ogni distinzione tra reazioni esotermiche ed endotermiche e creava una nuova analogia tra forza fisica e forza chimica, introducendo il concetto di massa attiva [Ben, 221]. Effettuate numerose determinazioni quantitative, quasi esclusivamente su sistemi eterogenei (solido - liquido), utilizzando anche i dati sperimentali di Berthelot e SaintGiles, ripresero un concetto già espresso da Berthollet, giungendo alla conclusione che le 13 reazioni avvengono per effetto di forze che agiscono sui reattivi, non a distanza infinita (come quelle newtoniane) ma solo se i reattivi si incontrano entro una particolare sfera di azione, in accordo con l’interpretazione meccanicistica delle forze di affinità, molto diffusa in quel periodo tra i chimici [Sol, 336]. Non essendo in grado di valutare le dimensioni di questa sfera, si limitarono ad eguagliarla al volume nel quale essi sono contenuti. Pertanto, la massa attiva fu definita come la massa dei reagenti per unità di volume, effettivamente presente e disponibile nell’ambiente di reazione ad un dato momento, un concetto molto prossimo a quello attuale di concentrazione. Nella sua formulazione originale, la legge di azione di massa affermava che la forza chimica che dà luogo a una reazione, a parità di altre condizioni, è direttamente proporzionale alle masse dei reattivi, ciascuna elevata ad un opportuno esponente, da determinare sperimentalmente, secondo l’equazione: F = k (A)a(B)b. Come si vede, essa aveva una struttura matematica molto simile a quelle della meccanica, risultando dal prodotto di due masse. Nei processi chimici agiscono due forze opposte, quella di azione che trasforma i reattivi in prodotti e quella di reazione che riconverte i prodotti in reagenti. La forza chimica di azione dipende dalla concentrazione dei reagenti, quella di reazione dalla concentrazione dei prodotti. In dipendenza delle variazioni di alcuni fattori, quali temperatura e massa, queste due forze variano in maniera differente, in modo che in certe condizioni predomini l’una, in altre quella opposta. E’ comunque sempre possibile trovare una condizione sperimentale nella quale esse si eguagliano, dando luogo ad una situazione di equilibrio, che comporta l’arresto, sia dell’azione, che della reazione. In questo caso, si possono eguagliare le rispettive leggi di azione di massa, ottenendo la relazione matematica: k (A)a(B)b= k’ (C)c(D)d. Contrariamente alle masse coinvolte nelle leggi della meccanica, le masse attive variano man mano che la reazione procede e raggiungono delle proporzioni relative definite l’una rispetto all’altra solo quando si è raggiunto l’equilibrio. Un’altra differenza con la meccanica è che, mentre le forze meccaniche producono accelerazioni, quelle chimiche determinano soltanto la velocità della reazione corrispondente [Ben, 231]. Sebbene formalmente identica alla legge cinetica, la legge di azione di massa rappresenta una forza e non una velocità; né pare che, almeno nella prima formulazione Guldberg e Waage abbiano messo in relazione le affinità chimiche dei reattivi con la velocità delle reazioni, nonostante fosse noto dalla fisica che la velocità è legata alla forza. Proprio per questo essa aveva il fascino di una legge meccanica e, come quelle newtoniane, la forza di una reazione era definita dal prodotto delle masse attive e l’equilibrio era raggiunto quando due forze opposte si bilanciavano. La costante k fu chiamata coefficiente di affinità , secondo un uso introdotto da ROBERT WILHELM BUNSEN (1811-1899) nel 1853, e andava determinata sperimentalmente. Contrariamente a quanto generalmente si ritiene, Guldberg e Waage non associarono gli esponenti a cui andavano elevate le masse attive ai coefficienti stechiometrici, ritenendo che dovessero essere determinati sperimentalmente di volta in volta, ma avevano correttamente intuito che, nelle reazioni che effettivamente giungono a completamento, il coefficiente di affinità della reazione diretta deve essere di alcuni ordini di grandezza superiore a quello della reazione inversa. Era infatti chiaro che, all’equilibrio, quando le forze delle reazioni diretta e inversa si cancellano a vicenda, la relazione tra le masse attive era data dal rapporto tra i coefficienti di affinità , che dipendevano soltanto dalla temperatura e dalla pressione. Purtroppo, né i coefficienti di affinità , né le forze chimiche coinvolte nelle reazioni, possono essere misurate direttamente, per cui si cercò di mettere a punto metodi indiretti per la loro valutazione: nel 1877 WILHELMOSTWALD (1853-1932), nella sua Masters Dissertation, mise in evidenza come la misura delle masse attive in un sistema all’equilibrio permetta il calcolo del rapporto tra i coefficienti di affinità (approssimativamente quella che oggi noi chiamiamo costante di equilibrio) ma, essendo primario l’interesse per il valore dei coefficienti di affinità , non si 14 prestò molta attenzione a questo aspetto. E’ chiaro comunque che la legge di azione di massa costituì la prima possibilità sperimentale di determinare quantitativamente i coefficienti di affinità dei reattivi, indispensabili per la comprensione dell’affinità chimica. L’ipotesi di Guldberg e Waage fu un grande successo per la chimica , come legge fenomenologia, ma lasciò aperta la questione della sua interpretazione. Si pose, da questo punto di vista, la possibilità di adattare la teoria cinetica alla descrizione dell’equilibrio. Il punto di vista cinetico si sviluppò in contrapposizione a quello meccanicistico perchè, nell’interpretazione cinetica suggerita nel 1857 da RUDOLF JULIUMANUEL CLAUSIUS (1822-1888) e adottata nel 1865 da JAMESCLERK MAXWELL (1831-1879), l’equilibrio non era più visto come uno stato nel quale la reazione si ferma, ma semplicemente quello nel quale le velocità di reazione sono tali che i loro effetti si compensano l’un l’altro. Il concetto centrale della cinetica è la nozione probabilistica di frequenza: se un aumento di temperatura fa aumentare la velocità con cui un sistema raggiunge l’equilibrio è perché fa aumentare anche la frequenza delle collisioni reattive. L’equilibrio allora non è altro che lo stato nel quale le collisioni reattive che determinano una certa reazione hanno, in media, la stessa frequenza di quelle che determinano la reazione inversa. L’equilibrio termodinamico. La nascita e lo sviluppo della termodinamica misero ben presto in chiaro che il semplice principio di conservazione dell’energia, sempre verificato nelle trasformazioni chimico fisiche, non poteva essere usato per prevedere quali reazioni fossero possibili e quali no. Non si può comunque negare il contributo di Berthelot e Thomsen allo sviluppo del concetto di equilibrio chimico, anche se essi sono piuttosto ricordati come i fondatori della termochimica. Nel 1867, al primo principio, che stabiliva la conservazione dell’energia, Clausius ne aggiunse un secondo, che coinvolgeva una nuova funzione, l’entropia, la grandezza più astratta definita dalla chimica fisica ottocentesca, che cancellò ogni comprensione intuitiva delle reazioni chimiche. Il secondo principio vietava quelle reazioni che, sebbene avvenissero con conservazione dell’energia, portassero ad una diminuzione dell’entropia. Lo stato di equilibrio termodinamico fu così definito come quello nel quale ogni trasformazione spontanea che avesse potuto disturbarlo avrebbe agito contro il secondo principio, e pertanto sarebbe stata impossibile [Ben, 223]. Nel 1884, il ventitreenne chimico francese PIERREDUHEM (1861-1916) presentò una tesi di laurea nella quale applicava alla chimica il secondo principio della termodinamica: in essa, non solo criticava il principio del lavoro massimo di Berthelot, ma proponeva una rappresentazione matematica delle reazioni chimiche che non prevedeva che esse scambiassero calore. La tesi fu respinta dai membri della commissione, che rimasero sconcertati dal suo contenuto, e Duhem condannato all’ostracismo scientifico. In realtà, egli aveva cercato di estendere alla chimica quella idealizzazione che Carnot e Clausius avevano usato per formulare il trattamento matematico del funzionamento della macchina a vapore. Così aveva cercato di rappresentare le reazioni chimiche come una serie di trasformazioni immaginarie, condotte in maniera reversibile ed interamente comandate dall’esterno, da uno stato di equilibrio ad un altro infinitamente vicino adesso [Ben, 223].La tesi di Duhem non fu mai resa pubblica e quindi il principio dell’equilibrio termodinamico fu attribuito all’olandese JACOB HENRICUS VAN’T HOFF (1852-1911), che probabilmente gli diede i contributi più significativi, sebbene sia ricordato piuttosto per i suoi studi sulle proprietà colligative, sulla struttura delle molecole organiche e sulla loro configurazione spaziale. Eppure fu il primo a dimostrare che l’equilibrio chimico, contrariamente a quanto generalmente si riteneva, fosse di natura dinamica, come già suggerito nel 1850 da 15 Williamson e poi da F. G. M. Malaguti e L. Pfaundler. Mentre Guldberg e Waage si erano limitati a considerare l’equilibrio come il risultato di un bilancio tra due forze contrapposte, van’t Hoff derivò in maniera indipendente la legge dell’equilibrio, prendendo in considerazione la velocità della reazione diretta e quella della reazione inversa ed assumendo che, quando esse sono eguali, il sistema perviene ad una situazione di equilibrio. Potendo giovarsi di uno strumento che la maggior parte dei ricercatori precedenti non possedeva, e cioè le leggi della termodinamica e della cinetica chimica , egli contribuì a rafforzare le basi logiche del concetto di equilibrio. Il suo trattato Studi sulla dinamica chimica , pubblicato nel 1884, è di fondamentale importanza per una chiarificazione definitiva dei concetti di affinità ed equilibrio chimico. Tracciò per primo la distinzione tra cinetica e termodinamica e mostrò che il lavoro massimo esterno, ottenuto quando una reazione è fatta avvenire reversibilmente e isotermicamente, può essere utilizzato come misura dell’affinità . Helmont aveva chiamato questo lavoro massimo energia libera. Van’t Hoff definì in maniera oggettiva l’affinità chimica , che per secoli era rimasta piuttosto elusiva, come differenza tra il lavoro massimo A che può essere ottenuto da un processo chimico e il lavoro richiesto per mantenere il sistema a volume costante. Inoltre, superò la limitazione insita nella formulazione data alla legge di azione di massa da Guldberg e Waage che, avendo concentrato la loro attenzione sull’influenza della massa, avevano tenuto costanti tutti gli altri parametri, incluse temperatura e pressione. Partendo dal secondo principio della termodinamica e considerando ciascun equilibrio come il risultato di un ciclo reversibile di operazioni van’t Hoff derivò l’equazione che porta il suo nome: d KdTqTln = 22dove con q è indicata la quantità di calore assorbito quando una quantità unitaria dei reattivi è convertita nei prodotti, senza che sia effettuato alcun lavoro esterno. L’equazione di van’t Hoff permette di prevedere le variazioni della costante di equilibrio al variare della temperatura. Applicando quest’equazione e la legge di azione di massa a numerosi sistemi omogenei o eterogenei all’equilibrio, giunse alla fine ad enunciare il principio dell’equilibrio mobile: se un sistema chimico all’equilibrio è soggetto ad una diminuzione di temperatura a volume costante, l’equilibrio si sposta verso quel sistema che si forma con emissione di calore , favorendo, delle due reazioni che si contrappongono, quella esotermica. In questo semplice enunciato, non solo è implicita la situazione inversa, ma anche la conclusione che non possono essere influenzate da variazioni di temperatura le reazioni che non coinvolgono scambi di calore: come esempio di ciò, van’t Hoff cita un fenomeno da lui attentamente studiato e per il quale è, forse, più noto. Poiché l’interconversione degli enantiomeri nella miscela racemica non avviene con scambio di calore, la parziale risoluzione della miscela non può essere realizzata semplicemente variando la temperatura. Egli mise anche in rilievo il fatto che questo principio può essere applicato a tutti i casi possibili di equilibrio sia chimico che fisico (per esempio, ai cambiamenti di stato). Nel 1898, nel trattato Lezioni di chimica fisica e teorica, estese il principio alle variazioni isoterme di volume: un aumento, a temperatura costante, della pressione causa lo spostamento dell’equilibrio nella direzione della contrazione di volume. Anche in questo caso è implicita sia la situazione inversa che il caso nel quale i due sistemi all’equilibrio (reattivi e prodotti) occupino lo stesso volume, per cui le variazioni di pressione non hanno effetto sulla posizione di equilibrio.Il maggior successo di van’t Hoff fu comunque l’aver derivato l’isoterma di reazione, che permette di calcolare il lavoro massimo per la generica reazione:a A + b B = c C + d D che è appunto eguale a : G = - RT ln Kc + ln [C]c x [D]d/ [A]a x [B] b dove C rappresenta le concentrazioni (o le pressioni parziali) delle differenti sostanze: se queste sono unitarie, la costante di equilibrio rappresenta una misura del lavoro massimo e quindi dell’affinità ad esso collegata. 16 Ma, nonostante la scarsa considerazione riscossa inizialmente dalla sua trattazione dell’equilibrio termodinamico, fu Duhem che, introducendo il concetto di potenziale chimico, diede un significato ed una impostazione puramente teorica e matematica al concetto di equilibrio mobile di van’t Hoff, alla legge di azione di massa di Guldberg e Waage e alla correlazione tra i differenti parametri (concentrazione dei reattivi, temperatura e pressione), che concorrevano alla determinazione dello stato di equilibrio. Nella Introduction to Chemical Mechanics, pubblicata a Gand nel 1893, Duhem dimostrò, in coraggiosa opposizione all’autorità di Berthelot, che tutti i principi fino a quel momento enunciati non erano altro che la conseguenza diretta di un solo principio: un sistema è in equilibrio stabile quando il suo potenziale termodinamico assume un valore minimo. Così il principio centrale della termodinamica chimica non è più il calore scambiato durante le reazioni, ma questo nuovo parametro: ogni evoluzione spontanea che tenti di spostare il sistema dalla sua posizione di potenziale termodinamico minimo violerebbe il secondo principio della termodinamica. I due approcci, quello cinetico e quello termodinamico, definirono la chimica fisica come una scienza autonoma in relazione alla meccanica fisica. In entrambi i casi, la relazione con la fisica non era riduzionista: al contrario, sia l’indagine cinetica sulle velocità di reazione, sia l’applicazione dei due principi della termodinamica ai casi più complessi avrebbe reso la chimica più ricca della Fisica, un campo nei quali i concetti della fisica sarebbero stati generalizzati. Nonostante ciò i due approcci sembravano evolvere in direzioni differenti: la cinetica, con le sue collisioni reattive, suggeriva una connessione con la Fisica, che avrebbe implicato l’accettazione della realtà degli atomi e delle molecole e attribuito loro, al di là dei fenomeni osservabili, la responsabilità delle proprietà dei corpi chimici, come pure delle modalità delle loro trasformazioni. D’altro canto, la termodinamica chimica rinforzava la dimensione positivista della chimica e la separava da ogni rappresentazione intuitiva dei fenomeni chimici e delle loro cause per renderli funzioni astratte di parametri manipolabili. L’incertezza tra queste due prospettive accomunò a quel tempo la chimica alla Fisica, per cui possiamo affermare che, alla fine del XIX secolo, esse non erano più estranee l’una all’altra, ma si trovavano ad un punto di svolta, nella definizione della loro identità [Ben, 224-5]. Negli anni tra il 1876 e il 1878, il fisico americano JOSIAH WILLARD GIBBS (1839-1903), professore di fisica matematica a Yale, aveva messo a punto un approccio all’equilibrio chimico in termini molto più generali di quanto non avesse fatto van’t Hoff, ma lo aveva pubblicato su un oscuro giornale di provincia, esprimendolo con una formulazione così astratta da rimanere sconosciuto ai più. Fu solo molti anni dopo la pubblicazione del lavoro di van’t Hoff che ci si rese conto di come tutte le conclusioni cui si era pervenuti potevano essere dedotte sulla base dei potenziali termodinamici di Gibbs. Questi aveva elaborato il concetto di energia libera, quantità le cui variazioni erano più facili da misurare di quelle dell’entropia, che teneva conto contemporanea mente del contenuto termico e dell’entropia. In questo modo, si riusciva a spiegare, utilizzando un solo parametro, anche il decorso spontaneo delle reazioni endotermiche, perché il concetto di spontaneità fu associato alle variazioni di energia libera. Poiché le reazioni spontanee procedono sempre con riduzione dell’energia libera, la spontaneità delle reazioni endotermiche poteva essere spiegata se le variazioni di entropia compensavano quelle di entalpia, fino a rendere negative quelle di energia libera. Gibbs dimostrò anche che le variazioni di energia libera dipendevano dalle concentrazioni delle sostanze costituenti il sistema, che determinavano il potenziale chimico, in modo tale chele opportune variazioni di concentrazione potevano rendere spontanea, in un caso la reazione diretta, in un altro caso quella inversa. Gibbs riuscì a dimostrare che il potenziale chimico, che rappresenta la variazione dell’energia libera al variare della concentrazione di una singola sostanza, era la forza motrice della reazione chimica . . Come il calore fluisce spontaneamente dai corpi a 17 temperatura più alta a quelli a temperatura più bassa, così le reazioni chimiche seguivano un percorso che andava da punti di elevato potenziale a quelli di potenziale più basso. Gibbs giunse quindi alla stessa conclusione di Duhem che, all’equilibrio, la somma dei potenziali chimici di tutti i componenti il sistema raggiunge il minimo. Inoltre, applicò le leggi della termodinamica agli equilibri tra fasi differenti, giungendo a formulare la regola delle fasi, che permette di stabilire quanti parametri possono essere variati in un sistema all’equilibrio. La termodinamica chimica , insieme alla cinetica, contribuì a rendere la chimica fisica autonoma dalla meccanica fisica e fornì alla chimica una interpretazione dei fenomeni chimici e delle loro cause che, ben lungi dall’essere intuitiva, li trasforma in funzioni astratte di parametri sperimentali, manipolabili dal chimico. Le Chatelier. La trattazione matematica, sebbene ineccepibile e formalmente completa, nel senso che riusciva a dare sistematicità a tutta la materia, era tuttavia piuttosto astrusa e per questo non ebbe grande diffusione, anche perché Duhem era all’indice in Francia e Gibbs pubblicava in America ed era perciò poco letto dagli scienziati europei. I chimici impegnati attivamente alla ricerca nelle industrie e nelle istituzioni, non erano ancora assuefatti al linguaggio matematico, per cui molto più successo ebbe l’approccio intuitivo all’equilibrio chimico elaborato nel 1884 dall’ingegnere minerario francese HENRY LE CHATELIER (1850-1936) che passò alla storia ed è ricordato su tutti i libri di chimica come il principale assertore della natura dinamica dell’equilibrio chimico. Nel tentativo di fornire una semplice regola qualitativa che potesse essere applicata ai problemi industriali da persone non familiari con il linguaggio matematico, davanti all’Accademia delle Scienze di Parigi, enunciò il principio che porta il suo nome: ogni sistema che si trova in equilibrio chimico stabile, quando è sottoposto all’influenza di una causa esterna che tende a variare la sua temperatura o il suo stato di condensazione (pressione, concentrazione, ecc.), in tutto il sistema o solo in una sua porzione, può subire soltanto quelle modificazioni interne che, se si producessero da sole, genererebbero una variazione di temperatura o di concentrazione di segno opposto a quella risultante dalla causa esterna. Il linguaggio piuttosto involuto ha richiesto notevoli semplificazioni da parte degli estensori dei libri di testo, per facilitarne la comprensione. Per esempio, Linus Pauling, nel suo classico testo di chimica per le scuole superiori lo riporta come: se le condizioni di un sistema, inizialmente all’equilibrio, vengono mutate, l’equilibrio si sposterà in direzione tale da cercare di ripristinare le condizioni originali, attribuendo al sistema stesso, come lo stesso Le Chatelier, la volontà e la capacità di opporsi alle sollecitazioni. Le Chatelier considerò il suo principio del tutto generale e derivato dall’estensione ai sistemi chimici del principio meccanico di azione-reazione. Per sua stessa ammissione, nel formularlo, si ispirò sia al principio dell’equilibrio mobile di van’t Hoff, che alle idee di Lippmann sulle reazioni reciproche (nelle quali cioè causa ed effetto possono essere invertite), che cercava di estendere a tutti i fenomeni la legge di Lenz sulle correnti indotte. Probabilmente a causa della sua generalità, il principio ebbe un notevole impatto sui contemporanei e la possibilità di essere applicato a svariate situazioni, specie a quelle che non sono suscettibili di trattamento matematico rigoroso (per esempio in biologia,psicologia, economia e sociologia), gli ha dato una popolarità che persiste tuttora, come si può riscontrare in molti libri di testo a tutti i livelli. E questo nonostante, già agli inizi del XX secolo, si fosse evidenziato come la formulazione data da Le Chatelier fosse vaga ed ambigua, non avesse giustificazioni teoriche e non permettesse di formulare previsioni quantitative. Inoltre , Ehrenfest dimostrò come il alcuni casi il sistema, piuttosto che opporsi alla perturbazioni , le asseconda : 18 così, nel classico esempio dell’equilibrio di formazione dell’ammoniaca gassosa a partire da azoto e idrogeno, solo se la frazione molare dell’azoto è inferiore a 0,5 una sua aggiunta sposta l’equilibrio verso l’ulteriore formazione di ammoniaca; in caso contrario, l’aggiunta di azoto sposta l’equilibrio verso sinistra, favorendo la formazione di altro azoto, a spese dell’ammoniaca. Molti chimici e fisici hanno accettato e integrato le osservazioni di Ehrenfest, ma, sorprendentemente, il loro lavoro è rimasto ignorato. Sembra quasi che molti scienziati ritengano il principio di Le Chatelier intrinsecamente vero, perché espressione di qualche legge fondamentale della natura, la cui validità non può essere messa in discussione. D’altro canto, già Aristotele, Teofrasto e lo stesso Boyle erano convinti che la natura avesse delle leggi universali e che si opponesse a tutte le infrazioni a queste leggi, reagendo ad ogni cambiamento, per ripristinare la regolarità. E’ quindi comprensibile come la popolarità di questo principio sia legata anche a questa possibile interpretazione metafisica. Per risolvere queste ambiguità, il principio andrebbe riformulato in una forma più elaborata o sostituito con un limitato numero di semplici regole, a campo di applicazione più limitato: per esempio, le equazioni di van’t Hoff affrontano una alla volta le cause di perturbazione dell’equilibrio e nello stesso tempo forniscono la base matematica e la giustificazione termodinamica per prevederne gli effetti. Conclusioni. Il concetto termodinamico di affinità che era ampiamente accettato alla fine del XIX secolo rappresentava un notevole cambiamento nel modo in cui i chimici consideravano il problema: non pensavano più all’affinità tra gli atomi, ma all’affinità per certi processi chimici e, come tutta la termodinamica, questo era un concetto statistico. La termodinamica è giunta a piena maturazione: dal concetto di lavoro massimo di Berthelot si è passati a quello di energia libera, coniato da Helmotz e ampliato da Gibbs, che GILBERT NORTON LEWIS (1875-1946) definì lavoro disponibile per l’uso. Quando un sistema, a temperatura costante, passa spontaneamente da uno stato ad un altro, il massimo lavoro utile che diventa disponibile rappresenta la diminuzione di energia libera del sistema: questa diminuzione può essere presa come una diminuzione dell’affinità del processo chimico. In realtà, Lewis fa pochissimo uso del termine affinità , per cui si può concludere che nel XX secolo l’energia libera ha sostituito l’affinità chimica come forza che causa le reazioni chimiche. Infine, per tener conto del fatto che, in generale, l’azione di massa non varia linearmente con la concentrazione, nel 1923 Lewis introdusse i concetti di attività e fugacità per sostituire, in una definizione rigorosa di equilibrio chimico, quello di concentrazione. Il concetto di attività mise in moto una serie di tentativi da parte di numerosi ricercatori, tra i quali Debye, Hückel, Onsager, Harned, di mettere a punto una teoria delle soluzioni sempre più adeguata alla realtà sperimentale e, da questo punto di vista, ha giocato lo stesso ruolo di stimolo per ulteriori ricerche che nel secolo precedente aveva avuto quello di massa attiva di Berthollet. La trattazione teorica fu estesa anche alle reazioni che hanno luogo nelle pile elettriche da WALTER HERMANN NERNST (1864-1941),che associò le caratteristiche della corrente con le variazioni di energia libera che intervengono durante la reazione chimica che produce la corrente. In conclusione, le tappe fondamentali dello sviluppo storico del concetto di equilibrio chimico sono state: 1) il riconoscimento e l’accettazione dell’influenza della quantità dei reattivi sul decorso della reazione; 2) la formulazione quantitativa di questo effetto nella legge di azione di massa; 19 3) la razionalizzazione di questo effetto per mezzo della cinetica chimica e della termodinamica; 4) il raffinamento della legge di azione di massa con l’introduzione del concetto di attività; 5) l’ampia applicazione delle leggi e dei concetti della termodinamica alle situazioni di equilibrio. [Ben] Bernadette Bensaude-Vincent e Isabelle Stengers, A History of Chemistry, Harvard University Press (1996); [Cob] Cathy Cobb, Magick, Mayhem and Mavericks, Prometheus Book, Amherst, N.Y. (2002); [Kni] David Knight, Ideas in Chemistry, Rutgers University Press, New Brun swick (1995); [Lev] Trevor Harvey Levere, Transforming Matter, The John Hopkins University Press, Baltimore, (2001); [Sol] Jurij Solov’ev, L’evoluzione del pensiero chimico dal ‘600 ai giorni nostri, Mondadori EST, Milano (1976); [Vil] Giovanni Villani, La chiave del mondo, CUEN, Napoli (2001). Letture di approfondimento M. W. Lindauer, Journal of Chemical Education, 39 (1962) 384 – 390; E. W. Lund, Journal of Chemical Education, 42 (1965) 548 – 550; R. Battino, L. E. Strong., S. E. Wood, J. of Chemical Education, 74 (1997) 304 – 305; I. K. Howard, Journal of Chemical Education, 78 (2001) 505 – 508; L. S. Bartell, Journal of Chemical Education, 78 (2001) 1052 – 1067. Roberto Zingales – Storia della chimica 2005