parte 1 del corso di laboratorio di storia.

Transcript

parte 1 del corso di laboratorio di storia.
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
DISPENSE DEL CORSO DI
LABORATORIO DI STORIA, EPISTEMOLOGIA E DIDATTICA DELLA
FISICA (LABSED)
AA. 2007/08
di M. G. Ianniello
Indice
Premessa
Modalità del corso
Parte I. Fisica classica
CAP. 1. Dalla fisica dei sensi alla termometria
§1.1. I “gradi di calore”
§1.2. I primi termometri e il problema della scala di temperatura
§1.3. Punti fissi e scale
§1.4. Alla ricerca di una temperatura assoluta
CAP. 2. Alle radici del concetto di pressione
§2.1. Il dibattito sull’esistenza del vuoto
§2.2. La nuova filosofia sperimentale
§2.3.Torricelli e l’esperienza dell’argento vivo
§2.4. Il contributo di Pascal all’affermazione della teoria della colonna d’aria
CAP. 3. La nascita della meccanica. Galileo e la caduta dei gravi
§ 3.1. La fisica pregalileana
§3.2. Cronologia minima su Galileo
§3.3. Ancora sui “gravi descendenti”
§3.4. La commedia degli equivoci
§3.5. Misurazione del tempo
§3.6. Qualche riflessione
CAP. 4. Dal calorico all’entropia
§4.1. La natura del calore
§4.2. La nascita della calorimetria
§4.3. Dal calore come sostanza al calore come moto
§4.4. Carnot e il rendimento delle “macchine a fuoco”
§4.5. Gli esperimenti di Mayer e di Joule sulla determinazione dell’equivalente del
calore
§4.6. La nascita della termodinamica
CAP. 5. I fenomeni luminosi, tra esperimento e matematizzazione
§ 5.1. Il dibattito sulla natura della luce nel Seicento: moto o materia? Presenze
scomode: diffrazione, doppia rifrazione, interferenza.
§ 5.2. Il modello newtoniano della luce.
§ 5.3. Lo stato della ricerca in ottica nel Settecento
§5.4. Un punto di vista assai poco ortodosso sull’origine dei colori: Goethe vs Newton
§ 5.5. Il modello ondulatorio. Il principio di interferenza e gli esperimenti di ottica
fisica di Young
§ 5.6. Il contesto francese
§ 5.7. La teoria della diffrazione di Fresnel
CAP. 6. Elettromagnetismo classico, dagli albori alle equazioni di Maxwell
§6.1. Cronologia sintetica sugli albori dell’elettricità
§6.2. Elettricità e magnetismo: nuove scoperte, nuove teorie
§ 6.3. La connessione tra luce e forze elettromagnetiche
1
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
§6.4. La sintesi di Maxwell dell’elettromagnetismo ottocentesco
§6.5. La teoria elettromagnetica della luce di Maxwell e il contributo di Hertz
CAP. 7. La scoperta dell’ elettrone
§7.1. Il contesto teorico e sperimentale
§7.2. J. J. Thomson e la misura di m/e
§7.3. Il contributo di Millikan alla determinazione della carica assoluta dell’elettrone
Parte II. Fisica atomica
CAP. 8. La questione dell’atomismo e l’affermazione della teoria cinetica
§8.1. La nascita della teoria cinetica
§8.2. La stima delle dimensioni delle molecole
§8.3. Altre strade per la stima delle dimensioni molecolari. L’esperimento di RayleighRöntgen
§ 8.4. L’atomismo e le molte vie sperimentali per la determinazione della costante di
Avogadro.
CAP. 9 Il moto browniano
§9.1. Perché trattare la storia del moto browniano
§9.2. Cronologia del processo di scoperta del moto browniano
§ 9.3. Contesto teorico-sperimentale. Evidenza empirica a favore dell’atomismo
§ 9.4. Le prime ricerche sul moto browniano
§ 9.5. Analisi della trattazione di Einstein sul moto browniano
§9.6. Fluttuazioni e opalescenza vicino al punto critico.
CAP. 10. La nascita della spettroscopia
§10.1. Cronologia sintetica
§10.2. Verifica sperimentale della formula di Balmer e determinazione della costante
di Rydberg R
CAP. 11. Alle radici della legge del corpo nero di Planck
§11.1. Le leggi della radiazione termica
§11.2. Tra dati sperimentali e assunzioni teoriche. Verifica della legge di StefanBoltzmann e delle leggi di Kirchhoff
§11.3. Agli esperimenti: verifica della legge di Stefan-Boltzmann
§11.4. Corpi grigi e cubo di Leslie
CAP. 12. Effetto fotoelettrico
§12.1. Cronologia essenziale
§12.2. Effetto Fotoelettrico: fenomenologia e interpretazioni teoriche
§12.3. Agli esperimenti
CAP. 13 L’atomo quantizzato di Bohr e l’esperimento di Franck ed Hertz
§13.1. L’atomo di Bohr
§13.2. Il percorso di Franck ed Hertz
§13.3. Che faceva intanto Bohr?
§13.4. All’esperimento
CAP. 14 Lo spin dell’elettrone
CAP. 15. Verso le basse temperature: la scoperta della superconduttività
§15.1. In che consiste la superconduttività
§15.2. Studio della resistenza elettrica in funzione di T
§15.3. Un’altra scoperta importante: l’effetto Meissner
§15.4. Le spiegazioni della SC
2
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
Il corso di Laboratorio di
Storia, Epistemologia e Didattica della Fisica (LabSED)
Premessa
Queste dispense presentano i principali contenuti del corso di LabSED. Si tratta,
come verrà specificato nella sezione “Modalità del corso”, in cui si espongono le
finalità, gli esiti dell’apprendimento, la metodologia didattica e le forme di
valutazione del corso, di un laboratorio di approfondimento di tematiche già
affrontate in altri corsi o di tematiche del tutto nuove che combinano attività
sperimentali con riflessioni di taglio storico ed epistemologico. L’esigenza di
raccogliere i temi trattati in una dispensa è motivata dalla mancanza di un unico
testo di riferimento. Molti esperimenti sono infatti inconsueti e non sono facilmente
reperibili in letteratura se non per brevi cenni. Le informazioni sono disseminate in
vari testi e se si trovano indicazioni specifiche su una certa procedura sperimentale,
in particolare nelle guide che accompagnano le apparecchiature didattiche, mancano
indicazioni che aiutino a ricostruire il quadro generale entro cui quella procedura è
stata messa a punto. Ma può anche accadere che un esperimento dato per scontato,
presenti all’atto pratico difficoltà sperimentali non banali ed esiti imprevisti ai quali
dovremo far fronte servendoci della fisica che conosciamo, in modo collaborativo e
attraverso discussioni fino ad arrivare a una soluzione ragionevole e condivisa.
Va premesso che lo stile espositivo è discontinuo, dal momento che queste dispense
raccolgono materiali sedimentati negli anni, scritti in momenti diversi e per esigenze
diverse. Si tratta spesso di materiali di inquadramento su vari settori della fisica che
vanno ulteriormente sviluppati dagli studenti che frequentano il corso e che in
generale richiedono di connettere diversi argomenti tra loro. Agli studenti viene
inoltre assegnato il compito di presentare, a un target di propria scelta, l’esposizione
dei temi trattati mettendosi nei panni di un buon divulgatore o più semplicemente di
un insegnante. Nelle dispense i riferimenti bibliografici, spesso alle memorie o alle
Nobel lectures degli scienziati protagonisti, orientano gli studenti verso una lettura
di prima mano delle vicende affrontate.
Tutto il laboratorio ruota intorno ai cosiddetti esperimenti storici. La scelta è
rivolta verso un esperimento particolarmente significativo nella storia della
scienza. L’esperimento viene ‘ricostruito’ rispettando senza esagerare la
disposizione sperimentale originaria e affrontato ammettendo come regola del
gioco di conoscere in una prima fase solo il contesto di idee che motivarono la sua
progettazione, senza necessariamente sapere “come è andata a finire”. Un’altra
regola da rispettare è quella di avere consapevolezza della tecnologia disponibile
all’epoca in cui l’esperimento venne realizzato, suggerendo modifiche attuabili
con la tecnologia attuale. Si passa quindi all’esecuzione dell’esperimento secondo
prassi usuali e se ne valuta l’esito alla luce delle conoscenze del tempo con un
confronto serrato con gli sviluppi attuali.
Gli esempi, come vedremo, possono essere molteplici, affrontabili a diversi livelli
e con una diversa sofisticazione degli apparati sperimentali:
3
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
dal piano inclinato di Galileo agli esperimenti sulla pressione atmosferica, dalla
scoperta dei raggi catodici alla classica e bella esperienza di Millikan della goccia
d’olio; dall’esperimento di Röntgen-Rayleigh con il film d’olio per una prima
stima grossolana delle dimensioni delle molecole, all’esperimento di Perrin sul
moto browniano e la determinazione del numero di Avogadro, e ancora alla
riproduzione in laboratorio dell’esperienza di Smoluchowski sul blu del cielo; dai
primi esperimenti di Kirchhoff e Bunsen sullo spettro alla fiamma di alcuni
composti, alla determinazione della costante di Rydberg con la lampada di
Balmer, all’effetto fotoelettrico, all’esperimento sui potenziali critici di Franck ed
Hertz, e così via.
Questa particolare strategia consente:
1. di mettere insieme l’attività sperimentale e la componente storica ed
epistemologica, con la possibilità di creare sinergie tra i due approcci del tutto
naturali e consequenziali; per altro, molti degli obiettivi e delle abilità collegati
all’attività
sperimentale
restano
inalterati
indipendentemente
dalla
contestualizzazione storica di un dato esperimento: la storia fornisce tuttavia,
come attività di problem posing, un valore aggiunto all’esperimento, spesso visto
nella pratica didattica nella sua veste riduttiva di sola attività di problem solving;
2. di costringere gli studenti ad approfondire in modo concreto le condizioni al
contorno che hanno motivato la realizzazione di un dato esperimento;
3. di sollecitare gli studenti a proporre un layout sperimentale quanto più possibile
fedele all’originale, a suggerire modifiche servendosi della tecnologia attuale (per
esempio, anche con misure on line) senza snaturare la procedura dell’esperimento,
a criticare l’apparecchiatura proposta dal docente ed eventualmente già fornita
dalle ditte costruttrici, a rilevare e a elaborare i dati sperimentali in modo sensato
con il grado di precisione richiesto dalla particolare misurazione in oggetto;
4. di analizzare il ruolo dell’esperimento rispetto alla rete di assunzioni teoriche
ammissibili all’epoca della sua esecuzione;
5. di dare al futuro docente l’opportunità di “fare ricerca”, alla luce delle memorie
originali.
A condizione che
“I materiali storici possono essere utili, se non indispensabili, supposto che -e
questa è la loro maggior qualificazione- siano usati per insegnare la scienza e non
la storia.” (J. Heilbron)
Modalità del corso
Finalità. Il corso è finalizzato all’approfondimento di conoscenze specifiche
connesse alla pratica sperimentale, al contesto tecnologico, alle tecniche di
misurazione dell’evento in studio, al rapporto teoria-esperimento ma anche
all’accettazione dei risultati di un esperimento e al ruolo che esso ha rivestito,
storicamente e nella didattica. Il corso affronta inoltre, in merito ai temi trattati, i
problemi della comunicazione multimediale della cultura fisica.
Esiti dell’apprendimento: saper inserire un “esperimento storico” nel giusto
contesto, saper valutare i processi di crescita della fisica, sia rispetto alle
problematiche teoriche e sperimentali che motivarono la realizzazione
dell’esperimento in esame, sia rispetto agli sviluppi moderni. Conoscenza dei
principali strumenti multimediali impiegati nella divulgazione della fisica;
padronanza delle principali tecniche multimediali; capacità di valutare in senso
4
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
critico un prodotto multimediale (rigore scientifico, correttezza storiografica,
usabilità, ecc.).
Programma del corso. Il corso è rivolto all’analisi di quegli esperimenti che nella
storia della fisica hanno avuto rilievo nel proporre nuove idee o nuove procedure
sperimentali e che hanno rappresentato un punto di confronto tra concezioni
antagoniste. In particolare vengono analizzati gli esperimenti legati alle grandi
svolte concettuali della fisica sia classica sia quantistica (per es., attraverso i
contributi di Galileo, Torricelli, Oersted, Faraday o nel passaggio dall’ “atomistica”
alla nuova fisica quantistica, dal modello di Bohr-Sommerfeld all’ introduzione
dell’idea di spin). I contenuti del corso riguardano inoltre le nuove forme di
comunicazione multimediale applicate alla divulgazione della fisica a diversi livelli,
dalla scuola di base all’università all’educazione permanente, e in diversi contesti
(musei, science center, ecc.). Da un’analisi critica di ciò che attualmente viene
offerto, nell’ambito della fisica come scienza sperimentale, in internet, nell’editoria,
nei media (per es., CD-rom, Web e ipertesti, applet, laboratori virtuali, animazioni
ma anche documentari scientifici, filmati, enciclopedie) si discutono le principali
tecniche multimediali.
Metodologia didattica e valutazione. Il corso si articola in lezioni di
approfondimento (cosiddette frontali) e in attività di laboratorio (conduzione di
esperimenti particolarmente significativi e ricchi di problematiche, anche con
misure on line, o simulati al computer). Il corso prevede attività seminariali e
alterna a discussioni mirate, applicazioni sul campo (per es., ricerche in internet,
valutazioni critiche di documentari, filmati, articoli di taglio giornalistico, visite
virtuali a musei e science center ma anche prove in itinere dove lo studente mette
alla prova le sue abilità di divulgatore).
Procedure di valutazione: viene richiesta l’elaborazione di un “case history” relativo
a un esperimento e/o un progetto o una semplice realizzazione multimediale sul
tema affrontato (per es. un breve modulo ipertestuale, una animazione, un articolo di
divulgazione).
Materiale Didattico: dispense, memorie originali, articoli di taglio storiografico e/o
didattico. Apparecchiature di laboratorio relative a “esperimenti storici”. Siti
internet dedicati. Prodotti multimediali reperibili in commercio, letteratura
specialistica.
Programma di massima (il programma include anche argomenti che verranno
trattati nel corso di Preparazione di Esperienze Didattiche, rispetto ai quali si
prevedono lezioni e attività a classi riunite con i matematici)
1. L’esperimento di Galileo del piano inclinato. La genesi del concetto di pressione
atmosferica; gli esperimenti di Torricelli, di Pascal-Auzout, di Guericke, di Boyle.
Evoluzione della tecnica del vuoto. La nuova teoria dei colori di Newton. La
scoperta della diffrazione. La scoperta della birifrangenza. Gli esperimenti di
Young e Fresnel e il superamento della teoria corpuscolare newtoniana.
Esperimento di Oersted. Gli esperimenti di Faraday sull’induzione
elettromagnetica. La mutua convertibilità delle “power naturali”, determinazione
5
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
dell’equivalente meccanico della caloria e apertura verso il primo principio della
termodinamica. Scarica elettrica in un gas a bassa pressione: la scoperta dei raggi
catodici. Tubo di Perrin e polarità negativa di un fascetto di elettroni. Esperienza di
J.J. Thomson sulla determinazione di e/m. Esperienza della goccia d’olio di
Millikan e determinazione della carica specifica dell’elettrone. Determinazione
della velocità della luce, da Galileo all’elettronica moderna.
2. Stima delle dimensioni degli atomi: bolle di sapone e tensione superficiale;
esperimento di Röntgen-Rayleigh; determinazione del numero di Loschmidt. Moto
browniano: verifica della legge di Einstein e determinazione del numero di
Avogadro. Principio di fluttuazione e simulazione in laboratorio del blu del cielo.
Alle radici della legge del corpo nero: verifica delle leggi di Stefan-Boltzmann e di
Kirchhoff. Bunsen e Kirchhoff e la nascita della spettroscopia: prova alla fiamma e
osservazione di spettri; spettri di emissione e di assorbimento. Determinazione della
costante di Rydberg con la lampada a idrogeno di Balmer e confronto con il
modello di atomo quantizzato di Bohr. Effetto Hallwachs. Effetto fotoelettrico e
determinazione sperimentale di h. Effetto Compton. Esperimento di Franck ed
Hertz sui potenziali critici dell’elio. Effetto Zeeman, esperimento di Stern e
Gerlach, esperimenti ESR. Esperimento sull’effetto Meissner-Ochsenfeld.
Parte I. Fisica classica
CAP. 1 DALLA FISICA DEI SENSI ALLA TERMOMETRIA
§1.1. I “gradi di calore”
Ci occupiamo nel seguito dei fenomeni legati alle sensazioni di ‘caldo’ e di
‘freddo’ e dell’evoluzione storica che porta dall’unico concetto indistinto di calore
o fuoco, alla sua diversificazione, da un lato, nel concetto di temperatura come
grandezza intensiva che caratterizza le proprietà locali di un corpo; dall’altro, nel
concetto di calore come grandezza estensiva e come quantità di energia scambiata
tra due sistemi in interazione termica. Questo processo di diversificazione
prenderà avvio nel Seicento, quando si inizierà a parlare di “intensità di calore”
distinta dalla “quantità di calore” e si completerà solo a metà Settecento quando si
stabiliranno le prime definizioni operative dei due concetti, rispettivamente in
termometria e in calorimetria. Si tratta dunque di una evoluzione in cui la nascita
dei concetti fondamentali in fisica macroscopica sarà strettamente legata alla base
empirica e alla possibilità di costruire strumenti, sia pure in una prima fase
qualitativi, in grado di rivelare i cambiamenti delle grandezze in studio, di operare
confronti, di definire eventuali stati di riferimento.
Dal punto di vista storico, il concetto-madre di calore è legato in primo luogo alle
percezioni sensoriali, ed in secondo a interi sistemi conoscitivi, o stili di pensiero,
prevalenti in un dato periodo. L’inizio della nostra storia riguarderà perciò la
trattazione qualitativa dei fenomeni nell’ambito di una ‘fisica dei sensi’,
fortemente condizionata dalle dottrine dominanti. E come sempre partiremo
dall’antichità classica, perché è qui che affondano le radici della scienza
occidentale.
6
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
Con Empedocle (490-430 circa), si ammette l’esistenza di quattro elementi
immutabili della materia: il fuoco, l’aria, l’acqua e la terra. Ai quattro elementi
fondamentali, con Aristotele (384-322) si aggiungono le quattro qualità primariecaldo, freddo, umido e secco- che mescolate per dicotomie, in base alla dottrina
aristotelica degli opposti, danno luogo ai quattro elementi. Dalle combinazioni
delle qualità primarie discendono le varie spiegazioni non solo in fisica (vari stati
di aggregazione della materia e passaggi di stato, esistenza delle diverse sostanze,
dilatazione e compressione, combustione, interpretazione delle “meteore”, ovvero
dei mutamenti del tempo, e così via), ma anche in campo medico.
Le prime scale sensoriali qualitative, per le sensazioni di caldo e di freddo, si
avranno proprio in ambito medico dove la temperatura corporea normale di un
uomo in buona salute verrà implicitamente assunta come ‘grado di calore di
riferimento’. Oggi sappiamo che per misurare la temperatura, e quindi poter
descrivere lo stato termico di un corpo, occorre una scala metrica basata: sul
principio zero della termodinamica (due corpi con stati termici diversi se posti a
contatto raggiungono uno stato termico di equilibrio); sulla dilatazione termica di
opportune sostanze che consenta una misura indiretta di T (o, come è noto, su altre
proprietà quali il comportamento di gas mantenuti a volume costante, sulla
resistività di materiali conduttori, sulla differenza di potenziale tra le giunzioni di
una termocoppia, ecc.); su una scala, per esempio decimale; sui punti fissi, per
esempio, a pressione ordinaria, 0°C per una miscela acqua-ghiaccio e 100°C per
acqua-vapore poiché nei passaggi di fase la temperatura si mantiene costante.
Queste prescrizioni sperimentali, che oggi sembrano scontate, avranno tuttavia
bisogno di un lunghissimo arco di tempo per essere riconosciute e applicate in
modo corretto.
Galeno di Pergamo (129-200), sembra essere il primo ad assegnare quattro gradi
di freddo e quattro gradi di caldo, così come ad introdurre la prima nozione di
punto fisso nella pratica medica. I punti fissi corrispondono alle due sostanze
ritenute la più fredda (ghiaccio) e la più calda (acqua bollente). Galeno introduce
anche un “punto neutro”, corrispondente a una miscela in parti uguali di ghiaccio
e acqua bollente.
E’ interessante notare come in medicina si introducano scale sensoriali di caldofreddo (cioè le prime scale di temperatura), prima ancora di avere strumenti di
misura. Vengono inoltre proposte delle regole empiriche, assai bizzarre per noi
oggi, per definire il “grado naturale” di temperatura di una persona sana. Per
esempio, in De logistica medica, una specie di prontuario medico compilato da
Johannes Hasler di Berna, del 1578, una di queste regole fa corrispondere al
“grado normale di calore” la somma dell’ età del soggetto, di un numero associato
alla stagione e alla latitudine, e di altre numerologie che tengano conto di
possibili influenze contingenti.
I parametri presi in considerazione sembrano sensati, inclusa la latitudine dal
momento che era noto che la temperatura corporea ai tropici è maggiore della
temperatura corporea a latitudini più alte. Con criteri analoghi si definiva una
“scala medica universale”, valida per qualsiasi abitante della Terra con otto gradi
di calore e otto di freddo. Questa consuetudine influenzerà le prime scale
termometriche che avranno otto gradi.
Un altro settore che condizionerà la suddivisione in gradi delle scale sarà quello
meteorologico, legato alle condizioni del tempo e alle varie attività stagionali,
7
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
soprattutto agricole. Una scala in uso nel Seicento, con scansione di quattro gradi,
porterà per esempio, accanto alla numerazione, le diciture1:
0°, frigus vehementissimus; 4°, frigus ingens; 8°, aer frigidus;12°, temperatus;
16°, calidus; 20°, calor ingens ; 24°, Aestus intolerabilis.
§1.2. I primi termometri e il problema della scala di temperatura
I primi strumenti qualitativi usati per indicare i “gradi di calore”, venivano
comunemente detti termoscopi. Più correttamente bisognerebbe chiamare questi
strumenti ‘termobaroscopi’ dal momento che essi rispondono non solo a
variazioni di temperatura ma anche di pressione. Sono da considerarsi comunque
gli strumenti prototipo da cui deriveranno sia i termometri che i barometri.
Il termoscopio ad aria, insieme alle bilance, è tra gli strumenti più antichi che la
storia ricordi: è costituito da una piccola ampolla di vetro dal collo lungo e sottile;
il dispositivo viene riscaldato e poi capovolto con il collo che pesca in un
recipiente pieno d’acqua.
R. Fludd, Meteorologica cosmica, Frankfurt, 1626. A destra, taratura di un termoscopio ad aria,
da Middleton, cit. p. 53.
In queste condizioni, man mano che il termoscopio si raffredda l’acqua sale nel
collo dell’ampolla (il volume dell’aria nell’ampolla si riduce; se il termoscopio
viene di nuovo riscaldato, per es. al Sole, l’aria si dilata e l’acqua scende di
livello). Lo strumento è sensibile anche alle variazioni di pressione atmosferica
ma gli antichi sperimentatori, benché usassero lo strumento per avere indicazioni
sulle variazioni del tempo (e perciò come un baroscopio) non potevano esserne
consapevoli perché, semplicemente, non possedevano il concetto di pressione
atmosferica.
Già Filone di Bisanzio (II sec. A.C.) utilizzava il principio del termoscopio nei
suoi “esperimenti pneumatici” così come Erone d’Alessandria (I sec. d. C.), il più
illustre rappresentante della scienza meccanica ellenistica. Nel periodo
alessandrino era diffuso l’uso di ideare dispositivi meccanici, costituiti da sifoni,
valvole, ruote dentate, che sfruttavano l’energia dell’aria compressa o riscaldata, o
quella del vapore d’acqua bollente o, più in generale, i fenomeni nei quali si
producono variazioni di pressione.
1
Cfr. W. E. K. Middleton, A history of the thermometer, The John Hopkins press, Baltimore, 1966,
p. 74.
8
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
Quest’uso venne ripreso nel Rinascimento e in età barocca nella progettazione di
fontane, orologi, automi o più in generale di macchine motrici da impiegarsi nelle
attività più varie, in coincidenza della pubblicazione della Pneumatica di Erone in
latino, nel 1575, e, nel 1589, in italiano con il titolo Gli artificiosi et curiosi moti
spiritali. G. Della Porta, lo stesso Galileo, Salomon De Caus2 e molti altri
‘ingegneri’ rinascimentali e barocchi conoscevano gli esperimenti di Erone.
Così il termoscopio venne di nuovo studiato con varianti sperimentali più o meno
importanti: l’acqua fu sostituita con liquidi colorati per evidenziarne il livello3 e
soprattutto venne introdotta, già intorno al 1610, la scala. Il termoscopio divenne
così un termometro ad aria.
Non è chiaro chi per primo abbia inventato il termometro (questioni di priorità
sono eventi frequenti nella storia della scienza). I candidati più probabili sono
quattro: gli italiani Galileo (1564-1642) e Sanctorius (1561-1636), l’olandese
Cornelius Drebbel (1572-??) e il gallese Robert Fludd (1574-1637).
2
3
9
S. De Caus, Les raisons des forces mouvantes, 1615.
G. Biancani, Sphaera mundi, 1617.
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
A favore di Galileo è schierato il suo biografo, Vincenzo Viviani4 (1622-1703).
Secondo Viviani, Galileo avrebbe inventato il termometro durante il periodo
padovano, tra il 1592 e il 1597, e lo avrebbe usato per valutare “le mutazioni di
freddo e di caldo” in un luogo. Un’altra testimonianza a favore di Galileo si
ritrova in una lettera di B. Castelli a F. Cesarini, dove così viene descritto “un
istrumento da esaminare i gradi del caldo e del freddo”, basato sul principio del
termoscopio:
Mi sovvenne un’esperienza fattami vedere già più di trentacinque anni sono dal nostro Sig.
Galileo, la quale fu, che presa una caraffella di vetro di grandezza di un piccol uovo di gallina, col
collo lungo due palmi in circa, e sottile quanto un gambo di pianta di grano, e riscaldata bene colle
palme delle mani la detta carafella, e poi rivoltando la bocca di essa in vaso sottoposto, nel quale
era un poco di acqua, lasciando libera dal calor delle mani la caraffella, subito l’acqua cominciò a
salire nel collo, e sormontò sopra il livello dell’acqua del vaso già più di un palmo; del quale
effetto poi il medesimo Sig. Galileo si era servito per fabbricare un istrumento da esaminare i gradi
del caldo e del freddo5.
Santorio come medico si occupava di termometri per misurare la temperatura
corporea.
Termometro ad aria per uso medico di Santorio, Sanctorii...Commentaria, Venezia, 1625.
Fludd, anch’egli medico oltre che filosofo, descrisse in una sua opera
(Meteorologica Cosmica) vari tipi di termometro ad aria per scopi meteorologici
(vitrum calendarium). Drebbel adottò un termometro ad aria modificato, detto
“instrumento drebiliano”, a forma di J e che pertanto, non avendo bisogno di
vaschetta, poteva essere portatile.
4
La biografia di Viviani è del 1654.
Lettera di B. Castelli a F. Cesarini del 20 settembre 1638, Ed. Naz. Opere Galileo, A. Favaro (a
cura di), Barbera 1890-1909, XVII, p. 377.
5
10
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
Termometro italiano e olandese, J. Leurechon, Récreation mathematique, 1626.
In ogni modo, intorno al 1610, termometri ad aria comparvero un po’ ovunque in
Europa e sembra difficile stabilire chi per primo abbia deciso di adottare, insieme
all’antico termoscopio, una prima scala semiqualitativa applicata al cannello con
punti fissi empirici (fiamma di candela, ecc.). Si trattò cioè di una ‘scoperta
simultanea’ o, meglio, di una riscoperta visto che tutti gli autori citati dichiararono
in modo esplicito di aver ripreso da Erone la forma e l’uso dei termoscopi. Ma nel
1644 si avrà un colpo di scena: con la scoperta della pressione atmosferica si
stabilirà che il termometro ad aria risponde, oltre che alle variazioni di “calore”,
anche a variazioni di pressione. Il termoscopio ad aria venne perciò modificato:
chiuso verrà usato come termometro, aperto, come barometro.
Si iniziò poi a sperimentare con sostanze diverse dall’aria: già Athanasius Kircher,
il fondatore del Museo Kircheriano a Roma, aveva provato ad usare nel 1620 il
mercurio. Intorno al 1630 il medico francese Jean Rey impiegò un termometro
con un bulbo contenente aria e il cannello contenente acqua. Il calore faceva
dilatare l’aria (che veniva perciò usata come amplificatore a causa del suo
coefficiente di espansione più elevato di quello dei liquidi ordinari), costringendo
l’acqua a salire (che funzionava perciò come una sorta di indice). Prevalse poi, per
un certo periodo, l’alcool etilico (o spirito di vino o “acqua arzente”) come liquido
termometrico. Esperimenti con termometri a liquido vennero condotti in
particolare presso l’Accademia del Cimento, fondata nel 1657 a Firenze dal
Granduca di Toscana Ferdinando II, e operante fino al 1667. Parte di questi
esperimenti sono stati descritti e magistralmente illustrati nei Saggi di naturali
esperienze fatti dall’Accademia del Cimento, del 1666, curati da Lorenzo
Magalotti (1637-1712). Tra gli strumenti usati nell’ Accademia di un certo
interesse sono i termometri infingardi (cioè, pigri a rispondere), i quali, riempiti in
parte di spirito, presentano una scala a indici mobili costituiti da una serie di
palline di diversa densità (termometro V in fig.).
11
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
Se la temperatura esterna si abbassa, e in conseguenza aumenta la densità
dell’alcool, le palline galleggiano (la spinta di Archimede prevale sulla forza
peso) mentre all’aumentare di T, le palline affondano una dopo l’altra e la
temperatura dell’alcool può essere stimata dal numero di palline affondate. Una
variante di questi indici mobili è costituita da sferette piene per metà di acqua e
per metà d’aria (una specie di diavoletti di Cartesio): se, in funzione della
temperatura, l’aria si comprime, nella pallina entra acqua e quindi si abbassa;
viceversa se l’aria si espande, esce acqua e la pallina sale. Accanto a questi
strumenti figurano i termometri fiorentini a 100°, ad alcool e a gradazione con
dentini di vetro saldati sul cannello. Risalgono al 1641 e venivano usati per
“trovare i cambiamenti di caldo e freddo dell’aria”.
Un altro luogo deputato a sperimentare con termometri a liquido fu la Royal
Society di Londra, fondata nel 1660. Qui operarono, tra gli altri, Boyle e Hooke.
In particolare R. Hooke (1635-1702), nella sua Micrographia (Londra 1665),
avanzò l’esigenza di trovare un termometro standard e fornì istruzioni per
costruire un termometro ad alcool. La scelta dell’alcool etilico fu fatta perché
questo liquido è facilmente colorabile, risponde rapidamente al ‘calore’, non è
soggetto a gelare per alcun ‘freddo’ noto. Verso il 1701 anche Newton condurrà i
suoi esperimenti con termometri ad olio di lino e nello stesso periodo Fahrenheit
studierà il mercurio come liquido termometrico.
§1.3. Punti fissi e scale
Misure eseguite con termometri contenenti liquidi diversi, se confrontate,
portarono presto a riconoscere che:
a) l’assunzione tacita, in base alla quale la relazione tra volume e temperatura sia
lineare non sempre è rispettata, e che quindi liquidi diversi mostrano dilatazioni
diverse;
b) a parità di liquido usato la dilatazione non sempre è uniforme. Questo si
verifica in particolare con l’alcool che, se non è puro, presenta un diverso
contenuto d’acqua e quindi coefficienti di dilatazione differenti. Per l’acqua già
gli accademici del Cimento osservarono che al di sotto di un certo “grado di
calore” (sotto i 4°C) diminuisce anziché aumentare di volume;
12
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
c) occorre usare una sostanza termometrica molto dilatabile. Questa circostanza
farà preferire per un certo tempo l’alcool al mercurio che, in confronto, si espande
meno e farà tornare qualche sperimentatore all’aria (il coefficiente di dilatazione
termica è più grande per i gas che per i liquidi e i solidi);
d) necessità di operare in un intervallo di temperature sufficientemente esteso in
rapporto all’uso dello strumento: qui, per esempio, l’alcool presenta inconvenienti
perché intorno a 80°C inizia a bollire;
e) necessità di stabilire punti fissi stabili: le proposte sono svariate. C. Huygens
(1629-1695) propose nel 1665 come punti fissi la temperatura di fusione del ferro
e di ebollizione dell’acqua; altri proposero la temperatura di fusione del burro, di
una miscela di sale e ghiaccio e così via.
Il primo suggerimento di usare due termini fixi per la scala si deve a Sebastiano
Bartolo (1679) che impiegò per il vecchio termoscopio ad aria la neve e l’acqua
bollente, corrispondenti, rispettivamente, al grado di “freddo massimo” e di
“calore massimo” e ritenuti “punti fixa et ubique immutabilia”, mentre il grado
relativo alla temperatura ambiente (“communis ambiens”) e alla temperatura
corporea venivano considerati variabili.
La tradizione attribuisce a Carlo Renaldini (1694) l’idea dei punti fissi ma anche
in questo caso la necessità di avere punti di riferimento stabili e riproducibili
ovunque è “nell’aria” e in maniera più o meno concorde, per gli usi più comuni
del termometro, venivano scelte le temperature dell’acqua bollente e la
temperatura di fusione del ghiaccio (cioè di una miscela di acqua e ghiaccio,
ritenuta migliore della temperatura di congelamento dell’acqua); si riconobbe poi
già nel Settecento che tali temperature sono legate alla pressione amosferica.
Rispetto alle scale, delle molte proposte se ne imposero tre: la scala Reaumur con
80°, la Celsius con 100° e la Fahrenheit con 180°. La scala di G. Fahrenheit
(1686-1736) fa corrispondere alla temperatura di fusione del ghiaccio 32° e a
quella di ebollizione dell’acqua 212°. La scala di R. A. F. Réaumur (1683-1757)
ha un solo punto fisso; quella dell’astronomo svedese A. Celsius (1701-1744),
infine, è una scala centigrada e inizialmente associava lo 0 alla temperatura
dell’acqua bollente e 100° al punto di congelamento dell’acqua. C. von Linné
(1707-1778) invertirà successivamente (1742) i punti della scala che risulterà così
come la conosciamo oggi.
§1.4. Alla ricerca di una temperatura assoluta
Ma anche l’introduzione di scale a due punti fissi portava a misure, condotte con
termometri diversi, discordanti tra loro. La causa di queste divergenze verrà
attribuita a vari fattori tra i quali la qualità del vetro e la forma del bulbo. In realtà
sia l’alcool che il mercurio non danno scale lineari perché il volume non varia
linearmente con la temperatura. A partire dal 1800, con gli esperimenti di L. J.
Gay- Lussac (1778-1850)6 si osservò che i termometri a gas mostrano una identica
espansione, cioè i coefficienti di dilatazione dei gas a pressione costante sono
approssimativamente uguali ( per i gas ideali è costante anche rispetto alla
temperatura e non dipende dalla specie chimica). Lo stesso Gay-Lussac constatò
che per i gas valeva una analoga legge per le variazioni di pressione a volume
6
13
L. J. Gay-Lussac, Ann. d. Chim., 43 (1802) 137.
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
costante (e in effetti V. Regnault (1810-1878), nel 1847, stabilirà che termometri a
volume costante o a pressione costante sono equivalenti). Inoltre, anche se la
natura del gas variava, sotto condizioni opportune il valore di continuava a
rimanere costante. Si riconoscerà così gradualmente che rappresenta una
importante costante universale e che i gas sono fluidi termometrici privilegiati, in
grado di indicare una ‘scala naturale’ o assoluta delle temperature. A questa idea
si associava l’altra sull’esistenza di uno zero assoluto della temperatura come
limite ultimo raggiungibile in natura.
L’esistenza di una scala vera o naturale delle temperature con uno “zero assoluto
del calore” era stata in realtà già da tempo postulata sulla base di assunzioni
metafisiche, associate soprattutto alle ipotesi sulla natura del calore, considerato
una sostanza contenuta nei corpi. In particolare G. Amontons (1663-1705)
riteneva che l’elasticità dell’aria (cioè la sua pressione) fosse direttamente
proporzionale alla quantità di calore in essa contenuta sicché, a pressione zero
doveva corrispondere uno zero assoluto per il calore.
La constatazione che tutti i gas si dilatano allo stesso modo e che presentano un
coefficiente di dilatazione alto rispetto ai liquidi e ai solidi comporterà un ritorno
dai termometri a liquido ai termometri a gas non solo perché i gas mostrano un
comportamento ‘universale’ ma anche perché la dilatazione del vetro del
termometro, essendo trascurabile rispetto a quella dei gas, implica errori di misura
minori. I termometri a mercurio continueranno tuttavia a essere preferiti perché
più maneggevoli e di semplice uso. Inoltre, si tenterà di utilizzare il valore di per costruire scale universali di temperatura e per definire lo zero assoluto.
Vediamo come venne determinato il suo valore nelle prime indagini sperimentali
condotte da Gay-Lussac.
Il metodo di Gay-Lussac per la determinazione di consisteva nel misurare la
variazione di volume V subita da aria secca racchiusa in un pallone di vetro B
immerso in una sorta di grosso calorimetro ad acqua, quando l’aria stessa veniva
portata da 100 a 0°C (fig. tratta da Ramsauer, cit. p. 33).
Inizialmente l’acqua veniva portata a ebollizione; aprendo il rubinetto R si portava
il gas alla pressione esterna (il processo avveniva facendo pescare il tubicino rr
nell’acqua, di massa nota, contenuta in G): in questa situazione, dunque, il gas
occupa un volume V100, si trova a una temperatura di 100°C e alla pressione
14
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
esterna. Successivamente (a rubinetto R chiuso) si fa raffreddare il sistema e si
avvolge il pallone in un bagno costituito da una miscela di acqua e ghiaccio.
Riaprendo il rubinetto R il gas si trova ora a T=0°C, alla pressione esterna e
occupa un volume V0 che può essere valutato dalla quantità d’acqua V che
fluisce dalla bacinella nel tubo rr e che rappresenta proprio la variazione di
volume del gas tra 100 e 0°C: V= V100- V0. Pesando le due masse d’acqua nelle
due fasi del processo e riportandole in cm3, dalla misura di V si ottiene V0= V100V. Di qui si calcola infine l’aumento di volume (V0+V)/V0 =1+(V/V0) che
corrisponde a un valore oggi noto di 1,3667.
In base alle conoscenze attuali, per un gas ideale la legge di dilatazione dei volumi
è, in prima approssimazione, V= V0(1+t). Assumendo per le due temperature 0
e 100°C si ha = (1/100) (V100-V0)/V0. Sostituendo a V/V0, 0,3667 si ottiene per
il valore limite di 1/273. In effetti, eseguendo misure della pressione di un gas
ideale a volume costante in funzione della temperatura ed estrapolando
linearmente, per p che va a 0, T tende a -273°C (cioè, limgas= 1/273,16(°C-1)).
p (atm)
t (°C)
-273
Per mezzo di 1/ si fissa poi lo zero della scala assoluta con l’altro punto fisso
corrispondente alla temperatura dell’acqua al punto triplo, corrispondente a
273,16 K. W. Thomson (Lord Kelvin) proporrà successivamente una scala di
temperature che non dipende dalla proprietà di alcuna sostanza basandosi sul
funzionamento di una macchina termica reversibile sulla base della teoria di Sadi
Carnot e dimostrerà che tale scala termodinamica coincide con la scala assoluta
dei termometri a gas ideale.
Le prime misure di pressione in funzione della temperatura si rifanno alla legge
pt= p0(1+t) che per un intervallo di temperature tra 0 e 100°C porta alla
relazione p100/p0= cost. p. I primi sperimentatori, tra i quali Regnault e W. J.
Rankine (1820-1872), misuravano le pressioni richieste per mantenere a volume
costante il gas in funzione delle due temperature. I risultati sperimentali ottenuti
da Gay-Lussac e successivamente da Dalton, H. G. Magnus (1802-1870) e
Regnault saranno in realtà affetti per lungo tempo da errori sperimentali piuttosto
elevati, dovuti, in particolare, al contenuto d’acqua presente nei gas (la quale
vaporizzando comporta un aumento di volume) e alla depressione capillare nei
tubi di piccolo diametro.
Nel 1807 Gay-Lussac iniziò anche a studiare l’espansione libera di un gas: la
disposizione sperimentale è quella consueta, presente oggi in tutti i manuali e nota
come “esperienza di Joule” (alla quale torneremo tra breve) ed è costituita da due
recipienti di uguale volume, collegati da un rubinetto e immersi in un calorimetro.
In un recipiente veniva posto il gas mentre nell’altro veniva fatto il vuoto.
Facendo diffondere il gas si notava un raffreddamento in un recipiente,
compensato esattamente da un riscaldamento nell’altro, senza che nel complesso
15
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
la temperatura del sistema cambiasse. Dal momento che Gay-Lussac associava a
una espansione un raffreddamento del gas, l’esito dell’esperimento fu visto come
una anomalia inesplicabile che verrà risolta solo a metà Ottocento. Intorno al
1820, tra gli altri Poisson, osservò sperimentalmente che un gas compresso si
riscaldava, ma se il processo avveniva rapidamente questo si raffreddava
(processo adiabatico) e trovò sperimentalmente la relazione pV= cost., con =
Cp/CV. Inoltre con Dulong (1829) si constatò che volumi uguali di gas diversi,
compressi o dilatati della stessa quantità, a temperatura costante (oppure a
pressione costante), liberano o assorbono la stessa quantità di calore.
CAP. 2. ALLE RADICI DEL CONCETTO DI PRESSIONE
§2.1. Il dibattito sull’esistenza del vuoto
Facciamo un passo indietro per ricostruire le vicende che portarono alla ‘scoperta’
del concetto di pressione atmosferica. Questo argomento è trattato per esteso da
varie parti7 e qui ci limitiamo a riassumere per sommi capi la vicenda:
- Il dibattito sull’esistenza del vuoto: dura secoli, fino ad esaurirsi, nel giro di
pochi anni, a metà Seicento. Aristotele e i suoi seguaci ritengono che il vuoto non
possa esistere. La concezione cosmologica aristotelica si basa su un tutto pieno
(l’universo aristotelico è chiuso, limitato e costituito da una serie di gusci sferici
concentrici con al centro la Terra attorno alla quale sono distribuite le tre sfere
immobili che competono agli altri tre elementi, acqua, aria, fuoco; seguono le otto
sfere concentriche che compongono il mondo translunare, o sfere della Luna, di
Mercurio, Venere, Sole, Marte, Giove, Saturno e delle stelle fisse alle quali
Aristotele attribuisce il solo movimento di rotazione diurna intorno a un asse fisso
comune); lo stesso vale per l’interpretazione del moto (i corpi si muovono con
velocità finita v; la velocità di un grave aumenta durante la caduta e inoltre v è
proporzionale a p/ con p, peso del corpo, e resistenza del mezzo. Di parere
contrario sono gli atomisti (la struttura della materia è granulare, esiste il vuoto
locale disseminato in parti sottili nella materia) e gli studiosi di taluni fenomeni di
conoscenza comune (‘fenomeni pneumatici’), dovuti a compressione e rarefazione
in particolare dell’aria, al comportamento anomalo dell’acqua nei sifoni, al
funzionamento dei termoscopi.
Erone è il sostenitore più illustre e influente di questa concezione, a metà tra la
posizione aristotelica (non può esistere vuoto esteso) e la posizione atomista. Il
vuoto locale non solo può essere modificato (per compressione si riducono gli
spazi interatomici) ma anche prodotto artificialmente (è possibile permettere
l’ingresso di vuoti diffusi, ad esempio facendo dilatare un corpo).
- Per secoli, si continuerà a sostenere che il vuoto non può esistere né fisicamente,
dal momento che l’universo si pensa costituito da un plenum di materia senza
discontinuità (natura non facit saltus), né logicamente. La natura infatti non fa
niente invano e il vuoto è, per definizione, ciò che non è, e non può quindi essere
né causa efficiente né formale. Accanto a queste posizioni di natura filosofica si
affiancarono argomentazioni derivanti dai dogmi di fede e da un atteggiamento di
immanentismo religioso. Dio ha creato l’universo dandogli impronta di sé. Non
può allora esistere il vuoto perché ciò indicherebbe l’assenza di impronta divina. E
7 V. per es., M. G. Ianniello, La genesi storica del concetto di pressione atmosferica, in M. Vicentini
e M. Mayer, a cura di, Didattica della Fisica, La Nuova Italia, Firenze, 1996, pp. 301-334.
16
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
qualora esso esistesse, al di là del cielo delle stelle fisse potrebbe esistere una
realtà esterna in cui potrebbe darsi una molteplicità di mondi e ciò sarebbe
contrario alle indicazioni della Sacra Scrittura. In natura quindi deve esistere la
fuga vacui, una sorta di terrore connaturato alla materia, che costringe i fenomeni
naturali a procedere senza dar luogo a formazione di vuoto. Tutta la
fenomenologia connessa ai fenomeni pneumatici viene così spiegata invocando la
teoria dell’horror vacui.
§2.2. La nuova filosofia sperimentale
Il Seicento si apre alla nuova filosofia sperimentale: Galileo, Torricelli, Pascal,
von Guericke e Boyle contribuiranno a risolvere il dibattito sul vuoto. L’avvio a
questo processo viene dato da un problema pratico: bisogna collegare con un
sifone i rami di un acquedotto tra due località separate da un dislivello di circa 84
palmi (circa 20 m). Perché il sifone non funziona?
- Carteggio Baliani-Galileo. Il quesito viene posto in una lettera di G. B. Baliani
(1582-1666), fisico-matematico, a Galileo (27 luglio 1630). Risposta di Galileo a
Baliani (6 agosto 1630): Galileo spiega in base alla sua teoria (sbagliata), il
mancato funzionamento del sifone con una analogia tra la colonna d’acqua
sollevata e una corda a cui si sospende un peso; se il peso aumenta troppo la
corda, superato il limite di rottura, si spezza così come la colonna d’acqua, il cui
peso supera la “forza interna di vacuo” (G. pensa che l’acqua sia tenuta insieme
dalla “resistenza di vacuo” che le particelle di liquido dovrebbero superare per
separarsi perché la natura evita la formazione di vuoti).
Baliani a Galileo (24 ottobre 1630): Baliani dubita della risposta di Galileo e in
particolare non crede che il vuoto non possa esistere (proprio Galileo aveva
dimostrato intorno al 1614 che “l’aria ha peso sensibile” e aveva stimato che la
densità dell’aria dovesse essere circa 1/400 di quella dell’acqua. In realtà è di
circa 1/700). Questo fatto suggerisce a Baliani una possibile interpretazione del
comportamento dell’aria che egli assimila a un fluido pesante, esattamente come
l’acqua. Analogia del “pelago d’aria” che verrà poi usata da Torricelli e dagli altri
filosofi sperimentali, a testimonianza del rovesciamento del quadro concettuale
che vede nella pressione dell’aria una causa esterna, e non interna, ai dispositivi
sperimentali
(“Io mi figuro di esser nel fondo del mare, ove sia l’acqua profonda dieci mila piedi, e se non
fusse il bisogno di rifiatare, io credo che vi starei, ancorché io mi sentirei più compresso e premuto
da ogni parte di quel che io mi sia di presente. [..] Lo stesso mi è d’avviso che ci avvenga a noi
nell’aria, che siamo nel fondo della sua immensità, né sentiamo né il suo peso che la compressione
che ci fa da ogni parte; perché il nostro corpo è stato fatto da Dio di tal qualità, che possa resistere
benissimo a questa compressione senza sentirne offesa, anzi che ci è per avventura necessaria, né
senza di lei si potrebbe stare”).
- Galileo persiste nell’errore. Nonostante i suggerimenti di Baliani, Galileo
continuerà a rimanere legato alla sua interpretazione della “forza di vacuo” nel
tentativo di conciliare la vecchia teoria dell’horror vacui con la sua spiegazione
della forza di coesione esistente tra le particelle di un corpo e della loro resistenza
ad essere separate. Nella prima giornata dei Discorsi e dimostrazioni intorno a
due nuove scienze, del 1638, propone un esperimento concettuale per misurare la
forza di vacuo. I personaggi dei Discorsi: Sagredo (“pur per violenza o contro a
natura, il vacuo talor si conceda”); Simplicio, aristotelico di stretta osservanza (“la
natura non intraprende a voler fare quello che repugna ad esser fatto” e “a far
quello in conseguenza di che necessariamente succederebbe il vacuo); Salviati17
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
Galileo. Salviati è in grado di dimostrare sperimentalmente la presenza e gli effetti
del vuoto e di misurarne l’entità mediante un dispositivo costituito dal cilindro
ABCD entro cui scorre il pistone EFGH (Fig.).
Con il cilindro rivolto con la parte CD verso l’alto si riempie l’intercapedine
ABEF d’acqua, quindi, fatta uscire l’aria residua mediante il tirante IK, si
capovolge il sistema e si appendono all’uncino pesi via via crescenti fino a che
non si riesce a strappare il pistone dalla superficie inferiore dell’acqua alla quale,
secondo Galileo, lo teneva congiunto la ripugnanza del vuoto (in realtà dovrebbe
essere la superficie superiore dell’acqua a staccarsi dal cilindro). La massa del
pistone e dei contrappesi fornisce così la “forza di vacuo”. L’aspirazione
dell’acqua nelle pompe o in un ramo di un sifone è dovuta in definitiva per
Galileo, alla forza interna di vacuo e non ad una forza esterna. E se lo scienziato
pisano è disposto ad ammettere che la natura non ha orrore del vuoto, continua a
dire che il vuoto si manifesta con la forza di vacuo che per Galileo diventa un
parametro fisico che può essere misurato in condizioni limite.
§2.3.Torricelli e l’esperienza dell’argento vivo
Giunto ad Arcetri nel 1641, ospite di Galileo, durante la revisione del Dialogo
sopra i due massimi sistemi Torricelli (1608-1647) avrà modo di discutere con
Galileo la questione del vuoto e risolverà in maniera elegante e sintetica il
problema che esporrà a M. Ricci (1619-1682) nel 1644, in una lettera in cui
descriverà l’esperienza dell’argento vivo (Fig.), arrivando a concludere che il
cosiddetto spazio torricelliano è vuoto, che non esiste in natura né l’orrore né la
forza di vacuo e che la causa del sostentamento della colonna di mercurio è
esterna ed è dovuta alla “gravità dell’aria”.
18
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
- Carteggio Torricelli-Ricci. La teoria “della colonna d’aria” di Torricelli solleva
alcune perplessità che Ricci comunica a Torricelli sottoponendole al suo giudizio
(Ricci a Torricelli, lettera del 18 giugno 1644). Prima obiezione: se si pone un
coperchio a tenuta sulla superficie libera del mercurio contenuto nel recipiente in
modo da escludere l’ “azione dell’aria”, che succede? La risposta di Torricelli
(lettera a Ricci, 28 giugno 1644): la questione posta da Ricci è mal formulata.
Occorre distinguere due casi: il coperchio sia posto a contatto dell’argento vivo
oppure lasci tra sé e la superficie libera del mercurio una intercapedine d’aria. In
tal caso occorre sapere se l’“aria serrata” sia “del medesimo grado di
condensazione che l’esterna”, e allora il livello del mercurio resterà invariato,
oppure “più rarefatta dell’esterna”, nel qual caso il livello si abbasserà. Torricelli
aggiunge poi per estrapolazione che se quell’aria “fusse infinitamente rarefatta,
cioè vacuo”, la colonna di mercurio scenderebbe del tutto. Seconda obiezione di
Ricci: riguarda il modo di operare della “gravità dell’aria”, che dovrebbe
esercitarsi dall’alto verso il basso, come per i corpi pesanti. Se si prende una
pompa aspirante e si impedisce all’aria di entrarvi, tirando il pistone si sente una
forte resistenza non solo quando la pompa è messa verticale ma anche in tutte le
altre direzioni. Orbene, in questi casi non si comprende “come il peso dell’aria
c’abbia a che fare”. Torricelli risponde enunciando il principio oggi noto come
principio di Pascal.
§2.4. Il contributo di Pascal all’affermazione della teoria della colonna d’aria
Ricci nel 1644 aveva comunicato a M. Mersenne (1588-1648), filosofo e fisico
francese, il contenuto del suo carteggio con Torricelli e lo stesso Mersenne era
partito dalla Francia con destinazione l’Italia, alla fine dello stesso anno, per
assistere personalmente all’esecuzione dell’esperimento. Di ritorno in Francia
tenterà di ripetere egli stesso l’esperimento ma senza successo. Si rivolgerà quindi
a Pierre Petit, Etienne Pascal e a suo figlio Blaise (1623-1662) il quale eseguirà in
diverse versioni l’esperienza torricelliana (Pascal vive a Rouen, una cittadina in
cui prospera l’industria vetraria, condizione che gli consentirà a eseguire con
successo numerosi esperimenti). L’esperienza susciterà in Francia aspri dibattiti.
A seconda della particolare ipotesi scelta per interpretare il fenomeno possiamo
individuare due orientamenti legati, il primo, alla questione se lo spazio
torricelliano sia vuoto, l’altro alla questione se la teoria della colonna d’aria sia
valida (e quindi se l’aria abbia un peso nel suo luogo naturale). Poiché i due
orientamenti, che implicano, il primo, una spiegazione in termini di ‘forza’ interna
19
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
al tubo torricelliano e, il secondo, in termini di causa esterna, possono essere tra
loro compatibili, si formuleranno numerose sottoteorie derivanti dalla
combinazione dei diversi punti di vista.
I seguaci della scuola peripatetica partiranno dalla assunzione che lo spazio
torricelliano non può essere vuoto (teoria dell’horror vacui in senso assoluto) e
che l’aria nel suo luogo naturale non ha peso; e sosterranno, di conseguenza, che
nello spazio lasciato libero dal mercurio deve essere rimasto almeno un “atomo
d’aria”, il quale si espande per evitare la formazione di vuoti, fino a raggiungere il
massimo grado di rarefazione e che, in questo stato, si comporta nei confronti del
mercurio come una molla che sostiene un grave. Oppure, pur di non ammettere la
creazione del vuoto nello spazio torricelliano (come Cartesio e i suoi sostenitori),
si ipotizza che quando il mercurio si abbassa, l’aria residua fuoriesca e venga
sostituita da una materia sottile che penetra nell’interno del tubo attraverso il
vetro. In breve, lo spazio torricelliano si riempirà di una moltitudine di “esprits”
provenienti dal mercurio (ma anche dal vetro) ai quali si attribuiranno, di volta in
volta, proprietà ad hoc in grado di salvare il fenomeno. Del secondo schieramento
faranno invece parte i sostenitori della nuova scuola sperimentale, i quali, pur con
diverse sfumature, tenteranno di conciliare una realtà sperimentale che sembrava
ammettere la possibilità del vuoto, con le spiegazioni tradizionali legate alla teoria
dell’horror vacui (teoria dell’horror vacui in senso ristretto). Questa era stata,
come abbiamo visto, la posizione di Galileo.
Per smantellare la teoria dell’atomo d’aria, Pascal esegue, come già aveva
proposto Torricelli, l’esperienza dell’argento vivo con vasi di diverso volume. Se
l’ipotesi della scuola peripatetica fosse vera, il volume dello spazio torricelliano
dovrebbe rimanere costante mentre, come si sa, a rimanere costante è solo
l’altezza del mercurio. Rispetto ai sostenitori dei vapori esalati dal fluido
barometrico e ritenuti responsabili dell’abbassamento del mercurio, Pascal
progetterà una esperienza in cui userà due tubi di vetro (lunghi oltre 40 piedi)
contenenti acqua e una sostanza altamente volatile, vino. In quest’ultimo caso,
sviluppandosi una quantità maggiore di vapori, l’altezza raggiunta dalla colonna
di vino avrebbe dovuto essere inferiore a quella dell’acqua ma il risultato
sperimentale dimostrerà esattamente il contrario. Tra gli esperimenti proposti
figura l’esperienza “del vuoto nel vuoto”, progettata dallo scienziato francese A.
Auzout (1622-1691) e rielaborata da Pascal, in una versione semplificata, nel
1648. Il dispositivo (v. Fig. a sinistra; in Fig. è mostrata una variante
dell’esperimento progettata presso l’Accademia del Cimento; questo e altri
esperimenti trattati sono stati ricostruiti nella trasmissione televisiva “Un oceano
d’aria”, per la quale si veda di seguito in bibliografia) consiste in due canne
barometriche inserite una nell’altra; in una prima fase si fa agire la pressione
atmosferica solo sul tubo inferiore, dove si osserverà il mercurio sollevarsi ad una
quota di circa 26 pollici.
20
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
a)
b)
c)
a) L’esperimento di Pascal-Azout del vuoto nel vuoto, B. Pascal, Trattato dell’equilibrio dei
liquidi, cit. p. 105.
b) Versione modificata dell’esperimento, da Magalotti, Saggi di Naturali Esperienze.
c) Ricostruzione di E. Ball, Deutches Museum, Monaco.
Il mercurio contenuto nel ramo superiore, trovandosi tutto immerso nel vuoto,
rimarrà invece in quiete non potendosi bilanciare con la pressione atmosferica. In
una seconda fase si lascerà entrare l’aria anche nel secondo tubo, col che si
osserverà il mercurio sollevarsi e oscillare fino a formare una colonna alta circa 26
pollici, mentre il mercurio nel ramo inferiore scenderà nella bacinella. Un
esperimento spettacolare è l’esperimento di Pascal del Puy de Dome, fatto
eseguire nel settembre 1648 al cognato Perier.
- Pascal sistematizza la statica dei fluidi. Nel novembre del 1648, Pascal fa
stampare in tutta fretta un opuscolo dal titolo Récit de la Grande Experience de
l’Equilibre des Liqueurs projecteé par le sieur Blaise Pascal, in cui l’autore
esprimeva la sua totale adesione alla teoria della colonna d’aria, spiegando come
fosse stato costretto ad abbandonare il vecchio principio dell’horror vacui sulla
base di prove inconfutabili. L’esperienza della montagna segnava dunque, a suo
giudizio, l’ultimo e definitivo attacco alla teoria dell’horror vacui. In tutta la
ricostruzione egli tuttavia non farà il minimo accenno a Torricelli, di cui egli ben
conosceva le idee, idee che una volta accettate avrebbero reso l’esperimento del
Puy de Dome un semplice esperimento di verifica e non un esperimento cruciale.
Ma se di esperimento cruciale si deve parlare esso va individuato nell’esperimento
del vuoto nel vuoto. L’esperimento si presentava, per la nascente scienza
induttiva, come l’esperimento modello poiché, a parità di condizioni sperimentali,
esso consentiva di osservare al variare della causa, la variazione degli effetti
concomitanti. La soluzione dei tubi uno dentro l’altro era inoltre, rispetto alla
tecnica del tempo, una trovata geniale poiché permetteva di eseguire
l’esperimento in presenza e in assenza d’aria pur non disponendo di una pompa da
vuoto (la pompa pneumatica sarà inventata qualche anno dopo). Pur tuttavia
l’esperienza del vuoto nel vuoto non avrebbe, probabilmente, convertito con
21
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
facilità alla teoria della colonna d’aria chi non avesse avuto già dimestichezza con
essa. Al contrario, l’esperimento della montagna, facendo leva su una conoscenza
divenuta ai tempi di Pascal di senso comune – l’aria, i “vapori grossi” pesano di
più ai piedi che alla cima di un monte (e questo non lo negavano neppure gli
aristotelici più convinti!) - si presentava agli occhi del grande pubblico assai più
convincente.
Torricelli individua per primo nella gravità dell’aria l’unica causa responsabile dei
cosiddetti fenomeni pneumatici, definisce in modo operativo il concetto di
pressione atmosferica con l’esperimento della canna barometrica. A Pascal va il
merito di sistematizzare l’intera scienza dei fluidi unificando idrostatica e
aerostatica e di costituire, rispetto alle nuove idee, la cassa di risonanza ideale.
Gli studi sulla pneumatica portarono a importanti conseguenze: a. all’invenzione
della pompa da vuoto da parte di Otto von Guericke (1602-1686) e alla
conseguente nascita della tecnica del vuoto, con fondamentali ripercussioni in
diversi settori della fisica; b. allo studio delle proprietà dei gas, in particolare con
Boyle.
Pompa pneumatica di Guericke, Experimenta Nova, 1672.
Rispetto al primo punto, gli esperimenti con la pompa condussero Guericke in
primo luogo a mostrare, in una esecuzione pubblica a Regensburg del 1654, che
l’aria pesa. Prese due sfere identiche da 5 l, una piena d’aria e l’altra evacuata con
una pompa, si procedeva a pesarle con una bilancia e si valutava immediatamente
la massa dell’aria (in condizioni normali 1 l d’aria ha una massa di circa 1,3 g).
Tra i molti esperimenti eseguiti da Guericke ricordiamo ancora:
- la costruzione di un ‘barometro ad acqua’ lungo 19 braccia (1 braccio= 60 cm
circa), che veniva evacuato da sopra con la pompa pneumatica, impiegato per
osservazioni meteorologiche.
- L’esperimento della doppia sfera: l’apparato è costituito da due sfere di vetro A
e B collegate da un tubo provvisto di un rubinetto C. Nella sfera A, riempita
d’acqua per circa 1/3, accedono due tubi a gomito D ed E, ciascuno con un
rubinetto, il primo dei quali può essere collegato alla pompa da vuoto, mentre
l’altro mette in contatto con l’aria esterna. Quando i due recipienti sono in
comunicazione (C aperto ed E chiuso) si produce il vuoto al loro interno; poi si
22
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
chiude C e si lascia entrare l’aria da E. Riaperto C si vede salire l’acqua nel
recipiente superiore, prova certa che è la pressione dell’aria e non l’horror vacui a
spingere il liquido verso l’alto.
Esperimento della doppia sfera, da F. Fuchs, Guericke Ausstellung, Deutsches Museum
- I celebri e spettacolari esperimenti degli emisferi di Magdeburgo: la prima
versione di questo esperimento dimostrativo fu eseguita nel 1656 con emisferi di
27,5 cm di diametro. Una volta fatto il vuoto nel sistema costituito dai due
emisferi accoppiati (con una pompa o facendo condensare vapore d’acqua a
100°C), neppure 6 uomini riuscirono per trazione a separarli. La seconda versione
venne eseguita un anno dopo, con emisferi di 51 cm di diametro e un tiro di 16
cavalli.
- Gli esperimenti eseguiti intorno al 1661 per mostrare che la pressione
atmosferica compie lavoro: fatto il vuoto in un recipiente provvisto di cilindro a
tenuta, la pressione atmosferica sospinge il pistone verso il basso. Questo sarà il
principio base per le prime macchine atmosferiche dalla cui evoluzione
deriveranno poi le macchine a vapore.
Il terzo modello di pompa costruito da Guericke intorno al 1662 è oggi conservato
al Deutsches Museum di Monaco e consentiva di produrre un vuoto di circa 30
mm di mercurio.
Rispetto al secondo punto, nel 1660 comparve il libro di Robert Boyle (16271691) New Experiments Physico-Mechanicall touching the Spring of the Air.
23
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
Prima pompa ad aria di Boyle, modello del 1660 ca. e, a destra, pompa pneumatica di Boyle con
‘campana’ da vuoto.
Un problema di natura metafisica lo spingerà agli esperimenti che portano a
individuare la proporzionalità inversa tra pressione e volume di un gas a
temperatura costante. Gli esperimenti in questione sono sostanzialmente due:
1. Tubo a J e mercurio (gas soggetto a pressioni maggiori della pressione
atmosferica).
L’ esperimento non fu realizzato dal fisico inglese per indagare la relazione tra
pressione e volume di un gas, quanto piuttosto per costruire una prova
sperimentale che confutasse una particolare ipotesi formulata da un suo
avversario, l’aristotelico Francesco Lino (1595-1675). La relazione pressionevolume (valida, come è noto, a temperatura costante e per i gas ideali) fu un
effetto collaterale di una indagine intrapresa con intenti ben diversi (confutazione
della teoria del funiculus di Lino: al di sopra del mercurio c’è una sorta di
cordicella capace di esplicare una ‘tensione massima’ fino a sostenere una colonna
di mercurio di una atmosfera, circa 29”). Visto che l’ipotesi di Lino si basa su
proprietà massime del funiculus a sostenere il mercurio, Boyle progetta un
esperimento (fig., tratta da Ramsauer, cit., p. 30) in cui, producendo pressioni
maggiori della pressione atmosferica, il mercurio continua ad essere sostenuto per
altezze ben maggiori di 29”.
2. Canna barometrica e vaschetta grande di mercurio (gas soggetto a pressioni
inferiori alla pressione atmosferica).
Lo schema dell’apparato sperimentale è mostrato in figura (tratta da Ramsauer,
cit., p. 28).
24
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
Cap. 3. LA NASCITA DELLA MECCANICA.
GALILEO E LA CADUTA DEI GRAVI
§ 3.1. La fisica pregalileana
La fisica pregalileiana è caratterizzata grosso modo da tre tappe relative ad
altrettanti stili di pensiero: la fisica aristotelica, la fisica dell’impetus, la ‘nuova’
fisica del metodo sperimentale.
Il contesto culturale prima di Galileo
Occorre tenere presente l’influenza esercitata sulla meccanica medievale, fino a
Galileo, dal pensiero e dalle opere (di derivazione greca e araba) di figure
imponenti come Aristotele (la Fisica), Pseudoaristotele (Mechanica), Euclide,
Pseudoeuclide (Libro sulla bilancia), Archimede (Sull’equilibrio dei piani, Sulla
gravità e la leggerezza), Erone Alessandrino (La Meccanica). Queste opere
penetrano in Occidente a partire dal XII secolo (traduzioni dal greco e dall’arabo in
latino; opere a stampa dal Cinquecento).
La struttura delle dimostrazioni (soprattutto in Euclide) è basata su assiomi,
postulati, teoremi; le dimostrazioni sono condotte more geometrico. Prevale l’uso
delle proporzioni (tra grandezze omogenee).
I pitagorici furono i primi ad applicare la matematica, in particolare all’ astronomia
(problema delle velocità dei corpi celesti, geometria dei moti sferici, ecc.). Platone,
pitagorico illustre, sostiene che lo studio della natura consiste nella ricerca di leggi
matematiche. Ma attenzione che ancora non ci sono né formule, né relazioni
algebriche (cfr. M. Clagett, La scienza della meccanica nel Medioevo, Feltrinelli,
Milano, 1981).
La tradizione platonica riemerge nel Quattrocento, con connotazioni
antiaristoteliche. E’ fondamentale nel Rinascimento in tutti i settori teorici e
applicati (astronomia, navigazione, ingegneria sia nel ramo civile sia militare,
cosmografia, cartografia, perfino nell’arte; problema della determinazione della
longitudine, misurazione del tempo, strumentazione di precisione). Forte interesse
per la costruzione di ‘macchine’ come “arte matematica” (J. Besson, 1569,
Ramelli, Veranzio, Zonca, Branca, 1629). Ruolo preminente del matematico.
25
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
Fine Cinquecento e Seicento, ruolo preminente del filosofo naturale. Precursori di
Galileo (1564-1642): Tartaglia (1506-1557), Giovan Battista Benedetti (15301590), Guidubaldo dal Monte (1545-1607).
La dottrina aristotelica del moto
Per Aristotele la legge del moto nel mondo sublunare è:
causa motrice
p
= ,
causa resistente la velocità di un corpo (“mobile” o “projectum”) aumenta con il peso del corpo e
diminuisce con la densità del mezzo resistente. Per mantenere il corpo in moto è
necessaria una causa efficiente continua (motore intrinseco al mobile e in contatto
continuo con esso; non sono ammesse forze a distanza, né il vuoto; per Aristotele
esistono solo moti resistenti. Il problema della persistenza del moto verrà risolto
con l’introduzione del concetto di inerzia solo nel Seicento). Questa assunzione si
salda nel tempo con la “teoria dell’impetus”.
v
La fisica dell’impetus
La teoria dell’impetus ha il suo massimo sviluppo nel XIV sec., al Merton College
di Oxford, in Inghilterra (tra il 1328 e il 1350; figure di rilievo, Tommaso
Bradwardine, Guglielmo Heytesbury, Riccardo Swinshead). L’impetus (o motor
conjunctus o vis impressa) è una sorta di forza motrice impressa intrinseca al corpo,
in grado di mantenerlo in movimento (per altri viene invece ipotizzato nel mezzo).
Quando si imprime a un corpo un moto “violento” (verso l’alto, verso il basso,
obliquamente, circolarmente e, in tal caso, si parla di “impeto circolare”), la
persistenza del moto si spiega con l’impeto. L’impeto è una grandezza vaga e
sfuggente; per taluni verrà definita come un ente che cresce con il peso e la velocità
del corpo (quindi, se per peso si intende la massa, come un “momento”, per
Galileo; o una “quantità di moto”per Cartesio e per Newton). Per un grave lanciato
verso l’alto, l’impetus si combina con la gravità (ramo in salita: prevale l’impetus;
sommità e poi ramo in discesa: prevale la gravità; si sommano gravità e impetus e il
grave aumenta la sua velocità).
Al Merton College, si distingue tra dinamica (quo ad causam, cause del moto) e
cinematica (quo ad effecta, effetti del moto); abbozzo del concetto di velocità
istantanea, del concetto di funzione, della legge sul m. u. a. (incrementi uguali di
velocità sono acquisiti in intervalli di tempo uguali). Inizia il “calcolo delle qualità”
(de intensione et remissione formarum = aumento e diminuzione di qualità o altre
forme).
Le idee elaborate al Merton College si diffondono, dal 1350, nell’Europa
continentale, in particolare nelle università parigine. Nella cosiddetta scuola dei
Terministi parigini (tra le figure di rilievo, Occam, Giovanni Buridano, Nicola
Oresme), Oresme chiarisce la rappresentazione geometrica bidimensionale della
cinematica.
Rappresentazioni grafiche del moto (“Calcolo delle qualità”)
Oresme introduce una rappresentazione grafica per descrivere le variazioni
dell’intensità di una qualità (cioè i gradi di calore, di velocità, di bianchezza, ecc.).
Si tratta di ‘curve’ che anticipano la moderna geometria analitica. In questa
rappresentazione, semplificando molto la trattazione, la “estensio” (o base) è
26
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
rappresentata da un segmento orizzontale e indica la qualità in esame; la “intensio”
(o altezza) è rappresentata da un segmento verticale, che ‘geometrizza’ l’intensità
della qualità in esame.
Una qualità uniforme, per es., viene rappresentata da un rettangolo la cui altezza
MN indica l’intensità di una qualità costante mentre la base rappresenta la qualità;
la sua mensura, cioè la quantità della qualità, è data dall’area del rettangolo ABED.
Nel caso di una qualità che varia in modo “uniformemente difforme” si ha un
triangolo; l’altezza MN indica l’intensità di una qualità che cresce uniformemente
al variare di N da A a B mentre la base AB indica la qualità in esame; la misura
corrisponde all’area del triangolo ABC. Nel caso del moto, se la qualità in esame è
la velocità, la fig. a sinistra indica un moto uniforme (l’intensità ha lo stesso
valore), la fig. a destra un moto uniformememte difforme.
.
C
D
N
E
A
M
B
N
M
A
B
Regola mertoniana (o di Oresme)
L’area del triangolo ABC è uguale all’area del rettangolo ABED con E punto
medio di BC. La mensura, o quantità, di una qualità uniformemente varia è la stessa
di una qualità costante uguale al valor medio della qualità uniformemente varia.
Nel caso del moto, la regola mertoniana dice che la quantità di una velocità
uniformemente varia (variabile da v0 a V), è uguale a quella che si avrebbe in un
moto ‘equabile’ (cioè uniforme) di velocità pari alla velocità media (v0+V)/2:
C
D
A
E
B
La regola offre un metodo per trattare un moto uniformemente accelerato ma non
viene applicata alla caduta dei gravi prima del Cinquecento (nessuno pensa che i
gravi in caduta libera si muovano di m. u. a.) né viene ricollegata all’impetus (non
si sa formalizzare l’impetus che resta legato alla ‘causa’ del moto).
Se avessero fatto un grafico come in figura, per un moto u. a., applicando la regola
mertoniana, avrebbero dovuto dedurre per lo spazio percorso dal mobile:
v +V
1
s= 0
t = v0 t + at 2 .
2
2
27
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
Ma l’ estrapolazione è indebita: la variabile tempo non viene ‘vista’ fino a Galileo,
la media, inoltre, va fatta nel tempo (a t=t/2) e non nello spazio (come continua a
fare Galileo nei Discorsi).
v
v=at
vm
t
t
t/2
In sintesi, leggi sul moto dei gravi prima di Galileo:
ne girano varie, anche incompatibili tra loro:
st, vs, st2 (sostenuta in partic. da Orsme), vt. La più popolare è st
(concezione di senso comune).
Ostacoli epistemologici:
legge di caduta dei gravi di Aristotele v p
;
e varie altre leggi sul moto;
nel lancio di un grave in aria, la traiettoria ha il ramo ascendente diverso da quello
discendente;
quando si ha un moto violento (per es., lancio di una pietra o di un proiettile con
una colubrina) la velocità iniziale è molto grande e poi diminuisce (influenza della
teoria dell’impetus);
ma anche, secondo Aristotele, la velocità è più grande verso terra perché il grave si
avvicina al suo luogo naturale (dove, per altro, Aristotele suppone che la resistenza
dell’aria sia minore);
sottovalutazione del concetto di accelerazione (accidente momentaneo);
per mantenere un grave in moto ci deve essere sempre una forza (influenza della
teoria dell’impetus; assenza del concetto di inerzia);
moti naturali e violenti non si combinano tra loro (vedi le traiettorie di lancio
rappresentate nelle stampe antiche, costituite da due segmenti rettilinei: ramo
ascendente, moto violento, ramo discendente in verticale, moto naturale; fino a che
si aderisce al postulato di Aristotele non si possono trovare parabole; Tartaglia è il
primo ad affermare che la traiettoria di un proiettile è curva in ogni sua parte, Nova
Scientia, 1537).
28
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
A ciò si aggiunga che: nel formalismo si usano solo proporzioni e proporzioni tra
grandezze omogenee (s/t è di là da venire); influenza delle rappresentazioni
grafiche del moto (non c’è la variabile tempo); non esiste calcolo infinitesimale (in
partic., il concetto di derivata, che esprime una velocità istantanea); non esiste una
nozione chiara delle grandezze cinematiche, medie e istantanee.
§3.2. Cronologia minima su Galileo
1564
1581
1589
1592
1604
1608
1609
1610
1612
1613
1616
1623
1632
1633
1638
1642
1973
Nasce a Pisa
Si iscrive allo Studio di Pisa per studiare medicina ma preferisce occuparsi di
geometria e di filosofia naturale.
Lettore di matematica allo Studio Pisano. Si occupa del problema della caduta dei
gravi.
Insegna matematica a Padova. Scrive il De Motu.
Prima formulazione della legge di caduta dei gravi nella lettera a Paolo Sarpi, 16
ott.
Scopre la forma parabolica del moto dei proiettili. A quest’anno viene datato il
manoscritto ‘ritrovato’ da S. Drake nel 1973.
Costruisce e impiega il telescopio. Si occupa ancora del problema del moto
(Frammenti) ma d’ora in poi il tema principale dei suoi studi sarà l’astronomia.
Pubblica il Sidereus Nuncius. Viene nominato Matematico e Filosofo del Granduca
di Toscana Cosimo II.
Pubblica il Discorso intorno alle cose che stanno in su l’acqua.
Istoria e dimostrazioni intorno alle macchie solari.
Condanna del sistema copernicano.
Il Saggiatore.
Dialogo sopra i due massimi sistemi del mondo.
Abiura.
Ad Arcetri, Discorsi e dimostrazioni matematiche intorno a due nuove scienze
attenenti alla meccanica et i movimenti locali.
Muore ad Arcetri.
Ritrovamento dei manoscritti da parte di S. Drake.
Evoluzione dei concetti di moto tra il 1592 e il 1638 (per trovare le leggi ‘giuste’ di
caduta dei gravi Galileo impiega 34 anni: dal 1604 al 1638).
Galileo: platonico, archimedeo, antiaristotelico. Galileo si dichiara discepolo del
“sovrumano Archimede che non nomino mai senza ammirazione”.
29
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
Figura di transizione fondamentale ed emblematica tra la fisica medievale e la
nuova filosofia naturale.
v. Autoritratto postumo di Galileo, A. Frova, M. Marenzana, Parola di Galileo,
Rizzoli, Milano, 1998.
§3.3. Ancora sui “gravi descendenti”
Aristotele: i corpi cadono con v p/ ; se ho due corpi di stessa sostanza e forma
ma di peso diverso, cade prima il corpo di peso maggiore.
Galileo:
tutti i corpi (rimuovendo la resistenza dell’aria) cadono con la stessa velocità! In
aria, l’eventuale diversità nei tempi di caduta dipende dal fattore di forma.
Esperimento (pensato) della torre di Pisa (mai eseguito da Galileo: rientra nel “mito
Galileo” al quale ha concorso il suo primo biografo, Vincenzo Viviani in Racconto
istorico della vita di Galileo Galilei):
due corpi di peso diverso cadono a terra insieme.
Galileo costruisce, con un esperimento pensato, un ragionamento per assurdo
ritenendo, come fa Aristotele, che v p (Discorsi, Giornata prima, Ed. Naz., VIII,
p. 106 e segg.; v. Frova, Marenzana, cit., p. 58 e seg.):
supponiamo per assurdo che anche nel vuoto arrivi prima il corpo più pesante; se è
così si avrebbe la situazione di fig. 1 (per il corpo grande A, il corpo piccolo B e
l’unione dei due A+B). Ma vale anche il ragionamento seguente: se B è più leggero
di A, nella combinazione di A+B, B dovrebbe frenare A (l’ordine di arrivo è perciò
quello di fig. 2).
B
B
B
A
A
B
A
A
(fig. 1)
(fig. 2)
Se dal ragionamento 1 e dal ragionamento 2 segue un assurdo, anche l’assunto di
partenza (vp) è sbagliato.
Salviati: “Se si levasse totalmente la resistenza del mezzo, tutte le materie
descenderebbero con eguali velocità” (Discorsi, Giornata prima, ibid., p. 116).
Nota (‘moderna’) sulla legge di caduta dei gravi di Aristotele vp/:
la legge non è così assurda (parlando alla Galileo, “sembra di sì,…tuttavia, sembra
anche di no”): non lo è perché nei moti resistenti, FA=-bv (con b che dipende dalla
viscosità del mezzo e dalla forma del corpo), dalla equazione del moto si ha
P+FA=ma, con P costante e FA e a funzioni del tempo, da cui
bt
bt
mg m
a = ge ; v =
1 e m ; a decresce esponenzialmente (a t=0, a=g, per
b t ,a 0tanto più rapidamente quanto più b è grande e m piccola); mentre v
30
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
cresce esponenzialmente (per t=0, v=0, per
t , v vlimite =
mg
;v. “effetto
b
paracadute”).
La legge è assurda perché quando osserviamo un grave cadere in aria questo
accelera.
v limite
g
in un mezz
resistente
v
nel vuoto
a
t
§3.4. La commedia degli equivoci
“E’ più facile, e più naturale, vedere, ovverosia immaginare, nello spazio, che
pensare nel tempo”.
A. Koyré, Studi Galileiani, Einaudi, Torino, 1976 (ed. originale, 1966), p. 94.
1604: lettera a Paolo Sarpi, Opere, Ed. Naz., X, p. 115.
2
Galileo si basa sulla proposizione s t (che prende da Oresme; giusta);
e per conseguenza sulla legge in base alla quale le velocità vanno “come i numeri
impari ab unitate” (giusta); ma poi conclude che v s (sbagliata); questa legge non
è compatibile con la legge del m. u. a. ma con una legge esponenziale.
Galileo sbaglia ma è in buona compagnia; sbagliano anche Benedetti, Leonardo,
Cartesio, Beeckman, ecc.
Perché tutti sbagliano?
L’errore proviene dalle rappresentazioni geometriche basate su relazioni spaziali.
Ma anche da osservazioni di senso comune: esperienza del palo conficcato nel
terreno con una mazza; più la mazza cala dall’alto più il palo si conficca (ma qui
Galileo confonde una energia cinetica con una velocità). Esperienza della sferetta
fatta cadere sulla cera: più la pallina cade dall’alto più è profonda l’impronta nella
cera (idem come sopra).
2
Comunque, Galileo sa che s t : ci deve arrivare; di qui, percorsi tortuosi
attraverso errori.
“Concepire nuove idee in una cornice concettuale non designata per esprimerla
richiede intuizioni fisiche senza precedenti”.
N. R. Hanson, I modelli della scoperta scientifica, Feltrinelli, Milano, 1978, p. 61.
1609 ca.: Frammenti attenenti ai Discorsi, Opere, Ed. Naz., VIII, p. 373.
Qui Galileo si accorge dell’errore ( v s ) ma arriva a dire che v 1/ t (sbagliata;
se la velocità in un moto u. a. aumenta, il tempo necessario a coprire s diminuisce:
31
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
“la velocità alla velocità ha contraria proportione che ha il tempo al tempo”), da cui
2
perviene a s t (giusta); Galileo arriva così a una legge giusta dedotta in modo
erroneo (v. Koyré, p. 103 e segg.) perché ancora confonde spazi e tempi. Introduce
la rappresentazione “triangolare” delle velocità ‘totali’ come aree di triangoli (v.
fig.). Lungo un piano inclinato le velocità vanno come i numeri dispari
(conclusione giusta da assunti sbagliati):
a
b
s c
d
e
f
a
g
b
c
d
h
k
e
f
i
v
l
Segmento verticale: s percorso nella caduta libera; segmento obliquo (di inclinazione qualunque,
non ha significato fisico); segmenti orizzontali: valori delle v quando il grave transita per i vari punti
della verticale.
1638: Discorsi e dimostrazioni matematiche intorno a due nuove scienze, Ed. Naz.,
VIII, pp. 203 e segg.
Giornata terza. Galileo vuole trovare la forma corretta della legge del moto. La
legge che cerca non è causale (Galileo non ricerca cause ma vuole solo descrivere
la cinematica dei gravi in caduta). Prima di tutto dimostra che v s è sbagliata. Le
2
ipotesi da cui partire sono: se il moto è u. a., a=cost., quindi v t s t ; il caso
della caduta libera è simile al caso della caduta di un grave che rotola su un piano
inclinato.
Simplicio chiede: E’ certamente così? Sarebbe “opportuno…arrecar qualche
esperienza di quelle che s’è detto esservene molte, che in diversi casi s’accordano
con le conclusioni dimostrate”.
Salviati: la richiesta è ragionevole. “E così si costuma e si conviene nelle scienze le
quali alle conclusioni naturali applicano le dimostrazioni matematiche e…con
sensate esperienze confermano li principi loro che sono i fondamenti di tutta la
struttura”.
(Da previsioni da “mondo di carta” a corroborazione mediante esperimento, cioè
“sensata esperienza”).
Descrizione dell’esperimento con il piano inclinato (v. memoria).
2
Galileo dimostra che s t , per qualunque inclinazione del piano inclinato, anche
in base al “principio di semplicità” (metafisica di fondo dello scienziato). “Osservo
che una pietra che discende dall’alto…tali aumenti avvengono secondo la più
semplice e ovvia proporzione”.
Galileo dà una interpretazione geometrica del moto (stavolta corretta): il segmento
verticale indica il tempo; i segmenti orizzontali gli incrementi di velocità; il
segmento obliquo, gli spazi (v. fig. 3). La velocità della sfera è la stessa a parità di
altezza per qualunque inclinazione del piano inclinato; di qui afferma che la caduta
verticale e obliqua seguono la stessa legge. Galileo applica la regola mertoniana:
32
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
v0 + v
t (aree nel grafico); in una unità di tempo viene percorsa una unità
2
di spazio, in due unità di tempo vengono percorse 4 unità di spazio, in 3 unità di
tempo vengono percorse 9 unità di spazio, ecc.
s = vmt =
s
1
4
1
t
2
9
3
v
(fig. 3)
Alla fine del percorso di Galileo:
legge del moto OK;
il parametro tempo è esplicitato;
non c’è bisogno di una forza per mantenere un corpo in movimento (abbozzo del
principio di inerzia);
la traiettoria dei proiettili è parabolica (Discorsi, si può affermare che “Il moto dei
proiettili farsi per linee paraboliche”. Galileo ci arriva intercettando la parabola di
tiro di un grave a varie altezze e ricostruendo per punti la curva; ma anche con
esperimento: palla tinta di inchiostro lanciata su una superficie metallica quasi
verticale; si vede tracciata la parabola, i cui rami sono simmetrici. L’esperimento
era stato già proposto da Guidubaldo Dal Monte).
1973: ritrovamento dei manoscritti di Galileo, databili intorno al 1608
(S. Drake, Galileo’s Experimental Confirmation of Horizontal Inertia. Unpublished
Manuscripts, Isis, 64 (1973), 291-305). Disputa Drake-Koyré (Koyré: con la
33
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
strumentazione disponibile all’epoca di Galileo, l’esperimento non poteva essere
reale).
“L’esperienza, è necessario ricordare che si tratta, come quasi sempre in Galileo, di
un’esperienza del suo pensiero?”
A. Koyré, cit., p. 139.
I manoscritti ritrovati servono a sfatare un luogo comune su Galileo: che egli non
avrebbe (quasi) mai fatto esperimenti, preferendo a questi gli esperimenti pensati (o
Gedankenexperiment).
Il dispositivo sperimentale di Galileo (foglio 116v.):
H = altezza del trampolino; h = 828 punti= 77,8 cm; altezza tavolo-pavimento; D =
gittata con v iniziale orizzontale (1 punto=0,94 mm).
Osservare la trascrizione del manoscritto da parte di Drake, i dati sperimentali
confrontati con i dati teorici. Non ci sono commenti di Galileo su questo
esperimento. Una possibile interpretazione è che Galileo deduca dall’esperimento
2
che D H e calcoli poi gli altri dati (“valori teorici”), e che verifichi inoltre che
nei moti orizzontali la velocità si conserva (gli sarebbe così chiaro il principio di
composizione dei moti; a favore di questa ipotesi c’è un manoscritto galileano con
un disegno della decomposizione dei moti; lungo x si conserva la velocità: il moto è
1/2
uniforme. Lungo y: il moto è u. a. e v (H) , risultato già acquisito intorno al
1609 da esperimenti con i pendoli, teorema delle corde, analogia tra pendoli e moto
lungo piani inclinati ).
5
2
Dimostrare che D H ( D = 2
Hh ).
7
1 2 1 2
Dalla conservazione dell’energia
mgH=K, con K = mv + I , dove
2
2
2 2
I = mr , momento d’inerzia della sferetta rispetto a un asse baricentrale e w=v/r;
5
7
10
2
da cui K =
mv e v =
gH . Per la traiettoria parabolica, trascurando la
7
10
2h
1
2
resistenza dell’aria, per il moto lungo la verticale: h = gt * , da cui t* =
; per
g
2
10
5
2h
gH
= 2 Hh .
il moto orizzontale D=vt* da cui D =
7
7
g
34
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
§3.5. Misurazione del tempo
Galileo impone gli intervalli di tempo uguali (mutua i metodi dalla musica): per Dt
uguali segna la posizione della palla. Come strumenti per misurare il tempo usa i
battiti del polso; gli orologi ad acqua (secchio pieno d’acqua con tubicino sul fondo
di portata costante, l’acqua viene raccolta in un recipiente e poi pesata; in queste
condizioni mt). Gli orologi meccanici ancora non ci sono e Galileo non pensa di
usare pendoli.
Gli esperimenti di Galileo sono stati ricostruiti ed eseguiti con modalità quanto più
vicine a quelle originali, da T. Settle, An experiment in the history of science,
Science, 133 (1961), 19-23; v. sito Istituto e Museo di Storia della Scienza di
Firenze: //galileo.imss.firenze.it; //brunelleschi.imss.fi.it.
§3.6. Qualche riflessione
“Le teorie fisiche forniscono modelli all’interno dei quali i dati appaiono intellegibili. Esse
costituiscono una “Gestalt concettuale”. Una teoria non si forma accozzando assieme i dati
frammentari di fenomeni osservati; essa è piuttosto ciò che rende possibile osservare i fenomeni
come appartenenti a una certa categoria e come connessi ad altri fenomeni. Le teorie organizzano i
fenomeni in sistemi. Esse sono costruite “alla rovescia”, retroduttivamente. Una teoria è un insieme
di conclusioni in cerca di una premessa. Dalle proprietà osservate di fenomeni, il fisico delinea col
ragionamento la sua via verso un’ idea centrale a partire dalla quale le proprietà risultano spiegabili
come ovvie. Il fisico non ricerca un insieme di oggetti possibili, ma un insieme di possibili
spiegazioni”.
N. R. Hanson, I modelli della scoperta scientifica, Feltrinelli, Milano, 1978, p. 109.
“Uno scienziato creativo non percorre mai linee di ricerca diritte e ben tracciate, ma si muove quasi
sempre a zig-zag, tra incertezze, ipotesi mal poste, misure difficili da interpretare, errori. Ci insegna
anche che questo modo di operare nel contesto della scoperta dipende in modo forte dal pezzo di
mondo che si sta esplorando: ciò che accade lungo un piano inclinato o nelle oscillazioni di un
pendolo non è una conseguenza dei nostri desideri. E, soprattutto, dovrebbe farci capire come sia
difficile, anche per un cervello come quello di Galileo, cogliere il significato di parole come
“velocità” o “accelerazione”, che pure usiamo con tanta disinvoltura nel linguaggio quotidiano”.
E. Bellone, Galileo. Le opere e i giorni di una mente inquieta, Quaderni di Le Scienze, n. 1, 1998.
Suggerimenti di attività:
Esperimento di Galileo con il piano inclinato, realizzato con mezzi di fortuna:
cronometro, metro, superficie inclinata lunga almeno 1 m, pallina (scegliere gli
35
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
spazi come s, s/2, s/3, ecc. e misurare ogni volta il tempo impiegato dalla pallina a
percorrerli); riportare i dati su grafico e verificare che st2.
Esperimento “fettuccia e bottoni”:
realizzata la fettuccia con i bottoni aventi distanze tra loro nel rapporto 1:3:5:7 ecc.;
che caratteristica ha il suono dei bottoni quando questi toccano terra? Dimostrare
che se i tempi tra un suono e l’altro sono uguali, le velocità stanno tra loro “come i
numeri impari ab unitate” e che questa legge è compatibile solo con st2.
Esperimento foglio-quaderno:
v. punto 5; l’esperimento dimostra che tutti i corpi cadono con la stessa
accelerazione senza dover usare il tubo di Newton e la pompa da vuoto.
CAP. 4. DAL CALORICO ALL’ENTROPIA
§4.1. La natura del calore
Le concezioni sulla natura del ‘calore’ che si contrapporranno e si alterneranno
nell’arco di secoli sono essenzialmente due: il calore come sostanza e il calore
come moto. La prima concezione si riallacciava alle dicotomie classiche, riprese
anche dalla filosofia scolastico-aristotelica, del freddo-caldo legato alle qualità
primarie e, in particolare, al fuoco come elemento primo della materia. In tal caso
la dilatazione termica veniva per esempio interpretata come dovuta all’immissione
di particelle di fuoco o calore (“ignicoli” e simili) nel corpo in esame, la
conduzione termica al passaggio di calore da un corpo all’altro, e così via. La
seconda concezione, che si ispirava al corpuscolarismo democriteo, riteneva
invece che il calore fosse il risultato di moti incessanti e caotici di “atomi
calorifici” (tondi e veloci) e di “atomi frigorifici” (spigolosi e lenti) costituenti la
materia. Con l’avvento della nuova filosofia sperimentale queste due concezioni
verranno riprese con alterne vicende e trasformate in vere e proprie teorie fisiche.
La distinzione tra la grandezza intensiva temperatura e la grandezza estensiva
calore, come vedremo, avverrà solo con le prime esperienze calorimetriche, sulle
mescolanze.
Un notevole passo avanti nel processo di concettualizzazione del calore venne
fatto da Galileo. Nel Saggiatore (1623), Galileo definì in tutta generalità i criteri
di scientificità nella trattazione di un fenomeno: le qualità secondarie soggettive
legate ai sensi -per esempio, odori, sapori, suoni- vanno superate a favore di
qualità primarie oggettive, descrivibili mediante dimensioni, forma, numero,
velocità delle particelle dei corpi. Lo scienziato, se vuole indagare il mondo fisico,
deve occuparsi di queste qualità. Si inaugura così un modo nuovo di descrivere la
natura che segna il passaggio “dal mondo del pressappoco all’universo della
precisione”. Galileo inoltre superò la dicotomia freddo-caldo affermando che il
freddo altro non è se non “privazione di caldo”. Al corpuscolarismo cinematico
(o teoria cinetica o meccanicismo, nelle varie accezioni che questo filone di
pensiero assumerà negli anni) aderiranno oltre a Galileo, P. Gassendi (15921655), Cartesio (1592-1650), Boyle, Hooke, Mariotte, C. Huygens (1629-1695) e
Newton. Nel Settecento prevarrà invece l’ipotesi sostanzialistica del calore sia
nella sua variante che considerava il calore come moto di particelle di una
sostanza sui generis (teoria cinetico-sostanzialistica), sia in quella che più
36
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
semplicemente considerava la sensazione del calore legata alla sola presenza di
una sostanza particolare non necessariamente dotate di proprietà cinetiche (teoria
sostanzialistica).
L’idea di calore come sostanza si sviluppò con il prevalere delle varie ipotesi dei
“fluidi imponderabili” invocati per spiegare diverse classi di fenomeni non solo
termici ma anche gravitazionali, luminosi, chimici, elettrici e magnetici. Qui è
presente un altro tratto comune all’evoluzione della fisica: la tendenza verso
l’unitarietà delle teorie, nel tentativo di individuare un numero ristretto di principi
primi in grado di spiegare diverse fenomenologie. Nel contesto delle spiegazioni
basate sui fluidi imponderabili si affermeranno: la “materia sottile” cartesiana
(plenum di materia), successivamente l’etere newtoniano (“mezzo molto più
sottile dell’aria” che rimane anche dopo che questa è stata rimossa, responsabile,
per esempio, della propagazione del calore nel vuoto), il flogisto dei chimici (o
materia solforosa di Stahl, simile ad una terra sottile che con la sua presenza
facilita la combustione), il fuoco della scuola olandese di H. Boerhaave (Elementa
Chemiae, 1732: la materia è costituita da atomi di materia ordinaria e di fuoco
elementare in moto), il fuoco-flogisto (inteso come costituente chimico dei corpi),
il fluido elettrico di Franklin (1749, con particelle autorepulsive e attrattive
rispetto alla materia ordinaria) e infine il calorico (1787).
Nella spiegazione dei fenomeni termici, l’ipotesi dell’esistenza del calorico avrà
una enorme diffusione. Inteso come una sostanza speciale verrà incluso nel 1787
nella nuova nomenclatura chimica (Méthode de nomenclature chimique di De
Morveau, Berthollet, Lavoisier, Fourcroy). Negli ambienti francesi si distingueva
in particolare tra calorique, o materia del calore, con atomi autorepulsivi, e
chaleur, o sensazione destata dal calore. A.-L. Lavoisier (1743-1794) si schierò a
favore del calorico in tre memorie del 1777 all’Académie des Sciences, nelle quali
spiegava i tre stati della materia come dovuti alla combinazione di calorico con la
materia ordinaria, la combustione e la calcinazione (ossidazione). Ma non fu
disposto ad attribuire a questa ipotesi verità assoluta8. Altri sostenitori dell’idea di
calorico furono Franklin, Aepinus, Black, Volta, Laplace, Dalton, Avogadro,
Ampère con riserve, Poisson, Sadi Carnot.
§4.2. La nascita della calorimetria
Nell’ambito della teoria del calorico, uno dei problemi più dibattuti riguardava il
‘grado di calore’ assunto da una mescolanza di due volumi diversi V della stessa
sostanza, per esempio acqua, aventi diversi ‘calori iniziali’. Dopo vari tentativi G.
W. Richman9 e J. Black (1728-1799)10, indipendentemente, arrivarono intorno al
1750 alla formula
V t + V2 t 2
t= 11
(1) .
V1 + V2
Black in particolare pervenne a questa relazione in analogia con la formula per le
diluizioni nella mescolanza di soluzioni
8
Cfr. F. Sebastiani, I fluidi imponderabili, Dedalo 1990, p. 34 e dello stesso autore “Alle origini
della termodinamica”, in CEE cit., 169-215.
9 G.W. Richman, Acad. Petrop., 1 (1750) 152.
10 J. Black, Lectures on the elements of Chemistry, Edinburgh, 1803 post., a cura di J. Robison.
37
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
V1S1 + V2 S2
(2),
V1 + V2
con S1 e S2 quantità di sale disciolto per unità di volume e, ancora, in analogia con
la formula
S h + S2 h2
h= 1 1
(3)
S1 + S2
per il livello all’equilibrio dell’acqua raggiunto in due vasi comunicanti di
sezione S1 e S2.
Le grandezze che si corrispondono nelle analogie considerate sono i volumi di
liquido contenente una certa quantità di sale S, i volumi d’acqua Sh, le quantità
di calorico Vt. Sia la (2) che la (3) sono una conseguenza della conservazione dei
volumi di liquido. Black, infatti, come i caloricisti, riteneva che il calorico si
conservasse.
Presto si riconobbe che la (1), sulla quale condussero esperimenti anche
Fahrenheit e Boerhaave, non era valida per sostanze diverse (in particolare, nelle
mescolanze con mercurio e acqua o acqua e ghiaccio gli sperimentatori
osserveranno che la (1) porta a paradossi). Finalmente Black trovò, intorno al
1760, la relazione
C V t + C2V2 t 2
t= 1 11
(4)
C1V1 + C2V2
dove C rappresenta il calore specifico, o “affinità per il calore” come veniva
chiamata da Black (la denominazione di “calore specifico” si deve al fisico
svedese J. C. Wilcke ed è del 1781), e CV è la capacità di un corpo a
“immagazzinare calore” (cioè la capacità termica). La denominazione “capacità”
risponde a pieno all’idea di calore come fluido assorbito da un corpo.
Black (1762) osservò pure che le cose si complicavano se nella mescolanza
avveniva un passaggio di stato: per esempio, se una certa massa d’acqua veniva
riscaldata e poi portata all’ebollizione fino all’evaporazione completa, si
osservava che la quantità di calore necessaria per far evaporare l’acqua era circa
500 volte maggiore di quella richiesta per scaldarla di 1°C, nonostante che durante
l’ebollizione la temperatura di acqua e vapore rimanesse praticamente costante.
Un fenomeno simile si riscontrava nella fusione del ghiaccio: da 0°C fino alla
liquefazione totale di una certa massa di ghiaccio veniva assorbita una quantità di
calore pari a quella necessaria a scaldare la stessa massa d’acqua da 0 a 80°C. Lo
stesso avveniva nei processi inversi per la cessione di calore, per esempio nella
condensazione o nel congelamento dell’acqua. L’ipotesi avanzata da Black fu
allora che il calore scomparso o apparso durante i passaggi di stato- senza che a
esso fosse associata alcuna variazione sensibile di temperatura- dovesse esistere
ancora nel corpo sotto forma latente (da qui la denominazione di “calore
latente”).
Sempre a Black si deve ancora la definizione corretta di “equilibrio termico”:
S=
Un passo avanti nella nostra conoscenza del calore, ottenuta grazie all’uso dei termometri, consiste
nella nozione più chiara rispetto al passato della distribuzione del calore fra corpi differenti. Anche
senza l’aiuto dei termometri possiamo percepire una tendenza del calore a diffondere da un corpo
più caldo a uno più freddo posto in prossimità fino a che il calore stesso, non si sarà distribuito fra
di essi in modo che nessuno dei due sia più in grado di riceverne ancora dall’altro. Il calore è così
portato in uno stato di equilibrio.
38
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
Questo equilibrio è veramente particolare. Ci accorgiamo che quando ogni azione mutua è finita,
un termometro applicato a uno qualunque dei due corpi è soggetto allo stesso grado di dilatazione.
Perciò la loro temperatura è la stessa. Dobbiamo interamente questa scoperta al termometro poiché
nessuna nozione anteriore sulla particolare relazione tra ciascun corpo e il calore avrebbe potuto
darci la garanzia di un fatto del genere. Dobbiamo perciò adottare come una delle leggi più
generali del calore il principio che tutti i corpi che comunicano liberamente tra loro e non esposti
ad alcuna disomogeneità dovuta a cause esterne, assumono la stessa temperatura, come è indicato
dal termometro. E tutti assumono la temperatura del mezzo circostante.
Con l’uso del termometro abbiamo imparato che se abbiamo migliaia diversi tipi di materia come
metalli, pietre, sali, legno, sughero, piume, lana, acqua e una varietà di altri fluidi, sebbene
all’inizio possano avere tutti temperature diverse, se noi li poniamo tutti insieme in una stanza
senza che vi siano fiamme e al riparo del sole, il calore si propagherà dal più caldo di questi corpi
al più freddo, magari nel corso di ore o di giorni ma, alla fine, se applichiamo loro un termometro
in successione, esso darà esattamente la stessa risposta. [...] Questo è ciò che comunemente è stato
definito “calore uguale”, o “uguaglianza di calore tra corpi diversi”; io lo definisco “equilibrio del
calore”.11
La temperatura misurata da un termometro è dunque grandezza diversa dal calore,
come ente che ‘passa’ da un corpo ad alta temperatura a uno a bassa temperatura e
che si misura con un calorimetro (il termine “calorimetro” viene introdotto da
Lavoisier nel 1789).
Il calorimetro a ghiaccio di Lavoisier
Le ipotesi che il calorico sia un fluido (hp 0), che le particelle di calorico siano tra
loro repulsive (hp1), che possa esistere allo stato libero e latente (hp2) (o, in
alternativa, l’ipotesi che il calorico possa modificare la capacità termica dei corpi,
hp3), oltre all’idea che il calorico si conservi (hp 4), sono sufficienti a interpretare
correttamente una quantità di fenomeni tra i quali: la dilatazione termica
(hp0+hp1); i cambiamenti di stato (hp0+ hp1+ hp2 ); la pressione (o elasticità o
espandibilità) di un gas ((hp0+hp1); il riscaldamento per attrito (hp 0+ hp2 o 3); il
raffreddamento (o il riscaldamento) nell’espansione (o compressione) adiabatica
di un gas (hp2 o 3); l’espansione (o la compressione) isoterma di un gas (hp0:
calorico scambiato in modo da mantenere costante la temperatura); i processi
11
39
J. Black, cit., in W.G. Magie, A source book in physics, New York 1939, p. 135.
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
chimici eso- (o endo-) termici (hp0+ hp1, oppure hp0+ hp 2); la relazione per la
temperatura all’equilibrio in una mescolanza (hp0+ hp4, purché non ci siano
perdite di calore con l’esterno). Ma se pure queste ipotesi servono a interpretare
correttamente e a salvare localmente un dato fenomeno, nel complesso non sono
in grado di costituire una teoria unitaria, predittiva, comprovabile
sperimentalmente e in grado di spiegare intere classi di fenomeni.
§4.3. Dal calore come sostanza al calore come moto
L’ idea del calore come movimento è una ipotesi continuamente presa in
considerazione nel corso della storia della scienza ma, fino ai primi decenni
dell’Ottocento, sembrò destinata a rimanere in secondo piano perché meno
intuitiva e di più difficile formalizzazione dell’idea rivale di calore come sostanza.
La stessa dicotomia moto-sostanza si presentava del resto anche in altri settori
della scienza, primo fra tutti l’ ottica dove per secoli si dibatterà se la luce sia
moto o materia portando, con alterne vicende, al prevalere di teorie ondulatorie o
corpuscolari a seconda dei fenomeni da spiegare. E il dibattito sulla natura del
calore verrà associato proprio a quello della luce: nei primi decenni dell’Ottocento
si osserverà sperimentalmente che i cosiddetti raggi calorici- o calore raggiante- si
comportano come la luce, in particolare si propagano nel vuoto, vengono riflessi,
rifratti, sembrano avere la stessa velocità della luce (per esempio durante le eclissi
di Sole, luce e calore spariscono contemporaneamente), subiscono interferenza e
polarizzazione. Al riguardo sono esemplari le esperienze di M. Melloni (17981854) del 1827, che dimostrarono in modo non equivoco che “calorico raggiante”
e luce presentano la stessa fenomenologia e dunque, anche i raggi calorici possono
essere pensati come un’ondulazione dell’etere piuttosto che come una sostanza sui
generis. Tutto ciò contribuirà ad avvalorare l’ipotesi che il calore sia moto e che il
calorico non esiste.
A favore della teoria cinetica del calore e contro il modello di calorico si
schiereranno tra la fine del Settecento e l’inizio dell’Ottocento Benjamin
Thompson (conte Rumford), H. Davy, Th. Young, A. M. Ampère soprattutto
perché l’ipotesi di calorico porterà a problemi irrisolvibili.
C’era infatti una classe di fenomeni che la teoria del calorico non riusciva
facilmente a spiegare a meno di non ricorrere a una molteplicità di ipotesi ad hoc:
martellando o facendo attrito su una superficie metallica con un altro corpo
metallico si osservava una produzione di calore apparentemente illimitata. I
caloricisti interpretavano il fenomeno attribuendolo a calorico latente che per
attrito o percosse veniva liberato dalla massa del metallo. Ma anche così l’idea di
un fluido, che si presentava i questi processi in quantità che aumentavano sempre
più nel tempo e che contemporaneamente doveva conservarsi, era difficile da
salvare. Al riguardo sono celebri gli esperimenti condotti da Rumford (17531814) sulla natura del calore12. Il primo problema da risolvere riguardava la massa
da attribuire al calore, se era vero che questo fosse una sostanza. Sebbene
convinto già a priori che un corpo non acquista (o perde) massa se riscaldato (o
raffreddato), dopo una lunga campagna di misure condotte intorno al 178013,
Rumford concluse di “poter affermare con sicurezza che tutti i tentativi di scoprire
un effetto del calore sul peso apparente dei corpi devono considerarsi infruttuosi”.
12
Su questo caso cfr. Harvard cases, cit., p. 155 e seg.
B. Thompson, An inquiry concerning the weight ascribed to heat, Phil. Trans., 89 (1799) 179;
anche in The complete works of count Rumford, Amer. Acad. of Arts and Sciences, Boston, II, 1-16.
13
40
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
Rispetto al problema della produzione di calore per attrito, Rumford se ne
occuperà in una accurata indagine sperimentale pubblicata nel 179814:
Mentre ero intento a sovrintendere alla foratura dei cannoni nelle officine dell’arsenale militare di
Monaco fui colpito dal grado assai considerevole di calore che un pezzo di artiglieria d’ottone
acquista in poco tempo quando è forato; anche i trucioli metallici asportati dal trapano
presentavano una temperatura ancora più alta (molto più alta di quella dell’acqua bollente come
constatai con l’esperimento). Più riflettevo su questi fenomeni più questi mi apparivano curiosi e
interessanti. Una loro indagine più accurata mi sembrò adatta a comprendere meglio la natura
nascosta del calore, e a consentirci di formarci delle idee ragionevoli sull'esistenza o non esistenza
di un fluido igneo, un argomento su cui le opinioni dei filosofi si sono molto divise in tutti i
tempi15.
I caloricisti tentarono di spiegare il fenomeno arrampicandosi sugli specchi: dopo
averlo attribuito a calorico latente, dal momento che esso sembrava non dipendere
dalla massa di metallo asportato tirarono fuori dal cappello un’altra ipotesi ad hoc,
giustificando la sua produzione come dovuta ad una diminuzione della capacità
termica dei frammenti asportati rispetto alla capacità termica del blocco di
metallo. Rumford allora eseguì un esperimento nel quale misurò sia il calore
specifico cp della polvere di ottone prodotta durante la foratura del tubo del
cannone, che quello cm dei frammenti della massa del tubo, asportati con una
sega. Con il calorimetro delle mescolanze, misurando separatamente cp e cm e
ripetendo più volte le misure, constatò che i due valori coincidevano e che quindi,
a parità di massa, la capacità termica della polvere di metallo era identica a quella
dei frammenti e a quella del blocco di metallo.
Racchiudendo poi una parte del tubo del cannone da alesare con la punta di ferro
del trapano che operava al suo interno, in una cassa di legno a tenuta piena di 8 l
d’acqua, controllando la temperatura dell’acqua e della massa del metallo da
forare con dei termometri a mercurio, Rumford poté osservare e valutare l'enorme
quantità di calore prodotto per attrito. Dopo due ore e mezzo durante le quali il
trapano continuava a lavorare con una velocità di rotazione nota (impressa da una
serie di rotismi mossi da uno o più cavalli), l’acqua entrò addirittura in
ebollizione. Rumford concluse così che:
La fonte di calore generata per attrito in questi esperimenti appariva inesauribile. E’ assai difficile
affermare che ciò che è in grado di fornire qualcosa senza limitazione ad un corpo o ad un sistema
di corpi isolati possa essere una sostanza materiale; e mi sembra estremamente difficile se non
impossibile farsi una idea di qualcosa capace di essere eccitata e trasferita nel modo in cui calore è
eccitato e trasferito in questi esperimenti, a meno che questa non sia moto16.
14
B. Thompson, Experimental inquiry concerning the source of heat which is excited by friction,
Phil. Trans., 88(1798) 80; Complete Works, cit., I, pp. 471-493.
15 Cit. in Conant, p. 171.
16 Ivi, p. 188. I dati forniti da Rumford vennero più tardi utilizzati da Joule per calcolare l’
“equivalente meccanico del calore”. Tra lavoro meccanico speso L e calore prodotto Q deve
sussistere, secondo Joule, una proporzionalità diretta. Così, dai dati di Rumford si ottiene: durata
dell’esperimento: 2,5 ore=150 min =9000 s; massa d’acqua nel calorimetro: 26,6 libbre
corrispondenti a una capacità termica di 12,1 kcal/°C; variazione di temperatura dal valore iniziale
fino all’ebollizione: DT=100°C. Questo valore deve essere corretto per tener conto delle perdite di
calore per unità di tempo che comportano una diminuzione della temperatura stimata da Rumford di 0,6°F/min; per l’intera durata dell’esperimento si ha perciò 0,6 150 min =90°F= 50°C con DT’=
150°C; la quantità di calore prodotto per attrito, con riferimento alla sola acqua, è Q= 12,1 kcal/°C
150°C= 1815 kcal; se si suppone che la potenza fornita da un cavallo sia 1HP = 75 mkg-p/s, si ha L=
41
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
H. Davy (1788-1829) fu in grado di produrre una elegante controprova
sperimentale ancora più convincente di quella di Rumford17. Presi due pezzi di
ghiaccio a -2°C, per attrito questi si liquefanno più rapidamente; l’acqua di
fusione non solo non ha una capacità termica inferiore a quella del corpo da cui si
separa ma ha un calore specifico sensibilmente maggiore di quello del ghiaccio, a
parità di massa, e quindi a fortiori contraddice l’ipotesi dei caloricisti:
Da questo esperimento è evidente che per attrito ghiaccio è convertito in acqua e in accordo
all’assunzione dei caloricisti il suo calore specifico dovrebbe essere diminuito. Ma è ben noto che
il calore specifico del ghiaccio è molto più piccolo di quello dell’acqua; e per di più che una certa
quantità di calore [calore latente di fusione] deve essere aggiunta al ghiaccio per trasformarlo in
acqua. L’attrito per conseguenza non diminuisce i calori specifici dei corpi18.
L’esperimento di Davy, nonostante presenti complicazioni sperimentali non banali
(dovute per esempio alla presenza di uno strato d’acqua tra i due blocchi che
riduce il calore prodotto, o alla possibilità che le due superfici si attacchino
ostacolando il lavoro fatto dalla forza d’attrito a causa del fenomeno del rigelo) è
tuttavia di estrema linearità: può essere presentato agli studenti come esperimento
mentale per sollecitare previsioni sull’andamento del processo e argomentazioni
contro la teoria del calorico.
§4.4. Carnot e il rendimento delle “macchine a fuoco”
La scienza del calore non crebbe lungo linee evolutive isolate ma mantenne
sempre saldi legami con la pratica, soprattutto con la meccanica applicata alle
macchine, dal momento che la “potenza del fuoco” venne subito riconosciuta
come una possibile fonte di energia. Dal punto di vista della meccanica teorica,
l’imponente eredità lasciata da I. Newton (1642-1727) e da G. Leibniz (16461716) aveva portato alla fine del Settecento a due orientamenti diversi ma in una
certa misura complementari: il primo si rifaceva alla tradizione vettoriale
direttamente riconducibile ai Principia di Newton (1687), dove lo spazio, il
tempo, la massa e la forza definita come causa esterna alla materia, responsabile
della variazione di moto di un corpo, venivano considerati i parametri
fondamentali nella descrizione dei processi dinamici; si sosteneva inoltre che la
materia fosse costituita da atomi duri e indeformabili e pertanto, verificandosi solo
urti anelastici, i principi di conservazione erano assenti.
L’altro orientamento in meccanica si rifaceva invece alla tradizione scalare, o
‘energetica’, di Leibniz e di G. L. Lagrange (1736-1813; Mécanique analitique,
1788), dove, oltre ai parametri già menzionati, alla nozione di forza si sostituiva
quella di una grandezza scalare riconducibile alla vis viva (o energia cinetica)
posseduta dalla materia; si ammetteva inoltre l’esistenza di una “funzione lavoro”
esprimibile come somma di energia cinetica e potenziale per la configurazione di
un corpo o di un sistema di corpi. In questo orientamento, che presupponeva una
75 9000 s= 675.000 mkg-p che porta a un equivalente pari a J= L/Q= 675.000/1815= 372 mkg-p/kcal
(circa 3,4 J/cal contro i 4,8 corretti).
17 H. Davy, An essay on heat, light and combinations of light, in Contributions to physical and
medical knowledge, 1799.
18 Da Conant, cit. p.193.
42
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
materia continua e pervasa di energia, prevalevano principi di conservazione
validi però nel solo contesto della meccanica analitica, ovvero in tutti quei
processi ideali nei quali i vincoli sono lisci, le forze sono centrali e così via (cioè
nei processi conservativi).
A fianco di questi orientamenti teorici si sviluppò di pari passo, spesso
precedendo la teoria, la meccanica applicata alle macchine, legata alla pratica dei
tecnici e poi dei cosiddetti scienziati-ingegneri. In questo ambito, soprattutto in
ambiente inglese e francese, si iniziò nella seconda metà del Settecento una
intensa sperimentazione tesa in particolare a studiare la perdita di vis viva che
avveniva inevitabilmente nel funzionamento reale delle macchine, ben lontane dal
comportamento ideale a cui si riferiva la meccanica analitica. La sperimentazione
con macchine reali, prima basate sull’uso di ruote idrauliche e a vento e poi
sempre più sull'impiego di altre ‘potenze naturali’ dovute alla pressione
atmosferica e alla espansione o alla condensazione del vapore, si andò
intensificando, in Inghilterra, in conseguenza del passaggio dal sistema
manifatturiero a quello delle fabbriche (rivoluzione industriale, 1770-1790) e in
Francia, nel periodo napoleonico, nel clima della Ecole Polytechnique (1794).
Tra le prime proposte di macchine in grado di fornire lavoro utile figurano i
progetti di Della Porta (1601), Guericke (1651), Papin (1690), che sfruttano la
pressione atmosferica e il vuoto. Fatto il vuoto in un recipiente chiuso da un
pistone a tenuta (con una pompa da vuoto o per condensazione del vapore
prodotto nel recipiente per riscaldamento d’acqua), la pressione atmosferica
sospinge il pistone verso il basso, generando un movimento che può essere
sfruttato per esempio per sollevare pesi (in fig. è mostrata una stampa da O. von
Guericke, Experimenta nova, Amsterdam, 1672).
La prima realizzazione pratica di una “macchina atmosferica” in grado di
funzionare regolarmente si deve a T. Savery (1698) e a T. Newcomen (1722).
Queste macchine fornirono a J. Watt (1736-1819) i prototipi che porteranno, a
partire dal 1769, attraverso una serie di brillanti innovazioni tecniche, alla
macchina a vapore. In fig., l’esperimento pionieristico di J. Smeaton, del 1759,
per misurare il rendimento delle ruote undershot, Phil. Trans., 51 (1759), 100174.
43
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
Tra la fine del Settecento e l’inizio dell’Ottocento si verificherà un processo di
fusione tra sapere pratico e sapere teorico, fondato sul filone della meccanica
pratica inglese e sulla tradizione razionalizzante francese. In questo processo
emergerà una nuova grandezza fisica, quella di lavoro meccanico, e con essa le
prime definizioni di rendimento di una macchina, prima con gli studi di L. Carnot
(1753-1823) e poi, tra gli altri, di C. L. Navier (1785-1836), G. G. Coriolis (17921843), J. V. Poncelet (1788-1867) sulle macchine motrici; e solo quando il
processo di compenetrazione tra la tradizione della meccanica teorica da un lato, e
degli scienziati-ingegneri e dei costruttori di macchine, dall’altro, arriverà a
compimento, il concetto di lavoro assumerà una identità concettuale e operativa.
Tra i tentativi di definire l’ ‘utilità’ di una macchina, l’industria mineraria indicava
come criterio di misura nel sollevamento di un carico, il prodotto del suo peso per
una certa quota h. J. T. Desaguliers (1683-1744), quantificò la potenza di un
cavallo in termini di sollevamento di 44.000 libbre per la distanza di un piede al
minuto. Watt impose poi lo standard di 33.000 libbre per piede al minuto. Per
quanto riguarda l’unità di lavoro meccanico, Hachette in Francia, introdusse nel
1811 un metro cubo d’acqua sollevato per un metro; la stessa unità venne
chiamata da Coriolis “dynamode”, o unità di “travail” (denominazione che a suo
parere esprimeva meglio ciò che prima di lui veniva chiamata “potenza motrice”,
o “effetto dinamico” o “quantità d’azione”), corrispondente alla metà della vis
viva. Infine Poncelet, nel 1841, usò per la prima volta in senso moderno il
concetto di lavoro nel suo trattato Méchanique Industrielle e definì nel caso
generale il lavoro necessario a superare una resistenza variabile come l’area
sottesa dal grafico della resistenza in funzione della distanza percorsa.
In questo clima si inserisce il contributo fondamentale di un giovane ingegnere
francese, Sadi Carnot (1796-1832) che nel 1824 pubblicò le Réflexions sur la
puissance motrice du feu et sur le machines propres à developer cette puissance,
un breve trattato che segnò una svolta radicale nella scienza del calore. In esso
veniva formulato, per una macchina termica ideale che funzioni ciclicamente, e
nell’ambito della teoria del calorico, il teorema di Carnot che conteneva in sé i
presupposti al secondo principio della termodinamica. I problemi che Carnot tentò
44
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
di risolvere riguardavano a. il principio generale di funzionamento delle
macchine termiche; b. l’esistenza di un limite massimo per il rendimento
ottenibile da una macchina termica; c. la dipendenza tra la potenza motrice
massima ottenibile da una macchina, e la particolare sostanza agente impiegata.
Macchina a vapore a doppio effetto di Watt, 1784, da R. Singer, E. J. Holmyard, A. R. Hall, Storia
della Tecnologia, vol. 4, Boringhieri, Torino, 1964.
Rispetto al primo punto, nelle macchine a vapore la produzione di potenza motrice
è dovuta, per Carnot, a un trasferimento di calorico almeno tra due sorgenti a
temperature diverse. Per rendere intuitivo il processo Carnot si servì di una
analogia tra macchine idrauliche e macchine “a fuoco”: così come una ruota
idraulica sfrutta la caduta di una massa d’acqua tra due serbatoi posti a un
dislivello h, una macchina termica impiega il ‘dislivello’ di temperatura T tra
due sorgenti e produce lavoro attraverso un processo di riequilibrio termico, cioè
tramite una “caduta di calorico da un grado di intensità all’altro”.
Rispetto ai punti b e c, Carnot enunciò un teorema che ammetteva l’esistenza di
un limite massimo per la potenza motrice prodotta da una macchina termica in un
ciclo del suo funzionamento, durante il quale una certa quantità di calore veniva
trasferita da una sorgente calda a una fredda. Questa potenza motrice massima non
dipendeva dall’agente impiegato (vapor acqueo, aria, vapore d’alcool) né dalle
caratteristiche costruttive della macchina ma solo da T e dalla quantità di calore
trasferito (L= cost. QT).
Il teorema esprime, nella terminologia moderna, la definizione del rendimento per
il ciclo di Carnot: data una macchina ideale, costituita da un cilindro contenente
aria, chiuso da un pistone, e due sorgenti a temperatura diversa, Carnot supponeva
che il cilindro venisse posto a contatto con la sorgente calda e assorbisse
isotermicamente calorico; quindi venisse isolato termicamente fino a che la caduta
di calorico non arrivava alla temperatura della sorgente fredda: poiché
l’espansione avveniva senza assorbimento di calorico, il gas si raffreddava;
successivamente il gas, compresso isotermicamente, cedeva calorico alla sorgente
fredda e infine veniva riportato alla temperatura della sorgente calda senza
cessione di calorico.
Si ha così, nel piano pressione-volume, la nota rappresentazione del ciclo di
Carnot (la quale, in realtà, è posteriore e si deve a Clapeyron, 1834)19, in cui si
19
45
E. Clapeyron, Memoir on the motive power of heat, Journ. de l’Ecole Polyt., 14, 1834.
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
realizza, nella fase di espansione adiabatica, la caduta di calorico dalla sorgente
calda alla fredda: contemporaneamente viene prodotta potenza motrice causata
dalle variazioni di volume subite dal gas (cioè, nelle “macchine a fuoco”, dagli
spostamenti del pistone nel cilindro). Carnot affermò così che il rendimento di una
macchina termica era massimo quando la caduta di calorico era associata
unicamente a variazioni di volume, senza che intervenissero durante il suo
funzionamento variazioni di temperatura dovute a conduzione termica.
Il teorema di Carnot si basava dunque sull’assunto che il calore fosse un fluido
indistruttibile che non poteva essere consumato o trasformato in lavoro (cioè il
calorico per Carnot era una “funzione di stato”: in un ciclo Q=0 e Qass= Qced) e
che la macchina ammetteva un rendimento massimo quando funzionava
reversibilmente. Una macchina funzionava reversibilmente per Carnot quando,
lavorando all’inverso, trasportava la stessa quantità di calore consumando la stessa
potenza motrice. Un processo reversibile corrispondeva quindi ad un processo
senza sprechi, nel quale cioè si aveva produzione di potenza motrice solo
attraverso una variazione di volume, mentre un processo era irreversibile se la
tendenza del calorico ad assumere una condizione di equilibrio non veniva
sfruttata completamente a causa di sprechi dovuti a conduzione. Nella trattazione
di Carnot veniva così enunciato il secondo principio della termodinamica ma, dal
momento che veniva esclusa la possibilità di conversione di lavoro in calore (e
viceversa), veniva di fatto negato il principio generale di conservazione
dell’energia, cioè il primo principio. Vedremo tra breve come Joule affronterà il
problema.
Storicamente, l’enunciato del secondo principio precede così di circa vent’anni la
formulazione del primo principio alla quale concorreranno a metà Ottocento
numerosi scopritori simultanei20 tra i quali Mayer, Joule ed Helmholtz. Un fattore
importante che influenzò la scoperta fu dovuto alle molte classi di fenomeni che
rivelavano una connessione stretta tra “forze naturali” di diversa origine, in
particolare tra chimismo e galvanismo (Galvani, Volta, Davy, Berzelius), tra
elettricità e magnetismo (Oersted, 1820), calore ed elettricità (Seebeck, 1822),
magnetismo e luce (Faraday, 1831), luce e calore radiante (Melloni, 1827). Queste
connessioni, inserite per di più in un clima filosofico assai favorevole
(Naturphilosophie in Germania e Natural Philosophy in Inghilterra) rafforzarono
sempre più la concezione che tutte le ‘forze naturali’ sono correlate e che esista
nell’universo una unità indistruttibile delle forze. E’ in questo clima che
matureranno i contributi sperimentali di Mayer e di Joule, diretti alla ricerca di un
“equivalente meccanico del calore”, e contemporaneamente il concetto di
“energia”.
§4.5. Gli esperimenti di Mayer e di Joule sulla determinazione
dell’equivalente del calore
20
Cfr. sull’argomento, Y. Elkanà, La scoperta della conservazione dell’energia, Feltrinelli 1977; T.
Kuhn, “Energy conservation as an example of simultaneous discovery”, in Critical problems as an
example of simultaneous discovery, a cura di M. Clagett, Madison 1959, 321-356; M.G. Ianniello,
“La scoperta dell’energia”, in CEE, cit, 216-273.
46
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
R. J. Mayer (1814-1878) era un outsider che si occupava piuttosto di medicina che
di fisica: partendo dalle teorie della produzione del calore animale arrivò intorno
al 184221 a una sorta di equazione di bilancio tra ossigenazione e calore corporeo
perduto, più lavoro manuale fatto. La convertibilità e la conservazione delle
‘forze’ naturali venne poi generalizzata al mondo inorganico, dal momento che
per Mayer non esistevano differenze sostanziali tra mondo animato e inanimato.
Tutti i processi naturali con produzione di calore dovevano perciò essere
accompagnati da una distruzione di ‘forze’ di altra natura, secondo un preciso
rapporto di conversione. Per Mayer la determinazione di un equivalente
meccanico del calore poteva essere così condotta, indifferentemente, misurando la
differenza tra i calori specifici a pressione e a volume costante nella espansione di
un gas, così come analizzando il bilancio energetico tra azione chimica nella
respirazione e calore prodotto dagli organismi viventi. E questo perché le forze
non sono altro che manifestazioni diverse di una unica Urkraft (o ‘forza’
primigenia) aventi tutte pari significato.
L’esperimento ideato da Mayer si basa sul riscaldamento di un gas a pressione
costante e poi a volume costante. E’ una sorta di compromesso tra un esperimento
mentale e una deduzione logica che deriva da convinzioni ben radicate nel
fisiologo tedesco: in altre parole si tratta di un esperimento che serve a dedurre
risultati che già a priori sono scontati per Mayer. Le conoscenze di cui si servirà
l’autore nel suo ragionamento riguardano il coefficiente di dilatazione dei gas,
l’esperienza di espansione libera di un gas, i valori del calore specifico a pressione
e a volume costante per l’aria, già dedotti da Gay-Lussac nei suoi esperimenti
sulla fisica dei gas. Ricostruiamo il ragionamento di Mayer (non proprio chiaro e
un po’ sintetico) con un po’ di libertà e abbandonando le unità di misura tecniche
usate dallo scienziato tedesco22. Preso un cilindro di sezione S=1 m2, chiuso da un
pistone di massa trascurabile libero di scorrere senza attrito, in esso viene posto 1
kg d’aria in condizioni normali. Nota la densità dell’aria (aria =1,293 kg/m3) si
risale alla altezza h a cui si trova il pistone: h= maria/ S aria= 1 kg/1 1,293 kg m-1=
0,773 m.
La forza esercitata sul pistone dalla pressione atmosferica è: F= pS= (105N/m2)1
m2=10.330 kg-p. Ora, se l’aria viene scaldata di 1°C essa si espanderà facendo
sollevare il pistone di h = (1/273) 0,7773 = 0,00283 m sicché il gas avrà fatto
sull’esterno un lavoro L= pV= 105 0,00283= 283 J=29,3 mkg-p. Per aumentare
di 1°C la temperatura del gas, è stata perciò necessaria una quantità di calore Q1=
mariacp 1°= 0,24 kcal con cp noto. Immaginiamo ora di far subire al gas una
espansione libera in modo tale che, alla fine del processo, il gas si trovi alla stessa
temperatura. Se ora il riscaldamento dell’aria viene eseguito a volume costante,
sarebbe necessario un calore Q2= 0,17 kcal e, di nuovo, se si fa espandere nel
vuoto si porterebbe nelle identiche condizioni finali del primo caso. La differenza
sostanziale tra i due casi, osserva Mayer, è che Q1= Q2+x poiché nel
riscaldamento a p costante è associato un effetto meccanico assente nel
riscaldamento a V costante. E dunque Mayer ipotizza che la quantità di calore x=
Q3=Q1-Q2= 0,07 kcal (corrispondente a cp - cV) sia esattamente equivalente al
21
R.J. Mayer, Bemerkungen über die Kräfte der unbelebten Natur, Ann. der chem. Pharm., 42
(1842), 233-240.
22 Cfr. Ramsauer, cit., p.40.
47
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
lavoro meccanico fatto dal gas nell’espansione a p costante. Si ha pertanto L/Q3=
29,3/0,07= 420 mkg-p/kcal come valore dell’ “equivalente del calore”.
J. P. Joule (1818-1889) iniziò molto giovane la sua carriera scientifica come
tecnologo delle prime macchine elettriche, convinto che il loro rendimento si
sarebbe dimostrato prima o poi maggiore di quello delle macchina a vapore. Il
cammino di Joule verso l’equivalente calore-lavoro si svolse tra il 1840 e il 1847.
Al 1840 risale la scoperta della legge sul calore sviluppato dall’elettricità voltaica
in un conduttore metallico, il cosiddetto “effetto Joule”, che rappresentò il primo
passo verso lo studio dell’equivalente meccanico del calore. Dal 1840 al 1843 lo
scienziato inglese si dedicò poi allo studio del calore sviluppato nelle reazioni
chimiche e nei processi elettrolitici. In questi anni, sulla scia della teoria
elettrochimica di Faraday e di Davy, Joule era convinto che qualsiasi fenomeno
potesse essere riconducibile, a livello microscopico, alla presenza di “atmosfere”
elettriche che si riteneva circondassero l’atomo, le quali, modificandosi e
trasferendosi nelle combinazioni chimiche da un atomo all’altro generavano le
diverse azioni nei corpi. L’osservazione che nei processi d’attrito la power
meccanica può essere trasformata direttamente in calore senza l’intervento
dell’elettricità porterà poi Joule a sostenere che tutti i fenomeni nei quali si
sviluppa calore hanno natura meccanica: “Quando si spende una ‘forza’
meccanica si ottiene sempre un equivalente esatto di calore23”. Così il calore può
essere considerato esso stesso una power meccanica. Nello stesso articolo Joule
riferiva di aver “dimostrato sperimentalmente che si sviluppa calore al passaggio
dell’acqua in fori di piccolo diametro”. Questo esperimento, che presenteremo nel
seguito, segnò così l’abbandono dei fenomeni elettrici come mediatori nella
conversione di power meccanica in calore. Con questo nuovo punto di vista Joule
utilizzò una macchina magnetoelettrica (una sorta di dinamo) per la
determinazione dell’equivalente meccanico del calore mentre, un anno dopo,
rivolse la sua attenzione ai processi di compressione e di espansione isoterma di
un gas, un tema, come abbiamo visto con Carnot, di grande interesse tecnologico
per lo studio delle macchine a vapore. Agli esperimenti descritti, infine, faranno
seguito nel 1845, le note esperienze con il mulinello, che Joule ripeterà con
molte varianti nel corso degli anni come prova della conversione tra vis viva
meccanica e calore. Il programma di ricerca sull’equivalente meccanico del calore
si concluse nel 1847, anno in cui Joule pubblicò il saggio “On matter, living force
and heat”, in cui il principio di equivalenza assumeva una dimensione
cosmologica:
Benché in quasi tutti i fenomeni naturali osserviamo l’arresto del movimento e l’apparente
distruzione di forza viva, [...] l’esperimento ci ha dimostrato che quando una forza viva [energia
cinetica] viene apparentemente distrutta per percussione, attrito o in qualche altro modo, compare
un esatto equivalente di calore. E’ vera anche la proposizione inversa e cioè che il calore non può
essere ceduto o assorbito senza produzione di forza viva o della sua equivalente attrazione nello
spazio [energia potenziale]. Vedete perciò che la forza viva può essere convertita in calore e il
calore in forza viva o nel suo equivalente nello spazio e in queste conversioni non si perde mai
alcunché24.
23
24
48
The scientific papers of J.P. Joule, Londra, 1963, p. 157 e seg.
Ivi, pp. 270-271.
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
Nella mutua convertibilità di calore, energia cinetica e potenziale sta dunque il
principio di equivalenza di Joule che però ancora non si configura come il
principio di conservazione dell’energia poiché la “regola generale” di Joule è
ancora parziale e non formalizzata.
Riportiamo di seguito cinque tra i metodi ideati da Joule per la determinazione
dell’equivalente meccanico del calore:
1. Passaggio di acqua in fori di piccolo diametro. Si tratta in pratica della
produzione di Q quando una massa nota d’acqua M (7 libbre) racchiusa in un
cilindro di vetro attraversa (meglio se n volte) un pistone, di massa m, nel quale
sono stati praticati, da base a base, una serie di forellini, e in grado di scorrere nel
cilindro. L veniva valutato per via meccanica (per multipli n di mgh, con h altezza
del cilindro diminuita della metà dell’altezza del pistone). Q veniva calcolato
misurando la variazione di temperatura dell’acqua tra la fine e l’inizio
dell’esperimento. Joule trovò un valore per J di 423 mkg-p/kcal (pari a circa 4,14
J/cal nel SI), inferiore dunque al valore corretto (di 425 mkg-p/kcal= 4,18 J/cal)
probabilmente per aver trascurato il lavoro prodotto per attrito dal pistone contro
le pareti del cilindro. La sua conclusione sarà che “i grandi agenti della natura
sono, dal fiat del creatore, indistruttibili e ogni volta che viene spesa power
meccanica, si ottiene sempre un esatto equivalente di calore25”.
2. Metodo magnetoelettrico: produzione di Q sviluppato da correnti indotte.
Il dispositivo sperimentale26 si compone della bobina c, costituita da filo di rame
avvolto intorno a un nucleo di ferro e racchiusa in un cilindro di vetro a pareti
adiabatiche, e di un disco orizzontale, fissato all’asse b, che può essere messo in
rotazione, per esempio azionando la manovella, trascinando mediante una cinghia
di trasmissione l’asse a. La bobina è fissata con l’asse principale normale all’asse
a, e inoltre può ruotare tra i poli di un potente elettromagnete: la corrente alternata
prodotta per induzione viene raddrizzata da un commutatore ed è poi misurata da
un galvanometro. Dalle misure della corrente di induzione e della temperatura
25
26
49
The scientific papers, cit., p. 157.
Cfr. Ramsauer, cit., p.41 e seg.
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
relativa al calore sviluppato per effetto Joule si risaliva al calcolo di Q. Per quanto
riguarda la misura di L, Joule la determinò con mezzi meccanici: per esempio con
il metodo della discesa di masse note per una altezza nota in modo da far ruotare b
e imprimere alla bobina una velocità angolare costante. Individuate e valutate le
varie cause di errore (per attrito, per correnti parassite nel nucleo di ferro della
bobina, per calore prodotto dalle scintille che si formano ai capi del commutatore,
ecc..) Joule trovò che 1 kcal equivale a circa 490 mkg-p (cioè J 4,72 J/cal).
3. Q prodotto per compressione dell’aria.
Questa serie di esperimenti venne pubblicata da Joule nel 184527 e riguarda la
compressione (o l’espansione) isoterma di un gas: il fisico inglese misurerà il
calore scambiato dal gas e il lavoro meccanico speso, trovando un valore
dell’equivalente meccanico del calore prossimo a quello ottenuto con gli
esperimenti precedenti.
L’esecuzione dell’esperimento è assai laboriosa ma è tuttavia interessante
ripercorrere con Joule le tappe sperimentali fondamentali che portano a eliminare
non solo le cause di errore, ma soprattutto a superare difficoltà dovute a un
contesto teorico ancora incerto e incompleto sulle proprietà dei gas. In particolare
non si conoscevano ancora valori attendibili per i calori specifici dei gas, né
metodi generali per il calcolo del lavoro compiuto da un gas in una trasformazione
termodinamica (L= pdV). E naturalmente il concetto di “energia interna” così
come lo intendiamo oggi, insieme alla formulazione del primo principio della
termodinamica, era di là da venire. Vedremo inoltre come uno degli esperimenti
qui realizzati da Joule, il celebre esperimento della “espansione nel vuoto di un
gas ideale”, venne utilizzato dall’autore per motivi completamente diversi da
quelli addotti nei manuali moderni, ed esattamente nel tentativo di confutare la
teoria del calorico a favore della teoria dinamica del calore.
Ma analizziamo il dispositivo sperimentale usato da Joule nel caso della
compressione di aria:
in figura, C è una pompa a compressione, di ghisa, costituita da un cilindro con
pistone e tappo di cuoio oliato. Le caratteristiche del cilindro, convertite dal
sistema inglese al SI, sono: corsa: 20,3 cm; lunghezza: 26,3 cm; diametro interno:
2,7 cm; spessore: 0,82 cm. R è il recipiente dove verrà compresso il gas; in pratica
27
J.P. Joule, On the changes of temperature produced by the rarefaction and condensation of air,
Phil. Mag. (1845) 173.
50
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
è una bombola di rame in grado di sopportare pressioni fino a 25 atm. Le sue
caratteristiche sono: altezza: 31 cm; diametro esterno: 11,4 cm; spessore: 0,82 cm;
volume: 2,2 litri. Alla bombola è possibile raccordare nella parte superiore la
pompa e nella parte inferiore un tubo B in ottone con foro interno 0,41 cm e
spessore 0,82 cm. B serve da tubo di uscita dell'aria mentre A è il tubo per
l’immissione dell’aria e S un rubinetto. K è un calorimetro ad acqua, di capacità di
20 kg, in ferro stagnato a doppia parte con intercapedine d’aria di un pollice (2,54
cm). G è un recipiente contenente sali per seccare l’aria; W è un bagno entro cui
passa la serpentina che adduce l’aria, la cui temperatura è controllata dal
termometro T2. Nel calorimetro è immerso un altro termometro T1. I termometri
sono a mercurio con range da 10 a 40 °C e sensibilità elevata.
Poiché il calcolo del calore scambiato dai “fluidi elastici” compressi o espansi era
incerta, Joule aggirò l’ostacolo preferendo risalire al calcolo di Q dalla variazione
di temperaturaa rilevata nell’acqua del calorimetro. Il calorimetro doveva servire a
due scopi: garantire una temperatura approssimativamente costante durante il
processo e consentire la misura del calore scambiato tra il gas e l’acqua. Questa
scelta sperimentale tuttavia complicava le misure dal momento che l’elevata
quantità d’acqua contenuta nel calorimetro comportava variazioni minime di
temperatura, circostanza che costringerà Joule a usare termometri di grande
sensibilità e precisione. Qui la lettura della memoria di Joule presenta in verità
non poche difficoltà: il fisico inglese dichiara di usare un termometro con
divisioni di scala di 1/4000 pollici (circa 10-3 cm!) per leggere le quali usa uno
strato di cera d’api spalmato sul cannello dello strumento; la lettura viene poi
confrontata con la scala di un altro termometro meno sensibile e convertita in
queste unità di scala. Joule era in grado così di apprezzare fino a 1/200°F (con1°F
corrispondente a circa 13 mm di unità di scala).
L’aria, dunque, veniva compressa in R fino a 22 atmosfere e si riscaldava. Nel
processo, Joule misurava la quantità d’aria compressa (pari a 48,5 l) in funzione
del numero di pompate e della capacità di R, la temperatura dell’aria immessa
(con il termometro T2), la temperatura dell’acqua nel calorimetro prima e dopo
l’esperimento. Una volta apportate le dovute correzioni per separare l’effetto di
riscaldamento del solo gas dal riscaldamento dovuto all’attrito delle parti
meccaniche della pompa e al moto dell’acqua nel calorimetro, con una variazione
di temperatura misurata di T= 0,285 °F, facendo il calcolo del calore ceduto dal
gas all’acqua, trovò per Q prodotto un valore di circa 13°628 per libbra d’acqua.
Poiché non esistevano ancora metodi generali per il calcolo del lavoro in una
trasformazione termodinamica, Joule si servì di un cilindro di riferimento di
dimensioni note (una sorta di cilindro+pistone campione) e della legge di Boyle:
in questo modo determinava la forza necessaria a comprimere il pistone per una
distanza nota (di un piede) rispetto al fondo del cilindro (cioè il lavoro di
compressione), incluso il lavoro eseguito dalla pressione atmosferica. Quindi
usava delle formule empiriche per la determinazione dell’area dell’iperbole pV=
cost. Successivamente il valore di L veniva ricalcolato per tenere conto delle
dimensioni reali di R (L=11.220,2 libbre per piede) e infine confrontato con il
lavoro equivalente necessario per sollevare 11.220,2 libbre all’altezza di un piede,
cioè:
Lmec/Q prod = Lmec equiv/ Qunitario=11.220,2 /13°628= 823/1°.
Joule concluderà che “occorre applicare una forza in grado di sollevare 823 libbre
all’altezza di un piede, per comprimere il gas al fine di ottenere un aumento di
51
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
temperatura di 1°F per libbra d’acqua”. L’equivalente meccanico del calore in
unità inglesi corrisponde quindi a 823, che moltiplicato per il fattore di
conversione dalle unità inglesi al sistema metrico mks (1mkg-p/1kcal= 0,55 piede
libbra/1lb d’acqua 1°F) porta a circa 453mkg-p/kcal (4,43 J/cal). L’esperimento
veniva poi ripetuto facendo però questa volta espandere isotermicamente l’aria
che nel processo assorbiva calore dall’acqua contenuta nel calorimetro.
4. Espansione libera di un gas.
Joule realizzò infine un esperimento che utilizzava la disposizione di figura:
le bombole R ed E, che possono essere collegate mediante il rubinetto D, sono
immerse in un calorimetro controllato da un termometro. In R c’è aria compressa
a 22 atmosfere mentre in E è stato fatto il vuoto. Facendo espandere il gas nel
vuoto, Joule intendeva verificare se nel processo avvenisse un guadagno o una
perdita di calore da parte dell’acqua del calorimetro. Ma durante l’espansione il
fisico inglese (come del resto era già noto dagli esperimenti di Gay-Lussac) non
osserverà alcuna variazione di temperatura, circostanza che gli farà concudere che
“quando si fa espandere l’aria in modo che essa non sviluppi power meccanica
[cioè non produca lavoro meccanico perché diffonde nel vuoto] non si verifica
alcuna variazione di temperatura”.
A riprova ulteriore del fenomeno, Joule isolò le bombole ponendole in due
calorimetri separati e per R otterrà una diminuzione di 2,36 °F mentre per E un
aumento di 2,38 °F, valori che riterrà, in valore assoluto ed entro il limite degli
errori sperimentali, uguali.
L’ esperimento dell’espansione nel vuoto viene usualmente presentato nei
manuali, dopo aver enunciato il primo principio della termodinamica, per
dimostrare che in una gas ideale l’energia interna dipende solo dalla temperatura
termodinamica. Joule invece, nel quadro della sua campagna di misure per la
determinazione dell’equivalente meccanico del calore, ne fece un uso
completamente diverso: in primo luogo se ne servì per attaccare la teoria del
calorico e, in secondo, per confutare la teoria di Carnot del funzionamento delle
macchine a vapore.
Gli esperimenti avevano portato Joule a concludere che:
a. nella compressione isoterma il gas ‘perde calore’ (riscaldando l’acqua del
calorimetro) perché power meccanica (L) si converte in power termica (Q);
b. nella espansione isoterma il gas ‘assume calore’ (e quindi l’acqua del
calorimetro si raffredda) perché power termica si converte in power meccanica;
c. nella espansione libera in condizioni adiabatiche la temperatura dell’acqua deve
invece mantenersi costante perché il gas non compie lavoro e dunque non c’è
conversione tra L e Q. Questi risultati sono difficilmente interpretabili se si fa
l’ipotesi che il calore sia una sostanza mentre, concludeva Joule, “potrebbero
52
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
essere dedotti a priori da qualsiasi teoria che consideri il calore uno stato di moto
delle particelle costituenti il corpo”. Infatti, mentre con opportune ipotesi ad hoc si
poteva interpretare a e b immaginando che venisse liberato o immagazzinato
calorico latente dal gas all’acqua, la teoria sostanzialistica non era in grado di
spiegare c (in una espansione adiabatica dovrebbe constatarsi una diminuzione di
calorico sensibile, ma qui T=0).
Per quanto riguarda il funzionamento delle macchine termiche, la teoria di Carnot,
ripresa successivamente da E. Clapeyron, attribuiva alla caduta di calorico da un
corpo caldo a uno freddo la produzione di potenza motrice associata alle sole
variazioni di volume; nel caso in cui si verificava conduzione termica si aveva
invece un passaggio diretto di calore senza alcuna produzione di potenza motrice.
Ma Joule rifiutava decisamente una ipotesi di perdita netta di power:
Ritengo che una tale teoria, per quanto ingegnosa, si opponga ai principi riconosciuti dalla scienza
perché porta alla conclusione che possa essere distrutta vis viva [...]. Poiché credo che il potere di
distruggere appartenga solo al Creatore [...] penso che una qualsiasi teoria che richieda
l’annichilarsi di una forza sia necessariamente erronea. Comunque i principi che ho presentato in
questo articolo non mostrano queste difficoltà. Da essi possiamo dedurre che durante la fase di
espansione del cilindro il vapore perde calore in quantità esattamente proporzionale alla power
meccanica che esso comunica mediante il pistone e che nella condensazione del vapore il calore
così convertito in power meccanica non è restituito. Supponendo che non vi siano [altre] perdite di
calore [...], la teoria qui presentata richiede che il calore liberato nel condensatore sia minore di
quello ceduto alla caldaia dalla fornace, in esatta proporzione all'equivalente meccanico
sviluppato28.
Pertanto, con le notazioni e le convenzioni sui segni attuali, in un ciclo L= J(QassQced).
5. Esperimenti con il mulinello.
Si tratta del più noto esperimento di Joule29 presentato nei manuali nel quale si
misura il rapporto tra il lavoro meccanico L corrispondente alla caduta di una
massa nota per un’altezza nota, e il calore sviluppato nell’acqua quando, durante
la discesa, il sistema di palette solidali all’asse cc ruota e la temperatura
dell’acqua aumenta a causa dell’attrito tra il fluido e la parte meccanica rotante.
La disposizione sperimentale è mostrata in figura.
§4.6. La nascita della termodinamica
28
29
53
The scientific papers of J. P. Joule, cit., p. 188.
J.P. Joule, On the mechanical aequivalent of heat, Phil. Mag. 31 (1847) 173.
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
Sia pure da presupposti diversi Mayer e Joule avevano affermato la validità di una
legge di conservazione delle ‘forze’ naturali e avevano tentato, per via
sperimentale, di determinare il fattore di conversione quando una ‘forza’ si
trasforma in un’altra, senza tuttavia pervenire a un enunciato generale ed
esprimibile in termini matematici.
La prima formulazione moderna rigorosa, operativa e determinabile in ogni
processo del principio si avrà intorno al 1847 con H. von Helmholtz (18211894)30.
Helmholtz parte dalla convinzione che in natura tutti i fenomeni, organici e
inorganici, siano descrivibili come processi meccanici nei quali entrano in gioco
forze di tipo newtoniano, attrattive e repulsive, funzioni solo delle distanze mutue
dei costituenti ultimi della materia. Un dato processo può essere pensato, in ultima
analisi, come un moto continuo delle sue parti che si avvicinano e si allontanano:
nel corso di questi moti, la somma delle forze vive (energia cinetica) e delle “forze
di tensione” (energia potenziale) deve rimanere costante e tale costante deve
essere omogenea a una energia di tipo meccanico, denominata Kraft. Anche nei
processi nei quali si verifica una perdita netta di Kraft (per esempio nei processi di
attrito e di urto anelastico), la Kraft totale del sistema deve essere costante e alla
perdita di ‘forza’ deve corrispondere un guadagno in termini di “forze di tensione”
tra le particelle di un corpo. In questo modo il concetto di calore, inteso come
moto, diviene molto simile al concetto moderno di energia interna:
Quel che è stato finora chiamato quantità di calore potrebbe servire d’ora in poi come espressione
in primo luogo della quantità di forza viva del movimento termico e, in secondo luogo, della
quantità di quelle forze elastiche degli atomi che, cambiando la loro disposizione, possono
provocare un tale movimento.31
Il contributo di Helmholtz rappresenta così non solo una sintesi originale tra la
tradizione scalare analitica lagrangiana e la tradizione vettoriale newtoniana in
meccanica ma, riconoscendo al calore natura dinamica, estende il principio di
conservazione dai sistemi puramente meccanici a sistemi qualunque. La
possibilità di correlare la Kraft alla vis viva consente, inoltre, di formalizzare sul
piano matematico il principio di conservazione dell’energia.
Era inevitabile che la formulazione di Helmholtz rafforzasse l’idea di calore come
movimento ai danni dell’ipotesi sostanzialistica del calore. Tuttavia l’abbandono
dell’ipotesi di calorico non avvenne in modo istantaneo né vi furono esperimenti
cruciali in grado di abbattere definitivamente il vecchio modello: come spesso è
avvenuto nelle svolte fondamentali della storia della fisica, la transizione da un
modello all’altro fu lenta, complessa e seguì strade tortuose che dopo molti
percorsi interrotti portò alla fondazione della nuova scienza del calore.
Innanzitutto occorreva sciogliere la contraddizione esistente tra l’assioma di
Carnot (nel funzionamento ottimale delle macchine termiche il calorico si
conserva, cioè è una funzione di stato) e il principio di equivalenza di Joule
(calore può essere consumato per produrre lavoro e viceversa). Questo compito fu
risolto brillantemente da W. Thomson (Lord Kelvin, 1824-1907) e da R. Clausius
(1822-1888) e portò alla attuale enunciazione del secondo principio della
30
H. v. Helmholtz, Ueber die Erhaltung der Kraft, 1847, in Opere di Helmholtz, a cura di V.
Cappelletti, Utet 1967, p. 59 e seg.
31 Helmholtz, Opere cit., p.61.
54
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
termodinamica32. La teoria di Carnot, che si era dimostrata in sorprendente
accordo con l’esperienza, non doveva essere abbandonata ma solo modificata là
dove affermava che la produzione di potenza motrice era dovuta al solo passaggio
di calore e sostenere che una certa quantità di calore veniva consumata.
Contestualmente alla rielaborazione degli enunciati del secondo principio,
Clausius formulerà anche il primo principio della termodinamica, praticamente
nella sua forma attuale, dove al calore e al lavoro verrà riconosciuta la natura di
variabili di trasformazione mentre alla loro differenza, o energia interna, la natura
di funzione di stato.
CAP. 5. I FENOMENI LUMINOSI, TRA ESPERIMENTO E
MATEMATIZZAZIONE
§ 5.1. Il dibattito sulla natura della luce nel Seicento: moto o materia?
Presenze scomode: diffrazione, doppia rifrazione, interferenza
Esponiamo di seguito i principali contributi all’ottica nel Seicento, che
contribuiranno ad alimentare il grande dibattito sulla natura della luce: la luce è
moto o materia?
Se la luce consiste di onde come si spiegano le ombre? Se viceversa è materia come
si spiega la non interazione raggio-raggio? E il passaggio nei corpi trasparenti?
Questi interrogativi si faranno ancora più imbarazzanti a seguito di nuove scoperte
(diffrazione, doppia rifrazione, interferenza).
Ricordiamo che fino a metà Seicento si ritiene che la luce abbia solo tre modi di
propagazione, in linea retta, per riflessione e per rifrazione. Questi assunti base si
tramandano praticamente immutati per secoli. Uno dei principali manuali di Ottica,
l’Opticae Thesaurus dello scienziato arabo Alhazen (ca. 965-1039), tradotto in
latino e assai diffuso nel mondo occidentale dal tardo Medioevo in poi fino a tutto il
Seicento riporta infatti sul frontespizio: Triplicis visus, directi, reflexi et refracti, de
quo optica disputat argumenta.
1637: Dioptrique di Cartesio, luce come tendenza al moto, come una pressione che
si propaga istantaneamente dalla sorgente agli occhi dell’osservatore (v= !); le
leggi della riflessione e della rifrazione vengono trovate da Cartesio con un’
analogia meccanica con il comportamento dei proiettili; la legge della rifrazione
sini v r
=
è formalmente
(già formulata da Snell come rapporto di cosecanti)
sin r v i
corretta ma Cartesio ipotizza che la velocità di propagazione della luce v sia
maggiore nei mezzi più densi.
32
Su questo argomenti si veda di C. Tarsitani, “La storia della seconda legge della termodinamica”,
in CEE, cit., 274-347.
55
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
1662: P. Fermat, formula correttamente la legge della rifrazione con il principio di
minimo; il tempo che la luce impiega per propagarsi in due o più mezzi ottici deve
sini v i
= .
essere minimo; Fermat ritrova così la legge
sin r v r
1665: F. M. Grimaldi, Physico Mathesis de Lumine, Coloribus et Iride; scopre un
quarto modo di propagazione della luce, la diffrazione, “la luce almeno qualche
volta deve propagarsi anche ondulatamente”.
R. Hooke, Micrographia: osserva e descrive la colorazione di lamine sottili.
1669, Erasmo
birifrangenza.
Bartholinus,
Experimenta
cristalli
Islandici…,
scopre
la
1678, C. Huygens (1629-1695), seguace della scuola cartesiana, nel suo Traité de la
Lumière, sostiene una ipotesi ondulatoria della luce.
Modello ondulatorio di Huygens
- la luce è moto ondulatorio reale (analogia luce-suono);
- le onde luminose sono molto veloci, si propagano in un mezzo, l’etere, molto
sottile, penetrante, elastico;
- il moto della luce ha origine dagli urti tra le particelle d’etere e quelle del corpo
luminoso e avviene senza trasporto di materia; un ‘impulso luminoso’ si propaga
come un impulso meccanico in una fila di sferette identiche, contigue,
perfettamente elastiche; due o più impulsi possono attraversarsi senza disturbo;
- ogni punto della sorgente luminosa va considerato come centro di onde sferiche
non periodiche;
- la produzione delle onde è regolata dal principio di Huygens: “Ciascuna particella
della materia in cui un’onda viaggia, comunica il suo moto non solo alla particella
vicina che è allineata con la sorgente luminosa, ma necessariamente anche alle altre
con cui è in contatto e che si oppongono al suo movimento. Così che intorno a
ciascuna particella si origina un’onda di cui essa è il centro”. L’effetto delle onde
elementari è efficace solo quando concorrono a formare simultaneamente il fronte
d’onda che è costituito dall’inviluppo di tutti i contributi elementari.
Il modello spiega la propagazione rettilinea, la riflessione, la rifrazione e la
riflessione totale, la doppia rifrazione (con dimostrazioni geometriche condotte con
gli “sferoidi di Huygens”).
§5.2. Il modello newtoniano della luce
Newton inizia a occuparsi di ottica nel 1660; nel 1668 realizza il telescopio a
riflessione; nel 1672 pubblica A new Theory about Light and Colours (scoppia la
polemica con Hooke e Huygens che accusano Newton di avere formulato una teoria
non univoca rispetto ai risultati sperimentali e di avere esplicitato un’ipotesi
corpuscolare della luce in base alla quale la luce è costituita da corpuscoli molto
veloci emessi dal Sole e dagli altri corpi luminosi (si parla anche di ipotesi balistica
o emissionista). Tra i corpuscoli agiscono forze centrali a breve range. Newton
riformula la teoria dei colori non parlando più di corpuscoli ma di “raggi che si
distinguono tra loro per fatti contingenti, come grandezza, forma o forza”). Nel
56
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
1704 pubblica l’Opticks, or a Treatise of the Reflexions, Inflexions and Colours of
Light (Queries 1-16); 1706, Opticae (Queries 25-31); 1717, Opticks, seconda
edizione (Queries 17-24).
Newton e i colori
Vedi dispense PED.
Modello corpuscolare di Newton
- la luce è composta da uno sciame di corpuscoli dotati di velocità molto grande
detti raggi, che si propagano linearmente in un mezzo omogeneo e trasparente. Con
questa assunzione insieme all’ipotesi che esistono forze di tipo gravitazionale che
agiscono a breve range sulla superficie dei corpi, si spiegano i fenomeni di
riflessione, rifrazione (Newton ipotizza che la velocità della luce abbia valore
minimo nel vuoto e aumenti all’aumentare della densità del mezzo: sbaglia in
buona compagnia con l’eccezione di Fermat e di Huygens), di dispersione.
- I raggi vengono assorbiti, riflessi, trasmessi a seconda della natura della superficie
di incidenza (dove agisce una forza attrattiva), dell’angolo di incidenza, dello
‘stato’ del raggio.
- Durante il moto i raggi possono essere dotati di una proprietà oscillante dovuta a
un’onda d’etere che li precede (ipotesi ad hoc per giustificare la disposizione, o fits,
dei raggi a riflettersi o a propagarsi in un mezzo).
- La luce bianca è un aggregato di raggi colorati;
- il colore è funzione della ‘massa’ dei corpuscoli della luce; a ogni colore
corrisponde un grado di rifrangibilità;
- rifrangibilità e dispersione sono proporzionali (‘errore’ di Newton).
- I fenomeni di colorazione delle lamine sottili, la formazione degli anelli, la doppia
rifrazione vengono interpretati mediante l’aggiunta di ipotesi ad hoc che
attribuiscono ai raggi proprietà particolari (disposizione di facile riflessione e di
facile trasmissione, o fits, nel caso dei colori da lamine sottili e degli anelli,
“polarità” dei raggi paragonabile a quella di piccoli magneti nel caso di doppia
rifrazione).
- La diffrazione viene spiegata in termini di “inflessione” dei raggi ai bordi di un
ostacolo: quando i raggi passano vicino a un ostacolo di piccole dimensioni si
inflettono perché attratti da forze a corto range.
Nell’ambito dei fenomeni luminosi, l’ottica di Newton rappresenterà per tutto il
Settecento, la cosiddetta scienza normale.
§ 5. 3. Lo stato della ricerca in ottica nel Settecento
In tutto il Settecento la teoria corpuscolare di Newton viene accettata in modo quasi
unanime negli ambienti scientifici non solo inglesi ma anche del continente. Con
l’affermazione della meccanica newtoniana anche nell’ottica si rafforza e si delinea
come vincente la concezione che la luce sia costituita da particelle che obbediscono
alle leggi della dinamica. Questa concezione sembrava permettere la costruzione di
un mondo fisico in cui, assunta la natura corpuscolare di un universo governato
dalle leggi della dinamica e della gravitazione universale, la meccanica, il moto
degli astri e l’ottica potessero venire inclusi in una concezione unitaria. Oltre a ciò,
l’apparente semplicità del modello interpretativo e la possibilità di comprendere al
57
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
suo interno nuove classi di fenomeni, i colori, contribuiscono notevolmente
all’affermazione della teoria di Newton. A questi fattori si aggiunga ancora la
grande diffusione di cui godette l’Opticks in ambienti culturali non necessariamente
specialistici, dovuta sia alla edizione in lingua inglese invece che in latino, sia a un
linguaggio chiaro e semplice.
Che la teoria di Newton dovesse egemonizzare gli ambienti scientifici inglesi
fortemente influenzati, alla fine del Seicento, dai modelli baconiani di ricerca
sperimentale era scontato; all’inizio del Settecento la teoria inizia tuttavia a
diffondersi anche nel continente. Tra gli infaticabili divulgatori delle idee
newtoniane troviamo Voltaire33 che contribuisce così a contrapporre alla scienza
cartesiana, divenuta ormai eccessivamente dogmatica e conservatrice, il nuovo
filone di ricerca dell’empirismo inglese che fa capo a Newton.
Sebbene l’insieme di esperimenti, di proposizioni e di ipotesi che constituiscono
l’Opticks mostri, a un esame attento, lacune palesi la teoria newtoniana viene
accettata in una forma che rimarrà pressoché immutata per tutto il secolo. All’inizio
del Settecento, l’ottica di Newton assume, in definitiva, tutti i caratteri di scienza
matura con regole e modelli suoi propri. E’ sufficientemente ricca di innovazioni
concettuali per occupare stabilmente la comunità scientifica e sufficientemente
aperta da lasciare alla ricerca la possibilità di risolvere una grande varietà di
problemi. Nel suo ambito vengono svolti solo lavori di assestamento e di
arricchimento dei risultati sperimentali al fine di articolare meglio le indicazioni
fornite dalla teoria. Ricordiamo in proposito la misura della velocità della luce
eseguita da Bradley (1726) in base al fenomeno della aberrazione astronomica e lo
sviluppo delle tecniche fotometriche al quale contribuiranno P. Bouguer e J. H.
Lambert.
Minacce di crisi
Verso la metà del secolo un avvenimento sembra mettere in crisi l’assetto della
teoria corpuscolare: Newton aveva stabilito che la dispersione doveva essere
proporzionale alla rifrazione; da questa conclusione seguiva l’impossibilità di
eliminare l’aberrazione cromatica nelle lenti. Uno studio teorico di Euler
sull’argomento, confermato nel 1759 dalla realizzazione da parte di J. Dollond di
un obiettivo quasi acromatico, aveva dimostrato, al contrario, l’eliminabilità del
difetto34. Tuttavia, né questo evento né le critiche serrate che lo stesso Euler,
sostenitore della teoria ondulatoria, rivolgerà alla teoria corpuscolare, riusciranno a
modificarne la struttura.
Il programma di ricerca laplaciano
Nell’Europa di fine secolo le concezioni newtoniane sono più che mai dominanti.
In particolare in Francia la teoria corpuscolare viene ripresa da Laplace con
l’intento di ridurre i fenomeni fisici di scala qualunque a un sistema di particelle
33 F. M. Voltaire, Les éléments de la philosophie de Newton, 1738. In questo periodo vengono
pubblicate altre opere di divulgazione scientifica, in piena sintonia con il clima culturale illuministico
dominante in Europa: in Italia è il caso di F. Algarotti, Newtonianesimo per le dame, Napoli, 1752, e
in Germania di L. Euler, Lettere a una principessa tedesca, 1768-72, G. Castelli (a cura di),
Boringhieri, Torino, 1958; la principessa in questione è Sophie Charlotte von Brandenburg-Schwedt;
l’opera viene scritta in francese e poi tradotta in tedesco.
34 Il difetto viene eliminato accostando due lenti, una concava e una convessa, a formare i cosiddetti
doppietti flint-crown: le due lenti, di diverso indice di rifrazione, compensano le aberrazioni.
58
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
distribuite densamente nello spazio, tra le quali agiscano forze centrali a corto
range, attrattive o repulsive. La fisica dei fluidi imponderabili di Laplace, in cui
calore, luce, elettricità e magnetismo vengono pensati appunto come sistemi di
particelle mutuamente repulsive, attratte dalla materia ponderabile, influenzerà per
decenni l’ambiente accademico francese costringendo la ricerca all’interno dei suoi
schemi.
Eppure, a partire dai primi anni dell’Ottocento, nel giro di tre decenni la teoria
corpuscolare di Newton verrà abbandonata in modo definitivo: cercheremo nel
seguito di individuare quali fattori hanno determinato un capovolgimento del
quadro interpretativo in Inghilterra e in Francia, attraverso i contributi di Young e
di Fresnel. In Inghilterra, come vedremo, la fine della teoria corpuscolare di
Newton sarà segnata da un cambiamento di metodologia che scalzerà il metodo
induttivo35. In Francia la teoria ondulatoria della luce, nella formulazione ancora
oggi accettata, riuscirà a emergere solo con la rottura del programma laplaciano36,
iniziata da Fresnel nel 1815. Analizzeremo infine la ricomposizione del quadro
interpretativo legato alla teoria ondulatoria e la sua trasformazione a nuovo
paradigma scientifico.
35
36
59
Cfr. G. Cantor, The reception of the Wave Theory of Light in Britain, Hist. St. Phys. Sc., 6, 108.
Vedi R. Fox, The Rise and Fall of laplacian Physics, Hist. St. Phys. Sc., 4 (1972), 89-137.
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
§5.4. Un punto di vista assai poco ortodosso sull’origine dei colori: Goethe vs
Newton
J. W. von Goethe (1749-1832), il più grande poeta tedesco dell’età classica, si
occupò a più riprese della teoria dei colori (Beyträge zur Optik, 1791-92;
Farbenlehre, 1808-1822), partendo da presupposti nettamente diversi da Newton.
Tutto iniziò da un evento quasi casuale: nel 1790 Goethe, avendo a disposizione un
prisma, pensò di ripetere l’esperimento di Newton (stanza buia, fascetto di luce che
filtra dal foro di un’imposta, prisma, schermo sulla parete opposta). Sulla parete
tuttavia non riuscì a ritrovare lo spettro con i colori dell’iride e da ciò, invece di
concludere che la sua procedura sperimentale non era corretta, decise che a essere
sbagliata era la teoria di Newton: “Intuitivamente esclamai che la teoria di Newton
era sbagliata”37. Questa ‘scoperta’ lo indusse a scrivere i Beyträge zur Optik, che
trovarono un’accoglienza gelida da parte dei fisici. Irrigiditosi nelle sue posizioni e
convinto di essere l’unico ad avere smascherato Newton, Goethe tentò di rifondare
la teoria dei colori. Si mise così a studiare l’Opticks e tutte le teorie sui colori
precedenti e contemporanee a Newton, sempre più convinto che la teoria
newtoniana fosse “una vuota illusione”, una congerie di parole, l’esempio peggiore
nella storia della scienza di sfrontatezza, alimentata dai fisici, definiti “il gregge di
Newton”. Animato da questi pregiudizi pubblicò i Farbenlehre, che non ebbero
migliore accoglienza dei Beyträge. Per valutare la posizione di Goethe è necessario
capire la sua formazione filosofica.
In primo luogo Goethe ha un atteggiamento olistico nei confronti della natura; di un
fenomeno coglie la sua interezza, il suo aspetto ‘morfologico’ (la forma o Gestalt)
legato in modo inscindibile all’osservatore: “Il fenomeno non è staccato
dall’osservatore e piuttosto nella soggettività dell’osservatore il fenomeno si
intreccia e si confonde” (Goethe, Maximen und Reflexionen, Weimar, 1807). Del
fenomeno va inoltre ricercata la natura ultima e il principio originario, che
accomuna varie classi di fenomeni (Ur-phenomena o fenomeni primitivi). Questo
approccio si ritrova anche negli studi sulla metamorfosi delle piante (1790, dove
Goethe va alla ricerca delle forme originarie delle diverse specie botaniche
piuttosto che analizzare una pianta nelle sue parti costituenti, così come nell’arte: in
una statua i canoni estetici di Goethe si applicano alla forma artistica nella sua
interezza, per altro intrecciata con le emozioni e i giudizi estetici dell’osservatore).
Diverso è l’atteggiamento di Newton che procede individuando e separando i
parametri da controllare; il fenomeno, inoltre, è un dato disgiunto dall’osservatore e
si presenta in natura per sé, in modo indipendente dall’osservatore. La
contrapposizione tra Goethe e Newton non poteva essere più netta e i presupposti
da cui parte Goethe non possono portare a produrre scienza.
In secondo luogo, Goethe è fortemente influenzato, soprattutto negli anni giovanili,
dal movimento dello Sturm und Drang (1770 ca., dura circa un ventennio) e dai
principi della Naturphilosophie (inizio Ottocento). Lo Sturm und Drang nasce in
Germania per reazione al razionalismo dell’Illuminismo, enfatizza l’individualità, il
rifiuto delle regole, l’emozione e la passione dei singoli individui; la
Naturphilosophie postula l’esistenza in natura di polarità intrinseche che secondo il
principio degli opposti sono alla base delle spiegazioni sia dei fenomeni naturali
37
Cfr. S.L. Jaki, Goethe and the Physicists, Amer. J. of Physics, 37, 2 (1969) 195-203, la citazione è
tratta da una lettera di Goethe a F. A. Wolf, 1811, Goethes sämtliche Werke; qui p. 196.
60
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
(attrazioni e repulsioni, elettricità positiva e negativa, polo sud magnetico e polo
nord, chimismo e galvanismo, ecc.) sia dei comportamenti sociali (affinità elettive).
In questo quadro, la luce bianca per Goethe è un Urphenomenon, che non può
essere analizzato nelle sue parti; i colori non sono parte della luce ma sono il
risultato di due polarità opposte, la luce e l’ombra. Come già aveva affermato
Aristotele, anche per Goethe i colori derivano da una mescolanza di bianco e di
nero:
“Buio e luce sono fin dall’origine contrapposti l’un l’altro, uno all’altro eternamente nemici, solo la
materia che li separa ha, quando è opaca, una parte luminosa e una oscura; in debole controluce però
si produce l’ombra. Se la materia è trasparente in essa si sviluppa, nel chiaroscuro, un
intorbidimento che appare all’occhio come ciò che chiamiamo colore” (Goethe, Farbenlehre,
VIII, Polarität).
In terzo luogo, Goethe detesta le scienze esatte, è orgoglioso di dimostrare che si
può fare fisica anche senza matematica. Per il poeta tedesco la matematica
distrugge la bellezza e l’immediatezza del fenomeno, l’aperçu o intuizione del
fenomeno.
Il contrasto con i fisici è insanabile:
“La teoria dei colori è stata trattata finora dai fisici in un modo che il pittore non potesse trarne alcun
vantaggio; l’ipotesi dominante aveva impedito ogni tipo di ricerca stimolante e bandito i fenomeni
gioiosi che si dispiegavano nell’universo dentro il cerchio magico di una stanza buia. Ciononostante
il suo senso naturale, un esercizio continuo, una necessità pratica avevano portato il pittore sulla
giusta via; egli intuiva l’esistenza degli opposti dalla cui unione nasce l’armonia dei colori,
descriveva certe proprietà dei colori attraverso sensazioni indistinte, con colori caldi e freddi, con
colori che esprimono vicinanza e lontananza più di quanto abbiano fatto gli scienziati [...]. Forse si
conferma l’ipotesi che i fenomeni dei colori così come i fenomeni magnetici ed elettrici si basano su
una dualità, una polarità o come si voglia indicare questo tipo di fenomeni” (Goethe, Einleitung
zu den Propyläen, 1798)
Goethe presenta i suoi esperimenti38, condotti su una serie di figure in bianco e nero
osservate con un prisma, per sostenere la sua teoria dei colori (da Beyträge zur
Optik). Il prisma impiegato ha un asse di circa 12 cm e ha per sezione un triangolo
equilatero di circa 4 cm di lato. Ciò che osserva sono i cosiddetti “spettri da
spigolo” e il tutto è spiegabile con la teoria di Newton.
- Perché Goethe non ritrova lo spettro alla Newton?
Newton fa filtrare attraverso un foro dell’imposta della finestra un sottile fascio di
luce solare o la luce di una candela; una fenditura collima il fascio che incide sul
prisma e uno schermo raccoglie lo spettro. La fenditura è essenziale. Goethe non
mette fenditura oppure usa una fenditura F troppo larga. Se F è larga, gli spettri al
centro si ricombinano e danno bianco; ai lati si osservano spettri parziali attigui alla
zona buia.
38
Cfr. J. Teichmann, E. Ball, J. Wagmüller, Prismatische Versuche zur Optik nach Johann Wolfgang
von Goethe um 1790, Einfache physikalische Versuche aus Geschichte und Gegenwart, p. 24 e seg.,
Deutsches Museum, 1999.
61
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
rosso-giallo
bianco
verde-blu-violetto
F
- Come sono interpretabili le osservazioni di Goethe alla luce della teoria di
Newton?
- Riflessioni sul rapporto scienziato-artista, sulla contrapposizione tra mondo della
percezione sensoriale e mondo dell’astrattezza matematica, tra soggettività e il
regno oggettivo dei fatti, tra generalismo e specialismo (si noti che Heisenberg,
Born, von Weizsäcker difendono Goethe39). Ci sono echi di questa
contrapposizione all’epoca di Heisenberg? E al presente?
§ 5.5. Il modello ondulatorio. Il principio di interferenza e gli esperimenti di
ottica fisica di Young
T. Young (1733-1829) inizia a occuparsi dei fenomeni luminosi nel 1799 e a quel
periodo risale la sua prima memoria in cui espone una serie di argomenti contro la
teoria corpuscolare mettendo in evidenza come la teoria, in alcuni casi quali la
riflessione parziale e la colorazione delle lamine sottili, non sia in grado di fornire
una spiegazione consistente con l’esperimento. Nell’ambito della teoria
corpuscolare “il motivo per cui, raggi dello stesso tipo, in condizioni identiche,
debbano essere in parte riflessi e in parte trasmessi appare del tutto inspiegabile”.
Newton aveva giustificato il fenomeno mediante il meccanismo degli “accessi”
(fits) di miglior riflessione e di miglior trasmissione ma questa interpretazione
veniva giudicata da Young insoddisfacente e artificiosa. Anche la colorazione delle
lamine “nel sistema newtoniano richiede una ipotesi molto complicata di un etere
che anticipa con il suo moto la velocità dei corpuscoli di luce, producendo così gli
accessi di trasmissione e di riflessione”40. Se però si tenta di interpretare gli stessi
fenomeni in termini ondulatori, da poche e semplici ipotesi discende la spiegazione
dei fatti. E proprio nel tentativo di inquadrare il fenomeno della colorazione delle
lamine sottili e l’originarsi degli anelli di Newton nella interpretazione ondulatoria
che Young, nel 1801, arriva a formulare il principio di interferenza.
Il comportamento della luce viene assimilato da Young al moto delle onde
nell’acqua: se si considerano due serie di onde uguali, che procedono a velocità
costante sulla superficie di un lago e che confluiscono in uno stretto canale può
avvenire che, se l’elongazione di una serie coincide con l’elongazione dell’altra,
abbia origine una serie di onde di ampiezza maggiore; se, al contrario, le
elongazioni di una serie corrispondono a depressioni nell’altra, la superficie
39
40
62
V. Jaki, cit.
Le due citazioni sono tratte da T. Young, Phil. Trans., XC (1800), 106.
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
dell’acqua deve rimanere piana41. Effetti simili possono avvenire quando due parti
di luce si incontrano: a seconda di come si sovrappongono possono dar luogo, sotto
certe condizioni, a un minimo o a un massimo di intensità. Questa è, in sostanza, la
legge generale dell’interferenza della luce che Young pone alla base della sua teoria
ottica.
La comparsa di frange dietro un ostacolo diffrangente, o di anelli colorati di
Newton, viene ricondotta alla unica spiegazione che Young fornisce per giustificare
l’alternarsi di zone chiare e scure ottenute con delle lastre a facce piane e parallele.
In questo caso le frange si originano per riflessione parziale sulla prima prima e
sulla seconda faccia di una lastra: la luce riflessa dalla seconda superficie deve
sommarsi con quella riflessa dalla prima e per interferenza dar luogo a zone chiare
e scure. Tuttavia, volendo interpretare con questo meccanismo gli anelli di Newton
la macchia centrale doveva risultare bianca e non nera come appariva
all’osservazione. Young è costretto allora a ricorrere a un’altra ipotesi
fondamentale per la teoria ondulatoria: la velocità della luce deve diminuire nei
mezzi più densi e quando la luce si riflette su una superficie al di là della quale c’è
un mezzo più denso (come si usa dire, riflessione “da mezzo più denso a meno
denso”) deve perdere mezza lunghezza d’onda (si sfasa di ) così che le onde che
interferiscono al centro dell’anello si distruggono.
Allo scopo di mettere alla prova questa ipotesi Young realizzò un sistema formato
da una lente di vetro crown (n=1,5) accostata a una lastra di vetro flint (n=1,7) tra le
quali interpone una sostanza di indice di rifrazione intermedio (n=1,6). In questo
modo le due riflessioni devono avvenire da un mezzo meno rifrangente a uno più
rifrangente e quindi perdere entrambe mezza lunghezza d’onda per poi interferire in
concordanza di fase dando luogo a una macchia chiara.
vetro crown
n=1,5
olio
vetro flint
n=1,6
n=1,7
Nella memoria del 1803 la legge generale d’interferenza viene estesa alla
diffrazione: le frange luminose prodotte nell’ombra di un ostacolo vengono
interpretate correttamente da Young come dovute a interferenza di due onde che
provengono dai due bordi dell’ostacolo. Per le frange scure, esterne all’ombra, la
spiegazione data risulterà invece non corretta poiché la formazione di queste frange
non è spiegabile con il solo principio di interferenza ma occorre tener conto anche
del principio di Huygens42.
Tra i contributi di Young nello stesso periodo vale la pena ancora fare riferimento
alla celebre esperienza dei due fori: la luce diffrange passando per S e diffrange
ancora attraverso i due fori S1 e S2 posti a pochi millimetri di distanza e che possono
considerarsi due sorgenti puntiformi coerenti. Sullo schermo compaiono le frange
di interferenza.
41
T. Young, Phil. Trans., XCII (1802), 12.
Young, Phil. Trans., XCIII (1803),1.
42 T.
63
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
L’isolamento di Young
Le idee di Young, che pure avevano dimostrato tutta la loro efficacia interpretativa
rispetto alla teoria corpuscolare, sulla base soprattutto di uno strumento
concettualmente potente quale il principio di interferenza, riescono a diffondersi
assai poco in Inghilterra. Young si trova a essere isolato e i suoi articoli vanno
incontro a una opposizione feroce. Dopo la pubblicazione della memoria del 1802,
in cui veniva enunciato il principio di interferenza, compare sulla Edinburg Review
a firma di un esponente illustre della comunità scientifica, Lord Brougham, un
articolo in cui si rileva come le idee di Young “non possono avere altro effetto che
quello di frenare il progresso della scienza e di rimuovere tutti quei pazzi fantasmi
che Bacone e Newton avevano cacciato dal suo tempio” e che dunque non meritano
di essere giudicate col “nome di esperimento o scoperta”.
Questo punto di vista riflette assai bene il clima culturale delle università scozzesi
di quegli anni. L’opposizione alla teoria ondulatoria di Young derivava, è vero, da
alcune incongruenze che la sua teoria presentava e dalle molte ipotesi ad hoc che,
nonostante la pretesa di semplicità più volte rivendicata dall’autore, venivano
chiamate in causa, in special modo per spiegare la diffrazione e la doppia
rifrazione. Ma le sorti del dibattito sulla natura della luce erano altresì legate,
nell’Inghilterra di inizio secolo, all’antagonismo tra due scuole, quella scozzese e
quella inglese43.
La prima, fortemente legata alla filosofia del senso comune (common sense), allora
dominante in Scozia, sosteneva un metodo di ricerca induttivo44 di stretta
osservanza baconiana e newtoniana, rigettando perciò ogni enunciato che non
venisse fatto derivare direttamente dai risultati sperimentali. La regola d’oro della
filosofia del senso comune coincide in sostanza con la prima regola filosofica di
Newton: “Delle cose naturali non si devono ammettere cause più numerose di
quelle che sono insieme vere e sufficienti a spiegare i loro fenomeni; la natura
infatti è semplice e non è mai prodiga di cause superflue”.
L’altra scuola, sviluppatasi prevalentemente a Cambridge, sosteneva al contrario la
validità e il valore euristico di una teoria o di una ipotesi nell’ambito della ricerca
scientifica. Le ipotesi sono acquisizioni fondamentali per la conoscenza e servono a
43 Cfr. G. Cantor, cit.
44 La metodologia induttiva parte dalla convinzione che esista un mondo materiale esterno e che sia
possibile, attraverso l’abilità personale dello scienziato, dedurre dall’osservazione di certi fatti, le
cause vere e manifeste in natura senza fare mai uso di teorie, ipotesi e congetture.
64
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
raggruppare in un punto di vista compreensivo dati eterogenei, a confrontare un
dato con l’altro e a stabilire relazioni fra essi. Un altro aspetto qualificante che
differenziava le due scuole riguardava il ruolo assegnato alla matematica: nella
scuola scozzese aveva un ruolo subordinato nell’indagine scientifica e veniva
raramente applicata in fisica mentre nella scuola inglese era ritenuta una tappa
obbligata nel processo di conoscenza della natura (negli anni che stiamo
considerando la matematica analitica continentale è ormai entrata a far parte del
formalismo con cui vengono trattati i problemi fisici; in particolare nel 1812 viene
fondata a Cambridge l’Analytical Society).
Il conflitto tra le due posizioni porterà al formarsi di schieramenti opposti, a
sostegno o a rifiuto della teoria ondulatoria. Solo con il prevalere della scuola
metodologica di Cambridge l’ipotesi ondulatoria riuscirà ad affermarsi e a scalfire
definitivamente la teoria corpuscolare.
§ 5.6. Il contesto francese
Nel frattempo il dibattito sulla natura della luce si era spostato in Francia. Nel 1808
Laplace aveva fornito per il fenomeno della doppia rifrazione una spiegazione
dinamica, postulando nel mezzo cristallino l’esistenza di forze che agiscono sui
corpuscoli di luce, in modo da modificarne la velocità a seconda della inclinazione
dei raggi rispetto all’asse del cristallo45. L’accordo dei risultati con quelli dedotti
mediante la costruzione degli sferoidi di Huygens sembrava comprovare la validità
dell’interpretazione data. Nello stesso anno, sotto la spinta di Laplace che sollecita
una spiegazione analitica del fenomeno in linea con la sua teoria dinamica, viene
bandito dall’Accademia di Francia un concorso sul tema: “Dare della doppia
rifrazione che la luce subisce nell’attraversare diverse sostanze cristallizzate una
teoria matematica verificata dall’esperienza”. Il premio verrà vinto due anni dopo
da Malus (1775-1812), corpuscolarista e discepolo di Laplace, con una memoria
sulla “Théorie de la double réfraction de la lumière dans les substances
cristallisées”, in cui l’autore fornisce una spiegazione della polarizzazione per
riflessione, da lui scoperta nel 1808, e per doppia rifrazione. Malus interpreta il
fenomeno in termini corpuscolari, supponendo, come già aveva fatto Newton, che
le particelle hanno “lati”. Sotto certe condizioni esse si orientano, o meglio si
polarizzano come si esprime lo stesso autore, dando luogo a un diverso
comportamento dei raggi:
“Ho trovato che la singolare disposizione, che è stata vista finora come uno degli effetti peculiari
della doppia rifrazione può essere completamente impressa alle molecole luminose da tutte le
sostanze solide trasparenti e dai liquidi. Per esempio la luce, riflessa dalla superficie dell’acqua a un
angolo di 52° 45’ ha tutte le caratteristiche di uno dei raggi prodotti per doppia rifrazione dallo spato
d’Islanda, la cui sezione principale sia parallela al piano che passa per il raggio incidente e riflesso.
Se facciamo passare questo raggio riflesso su un cristallo birifrangente che abbia la sezione
principale parallela al piano di riflessione, non sarà diviso in due raggi come avverrebbe per un
raggio di luce normale, ma sarà rifratto in accordo con le leggi ordinarie”46.
Con l’assegnazione del premo a Malus la teoria corpuscolare trova ulteriore
conferma mentre la teoria antagonista entra in una fase assai critica: la teoria infatti
non spiegava in modo soddisfacente la diffrazione; nei corpi in cui avveniva la
doppia rifrazione la costruzione sembrava richiedere due mezzi luminiferi diversi e
45 Laplace, Journal de Physique, LXVIII (gen. 1808), 107.
46 Malus, Nouveau Bulletin des Sciences par la Soc. Philomatique, I (1809), 265. Brewster mostrerà
nel 1815 che si ha polarizzazione per riflessione quando i raggi riflessi e rifratti sono ad angolo retto.
65
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
non esisteva alcuna spiegazione per la polarizzazione, dal momento che la teoria si
basava su una ipotesi di onde longitudinali. L’applicabilità della costruzione di
Huygens era inoltre messa in discussione dalla scoperta di Brewster dei cristalli
biassici nei quali avveniva ancora doppia rifrazione. Si pensava infatti che questo
fenomeno dovesse avvenire solo in cristalli con struttura simile allo spato di Islanda
per il quale il principio di Huygens aveva fornito una interpretazione efficace.
Nel marzo del 1817, i sostenitori della teoria della emissione propongono
all’Accademia di Francia il tema sulla diffrazione:
“1. Determinare con esperienze precise tutti gli effetti della diffrazione dei raggi luminosi diretti e
riflessi, quando passano separatamente o simultaneamente vicino alle estremità di uno o più corpi di
estensione sia limitata che estesa, tenendo conto dell’interdipendenza di questi corpi, così come
della distanza dal fuoco luminoso donde emanano i raggi; 2. Concludere da queste esperienze, per
mezzo di induzioni matematiche, i movimenti dei raggi nel loro passaggio vicino ai corpi”.
Il tema del concorso, espresso in termini corpuscolari, richiede implicitamente una
spiegazione compatibile con il sistema newtoniano. Alla commissione giudicatrice
prende parte lo stesso Laplace insieme a Biot, Poisson, Berthollet, Gay-Lussac e
Arago. Nonostante tutte le previsioni che davano vincente una interpretazione del
fenomeno in termini corpuscolari, il premio verrà vinto da Fresnel.
§ 5.7. La teoria della diffrazione di Fresnel
La posizione di J. A. Fresnel (1788-1827) nei confronti dell’ottica corpuscolare era
decisamente critica: fermamente convinto della semplicità della natura, che deve
produrre il massimo numero di effetti con un numero minimo di cause, Fresnel
ritiene il sistema corpuscolare troppo disarticolato e pieno di ipotesi ad hoc per
potersi accordare con le sue concezioni. Il fatto poi di presupporre una molteplicità
di fluidi imponderabili, ognuno dei quali richiedeva uno schema interpretativo
complesso, per Fresnel è inaccettabile. Lo scienziato francese propende piuttosto
per una teoria semplice, consistente, che dipenda da un ristretto numero di ipotesi e
che inoltre sia fortemente unitaria. Il modello interpretativo in base al quale
fenomeni diversi, quali per esempio quelli luminosi, termici ed elettrici potessero
essere visti come differenti modi di vibrazione in un fluido universale, sembra
rispondere a tutti questi requisiti47.
Gli studi di Fresnel iniziano con l’analisi della diffrazione osservata in una
disposizione sperimentale simile a quella adottata da Grimaldi e da Young, alla
quale lo scienziato francese apporta tuttavia modifiche sostanziali per migliorare il
sistema di osservazione48. Gli effetti di diffrazione vengono attribuiti
all’interferenza mutua delle onde elementari originatesi da quelle parti del fronte
d’onda diretto che non sono state ostruite dall’ostacolo diffrangente. Mediante il
principio di Huygens e il principio di interferenza, Fresnel riesce a spiegare
completamente tutti i fenomeni osservati e a descriverli in forma matematica in cui
vengono messe in relazione la posizione delle frange, la differenza di cammino dei
raggi e la lunghezza d’onda della luce. Queste idee vengono formulate nel 1816 in
due memorie e sviluppate ulteriormente nei due anni seguenti. Nell’aprile del 1818
Fresnel invia una nota riassuntiva sull’argomento del concorso dell’Accademia che
lo nominerà vincitore l’anno seguente. Poisson legge il manoscritto e osserva che
47 Cfr. di R. H. Silliman, “A. J. Fresnel”, in Dictionary of scientific Biography, New York, 1972, 5,
p. 165, e dello stesso autore, Fresnel and the emergence of Physics as a Discipline, Hist. St. Phys.
Sci., 4 (1972) 137-162.
48 Vedi l’articolo di Silliman, cit.
66
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
l’analisi di Fresnel può essere estesa ad altri casi, con ostacoli diffrangenti di forma
diversa. In particolare, nel caso di un ostacolo circolare doveva comparire, secondo
le analisi teoriche, una macchia chiara nel centro dell’ombra. A questa previsione
seguirà subito dopo la conferma sperimentale fornita dallo stesso Fresnel.
Allo studio sulla diffrazione segue quello sulla polarizzazione. In un esperimento
eseguito nel 1816 Fresnel e Arago avevano notato che due pennelli di luce,
polarizzati in piano perpendicolari, non interferivano. Dopo una lunga serie di
tentativi di spiegazione del fenomeno, alle cui fasi parteciperà sia pure
indirettamente Young49, inizia a emergere una ipotesi sulla propagazione della luce
che si discostava decisamente dalle concezioni correnti. Se si suppone la vibrazione
di ogni fascio suddivisa in tre componenti, una lungo il raggio e le altre due ad
angolo retto, dall’esperimento di Arago e Fresnel deve seguire che la componente
nella direzione dei raggi deve scomparire (le vibrazioni che costituiscono la luce
sono eseguite nel fronte d’onda). Le vibrazioni che costituiscono la luce non sono
dunque longitudinali come comunemente si credeva ma devono essere trasversali.
Sebbene questa affermazione abbia come conseguenza la necessità di apportare
modifiche sostanziali alla struttuta dell’etere, conducendo a posizioni di paradosso
che vedranno Fresnel per un certo tempo isolato dal resto della comunità
scientifica, l’ipotesi sembrava spiegare assai bene l’andamento dei fenomeni. In
questa concezione la luce ordinaria, non polarizzata,
“può considerarsi come l’unione, o più esattamente la rapida successione di sistemi di onde
polarizzate in tutte le direzioni. In accordo con questo punto di vista, la polarizzazione consiste non
nel produrre questi moti trasversali ma nel decomporli in due direzioni invarianti e nel separare le
componenti una dall’altra poiché allora, in ognuna di esse, i moti oscillatori hanno luogo sempre
nello stesso piano”50.
Il successivo programma di ricerca di Fresnel si volge ora a ricercare le proprietà
dinamiche del mezzo luminifero che abbia contemporaneamente le caratteristiche
di un fluido e l’elasticità di un solido per potere, in base a esse, rifondare la teoria
della luce. Faranno seguito, connessi a questo indirizzo di ricerca, gli studi sulla
propagazione della luce nei cristalli in cui Fresnel costruisce una teoria per i
cristalli biassici che include come caso particolare i cristalli monoassici. La teoria
sviluppata da Fresnel riesce in conclusione a spiegare con successo i fenomeni di
diffrazione, di polarizzazione e di doppia rifrazione.
Resta aperto il problema di costruire un modello meccanico di etere elastico in
grado di trasmettere le onde luminose, problema questo che darà l’avvio negli anni
seguenti a importanti sviluppi nella meccanica dei fluidi e dei solidi elastici. Intanto
le conferme sperimentali alla bella teoria di Fresnel e alle conseguenze che lasciava
prevedere non tardano ad arrivare: ricordiamo gli studi di W. R. Hamilton (1833)
sulla rifrazione conica confermati sperimentalmente da H. Lloyd, gli esperimenti di
Airy sui colori delle lamine sottili (1833), le osservazioni di F. M. Schwerd (1835)
con i reticoli di diffrazione, pure in ottimo accordo con le formule di Fresnel. Tra i
molti eventi citati comunemente a sostegno della teoria ondulatoria ricordiamo
ancora la misura della velocità della luce in acqua e in aria condotte da Foucault
(1850) che conferma la diminuzione di velocità nei mezzi più densi; osserviamo
tuttavia che il carattere di “crucialità” attribuito a questo esperimento nei confronti
49 Cfr. Young’s Work, I, p. 380, le lettere ad Arago del gen. 1817 e dell’apr. 1818; su questo punto si
veda E. Whittaker, A History of the Theories of Aether and Electricity, p. 114.
50 Fresnel, Annales de Chimie, VII (1821) 180.
67
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
della teoria ondulatoria è assai discutibile poiché trova gli ambienti di ricerca già
profondamente mutati a favore della teoria.
In Inghilterra il dibattito sulla natura della luce continuerà per molti anni ancora
anche se, verso gli anni Quaranta, la teoria è già istituzionalizzata negli ambienti
scientifici e assunta a nuova ortodossia51. In Francia, con il rinnovamento dei quadri
accademici, il distacco dal programma di ricerca di Laplace è divenuto ormai quasi
totale e lo sviluppo della teoria ottica di Fresnel lascia intravedere implicazioni di
grande interesse in altri campi di indagine quali la termodinamica e
l’elettromagnetismo, realizzando così le idee che Rumford, Davy e Young avevano
formulato all’inizio del secolo.
Modello ondulatorio della luce (intorno al 1820)
- la luce si propaga nell’etere, con vibrazioni trasversali di natura elastica;
- la luce ‘naturale’ è composta di onde polarizzate in tutte le direzioni; se le
vibrazioni si producono tutte in un piano si dicono polarizzate rispetto a quel piano;
- quando un fronte d’onda incide su una superficie di separazione viene riflesso o
trasmesso a seconda della natura della superficie, dell’angolo di incidenza, della
lunghezza d’onda della luce, del suo stato di polarizzazione;
- la velocità di propagazione della luce è funzione della lunghezza d’onda;
- la propagazione libera della luce in un mezzo omogeneo è regolata dal principio di
Huygens-Fresnel;
- se il mezzo è isotropo le onde sono sferiche con centro nel fronte luminoso, se è
anisotropo la superficie d’onda è di quarto grado;
- se il fronte d’onda incontra una discontinuità (ostacolo di dimensioni opportune,
fenditura, ecc.) si ha diffrazione;
- due fasci di luce non polarizzata ad angolo retto in condizioni opportune (coerenti,
omogenei) interferiscono.
CAP. 6. ELETTROMAGNETISMO CLASSICO, DAGLI ALBORI ALLE
EQUAZIONI DI MAXWELL
§6.1. Cronologia sintetica sugli albori dell’elettricità
Antichità classica: è nota la proprietà dell’ambra di attrarre, se strofinata, corpi
leggeri. L’ambra gialla, o succino, affermava Talete di Mileto (624-546 ca.), “è
dotata di un’anima e attrae, come un respiro, i corpi leggeri”. Vengono studiate le
proprietà della torpedine.
1550, G. Cardano opera una prima distinzione tra virtù elettrica e magnetica.
Seicento: W. Gilbert (1544-1603), De magnete, 1600, prima distinzione tra corpi
elettrici e non elettrici sulla base della loro capacità di attrarre altri corpi se
sottoposti a strofinio.
1663, primo dispositivo in grado di produrre la “virtù elettrica”, la macchina di O.
von Guericke (1602-1686), costituita da un globo di zolfo messo in rotazione da
una manovella mentre la mano dello sperimentatore (asciutta o avvolta in un
panno), si manteneva a contatto del globo.
Si moltiplicano le teorie degli effluvi (unici o doppi) insieme alla progettazione di
numerose varianti di macchine elettrostatiche.
51 Vedi l’articolo di G. Cantor, cit.
68
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
Prime tappe importanti nella storia dell’elettricità tra Seicento e Settecento:
Ricerche di F. Hauksbee (1666-1713) sulla elettrizzazione per strofinio;
di S. Gray (1666-1713), sulla distinzione tra conduttori e isolanti e scoperta della
induzione elettrostatica, di C. F. Du Fay (1698-1739) sulla elettricità “vetrosa” e
“resinosa”. Teorie fluidiche di J. Nollet (1700-1770), di B. Franklin (1706-1790) e
di G. B. Beccaria (1716-1781).
In ambito sperimentale si affermarono i primi rivelatori dello “stato elettrico”, gli
elettroscopi; le prime macchine a strofinio e a induzione (l’elettroforo di Volta, del
1775, rappresenta il prototipo della macchina elettrostatica “a influenza”); la
bottiglia di Leida (scoperta simultanea del principio del condensatore, da parte di
E. J. v. Kleist e P. v. Muschenbroek, 1745).
1747-49, B. Franklin in America formula la teoria a un fluido; studi sulla natura
elettrica dei fulmini, osservazioni sulla conduzione della terra e invenzione del
parafulmine.
1759, F. U. Th. Aepinus pubblica il Tentamen theoriae electricitatis et magnetismi.
Esplode il dibattito su quanti siano i fluidi elettrici e se agiscano a distanza o a
contatto.
1767, J. Priestley pubblica The History and present State of Electricity.
1769: Nel De vi actractiva ignis electrici A. Volta (1745-1827) avanza il concetto
di “atmosfera elettrica” (tensione elettrica).
1772, G. B. Beccaria, in L’elettricismo artificiale, definisce il concetto di capacità
di un conduttore. Franklin studia il “potere delle punte”.
1782: Volta definisce la relazione tra quantità di carica, tensione e capacità.
1800: Volta comunica la sua invenzione alla Royal Society di Londra.
1801: Teoria elettrostatica di Biot.
1811: Teoria elettrostatica di Poisson e teoria del potenziale elettrico.
Nel corso del Settecento, in pieno clima illuminista, la scienza dell’elettricità viene
considerata la “più dilettevole e la più sorprendente fra tutte le parti della filosofia
naturale” (T. Cavallo, Trattato completo di elettricità, 1775). Gli “esperimenti
elettrici” (scariche elettriche attraverso una lunga catena di sperimentatori
improvvisati, scintille luminose, giochi elettrici, esperimenti con i parafulmini,
ecc.), godono di enorme popolarità. Ma l’elettricità non è solo intrattenimento
curioso e divertente: nella seconda metà del secolo la ricerca ancora qualitativa
sull’elettricità inizierà ad acquisire i metodi quantitativi e rigorosi della fisica
matematica, strutturandosi gradualmente in scienza dell’elettrostatica. I concetti di
carica elettrica localizzata su un conduttore, di capacità, di “atmosfera elettrica”
(tensione), vennero definiti e quantificati, tra gli altri, da Volta; si affermò inoltre
l’idea di una forza elettrica agente a distanza con la formulazione, da parte di C. A.
Coulomb (1736-1806), della legge fondamentale di attrazione e repulsione tra
cariche puntiformi (1785). L’invenzione da parte di Volta della pila, del 1799,
stimolata dalle osservazioni di L. Galvani (1737-1798), darà infine inizio allo
studio della corrente elettrica.
§6.2. Elettricità e magnetismo: nuove scoperte, nuove teorie
La proprietà della magnetite di attrarre metalli era stata osservata fin dall’antichità
classica ma, al contrario dell’elettricità, la scienza del magnetismo subì una
69
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
evoluzione molto più lenta. Anche se l’uso della bussola era noto da tempo e già W.
Gilbert, nel 1600, aveva attribuito alla Terra le proprietà di una enorme calamita,
ancora nel corso del Settecento le forze magnetiche venivano considerate alla
stregua di “poteri occulti” di cui era complicato dare una descrizione quantitativa.
Nei primi decenni dell’Ottocento una serie di osservazioni sperimentali
contribuirono a evidenziare la stretta connessione esistente tra fenomeni elettrici e
magnetici.
1819, il fisico danese H. C. Oersted (1777-1851) osservò che un filo percorso da
corrente defletteva l’ago di una bussola posto in prossimità. Se la corrente veniva
invertita, l’ago ruotava in verso opposto. La forza magnetica prodotta dalla corrente
non agiva in linea retta ma lungo circonferenze perpendicolari alla direzione della
corrente, con il centro coincidente con il filo. Ampère osserva le azioni
elettrodinamiche tra fili percorsi da corrente.
1820, Ampère distingue tra elettricità in quiete (elettrostatica) e in moto
(elettrodinamica).
1821, M. Faraday (1791-1867) pensa di utilizzare l’esperienza di Oersted per
produrre moto: un magnete, libero di ruotare intorno a un estremo, poteva essere
messo in movimento intorno a un conduttore fisso percorso da corrente e,
viceversa, un conduttore mobile percorso da corrente poteva ruotare intorno a un
magnete fisso (prototipo del motore elettrico, da energia elettrica si produce moto).
1826, G. S. Ohm formula la relazione tra tensione, intensità di corrente e resistenza
in un circuito.
1831, Faraday, esperienze fondamentali che portarono alla scoperta della induzione
elettromagnetica. J. Henry, in America, scopre indipendentemente il fenomeno
dell’autoinduzione e realizza i primi elettromagneti.
L’ipotesi base di Faraday è che se l’elettricità produce magnetismo allora il
magnetismo deve essere in grado di produrre correnti elettriche. Intorno a un anello
di ferro dolce Faraday avvolge due bobine di filo isolato; mentre una bobina era
alimentata da una batteria (circuito primario), l’altra (secondario) si chiudeva su un
indicatore di corrente (prototipo del trasformatore). Nel secondo esperimento un
70
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
magnete viene inserito in una bobina: non appena il magnete viene spinto o tirato
dalla bobina una corrente passa nel circuito. Per giustificare l’insorgere della
corrente indotta nel circuito non alimentato dalla batteria, Faraday ipotizza che
qualcosa doveva modificarsi nello spazio compreso tra i corpi elettrici o magnetici
(ipotesi delle “linee di forza”; questa intuizione verrà ripresa e formalizzata in
particolare da Lord Kelvin e poi da J. C. Maxwell, e da essa deriva il concetto di
campo elettromagnetico). Nella terza esperienza, in un disco posto in rotazione tra
le espansioni polari di una potente calamita, si genera corrente continua tra il centro
e il bordo del disco (prototipo di una dinamo, da un moto meccanico si genera
elettricità).
1834, Faraday, teoria dell’elettrolisi e teoria chimica del galvanismo.
1845, Faraday scopre l’effetto magnetoottico (v. oltre) e introduce il concetto di
campo. Teoria matematica di F. E. Neumann delle correnti indotte.
1846, Legge fondamentale di Weber tra cariche elettriche in moto.
1850, Faraday interpreta con le linee di forza i fenomeni para- e diamagnetici
1856, J. C. Maxwell (1831-1879) traduce in linguaggio matematico il concetto di
linea di forza di Faraday. Sistema di misura assoluto di Weber
dell’elettromagnetismo.
1858, B. Riemann formula la legge fondamentale dell’elettrodinamica sulla base
del concetto di potenziale ritardato.
Per una trattazione estesa sulla storia dell’elettromagnetismo classico si veda, di M.
De Maria, La nascita dell’elettromagnetismo classico: un’analisi storicoepistemologica, in M. De Maria, M. G. Ianniello (a cura di), Storia e didattica della
fisica. Strumenti per insegnare, Aracne, Roma, 2002, pp. 57-183.
Nel saggio sono trattati l’approccio meccanicista e dinamista con riferimento
particolare all’elettromagnetismo, i contributi di Oersted, Ampère e Faraday. In
coda al saggio è riportata una ampia bibliografia di approfondimento e una serie di
“letture” tratte dalle memorie di Oersted, Ampère e Faraday.
§ 6.3. La connessione tra luce e forze elettromagnetiche
71
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
La prima evidenza sperimentale di un collegamento esistente tra luce ed
elettromagnetismo si ha nel 1845, con l’effetto Faraday: se si pone un blocchetto di
vetro flint tra i poli di un elettromagnete quando passa corrente, si osserva la
rotazione del piano di polarizzazione di un fascetto di luce linearmente polarizzato
che si propaghi nel mezzo, parallelamente alle linee di forza magnetica (le
concezioni di faraday sul nesso luce-elettromagnetismo vengono meglio chiarite
nella memoria Thoughts on Ray-vibrations).
Alcuni anni dopo, nel 1856, Weber e Kohlrausch determinano sperimentalmente,
con metodi statici e dinamici, la quantità di elettricità immagazzinata in una
bottiglia di Leyda e successivamente scaricata a terra (scarica del condensatore). Il
rapporto tra i due valori porta a una costante che rappresenta il fattore di
conversione tra unità elettromagnetiche ed elettrostatiche e il cui valore è molto
prossimo alla velocità della luce:
“Il valor medio [...] dà per la costante C un valore di 436090·106 [mm/s]52. Il significato della
costante è quello di una velocità [...] con cui due masse elettriche si avvicinano o si allontanano
l’una dall’altra quando tra loro non avviene né attrazione né repulsione. Tramite il valore di C si può
convertire qualunque misura di intensità di corrente eseguita nel sistema assoluto in misure
meccaniche [...], sia che tale misura sia basata su effetti magnetici, elettrodinamici o elettrolitici.
Tutte le velocità reali che conosciamo, comprese quelle dei corpi celesti, sono trascurabili rispetto a
C poiché l’unica velocità a noi nota che si avvicina a C, quella cioè della propagazione della luce,
non è una velocità reale53 con cui i corpi si muovono l’uno rispetto all’altro”.54
Il collegamento tra fenomeni luminosi ed elettromagnetici che pure poteva essere
avanzato sulla base della straordinaria coincidenza di valori osservata non viene
neppure proposto poiché le misure di Weber e Kohlrausch sono unicamente
funzionali alla determinazione di un fattore di conversione che riduca in unità
meccaniche, grandezze magnetice ed elettriche. L’elettrodinamica tedesca di metà
Ottocento si muove infatti ancora nell’ambito meccanicistico in cui si tende a
ricondurre i fenomeni a forze di tipo meccanico e in questo ambito non c’è spazio
per altri contesti interpretativi55.
§6.4. La sintesi di Maxwell dell’elettromagnetismo ottocentesco
Dai contributi sperimentali di Faraday, Maxwell riprese in particolare il concetto di
campo elettromagnetico che considerò sia come plenum di forze, rappresentate da
linee nello spazio, sia come plenum di etere, sostanza ipotetica che pervade lo
spazio, o “mezzo dielettrico”, e in grado di mediare le “azioni elettriche” tra
particelle materiali contigue.
Maxwell immaginò la struttura geometrica del campo elettromagnetico come
costituita da un insieme di vortici rotanti, circondati da catene di particelle in
rotazione, quasi a formare una struttura cellulare a nido d’ape: la rotazione dei
vortici dava luogo al magnetismo, le traslazioni delle catene di sferette
52
Questo valore, ottenuto dagli autori nel sistema di unità elettrodinamiche, va diviso per radice di 2
per ottenere unità elettromagnetiche: si ottiene così 3,11·1010 cm/s, un valore molto vicino a quello
della velocità della luce. Il valore misurato nel 1849 da Fizeau era di 3,15·1010 cm/s.
53 La velocità della luce per Weber è la velocità di un’onda e, in quanto tale, non corrisponde ai moti
reali descritti dai corpi a velocità molto più basse.
54 R. Kohlrausch, W. Weber, Elektrodinamischen Maasbestimmungen insbesonders Zurückführung
der Stromintensität Messungen auf mechanisches Maas, 1857, Werke, vol. III, p. 591.
55 Per una discussione approfondita sul programma di ricerca di Weber nell’ambito della
determinazione di un sistema di unità meccaniche in elettrodinamica, v. S. D’Agostino, La scoperta
di una velocità quasi uguale alla velocità della luce nell’elettrodinamica di W. Weber, Physis, 18
(1976) 297-318.
72
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
all’elettricità. Ma lo scienziato scozzese aveva chiaro il valore ipotetico del suo
modello meccanico: “La natura di questo meccanismo sta al vero meccanismo
come un planetario al sistema solare”.
Nel Treatise on Electricity and Magnetism, del 1873, Maxwell abbandonò infatti i
dettagli microscopici e formalizzò le sue equazioni dell’elettromagnetismo
deducendole direttamente dalle equazioni fondamentali della meccanica in forma
lagrangiana. Nella “teoria dinamico-elastica del campo elettromagnetico” di
Maxwell è contenuta una ipotesi fondamentale: le “vibrazioni della luce e le
correnti elettriche” sono fenomeni identici. Le onde elettromagnetiche si possono
propagare nello spazio e la velocità di propagazione “è così prossima a quella della
luce che abbiamo buoni motivi per concludere che la luce stessa (e così il calore
radiante e altre radiazioni) sia una perturbazione elettromagnetica che obbedisce
alle leggi dell’elettromagnetismo”.
Questa previsione di Maxwell, di portata rivoluzionaria per la fisica, verrà
confermata sperimentalmente quasi venti anni dopo da Hertz.
Le equazioni del campo elettromagnetico di Maxwell, del 1865, rappresentano la
sintesi teorica di tutti indizi sperimentali emersi nei primi decenni dell’Ottocento e
consentono di trattare, con lo stesso formalismo matematico, l’elettrostatica, la
magnetostatica e l’elettrodinamica e hanno validità del tutto generale.
§6.5. La teoria elettromagnetica della luce di Maxwell e il contributo di Hertz
Con Faraday e Maxwell avviene un rovesciamento del quadro interpretativo dei
fenomeni elettrici e magnetici ivi compresi quelli luminosi. L’obiettivo della ricerca
non è più quello di ricondurre tali fenomeni alla meccanica né il punto di partenza è
costituito da un modello specifico di etere avente certe proprietà elastiche. Sono
piuttosto i dati sperimentalmente provati, quali per es. l’osservazione dello stato
fisico dello spazio in prossimità di un magnete, la trasversalità del moto delle onde,
l’effetto Faraday, a costituire il nucleo della ricerca.
Per Maxwell tutti i fenomeni sono prodotti da materia in moto così che eventi
meccanici, idrodinamici, elettrici e magnetici possono essere descritti dalle stesse
equazioni. Servendosi di analogie idrodinamiche Maxwell rappresenta le linee di
forza magnetiche mediante vortici molecolari in un fluido incompressibile. Vortici
contigui ruotano grazie all’esistenza di particelle ‘frenanti’ che costituiscono
l’elettricità. Se su di esse agisce una forza elettrica di tipo elastico, le particelle si
spostano modificando il mezzo e danno così origine a un campo magnetico.
Attraverso il formalismo matematico derivato dall’idrodinamica e dalle teorie
elastiche, Maxwell traduce il comportamento del suo modello “a particelle e a
vortici” in un serie di equazioni differenziali che danno ragione dei principali
fenomeni elettromagnetici. Tali equazioni nei mezzi non conduttori portano a
un’equazione differenziale del secondo ordine che dà come velocità di
C
, dove C è la costante di
propagazione di un disturbo elettromagnetico v =
μ
Weber e Kohlrausch; nell’etere (oggi si direbbe nel vuoto), poiché =μ=1 si ottiene
l’uguaglianza tra C e v. Maxwell osserva in proposito:
“Questa velocità è così prossima a quella della luce che abbiamo buone ragioni di concludere che la
luce stessa (includendo il calore raggiante e altre radiazioni) è una perturbazione elettromagnetica
che obbedisce alle leggi dell’elettromagnetismo. [...]. L’idea della propagazione di perturbazioni
magnetiche trasversali con la esclusione di quelle normali è chiaramente trattata da Faraday nei suoi
“Thoughts on Ray-Vibrations”. La teoria elettromagnetica della luce da lui proposta è in sostanza la
73
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
stessa di quella che io ho iniziato a sviluppare in questo articolo, tranne che nel 1846 non esistevano
dati per calcolare la velocità di propagazione”56.
In definitiva per Maxwell la luce non va più considerata come un’onda meccanica
trasversale in un corpo quasi elastico ma come un’onda elettromagnetica che
trasporta energia. L’etere in questa concezione rimane ancora come supporto
all’energia di campo.
Nonostante le numerose conferme sperimentali, la teoria di Maxwell, per il suo
carattere di netta rottura con l’elettrodinamica del tempo, avrà bisogno di oltre
trent’anni per affermarsi. Lo stesso Maxwell darà una prova della connessione tra
luce ed elettromagnetismo nella banda ottica, confrontando il valore della costante
dielettrica della paraffina solida misurata staticamente, con il valore dell’indice di
rifrazione n della stessa sostanza estrapolato da misure di dispersione su lunghezze
d’onda di grande periodo, in base alla relazione n = .
La conferma nella banda di frequenze elettromagnetiche verrà data da Hertz (18571894) in una serie di esperimenti eseguiti tra il 1886 e il 1888. La teoria di Maxwell
viene ripresa da Hertz e messa a confronto con la teoria di Weber allora dominante
in Germania. La teoria di Weber, basata sull’azione a distanza, postulava l’esistenza
di forze elettriche e magnetiche che si dovevano propagare istantaneamente nello
spazio. La teoria di Weber, insieme ad altre teorie in competizione, quali quelle di
F. E. Neumann, di C. Neumann e di Riemann, nel caso di correnti chiuse portavano
a risultati in buon accordo con le leggi di Ampère sulle azioni elettrodinamiche e
con la legge di induzione. Nel caso di circuiti aperti al contrario, i risultati
divergevano da teoria a teoria. L’insieme di queste teorie erano comunque arrivate
a un tale grado di artificiosità e di complessità di calcolo “da rendere
l’elettrodinamica di quel periodo un deserto impraticabile”57.
L’elettrodinamica di Faraday-Maxwell, al contrario, con poche ipotesi portava a
risultati corretti in ambedue le classi di fenomeni. L’analisi delle equazioni inoltre
faceva prevedere risultati in netto contrasto con le idee correnti: tali equazioni
prevedevano, in particolare, l’esistenza di onde elettromagnetiche che si propagano
nello spazio con velocità finita. Ma se in qualche modo si fosse riusciti a produrre
in laboratorio tali onde e a misurarne la velocità sarebbe stato possibile fornire la
prova più convincente della teoria. Come sorgente si potevano utilizzare
oscillazioni elettriche ad alta frequenza in modo da ottenere lunghezze d’onda
facilmente misurabili in aria. Occorreva inoltre uno strumento in grado di captare a
distanza perturbazioni elettriche. Hertz riuscì a risolvere entrambi i problemi e a
realizzare due circuiti elettrici oscillanti in grado di produrre e di rivelare le onde
elettromagnetiche58.
56 J. C. Maxwell, Una teoria dinamica del campo elettromagnetico, 1864; v. The Scientific Papers,
ristampa, New York, Dover Publ. 1955.
57 H. v. Helmholtz, “H. R. Hertz”, Z. f. phys. u. chem. Unterricht, 1894, Berlin, p. 22.
58 H. Hertz, Ann. d. Phys., XXXI (1887), 421.
74
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
Nel 1888 Hertz dimostra sperimentalmente che un disturbo elettromagnetico si
propaga in aria con velocità finita59 con un valore dello stesso ordine di grandezza
della velocità della luce. La seconda fase della ricerca riguarda la dimostrazione
sperimentale del comportamento ottico delle onde elettromagnetiche: le onde si
propagano in linea retta, riflettono, diffrangono, rifrangono e mostrano effetti di
polarizzazione e di interferenza60. La descrizione degli esperimenti è presentata con
estrema chiarezza dallo stesso autore in una memoria61 del 1889.
Cap. 7. La scoperta dell’ elettrone
§7.1. Il contesto teorico e sperimentale
Dal 1830 circa: Faraday studia l’elettrolisi (quando passa corrente in una soluzione
(solvente + soluto, per es. un sale), c’è sempre un passaggio di materia agli elettrodi
secondo precise proporzioni con la quantità di carica che passa nella cella; le molecole
del sale si scindono e gli ioni positivi e negativi migrano verso gli elettrodi). Il
processo di conduzione elettrica negli elettroliti serve come modello per studiare la
conduzione dell’elettricità nei gas. Lo stesso Faraday inizia le prime indagini sul
passaggio dell’elettricità nei gas ma non riesce a fare osservazioni significative (la
pressione del gas era troppo alta). Si limita a descrivere la “zona oscura di Faraday”
che si forma tra la regione negativa e positiva del tubo di scarica.
1855: pompa a mercurio di H. Geissler (a Bonn); si ha una svolta nelle ricerche
perché si riesce a ridurre la pressione del gas di riempimento dei tubi (“tubi di
Geissler”).
1860 circa. La disposizione sperimentale per studiare la scarica nei gas a bassa
pressione si stabilizza; studi di J. Plücker (di Bonn), J. W. Hittorf (di Bonn, allievo di
P.), F. Goldstein (di Berlino); Plücker scopre i raggi catodici (1858, osserva nella
regione opposta al catodo una luce fluorescente verde; se si avvicina un magnete la
‘macchia’ sul vetro si sposta. Ipotizza per la radiazione proveniente dal catodo una
natura corpuscolare).
59 H. Hertz, Ann. d. Phys., XXXIV (1888), 551.
60 H. Hertz, Ann. d. Phys., XXXVI (1889), 769.
61 H. Hertz, Über die Beziehung zwischen Licht und Elektrizität, conferenza divulgativa tenuta da
Hertz in occasione del 62° Congresso dei ricercatori tedeschi il 20 sett. 1889 in Heidelberg.
75
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
al rocchetto
1865, pompa di H. Sprengel; Plücker osserva che a pressioni più basse lo spazio
oscuro di Faraday aumenta mentre sulla parete opposta del tubo si forma un globo
luminescente che si sposta in presenza di un magnete.
1869: Hittorf osserva la deviazione dei rc in campo magnetico e che il fascio dà ombra
se si interpone un ostacolo. Il fascio è costituito di raggi che si propagano in linea
retta.
1870, Goldstein individua nel catodo il punto in cui il fascio parte; i raggi vengono
emessi perpendicolarmente alla superficie del catodo e conia il termine “raggi
catodici” (Kathodenstrahlen); sostiene, come farà la scuola tedesca, a eccezione di
Plücker, Helmholtz e pochi altri, che i raggi catodici (r. c.) sono radiazione
elettromagnetica (teoria ondulatoria o “radiativa” o “eterea”).
1876, Goldstein scopre i raggi canale.
1879, W. Crookes (Inghilterra): i r. c. sono corpuscoli, sono costituiti da un “torrente
molecolare”, cioè da molecole che trasportano carica negativa. A basse pressioni
osserva uno spazio oscuro che si forma tra il catodo e la parte luminescente dei rc; al
diminuire della pressione lo spazio oscuro si estende per tutto il tubo (lo spazio scuro
dovrebbe dare per C. una indicazione del clm delle molecole; in tale regione non
avvengono urti tra le molecole). I rc sarebbero i componenti di un quarto stato della
materia (o stato ultragassoso o “protyle” o materia primordiale). Analogia tra la
conduzione elettrica nei gas e negli elettroliti (W. Giese, A. Schuster, ecc...; teoria
delle “particelle elettrizzate”).
1883: H. Hertz (e il suo allievo P. Lenard) sostiene che i r. c. sono onde e non
corpuscoli carichi (ma non si spiega allora perché le ‘onde’ sono deflesse da un
magnete). Se fossero particelle cariche dovrebbero generare un campo magnetico,
come avviene in un filo percorso da corrente; ma Hertz non riesce a rivelare alcun
effetto (per limiti strumentali del suo apparato). Tenta anche di vedere che succede
quando i r. c. passano tra due placche deflettrici cariche; poiché non osserva alcuna
deflessione conclude che i r. c. sono onde (Hertz lavora a pressioni troppo alte: per
ionizzazione del gas gli ioni positivi e negativi migrano ai piatti e mascherano la
deflessione del fascio catodico; J. J. Thomson scoprirà che se si diminuisce la
pressione la conducibilità del gas diminuisce e la deflessione elettrostatica diviene
evidente).
1886, Goldstein osserva oltre al fascio dei rc, un fascio che procede in verso opposto,
dall’anodo al catodo (cosiddetti “raggi canale”, perché penetrano nei canali praticati
nel catodo; si tratta, come si capirà qualche anno dopo, di ioni carichi più, cioè atomi a
cui sono stati strappati elettroni).
1890, Schuster (di Manchester) determina sperimentalmente il rapporto carica-massa
delle particelle dei rc/
1891, Stoney conia il termine “elettrone” (come quantità di elettricità di riferimento
ma non ancora come particella dotata di carica e e massa m).
76
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
1892, Hertz osserva che i r. c. penetrano sottili fogli di alluminio, dunque sono una
“perturbazione ondulatoria dell’etere” (onde). Lenard realizza un tubo con una finestra
di alluminio sottile per studiare i rc in aria.
La base sperimentale tra gli anni Ottanta e Novanta dell’Ottocento:
i r. c. producono fluorescenza sul vetro; si propagano in linea retta; sono schermati da
un ostacolo; se l’ostacolo è sottile lo attraversano; non sembrano risentire degli effetti
di un campo elettrico; sono deflessi da un campo magnetico; hanno q.d.m. e
trasmettono energia (se focalizzati, producono un aumento di temperatura).
1894: Hertz, le onde radio hanno velocità confrontabile con la velocità della luce,
rifrangono e si polarizzano.
1895: J. Perrin: i r.c. trasportano carica negativa (sono particelle).
1896, P. Zeeman scopre che le righe spettrali di gas in campo magnetico si
modificano. H. A. Lorentz attribuisce l’effetto al moto di cariche nell’atomo e stima il
rapporto m/e per l’elettrone.
1897, J.J. Thomson misura m/e: gli elettroni entrano nella fisica.
1898, Wien dimostra che i raggi canale sono costituiti da particelle positive e trova per
esse un valore di molto più grande di quello ottenuto da Thomson per i rc.
1899, Thomson fa una prima misura della carica assoluta dell’elettrone.
1909-1913, Millikan, determinazione della carica assoluta dell’elettrone. R. A.
Millikan, On the elementary electrical charge and the Avogadro constant, Phys. Rev.,
2(1913) 109-143.
§7.2. J. J. Thomson e la misura di m/e
Abbiamo vista come lo studio dei rc porti la comunità dei fisici a spaccarsi attorno alla
loro natura. I raggi catodici sono onde (teoria eterea) o particelle (teoria delle particelle
elettrizzate)? Alla prima ipotesi aderiscono, con qualche illustre eccezione, i fisici
tedeschi (Goldstein, Hertz, Lenard); la seconda ipotesi prevale invece negli ambienti
inglesi (Crookes, J. J. Thomson). Sarà Thomson a dimostrare, presso il Cavendish
laboratory all’Università di Cambridge, la natura particellare dei rc, in un accurato
studio sperimentale62 del 1897, che analizziamo di seguito.
Esperimento à la Perrin modificato: Perrin ha dimostrato che i rc depositano carica
negativa nel cilindro di Faraday e da ciò ha concluso che “i rc sono carichi di
elettricità negativa, […], che qualcosa carico di elettricità negativa è espulso dal
catodo e viaggia ad angolo retto rispetto a esso […] ma non dimostra che la causa
dell’elettrificazione abbia a che fare con i rc”63. L’apparato che Thomson impiega è il
seguente:
62
J.J. Thomson, Phil. Mag., 44 (1897) 293; 48 (1899) 547. Cfr. di G. P. Guidetti, La scoperta
dell’elettrone, in F. Bevilacqua (a cura di), Storia della fisica. Un contributo per l’insegnamento della
fisica, F. Angeli ed., Milano,1983, 148-164.
63 Guidetti, cit., p. 154.
77
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
i rc vengono espulsi dal catodo e attraversano il tappo metallico forato connesso
all’anodo (e a terra); alla base dell’ampolla più grande ci sono due cilindri coassiali
connessi uno a terra e l’altro
a un elettrometro. L’elettrometro segnala una carica solo quando i rc, opportunamente
deflessi da un campo magnetico, entrano nell’imboccatura del cilindro collegato allo
strumento. Ciò dimostra che “l’elettrificazione negativa segue lo stesso percorso dei
raggi ed è indissolubilmente legata ai rc”.
Esperimento à la Hertz: Hertz non è riuscito a osservare la deflessione dei rc in campo
elettrico. Thomson ripete gli esperimenti di Hertz e trova che “la mancanza di
deflessione è dovuta alla conducibilità provocata nel gas rarefatto da parte dei rc”.
I rc sono emessi dal catodo C, attraversano l’anodo A e quindi lo spazio tra le due
piastre deflettrici DE; colpiscono lo schermo su cui è stata fissata una scala per
valutare la deflessione del fascio. Thomson osserva la deflessione “solo quando il
vuoto era buono” e spiega la mancata osservazione della deflessione da parte di Hertz
come dovuta agli ioni prodotti dai rc nel gas rarefatto, i quali migrano verso le piastre
e annullano la forza elettrica.
Deflessione in campo magnetico: il catodo è fissato lateralmente nella campana di
vetro; il tappo forato (messo a terra) funge da anodo. La campana veniva posta tra due
bobine di Helmholtz che generano un campo magnetico uniforme. La deviazione era
stimabile su una scala fissata esternamente di fronte al catodo.
Conclusioni:
“Poiché i rc sono portatori di una carica di elettricità negativa, sono deflessi da parte di una forza
elettrostatica come se fossero elettrizzati negativamente, e sono influenzati da una forza magnetica nello
stesso modo in cui questa forza agirebbe su un corpo elettrizzato negativamente che si muovesse lungo
il percorso di questi raggi, io non posso sottrarmi dal concludere che tali raggi sono cariche di elettricità
negativa trasportate da particelle materiali.
78
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
Ora sorge il problema: che cosa sono queste particelle? Sono atomi, o molecole, o materia in uno stato
di suddivisione ancora più fine? Per gettare un po’ di luce su questo punto ho eseguito una serie di
misure sul rapporto tra la massa di queste particelle e la carica da esse trasportata”64.
Determinazione di m/e: l’apparato è mostrato in figura, con il tubo munito di catodo e
di anodo forato; viene mostrata una traiettoria dei rc deviata da un campo magnetico
uniforme di intensità H.
C
A
N sia il numero di corpuscoli di massa m e carica e che attraversano una sezione del
fascio in un certo tempo; la quantità di carica Q trasportata dalle particelle dei rc è:
Ne=Q (1); l’energia cinetica W delle particelle (da misurare, per es., dal calore
1
prodotto su una coppia termoelettrica collegata a un galvanometro) è: W = Nmv 2 (2)
2
mv
e, inoltre, se c’è un campo magnetico uniforme: H =
(3), dove è il raggio di
e
W Nmv 2 mv 2
=
curvatura della traiettoria dei rc. Dividendo (2) per (1): =
. Dividendo
2Ne
2e
Q
W 1
2W 2W
m I 2Q
= Nve v =
=
la (2) per la (3):
(4) (T. pone H =I); infine, =
I 2
INe IQ
e 2W
(5). Misurando Q, W e I Thomson calcola per la massa di un corpuscolo
g
carico me 107
e per v ~109 cm/s.
u.e.m.
Thomson impiega anche un secondo metodo per risalire al rapporto m/e con un tubo a
raggi catodici munito di placche deflettrici; varia il gas di riempimento e trova che il
valore di m/e non cambia. Il valore trovato, più piccolo di 3 ordini di grandezza del
valore allora noto da esperimenti di elettrolisi per lo ione idrogeno (10-4 g/u.e.m.),
suggerisce che o la carica e trasportata sia molto grande o che la massa m sia molto
piccola o una combinazione dei due. Thomson ipotizza che sia la massa m dei
portatori di carica a essere molto minore della massa dello ione idrogeno sulla base
delle osservazioni di Lenard che i rc hanno grande potere penetrante (sicché, se sono
particelle, devono essere più piccole delle molecole dello strato che attraversano).
Parte dei dubbi verranno sciolti solo con la determinazione della carica assoluta e, che
lo stesso Thomson effettuerà nel 1899 sulle cariche espulse per effetto fotoelettrico,
dopo aver dimostrato che il rapporto m/e per i fotoelettroni è identico a quello delle
particelle dei rc65. Thomson trova che la carica delle particelle catodiche è uguale a
quella della carica positiva dello ione idrogeno (e=6·10-10 u.e.s.) mentre la massa
m=1,4 10-3 della massa dello ione idrogeno:
“Gli esperimenti ora descritti insieme ai precedenti per i raggi catodici […] mostrano che nei gas a
bassa pressione l’elettrizzazione negativa, benché possa essere prodotta in modi diversi, è costituita di
unità aventi ciascuna una carica di entità definita; la grandezza di questa carica negativa è circa 6·10-10
u.e.s. ed è uguale alla carica positiva portata dall’atomo di idrogeno nell’elettrolisi di soluzioni”.
64
65
79
Ibid., p. 157.
J.J. Thomson, Phil. Mag., 48 (1899) 547.
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
§7.3. Il contributo di Millikan alla determinazione della carica assoluta
dell’elettrone
Tra il 1909 e il 1917 Millikan conduce una serie di misure per determinare la carica
dell’elettrone. Il metodo usato da Millikan è quello della goccia d’olio. Il nucleo
centrale della sua disposizione sperimentale è rappresentato da un condensatore a
facce piane e parallele, racchiuso in un recipiente metallico D (vedi fig. B, la fig. A
rappresenta una disposizione sperimentale più rudimentale, del 1910).
A. Apparato sperimentale intorno al 1910
B. Apparato sperimentale perfezionato (1913).
Il recipiente è collegato a un manometro per il controllo della pressione e a sua volta è
immerso in un altro recipiente pieno di un liquido (D, in altre parole, è in un bagno
termico) per mantenere la temperatura costante durante l’esperimento. A è
80
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
l’atomizzatore utilizzato per immettere gocce d’olio tra le armature del condensatore.
Il tubo a raggi X, che comunica con D tramite una finestra, serve a ionizzare l’aria tra
le armature. Xpa è la linea di osservazione.
Olio non volatile di densità viene atomizzato in piccole gocce (dell’ordine del mm)
immesse in aria di densità tra le armature del condensatore. Le gocce, osservate
attraverso un opportuno sistema ottico, cadono con velocità costante v1 sotto l’effetto
della gravità (v è costante perché l’aria, di coefficiente di viscosità = 0,00018240 a
23°C, è un mezzo viscoso; il valore di viene preso da una serie di misure condotte
con metodi diversi, riportato alla temperatura del sistema e mediato).
La formula della velocità di caduta viene dedotta dalla legge di Stokes con l’aggiunta
di un termine correttivo al primo ordine in l/a, con l, cammino libero medio di una
molecola d’aria, A costante da determinarsi nel corso dell’esperimento in funzione del
raggio a delle gocce e della pressione dell’aria:
2 ga 2 ( ) l
1+ A v1 =
9
a
(1)
Quando si accende il campo elettrico E tra le armature del condensatore la goccia,
sotto l’effetto della forza F=qE, sale con velocità costante v2. L’aria tra le armature
viene ionizzata in modo che la goccia acquisti, nel corso dell’esperimento, cariche via
via crescenti. I valori di queste cariche vengono date, sempre considerando la legge di
Stokes, dalla equazione
1
1
2 (v1 + v2 )v12
4 9 1
en = 3 2 g( ) E
3
2
(2).
Questi valori en delle cariche risultavano tra loro secondo relazioni multiple, “un fatto
che dimostrava in modo diretto la struttura atomica della carica eletrica”.
Per ogni valore della carica addizionale, il valore di (v1+v2) nella (2) varia; prendendo
il massimo comun divisore (MCD) della serie dei valori assunti dalle velocità con
MCD=(v1+v2)0 si trova, tra i diversi valori di en, quel valore e1 (a sua volta MCD tra
gli en valori), che è uguale, a meno di un fattore correttivo, all’unità elementare di
carica
e=
e1
3
(3).
l2
1 + A a
Per risalire ai valori di v1 e v2 Millikan misura i tempi di caduta e di salita lungo una
distanza costante, compresa tra due traguardi. Tra v1 e v2 sussiste la relazione
v1
mg
=
(4)
v 2 Ee mg
che per una serie n di misure (condotte in funzione della carica via via catturata dalla
goccia in esame) porta a
81
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
en =
mg(v1 + v 2 )
Ev1
(5).
Questa equazione viene scritta sostituendo alle velocità i relativi tempi di caduta tg
(per effetto della sola forza peso) e tE (per effetto del campo elettrico) impiegati dalla
goccia per percorrere la distanza tra i due traguardi:
mgt g
en =
1 1
E + tg t E (6).
Se la goccia cattura n’ unità di carica addizionale si ha
en +n' =
mgt g
1 1 E + t g t E' (7).
Si noti che la presenza del campo elettrico influenza solo il tempo di salita tE, in
funzione della carica n’, mentre tg resta invariato.
Sottraendo la (7) dalla (6)
en' =
mgt g
1 1
E t E' t E (8).
Si noti che:
poiché mgtg/E è costante per una stessa goccia, quando la carica sulla goccia varia, i
valori di en ~ 1/tg + 1/tE;
quando si aggiunge carica addizionale
1 1
en' ~ cost. con l’unità di carica e1 = cost. (1/tE'-1/tE)0
t E' t E che è pure uguale a e1 = cost.(1/tg+1/tE)0. Ne segue che:
(1/tE'-1/tE)0 = (1/tg+1/tE)0. Inoltre, poiché 1/tg > 1/tE, si hanno due modi indipendenti
per eseguire le misure, in presenza e praticamente in assenza di campo elettrico E.
Le ipotesi assunte nel corso delle prove sono che:
l’effetto del mezzo (l’aria) su una data goccia non è influenzato dalla sua carica; le
gocce d’olio si muovono nel mezzo come se fossero sfere solide (non ci sono né
distorsioni dovute al campo elettrico né convezioni interne tali da modificare la legge
di moto di una goccia); la densità delle gocce è indipendente dal raggio fino ad a =
0,0005 cm (al di sotto di questo valore anche la legge di Stokes sembra non valere
più).
Tutte queste ipotesi vengono vagliate e confermate nel corso dell’esperimento.
In tabella IV vengono riportati i dati sperimentali per la goccia n°6.
82
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
Le misure dei tempi di caduta tg e di salita tE vengono eseguite sia con il cronoscopio
di Hipp che con un cronometro a stop (rispettiv. prima+quarta colonna e seconda +
terza colonna); n’ è il numero di unità elementari di carica catturate dalla goccia
mentre n rappresenta il numero totale di unità di carica sulla goccia.
Vengono ripetute 58 serie di misure per 58 gocce diverse. Il valor medio per e è:
e = 4,774 10-10 unità elettrostatiche.
Poiché il valore della costante di Faraday F= 9.650 unità e.m. assolute e corrisponde al
numero di molecole in una grammomolecola per la carica elettrica elementare F = N e,
si ha N = 6,062 1023.
Valutate le sorgenti di errore e l’incertezza per ciascuna grandezza i valori per e ed N
sono rispettivamente:
e = 4,774 ±0,009 10-10
N = 6,062 ± 0,012 1023.
Millikan confronta infine il valore di e, e quindi di N, dedotti dalle sue misure con
analoghi valori ottenuti da Regener con il metodo radioattivo mediante conteggio di
particelle (1909), da Perrin con il moto browniano, da Planck con il metodo della
radiazione concludendo che “I risultati medi per ciascuno di questi tre metodi sono in
buon accordo, entro il limite degli errori sperimentali, con il valore trovato con il
metodo della goccia d’olio”.
Nota sulla legge di Stokes:
Si tratta di una forza ‘frenante’ (o forza di resistenza del mezzo) del tipo
83
Dispense del corso LabSED, parte I, AA. 2007/08, M. G. Ianniello, riproduzione non consentita.
F= 6av, con coefficiente di viscosità del mezzo e a raggio del corpo in moto,
supposto di forma sferica. Quando una goccia sferica si muove nel mezzo è soggetta a
forza peso, spinta di Archimede e forza frenante. La goccia si muove a regime con
velocità costante; per la seconda legge della dinamica la risultante delle forze deve
essere zero, condizione che si verifica quando
forza peso - spinta di Archimede = forza di resistenza del mezzo
4
mg a 3 g
4 3
3
mg a g = 6av * con v* =
6a
3
(v* è la velocità “asintotica” acquistata dal corpo quando la sua accelerazione si
annulla e si muove perciò di moto uniforme). Sostituendo alla massa del corpo m (di
4
densità ) l’espressione m = a 3 si ottiene la (1) a meno del fattore di correzione.
3
All’esperimento:
84