Riflessioni di Fisica domestica

Transcript

Riflessioni di Fisica domestica
Università degli Studi di Firenze
Dipartimento di Fisica e Astronomia
Corso di Laurea in Fisica
Prof. R. Falciani
Prof. A. Stefanini
Riflessioni di Fisica Domestica
e su alcuni argomenti di Fisica Generale
(integrati da un’appendice su
”Introduzione fenomenologica alla Meccanica Quantistica”)
Novembre 2014
Indice
1 Introduzione
4
2 Meccanica
2.1 Moti relativi . . . . . . . . . . . . . . .
2.2 Moto parabolico di un corpo pesante .
2.3 Forze e momenti di forza . . . . . . . .
2.4 Forze apparenti . . . . . . . . . . . . .
2.5 Attrito . . . . . . . . . . . . . . . . . .
2.6 Pressione . . . . . . . . . . . . . . . .
2.7 Conservazione della quantità di moto .
2.8 Conservazione del momento angolare
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6
6
7
7
8
12
14
15
20
3 Fisica dei fluidi
3.1 Idrostatica . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2 Idrodinamica . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Gas e vapore . . . . . . . . . . . . . . . . . . . . . . . .
3.4 Tensione superficiale e capillarità . . . . . . . . . . . . .
3.5 Viscosità . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5.1 Moto vorticoso e numero di Reynolds . . . . . .
3.5.2 Resistenza di un fluido reale al moto di un corpo
3.5.3 Sedimentazione e centrifugazione . . . . . . . . .
3.6 Pressione osmotica . . . . . . . . . . . . . . . . . . . . .
3.7 Le equazioni fenomenologiche delle leggi di trasporto . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
22
22
24
26
32
40
44
45
47
48
49
4 Termologia
4.1 Trasmissione del calore . . . . . . . . . . . . . .
4.1.1 Conduzione . . . . . . . . . . . . . . . .
4.1.2 Convezione . . . . . . . . . . . . . . . .
4.1.3 Irraggiamento . . . . . . . . . . . . . . .
4.1.4 L’effetto serra . . . . . . . . . . . . . . .
4.2 Alcune semplici trasformazioni termodinamiche
4.3 Le straordinarie proprietà fisiche dell’acqua . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
52
52
52
54
56
59
61
66
5 Ottica
5.1 Lenti . . . . . . . . . . . . . . . . . . .
5.2 Lastra a facce piano-parallele e prisma
5.3 Specchi . . . . . . . . . . . . . . . . .
5.4 Altre osservazioni e considerazioni . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
68
68
71
72
73
6 Elettrologia
6.1 Elettrostatica . . . . . . . . .
6.1.1 Condensatori . . . . .
6.1.2 Multimetri . . . . . .
6.1.3 Bilance piezoelettriche
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
77
77
78
79
79
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6.2
6.1.4 Fotocopiatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Fornitura dell’energia elettrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A Introduzione fenomenologica alla meccanica quantistica
A.1 Lo spettro della radiazione di corpo nero . . . . . . . . . . . . . . . . . . . . .
A.2 Lo spettro dell’atomo di idrogeno . . . . . . . . . . . . . . . . . . . . . . . . .
A.3 Effetto Hall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.4 La scoperta della radiazione X e della radioattività naturale . . . . . . . . . .
A.5 Esperienza di Thomson per la misura della carica specifica dell’elettrone . . .
A.6 Esperienza di Millikan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.7 Effetto fotoelettrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.8 Esperienza di Rutherford . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.9 Il modello di Bohr per l’atomo d’idrogeno . . . . . . . . . . . . . . . . . . . .
A.10 Esperienza di Franck e Hertz . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.11 Dualismo onda-corpuscolo per la radiazione elettromagnetica . . . . . . . . .
A.12 Esperienza di Compton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.13 Ipotesi di de Broglie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.14 Esperienza di Davisson e Germer . . . . . . . . . . . . . . . . . . . . . . . . .
A.15 Principio d’indeterminazione di Heisenberg . . . . . . . . . . . . . . . . . . .
A.16 Necessità di un nuovo approccio per la Fisica dell’infinitamente piccolo: la
quantistica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
A.17 Conclusioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
. . . . . . .
meccanica
. . . . . . .
. . . . . . .
80
80
83
84
86
88
88
89
91
92
93
94
95
96
97
99
100
101
105
106
Capitolo 1
Introduzione
Con il termine Fisica domestica intendiamo tutto quel vasto insieme di fenomeni fisici, di azioni anche
banali ma riconducibili a fenomeni fisici, di comportamenti spiccioli e spesso effettuati in modo quasi
automatico e non percepito, che incontriamo quotidianamente nella nostra vita di tutti i giorni, ma che
nascondono l’uso (magari inconsapevole) di fenomeni e leggi fisiche di grande importanza.
Queste riflessioni, oltre che cercare di abituare il giovane fisico all’analisi critica dei comportamenti anche
più semplici, possono costituire un utile e valido sussidio soprattutto per coloro che si dedicheranno all’insegnamento. Infatti uno dei principali ostacoli che si incontrano nell’attrarre l’attenzione e l’interesse
dei giovani per la materia da insegnare è rappresentato dall’indifferenza che i giovani spesso riservano per
la materia, soprattutto quando, come la Fisica, si tratta di una materia di tipo logico-deduttivo quantitativo. Poter offrire loro esempi tratti dalla vita quotidiana, far loro riflettere su azioni che compiono
quasi automaticamente, ma che invece nascondono profondi significati fisici, può rappresentare un’efficace
molla per suscitare attenzione e curiosità nelle loro menti. Senza questa molla l’insegnamento decade inevitabilmente in nozionismo, destinato a non lasciar traccia stabile nella formazione culturale dell’allievo.
Con questi obbiettivi, quindi, discuteremo alcuni dei vari fenomeni fisici che incontriamo in ogni momento della nostra vita quotidiana, non volendo ovviamente esaurire l’argomento ma invece incoraggiando il
futuro insegnante a trovarne altri, molti altri, nella sua esperienza di vita, per arricchire continuamente
il suo bagaglio culturale di buon docente di Fisica.
Queste note nascono da appunti formulati per il corso di “Complementi di Fisica 1”, tenuto negli anni
2000-2008 da uno degli autori per gli specializzandi dell’indirizzo Fisico-Informatico-Matematico della
SSIS Toscana presso l’Università di Firenze. Per questo, per alcuni argomenti (come la Fisica dei fluidi),
generalmente trascurati (se non ignorati) dai corsi di Fisica Generale non del CdL in Fisica, abbiamo anche riportato alcune riflessioni disciplinari di Fisica Generale, come esempio di riflessioni critiche che ogni
futuro docente di Fisica dovrebbe fare, nell’ambito della propria preparazione disciplinare, nel continuo
processo di affinamento del proprio bagaglio culturale per diventare un buon docente.
È utile ribadire che condizione necessaria per diventare un buon insegnante è la profonda e ampia
conoscenza della materia (sarebbe ancora meglio “amarla”) per poter essere in grado di affrontare i
vari argomenti (spesso delicati e non semplici) in vari modi per poi riuscire a trovare la “chiave” giusta
per ogni studente si abbia di fronte. L’ignoranza (nel senso più etimologico del termine) e magari un
atteggiamento sospettoso rispetto alla materia vengono immediatamente percepiti dagli studenti, e il dialogo è a quel punto finito. La condizione sufficiente per diventare un buon insegnante è sapere scegliere le
sequenze logiche e nozionistiche in modo tale da facilitare il compito (non facile!) agli studenti di seguire
l’insegnante, di comprendere (non apprendere!) lo sviluppo e la concatenazione degli argomenti in modo
da “metabolizzare” gli aspetti fondamentali della disciplina. In altre parole la condizione sufficiente è
“essere un insegnante efficiente” e questo è molto difficile: serve modestia, riflessione, disponibilità culturale, ma tutto diventa inutile se non poggia su solide basi di conoscenza e padronanza disciplinare.
Ricordiamo che con FISICA intendiamo la scienza che fornisce spiegazioni razionali (quindi necessariamente antropocentriche) dei fenomeni naturali.
I vari capitoli in cui la FISICA viene convenzionalmente divisa hanno avuto sostanzialmente due modi
diversi di origine: 1) origine sensoriale ( e ne resta chiara evidenza nella loro denominazione); 2) origine
strumentale.
4
Rientrano nella prima tipologia:
• Meccanica e astronomia posizionale classica (vista, tatto, udito)
• Fisica dei fluidi (vista, tatto, udito)
• Termologia (tatto)
• Acustica (udito)
• Ottica (vista)
mentre appartengono al secondo gruppo
• Elettrologia
• Fisica atomica, molecolare, nucleare, particelle elementari
• Fisica della materia
• Astrofisica
• Geofisica
• Biofisica
Daremo ampio spazio ad alcuni aspetti dei capitoli della Fisica di origine sensoriale, nella quale
le sollecitazioni che possono provenire dalla vita quotidiana sono molto più numerose e maggiormente
connesse con l’esperienza comune. Il nostro scopo è infatti quello di sollecitare il futuro insegnante di
Fisica a crearsi un metodo, anche di autocritica conoscitiva, piuttosto che imbottirlo di nozioni, che
possono poi essere acquisite in ogni momento.
Ovviamente il livello di schematizzazione e di intima comprensione dei fenomeni fisici presentati alla
platea dei discenti deve essere rapportato al loro livello di conoscenze e di maturità culturale (in senso
lato). A esempio, se si devono illustrare i fenomeni connessi con l’attrito a ragazzi di scuole secondarie di
1◦ grado dobbiamo limitarci agli aspetti qualitativi dei fenomeni (sensazione di sforzo per far muovere un
corpo, frenamento di un corpo in movimento, calore che si sviluppa fra superfici a contatto in presenza
di attrito, ecc.), mentre per ragazzi di scuole secondarie di 2◦ grado si devono trattare anche gli aspetti
quantitativi, introducendo la forza di attrito (statico o dinamico, radente o volvente) nelle equazioni di
moto in modo da poter spiegare quantitativamente le misure che si possono effettuare in laboratorio.
A studenti universitari di discipline fisico-matematiche si può anche entrare in dettagli delle interazioni
microscopiche che si manifestano fra le “asperità” delle superfici a contatto, con trattazioni quantitative
delle interazioni fra le strutture dipolari delle molecole che costituiscono i corpi posti a contatto. Questo
diventa essenziale, poi, se si vogliono comprendere i complessi fenomeni legati alla lubrificazione, cioè
ai fenomeni chimico-fisici che portano alla riduzione dell’entità quantitativa delle forze di attrito (per
studenti universitari di corsi magistrali).
Per molti argomenti daremo un elenco (necessariamente incompleto) di fenomeni fisici semplici, tratti
anche dall’esperienza quotidiana. Ognuno di questi potrà (e dovrà) essere sviluppato quantitativamente
dall’insegnante se usato come prova sperimentale per illustrare e far comprendere l’argomento fisico a
cui ci si riferisce. In alcuni casi (a esempio nel paragrafo 3.7) includiamo anche riferimenti ad argomenti
generali di Fisica Matematica, correlati con gli aspetti trattati di Fisica Generale, per ricordare sempre, ai
futuri insegnanti, l’unitarietà del processo di schematizzazione logico-deduttiva (tipico della Matematica
e della Fisica) dei fenomeni naturali.
Abbiamo aggiunto, infine, una Appendice fenomenologica alla meccanica quantistica, argomento lontano
“anni-luce” dalla sensitività immediata della Fisica Domestica. Questa scelta non è stata dettata da una
nostra mania di grandezza, ma dalla strampalata iniziativa del nostro ineffabile MIUR, come spiegato
nell’introduzione all’appendice, a cui rimandiamo per i dettagli.
5
Capitolo 2
Meccanica
Per introdurre il concetto di vettore 1 si può partire dalla definizione che si usa in geometria euclidea,
nella quale il vettore descrive una corrispondenza tra punti geometrici nello spazio. Se si parte da un
punto fisso di riferimento O (origine) e si vuol arrivare in un qualunque punto P dello spazio si hanno
infinite possibilità, ma la più semplice (e più corta) è rappresentata dal segmento di retta che unisce
O con P. Questo si rappresenta formalmente con una freccia orientata da O verso P, la cui lunghezza
−−−−−→
(modulo) fornisce la distanza di P da O, e si indica con (P − O). A seconda del sistema di riferimento
−−−−−→
che si usa avremo che il vettore (P − O) potrà essere scomposto nella somma delle componenti lungo i
versori degli assi di riferimento del sistema scelto.
La cinematica inizia con la necessità di descrivere quantitativamente lo spostamento nel tempo di un
punto materiale 2 . Supponiamo che il punto materiale si trovi nell’intorno di un punto P dello spazio
3
, che riferiamo a un sistema di riferimento (cartesiano ortogonale, oppure polare sferico, oppure polare
cilindrico ecc.), centrato in un punto fisso O. È ovvio che il modo più semplice che conosciamo per espri−−−−−→
mere la posizione di P rispetto a O sarà quello di definire il vettore (P − O) = ~r, di componenti (x, y, z)
in un sistema cartesiano ortogonale, (r, θ, φ) in un sistema polare sferico, (r, θ, z) in un sistema polare
cilindrico, ecc.
Se dico che P si trova a una distanza d = 10.0 cm da O, P può trovarsi su uno degli (∞)2 punti della sfera
centrata in O e avente raggio 10.0 cm ; se preciso inoltre che P si trova sul piano orizzontale passante per
O si può trovare su uno degli ∞ punti della circonferenza centrata in O e contenuta nel piano orizzontale
passante per O. Ma se indico anche il diametro lungo il quale mi devo muovere dal centro O verso la
circonferenza orizzontale suddetta (cioè avrò precisato la direzione), basta solo che precisi il verso di
percorrenza del diametro per individuare univocamente la posizione di P rispetto a O.
Risulta quindi evidente che la definizione operativa della posizione di un punto materiale è una grandezza
fisica vettoriale.
Lo stesso ragionamento può essere poi applicato alla definizione di tutte le altre grandezze vettoriali che
andremo a introdurre (velocità, accelerazione, forza, ecc.).
2.1
Moti relativi
Alcuni esempi concreti per illustrare la nostra familiarità coi moti relativi:
• moto di un passeggero su un mobile (treno, veicolo, nave, aereo);
• moto di un treno rispetto alla stazione o al treno a fianco (in assenza di scosse, quando il treno
parte si ha la percezione di star fermi e che si muova il treno a fianco);
1 Notare che ha la stessa radice etimologica delle parole come veicolo, vettura, ecc., cioè il verbo latino veho, vexi, vectum,
vehere → trasportare, portare
2 Un corpo avente dimensioni trascurabili, coi limiti imposti dalla precisione delle misure che effettuiamo, rispetto alle
distanze che caratterizzano il nostro sistema, ma con dimensioni molto maggiori di quelle atomiche, per le quali dovremmo
introdurre le modalità di rappresentazione della meccanica quantistica.
3 Usiamo la dizione intorno di un punto perché il nostro corpo, che rappresentiamo come un punto materiale, ha dimensioni
fisiche finite, mentre il punto geometrico nello spazio non ha dimensioni proprie.
6
• moto di una barca (o nuotatore o pesce) in un fiume in presenza di corrente;
• moto di un aereo (di un proietto, di un volatile, di un aquilone) in presenza di vento;
• moto di oggetti trasportati dal vento;
• moto (apparente!) degli astri in cielo.4
2.2
Moto parabolico di un corpo pesante
Di seguito sono riportati alcuni esempi concreti di tali moti:
• discipline atletiche (getto del peso, salto in alto, in lungo, triplo, corsa a ostacoli, lancio del disco e
del giavellotto [complicati dalle interazioni con l’aria!], lancio del martello);
• giochi sportivi con la palla (calcio, tennis, pallacanestro, pallavolo, ping-pong, ecc.) [complicati
dalle interazioni con l’aria, v. effetto giro];
• tappo dello champagne;
• fuochi artificiali (senza esplosione in volo);
• salto del ballerino e degli animali che saltano mentre corrono (gazzelle, cervi, ecc.), che sollevano
le gambe durante il salto per dare limpressione di essere molto più in alto mentre il loro centro
di massa continua a muoversi sulla parabola impressa dalle condizioni iniziali, ovvero dalla spinta
delle gambe al distacco dal suolo;
• salto del salmone sulla rapida-cascata (notare la furbizia “fisica” dell’orso che cattura il salmone al
vertice della sua traiettoria parabolica sulla cascata, cioè quando la sua velocità rispetto all’orso è
minima);
• salto del pinguino e della foca sul pack dall’acqua;
• espulsione a scatto di semi maturi da involucri seminali di piante (es., le ginestre), per assicurarsi
una vasta copertura territoriale di colonizzazione.
2.3
Forze e momenti di forza
Questo è un argomento che deve essere chiarito con grande cura, soprattutto agli allievi di scuole medie
(ma forse anche elementari), anche perché esiste una grande confusione e ignoranza nel lessico usuale (e
purtroppo anche in vari libri che circolano per le scuole) sull’argomento.
Quando un corpo è vincolato, è necessario sempre considerare le reazioni vincolari per stabilire le condizioni fisiche statiche o dinamiche del sistema che consideriamo. Viene spesso detto, erroneamente, che
applichiamo una forza (quella applicata dalla nostra mano) per aprire una porta. Se fosse vero dovremmo
cadere indietro (con la porta addosso) o in avanti (sdraiati sulla porta!); in realtà i cardini della porta
esercitano un sistema di reazioni vincolari per cui si ha solo una rotazione della porta attorno all’asse
individuato dai cardini e quindi il moto della porta è causato dall’applicazione di un momento di forza,
applicata dalla mano alla maniglia della porta, rispetto all’asse dei cardini della porta. Infatti per facilitare l’apertura della porta (cioè per applicare la minima forza per aprirla) si mette la maniglia (punto
di applicazione della forza della mano) il più lontano possibile dall’asse dei cardini, per creare quindi, a
parità di forza applicata, un momento di forza elevato rispetto all’asse di rotazione della porta.
Altri esempi che evidenziano l’importanza dei momenti di forza sono:
• apertura e chiusura di un rubinetto;
4 È stato l’origine delle tecniche di orientamento per i viaggi dei nostri lontani progenitori, ma anche della nascita della
Fisica, attraverso il percorso Tolomeo → Copernico → Galileo → Keplero → Newton.
7
• ogni tipo di leva 5 funziona, nel caso statico, in accordo con la seconda equazione cardinale della
statica, considerando cioè l’esatta compensazione tra i momenti meccanici applicati rispettivamente
nei punti di “forza” e di “resistenza” rispetto al fulcro della leva (che rappresenta quindi il centro
di riduzione dei momenti meccanici applicati); nel caso dinamico si dovrà invece considerare la
seconda equazione cardinale della dinamica per caratterizzare il moto del sistema. Sono molti gli
esempi di leve che utilizziamo quotidianamente; ne citiamo alcuni: apriscatola, apribottiglia, pièdi-porco, remo, scopa, zappa, vanga, mestolo, romaiolo, cucchiaio, pinze, tenaglie, schiaccianoci,
maniglia, carrucola (semplice e composta), forbici, tagliasiepi, cesoie, bilancia a bracci, bascula
meccanica, sistema mascella-mandibola, sistema avambraccio-gomito, sistema omero-spalla, sistema
tibia-ginocchio, sistema femore-anca, (insomma tutte le articolazioni del corpo umano) ecc.;
• la vite;
• sollevamento ed equilibrio di un sistema pesante.
Se vogliamo sollevare una sedia possiamo, a esempio, applicare alla spalliera una forza diretta verso
l’alto equivalente alla forza peso della sedia e la sedia resta ferma nella nostra mano perché rispetto al
centro di massa della sedia il momento meccanico della forza applicata è nullo e l’equilibrio è stabile
(cioè qualunque spostamento infinitesimo dalla condizione di equilibrio tende a riportare il sistema
nelle condizioni di equilibrio). Se invece applicassimo la forza a una gamba della sedia potremmo
far rimanere la sedia in equilibrio solo se il punto di applicazione della forza sarà sulla verticale
passante per il baricentro della sedia e le condizioni sarebbero di equilibrio instabile (cioè qualunque
spostamento infinitesimo dalla condizione di equilibrio tenderebbe ad allontanare il sistema dalle
condizioni di equilibrio).
Lo stesso ragionamento sta alla base di tutte le manifestazioni di “equilibrismi” (camminare su una
fune sospesa, giocolieri del circo e simili) effettuati nel campo di gravità terrestre.
Queste considerazioni possono essere svolte anche in termini energetici, sui quali invitiamo il lettore
a cimentarsi.
2.4
Forze apparenti
Questo è un argomento delicato e non facile, su cui sono scritti anche pesanti strafalcioni su vari libri.
Una forza è descritta correttamente solo in un sistema di riferimento inerziale quando si è individuato
correttamente l’agente (o il corpo) che applica la forza in esame al nostro sistema di cui vogliamo studiare
il moto (o le condizioni di equilibrio). Nelle esperienze quotidiane utilizziamo ovviamente un sistema di
riferimento di laboratorio, cioè ancorato con la Terra che sappiamo ruotare su se stessa in un giorno,
muoversi attorno al Sole in un anno e ruotare attorno al centro della Galassia in circa 2.6 · 108 anni,
equivalente, quindi, a una trottola errante nello spazio, lontanissima dalla definizione formale di sistema
inerziale come data dal 1◦ principio della dinamica del punto materiale di Newton. Tuttavia un sistema di
riferimento di laboratorio può approssimare un sistema di riferimento inerziale se consideriamo fenomeni
che avvengono in tempi “trascurabili” rispetto a quelli caratteristici dei moti di rotazione e rivoluzione
della Terra (la trascurabilità o meno dipende dalla precisione delle misure di tempo che effettuiamo). In
altre parole, approssimiamo il moto reale della Terra, durante le nostre misure, con un moto rettilineo
uniforme.
Nella teoria dei moti relativi si dimostra che
~aA = ~aR + ~aT + ~aC
dove ~aA indica l’accelerazione assoluta (cioè misurata nel sistema di riferimento inerziale), ~aR l’accelerazione nel sistema mobile, ~aT l’accelerazione di trascinamento (cioè del sistema mobile rispetto al
sistema inerziale), e ~aC = 2 · ~
ω × ~vR l’accelerazione di Coriolis, essendo ~ω velocità angolare del sistema di
riferimento mobile e ~vR la velocità nel sistema di riferimento mobile.
Nel sistema mobile (come è la Terra) possiamo solo misurare
~aR = ~aA − (~aT + ~aC )
5 La
distinzione che vari testi fanno fra leve di prima, seconda e terza specie è abbastanza arbitraria e opinabile
8
(2.1)
e sono proprio i termini −(~aT + ~aC ) che fanno nascere l’idea dell’introduzione di forze apparenti che,
applicate sul punto materiale considerato, generino le −~aT e −~aC misurate. In realtà non si possono
trovare i corpi responsabili dell’applicazione di queste forze apparenti e quindi non è valido il terzo
principio della dinamica del punto materiale, a dimostrazione che la nostra descrizione dei fenomeni non
è corretta.
Tuttavia spesso è intuitivamente utile parlare di forze centrifughe, esempio chiaro di forze fittizie; l’esempio
che viene spesso citato è quello della fionda: la mano che trattiene il filo della fionda apprezza una forza
(diretta verso l’esterno), direttamente proporzionale al quadrato della velocità angolare della fionda,
proporzionale alla lunghezza del filo della fionda e alla massa della fionda, e si parla quindi di forza
centrifuga esercitata dalla fionda sulla mano.
In realtà la mano, dovendo esercitare una forza centripeta sulla fionda per farla muovere di moto circolare
uniforme sulla traiettoria circolare considerata, esperimenta una reazione centrifuga, sulla base del terzo
principio della dinamica.
Elenchiamo alcuni esempi nei quali sono considerate le cosidette forze centrifughe:
• centrifughe per l’estrazione di succhi da verdure e frutta;
• asciuga-verdure rotatorio;
• lancio del disco e del martello (in atletica), durante la rotazione del lanciatore per imprimere
all’attrezzo l’energia cinetica necessaria per il suo moto parabolico successivo;
• curve rialzate sul bordo esterno di strade e piste dove corrono veicoli;
• inclinazione (verso il centro di curvatura) di cicli e motocicli in curva;
• giostra a seggiolini liberi;
• regolatore di Watt (utilizzato come regolatore di velocità nelle locomotive a vapore);
• separatori di liquidi (utilizzati, a es., nei frantoi per la produzione dell’olio, sfruttando la diversa
densità dell’olio dall’acqua di vegetazione);
• ultracentrifughe per sedimentazione differenziata.
Varie esperienze indicano che la Terra è un sistema di riferimento ruotante (e quindi inerziale solo in
prima approssimazione), nel quale agisce quindi l’accelerazione di Coriolis:
• variazione dell’accelerazione di gravità con la latitudine del punto sulla Terra considerato.
Desideriamo esplicitare questo argomento (e altri nel seguito) come suggerimento operativo (per
i futuri insegnanti) per la presentazione quantitativa dei vari esempi citati nel testo agli studenti
delle scuole secondarie di secondo grado.
Con riferimento alla Fig.(2.1) consideriamo, per semplicità, la Terra sferica, di centro C e raggio
R, e con massa MT distribuita in maniera sfericamente simmetrica, e un punto P sulla superficie
terrestre individuato dalla sua latitudine geocentrica ϕ. Se la Terra non ruotasse, l’accelerazione di
gravità che subirebbe ogni corpo posto in P sarebbe semplicemente
~aG = −G
MT
~
versR
R2
originata dall’attrazione gravitazionale della Terra sul corpo in esame e passante per il centro C
della Terra.
Con la rotazione terrestre, individuata dal vettore ω nella Fig.(2.1), la Terra non è più un sistema
di riferimento inerziale e occorre quindi applicare la cinematica dei moti relativi per cui ~aG = ~aT +~g,
dove ~aG è l’accelerazione assoluta, ~aT è l’accelerazione di trascinamento offerta dalla Terra al corpo
considerato, e ~g è l’accelerazione relativa del corpo rispetto alla Terra, cioè l’accelerazione di gravità.
Introducendo i versori ~ip e ~in rispettivamente parallelo e ortogonale a ~ω possiamo scrivere
~g = ~aG − ~aT = −G ·
9
MT
~ + ω 2 · d ~in
versR
R2
(2.2)
ω
ω
vp
aT
aG
C
P
aT
g
ϕ
ip
vn
N
O
vc
aC
C
E
in
S
Figura 2.1: Dipendenza dell’accelerazione di
gravitá dalla latitudine geocentrica
Figura 2.2: Deviazione verso Est della caduta
libera di un grave.
con d = R · cosϕ. Scomponendo ~g lungo ~ip e ~in , quadrando e sommando, otteniamo il modulo
dell’accelerazione di gravità
q
p
(2.3)
g = (−aG · senϕ)2 + (−aG · cosϕ + ω 2 · d)2 = a2G − R · cos2 ϕ · ω 2 (2 · aG − ω 2 · R)
da cui si evidenzia la dipendenza di g dalla latitudine geocentrica ϕ. Risulta anche evidente che
l’accelerazione di gravità ~g (P ) non passa sempre per il centro della Terra, come talvolta erroneamente detto, anche in alcuni libri di testo.
All’equatore ϕ = 0 e quindi g(0) = aG − R · ω 2 , mentre al polo ϕ = π/2 e g(π/2) = aG . In entrambi
questi casi, ma solo in questi, ~g (0) e ~g (π/2) passano per il centro della Terra C.
• deviazione verso Est del moto di caduta libera di un grave (e deviazione verso Ovest del moto di
un grave lanciato lungo la verticale verso l’alto). Con riferimento alla Fig.(2.2), se scomponiamo la
velocità di caduta ~vc nei componenti ~vp parallelo a ~ω e ~vn ortogonale a ~ω, si comprende facilmente
che l’accelerazione di Coriolis misurata in un sistema di riferimento terrestre ~aC = −2 · ~ω × ~vR (v.
2.1) è diretta verso Est nel caso della caduta libera del grave lungo la verticale e verso Ovest nel
caso del lancio verso l’alto.
Si può dimostrare (ma i relativi calcoli non sono banali) 6 che l’entità della deviazione verso Est
(caduta) o Ovest (lancio in alto), rispetto alla verticale di partenza del grave, x(h), dipende dalla
quota h percorsa lungo la verticale e vale
ω
x(h) = √ · senϕ · (2h)3/2
3 g
Per h = 100 m al polo (ϕ = 90◦ ), essendo ω = 7.25 · 10−5 rad s−1 , vale x(100 m) = 22 mm.
• rotazione degli uragani (in senso orario nell’emisfero Nord e antiorario nell’emisfero Sud). Le figure
2.3 e 2.4 dovrebbero essere sufficienti per comprendere il meccanismo di formazione dei cicloni, alla
luce di quanto detto nei punti precedenti sul verso dell’accelerazione di Coriolis sui moti meridiani
delle correnti atmosferiche (verso l’equatore o verso il polo N), accoppiati col moto ascensionale
delle correnti d’aria calda (cicloni) e fredda (anticicloni).
• Moti degli alisei.
Anche in questo caso, seguendo quanto detto al punto precedente e con l’aiuto della Fig.(2.5)
dovrebbe essere semplice spiegare qualitativamente il moto degli alisei.
6 v.
A. Bertin, M. Poli, A. Vitale, Fondamenti di Meccanica, ed. Esculapio, BO, 1997, p. 192.
10
Figura 2.3: Circolazione delle principali
correnti atmosferiche
Figura 2.4: Schema per la formazione dei
cicloni nell’emisfero Nord terrestre.
• pendolo di Foucault.
La trattazione rigorosa del moto di un pendolo è sicuramente improponibile a studenti delle scuole
superiori.7 Offriamo invece una trattazione molto semplificata (e ovviamente non rigorosa) ma che
risulta di facile comprensione anche per studenti liceali.
Con riferimento alla Fig.(2.6) consideriamo il moto di un pendolo di massa M posto in oscillazione
inizialmente nel meridiano di un punto P della Terra di latitudine geocentrica ϕ, con una sospensione
perfetta (cioè un filo inestendibile, di massa trascurabile rispetto a M e che non trasmetta nessuna
reazione di flessione e torsione al corpo in sospensione) di lunghezza l, attaccata nel punto O, fisso
rispetto a terra. Indicando con θ l’angolo di oscillazione del pendolo rispetto alla verticale passante
per il punto di sospensione O, la massima distanza del pendolo dalla verticale per O risulta essere
r = l senθ. Essendo tutto il sistema vincolato a ruotare insieme alla Terra con velocità angolare
ω, il punto più a Nord N dell’oscillazione del pendolo avrà una velocità vN , rispetto all’asse di
rotazione terrestre, minore di quella del punto più a Sud vS , e precisamente 8
vN = ω(R · cosϕ − r · senϕ) ;
vS = ω(R · cosϕ + r · senϕ)
La differenza ∆v fra queste due velocità e la velocità del pendolo quando passa da O′ che si trova
sulla verticale passante per il punto di sospensione O è data da
∆v = kvS − vO′ k = kvO′ − vN k = ω · r · senϕ .
Questa differenza indica che il sistema solidale con la Terra ruota attorno all’asse di sospensione
descrivendo una circonferenza di raggio r. Essendo ∆v costante, il tempo TF impiegato da questi
punti per percorrere l’intera circonferenza sarà
TF =
2π
T◦
2π · r
=
=
ω · r · senϕ
ω · senϕ
senϕ
essendo T◦ = 2π/ω il periodo di rotazione della terra, cioè un giorno. Conseguentemente il periodo
di rotazione, rispetto a un riferimento terrestre, del piano di oscillazione di un pendolo sospeso in
un punto della Terra avente latitudine geocentrica ϕ è sempre maggiore (per un fattore 1/senϕ)
7 Una trattazione molto ben fatta è contenuta nella tesi di laurea (triennale) in Matematica di Carlo Cintolesi Le equazioni
di moto del pendolo di Foucault, relatore prof. Paolo Maurenzig, Dipartimento di Matematica e Informatica U.Dini, Fac.
di SMFN, Università di FI, a.a. 2007/2008, che può essere consultata nella biblioteca del suddetto Dipartimento, posiz.
MATL-2008-91.
8 Nella realtà i punti P e O ′ praticamente coincidono, mentre nella Fig.(2.6) sono rappresentati distanti per ovvia comodità
grafica.
11
O
ω
VN
N
r
θ
l
O’
P
VS
R
ϕ
C
Figura 2.5: Andamento generale degli alisei
superficiali.
Figura 2.6: Schema semplificato dell’oscillazione del pendolo di Foucault.
di quello che misurerei ai poli geografici. Infatti mentre ai poli (senϕ = 1) TF = T◦ all’equatore
(senϕ = 0) TF = ∞.
Nell’esperimento originale di Foucault (Parigi, cupola del Pantheon, anno 1851) M = 21 kg, l =
70 m, T ≈ 17 s, il piano di oscillazione del pendolo ruotava con una velocità angolare apparente
di ∼ 11◦ /h, per cui una rotazione completa del piano di oscillazione del pendolo si compiva in
≈ 32 h Essendo la latitudine geocentrica di Parigi ϕ(P arigi) = 48◦ 51′ , senϕ(P arigi) = 0.753, in
perfetto accordo col periodo di rotazione misurato. Il raggio della circonferenza descritta dal moto
di rotazione del pendolo era di ∼ 3 m e a ogni oscillazione il punto di stazionarietà del pendolo si
spostava di ∼ 3 mm sulla circonferenza predetta.
Un altro modo di ragionare è il seguente. In un punto P della Terra di latitudine geocentrica ϕ vedo
proiettato sul raggio vettore che unisce il centro della Terra al punto P il vettore ω
~ velocità angolare
~ orientata in direzione
della Terra, per cui la velocità angolare apparente in P è ω · senϕ versR,
antioraria (come ω
~ ). Ho conseguentemente l’impressione di vedere ruotare il piano di oscillazione
di un pendolo oscillante in P con una velocità angolare −ω · senϕ.
• moto di corpi inviati nello spazio dalla Terra;
• sbandamento (in direzione ortogonale al raggio della giostra) che si registra muovendosi radialmente
su una giostra in movimento.
2.5
Attrito
Spesso le forze di attrito sono definite come forze dissipative poiché, essendo per definizione dirette nel
verso opposto ai vettori velocità dei corpi a cui sono applicate, compiono un lavoro meccanico negativo,
trasformato in quantità di calore. Conseguentemente, in tutte le applicazioni pratiche e negli esercizi
numerici si cerca di porsi nelle condizioni più favorevoli per poter trascurare gli effetti dell’attrito. In
altre parole l’attrito è considerato un effetto negativo ai fini del moto dei sistemi meccanici (soprattutto
per ragioni energetiche).
Tuttavia senza la presenza dell’attrito la nostra vita sarebbe molto complicata. Infatti senza attrito non
potremmo avere locomozione. Quando camminiamo applichiamo con la pianta del piede una forza al
terreno; se esiste attrito sufficiente fra la pianta del piede e il terreno, il terreno costituisce un vincolo
e reagisce applicando al nostro piede una reazione uguale e contraria a quella che applica al terreno il
nostro piede ed è proprio questa reazione applicata dal terreno la forza che ci fa deambulare. Se non ci
12
fosse attrito (pensiamo di tentare di camminare su una superficie ghiacciata o ricoperta di grasso) sarebbe
impossibile camminare, anzi, il movimento di camminare ci farebbe perdere l’equilibrio rischiando una
musata a terra.9
Lo stesso vale per la locomozione di veicoli sulla strada (si pensi a cosa succede alle ruote di un’auto
sul ghiaccio o meglio sulla rena: le ruote girano, si solleva rena, spinta dalla forza applicata dalle ruote,
e l’auto resta ferma (o presenta movimenti inconsulti apparentemente sconnessi con la direzione che
desidereremmo avere). Per far muovere correttamente l’auto sulla rena basta creare un attrito sufficiente
fra le ruote e il terreno, inserendo legno, frasche, stracci o altro materiale frizionante.
Inoltre la presenza dell’attrito ci consente di realizzare una vasta serie di utili applicazioni pratiche:
• frenare;
• fissare impalcature e tubi tipo Dalmine;
• salire su una scala a pioli appoggiata sul terreno;
• usare la frizione;
• usare la sega (anche quella a corda per il marmo, che utilizza come materiale frizionante la polvere
di marmo);
• riscaldarsi le mani fregandole l’una all’altra;
• usare la lima;
• lisciare superfici con tela smeriglio o carta vetrata;
• lucidare superfici metalliche;
• usare pinze e tenaglie e simili;
• stringere oggetti in una morsa;
• stringere dadi di fissaggio su bulloni;
• stringere una vite.
L’uso di viti e bulloni ci sollecita a riflettere sul loro moto.10 Un punto si muove di moto elicoidale
cilindrico quando è simultaneamente soggetto a un moto circolare (che supponiamo inizialmente uniforme)
e a un moto rettilineo uniforme lungo l’asse della circonferenza (che assumiamo come asse z) su cui si
svolge il moto circolare (nel cui piano mettiamo gli assi x e y in modo da formare una terna destrorsa
con z). Le equazioni parametriche di moto del punto mobile saranno quindi, indicando con R il raggio e
con ω la velocità angolare del moto circolare, e con p il cosidetto “passo”, cioè lo spazio percorso lungo
la z mentre la proiezione del punto mobile sul piano (x, y) percorre un giro completo sulla circonferenza,
x(t) = Rcos(ωt)
y(t) = Rsen(ωt)
p
z(t) =
· (ωt)
2π
(2.4)
che, derivate rispetto al tempo, forniscono le componenti della velocità sugli assi del sistema di riferimento
ẋ = −Rωsen(ωt)
ẏ = Rωcos(ωt)
pω
ż =
2π
9 Notare che, per camminare, premiamo sul terreno col metatarso del piede di appoggio , creando una reazione con un
componente verticale, che bilancia il nostro peso, e un componente orizzontale che sposta il centro di massa del nostro
corpo, situato nella zona dello stomaco, in avanti; quando il nostro centro di massa si trova oltre la verticale del punto di
appoggio del metatarso (chiamato anche punto di rovesciamento) si crea un momento meccanico che ci farebbe cadere in
avanti, ma il movimento in avanti dell’altra gamba porta a eseguire il passo successivo e cosı̀ via.
10 Sembra che il loro uso sia iniziato fra il XII e XIII secolo e ha rappresentato un efficientissimo elemento di progresso
nello sviluppo della tecnologia meccanica all’epoca.
13
q
p
p2
Si ricava subito che k~vk = k ẋ2 + ẏ 2 + ż 2 k = kωk R2 + 4π
2 , cioè il modulo della velocità è costante.
Differenziando le equazioni parametriche di moto (2.4) si ottiene
dx = −Rωsen(ωt)dt
dy = Rωcos(ωt)dt
pω
· dt
dz =
2π
(2.5)
Dalle prime due equazioni delle (2.5) ricaviamo che ds2 = dx2 +dy 2 = R2 ω 2 dt2 , da cui ds = Rωdt, essendo
ds lo spostamento elementare lungo la circonferenza del punto mobile, da cui si ricava dt = ds/Rω, che
si può sostituire nella terza equazione delle (2.5) per ottenere infine
dz =
p
· ds
2πR
(2.6)
Generalmente p/(2πR) ≪ 1 e quindi dz ≪ ds, evidenziando il fatto che a grandi spostamenti rotatori
corrispondono piccoli spostamenti lineari.
La trattazione sopra riportata può essere facilmente applicata al moto di una vite che viene avvitata
nella sua madrevite. In questo caso, essendoci sempre un sistema di forze di attrito fra la vite e la
madrevite, per ruotare di ∆φ la vite occorre applicare un momento di forza (diretto lungo z) tramite una
coppia di forze di modulo F sulla circonferenza, di raggio RT normalmente > R, della testa della vite.
Conseguentemente, si compie un lavoro
∆L = 2RT · F ∆φ = Iω∆ω + M vk ∆vk + Lattr
(2.7)
I primi due termini al secondo membro della (2.7) rappresentano l’aumento di energia cinetica di rotazione
e di traslazione della vite, generalmente trascurabili rispetto al termine Lattr , legato all’avanzamento ∆z
della sua punta. Si capisce, il vantaggio che offre la vite (v. 2.7):
∆L = 2F ∆s ≃ Lattr ≃ Fz;attr ∆z
(2.8)
Essendo ∆s ≫ ∆z abbiamo che Fz;attr ≫ F , cioè possiamo esercitare una notevole forza di penetrazione
Fz con una modesto momento di forza F · RT applicato alla testa della vite.
2.6
Pressione
Abbiamo visto durante il corso di Fisica Generale 1 che quando si hanno forze che si esercitano attraverso
superfici, è molto utile considerare la grandezza fisica pressione, cioè la forza che si esercita (uniformemente
e ortogonalmente) attraverso l’unità di superficie considerata. Vediamone alcune applicazioni.
Quando infiliamo una puntina da disegno in una tavola di legno, applichiamo una forza F⊥ sul capo della
F⊥
,
puntina tramite il polpastrello del dito premente, esercitando sul polpastrello una pressione p = ∆S
essendo ∆S la superficie del capo della puntina. Considerando la puntina da disegno come rigida, la
⊥
forza F⊥ si applicherà anche alla punta, che eserciterà quindi sul legno una pressione P = F∆s
, dove ∆s
è la superficie della punta a contatto col legno. Essendo ∆s ≪ ∆S, la pressione P esercitata dalla punta
sul legno è molto maggiore della pressione p esercitata dal polpastrello sulla testa e può vincere la forza
di adesione delle fibre di legno e conseguentemente far penetrare facilmente la puntina nel legno. Si pensi
alla pressione che si dovrebbe esercitare se volessimo far penetrare nel legno un cilindro avente diametro
uguale alla testa della puntina da disegno considerata.
Questo effetto punta (chiamiamolo cosı̀ per ricordarlo facilmente) è frequentemente usato in una gran
varietà di applicazioni quotidiane:
• chiodi, bullette, spiedi, rebbi forchetta ecc.;
• aghi, spilli, ecc.;
• affilatura superfici da taglio (coltelli, sgorbie, forbici, falci, rasoi, bisturi, ecc.);
14
• rasaerba, decespugliatori, apparecchi per potature ecc. (in questi casi ci sono apparati ruotanti, ma
che sostanzialmente svolgono lo stesso lavoro di forbici o falci molto veloci);
• tacchi a spillo (penetrano nell’asfalto caldo, mentre se la persona cammina sulla pianta della scarpa
può camminare normalmente);
• racchette da neve (in questo caso, e nei successivi, si utilizza l’effetto punta al contrario, diciamo
cosı̀, ma la Fisica che si usa è la stessa);
• zoccoli larghi per gli animali che devono camminare su terreni non solidi (cammelli, dromedari,
plantigradi, bovidi, equini, ecc.).
2.7
Conservazione della quantità di moto
Dalla dinamica dei sistemi sappiamo che in un sistema isolato si conserva la quantità di moto totale del
sistema. Nel caso di urti fra corpi (consideriamone solo due per semplicità) il sistema dei due corpi può
essere considerato come isolato durante il tempo (molto breve rispetto ai tempi di evoluzione dinamica
del sistema) di contatto fra i due corpi urtanti. Le forze impulsive F~imp che si manifestano fra le superfici
dei due corpi urtanti sono forze interne al sistema e per il terzo principio della dinamica sono uguali in
modulo, cioè F~1,2 = −F~2,1 . Si conserva la quantità di moto totale del sistema e quindi il centro di massa
del sistema si muove di moto rettilineo uniforme durante l’urto, continuando a muoversi, prima e dopo
l’urto, sotto l’azione del risultante delle forze esterne applicate al sistema.
Ricordando la teoria degli urti (si consiglia di farlo subito!) svolta nel corso di Fisica Generale 1, se i
corpi urtanti hanno massa molto diversa fra loro, in pratica il corpo di massa minore tende a “rimbalzare”
sul corpo di massa maggiore. Questo significa che le forze impulsive durante l’urto hanno valori tali da
non provocare praticamente nessuna variazione di moto sul corpo più massiccio, mentre causano una
variazione del moto del corpo più leggero.
Ricordiamo che si definiscono urti elastici quelli nei quali si conserva l’energia cinetica totale dei corpi
urtanti durante l’urto e urti anelastici quelli nei quali l’energia cinetica totale dei corpi urtanti diminuisce
durante l’urto (si pensi al caso limite di corpi che si “appiccicano” l’un l’altro durante l’urto, tipo pendolo
balistico).
Alcuni esempi di urti in cui si ha conservazione della quantità di moto del sistema dei corpi urtanti (si
consiglia di riflettere su quali di questi urti possano essere considerati elastici e quali no):
• biliardo, bocce, bowling, curling;
• calcio al pallone, schiacciata a pallavolo, palleggio a terra e rimbalzo sul tabellone a pallacanestro;
• tennis, ping-pong, pelota, baseball, hockey e tutti i giochi che prevedono l’urto di un attrezzo con
una palla;
• placcaggio volante nel rugby;
• incidenti fra veicoli (sia a terra, che in acqua, che in aria);
• “picchiata” di rapaci sulle loro prede.
Ricordiamo un modo diverso di scrivere la terza legge di Newton
m · ∆~v = F~ · ∆t
(2.9)
che definisce l’impulso ∆I~ = F~ · ∆t fornito al corpo m dall’applicazione della forza F~ , costante durante
l’intervallo di tempo ∆t, associato a una variazione di quantità di moto ∆q = m · ∆~v del corpo stesso.
Consideriamo l’urto di un martello di massa m che urta uno scalpello appoggiato a un muro (che avrà
praticamente una massa infinita rispetto a m). Dopo l’urto il martello rimbalza sullo scalpello, ma con
una velocità molto inferiore a quella con cui l’ha colpito. Si nota poi che qualche frammento di muro si è
staccato e che (soprattutto dopo vari colpi ripetuti) si ha un leggero riscaldamento dello scalpello e anche
della testa del martello.
Durante l’urto si ha la conversione della quantità di moto m · (~viniz − ~vf in ) in una variazione di impulso
15
F~impulsiva · ∆t, dove ∆t è la durata dell’urto e F~impulsiva è la forza impulsiva (di natura elastica) che si
manifesta sullo scalpello. Nell’ipotesi di uno scalpello rigido la F~impulsiva si traferisce alla punta dello
scalpello, cioè viene applicata alla superficie di muro a contatto con lo scalpello. Se la F~impulsiva è maggiore
o uguale della forza di adesione della porzione di muro con il restante corpo del muro, una scheggia di
muro sarà staccata dal muro. Per aumentare il modulo della F~impulsiva effettivamente applicata dallo
scalpello al muro si ricorre all’affilatura del bordo dello scalpello (v. effetto punta in precedenza).
Il riscaldamento della testa del martello e dello scalpello indica che gli urti non sono perfettamente elastici;
infatti la schematizzazione elastica è una delle tante utilissime schematizzazioni semplificatrici, di tipo
processo-limite, che si usano in Fisica [a es., punto materiale, gas perfetto, corpo rigido, ecc.], a cui ci
si può avvicinare quanto si vuole, ma che non sono mai vere in assoluto nella realtà quotidiana. Esse
sono indispensabili per poter comprendere i meccanismi fondamentali della Fisica che stiamo esaminando
e dedurne le conseguenze quantitative che ci danno la comprensione logico-quantitativa dei fenomeni
studiati. Le considerazioni sopra esposte possono essere applicate anche al sistema del cuneo colpito
dal maglio. Con riferimento alla Fig.2.7 consideriamo un cuneo, di sezione trasversale ABC e angolo di
apertura α, supposto rigido, inserito completamente in un materiale che lo contiene lungo le facce AC e
BC. Inizialmente il cuneo è in equilibrio sotto l’azione del suo peso e del sistema di forze di attrito e di
pressione esercitato sul cuneo dal materiale esterno attraverso le facce AC e BC.
Colpiamo il cuneo con un maglio; sulla testa AB
del cuneo agirà, durante l’urto, una forza impulsiva
F~imp data dalla (2.9), dovuta all’urto col maglio che
Fimp
si abbatte con quantità di moto finita (e rilevante!)
A
B
sulla testa del cuneo. Consideriamo l’istante iniziale
di applicazione della F~imp e supponiamo che il cuN
neo rimanga in equilibrio; questo significa che tutto
il sistema di forze impulsive applicate al cuneo deve
H
Rimp α
dare un risultante nullo e quindi che nel baricentro
del cuneo G debba essere applicata una forza impul~ imp , diretta lungo la direzione di F~imp , di verso
G
siva R
~
contrario e di modulo uguale. Questa Rimp non può
FS
essere originata che dal simultaneo effetto sul cuneo
FD
α
delle reazioni vincolari F~S e F~D , originate rispettivamente sulle facce AC e BC dal sistema di reazioni
vincolari agenti sulle facce laterali del cuneo. Per la
simmetria del sistema kF~S k = kF~D k = F .
Essendo il cuneo rigido le forze agenti possono essere
C
“trasportate” lungo la loro retta d’azione ai fini delle
determinazione delle condizioni di equilibrio e pensia- Figura 2.7: Schema forze impulsive agenti su un
mole, quindi, applicate in G. Il triangolo ABC è simile cuneo
al triangolo GNH, avendo i lati ortogonali a uno a uno; all’equilibrio possiamo scrivere
~ imp k = 2F sen α
(2.10)
kF~imp k = kR
2
Essendo F il modulo di una reazione vincolare, cioè sostanzialmente di una serie di reazioni di tipo
elastico generate dalle strutture del materiale in cui il cuneo è inserito, F non potrà mai essere maggiore
di una Fmax , oltre la quale le fibre del materiale non potranno mantenere la loro struttura stabile. Se
però kF~imp k ≫ 2F sen α2 si creeranno pressioni impulsive sulle facce di penetrazione AC e BC del cuneo in
grado di separare le fibre del materiale in cui il cuneo è inserito. Risulta evidente il vantaggio di utilizzare
cunei “stretti” (fattore sen α2 nella (2.10)).
Proponiamo adesso un semplice esercizio che tuttavia offre lo spunto per importanti riflessioni sul
principio di conservazione della quantità di moto.
Con riferimento alla Fig. 2.8 consideriamo un piano inclinato liscio su cui è posto un sistema rigido,
di massa totale M , costituito da due corpi, assimilabili a punti materiali, di massa m1 e m2 , com
m1 + m2 = M , uniti da una sottile sbarretta rigida, di massa trascurabile rispetto a m1 e m2 . Fra i
due corpi è posta una molla (anch’essa di massa trascurabile rispetto a m1 e m2 ), di costante elastica k,
compressa di un tratto ∆l, appoggiata (ma non agganciata!) fra i due corpi. Inizialmente viene impressa
al sistema rigido una velocità iniziale v◦ , diretta lungo il piano inclinato verso l’alto.
16
x = x’
y’
y
M
v2’
vo
y’
v1’
α
y
M
m1
α
m2
x = x’
m2
m1
x*(t*)
Figura 2.8:
Figura 2.9:
Ovviamente il sistema rigido si muove di moto uniformente accelerato lungo il piano inclinato con accelerazione ẍ = −g · senα, risale di un tratto xstop = v◦2 /(2 · g · senα) in un tempo tstop = v◦ /(g · senα) e
ritorna al punto di partenza con la stessa v◦ in un tempo totale 2 · tstop 11 . La quantità di moto totale
~ tot = M · ~v (t) varierà quindi nel tempo.
del sistema rigido Q(t)
È semplice valutare che il sistema, al tempo t∗ , si troverà in
x∗ (t∗ ) =
con una velocità
v ∗ (t∗ ) =
v◦2 − v ∗ (t∗ )2
g · senα
(2.11)
p
v◦2 − 2g · senα · x∗ (t∗ )
(2.12)
Supponiamo adesso che al tempo t∗ , tale che 0 ≤ t∗ ≤ tstop , si possa (tramite un opportuno congegno
telecomandato), rimuovere la sottile sbarretta rigida che teneva uniti i due punti materiali costituenti
il sistema rigido (v. Fig.2.9). La molla, non più vincolata a rimanere compressa, si distenderà quasi
istantaneamente (se k avrà un valore sufficientemente elevato) cedendo la propria energia potenziale
elastica 1/2 · k · (∆l)2 ai due punti materiali sotto forma di energia cinetica. Durante questa azione la
molla esercita sui due punti materiali una forza (quasi impulsiva), interna al sistema, che risulta essere
uguale in modulo, lungo la stessa retta d’azione e contraria in verso sui due punti. Conseguentemente
l’azione della molla durante la sua distensione non altera la quantità di moto del sistema complessivo.
La conservazione della quantità di moto del sistema (durante l’intervallo di tempo quasi istantaneo della
′
distensione della molla compressa) ci permette di scrivere, considerando un sistema di riferimento S
centrato nel centro di massa del sistema rigido,
′
′
m1 · ~v1 + m2 · ~v2 = 0;
′
′
~v1 = −~v2
m2
m1
(2.13)
La conservazione dell’energia meccanica durante la distensione della molla implica che
′
′
m1 |~v1 |2 + m2 |~v2 |2 = k · (∆l)2
(2.14)
Dalle (2.13) e (2.14) otteniamo, dopo alcuni semplici passaggi
s
s
′
′
k · m1
k · m2
|~v2 | = ∆l
;
|~v1 | = −∆l
m2 (m1 + m2 )
m1 (m1 + m2 )
(2.15)
Nel sistema fisso (x,y) potremo quindi scrivere, immediatamente dopo la distensione della molla,
~v1∗ = ~v
∗
′
+ ~v1∗ ;
~v2∗ = ~v
∗
+ ~v2∗
′
(2.16)
L’energia cinetica totale del sistema delle due masse puntiformi, dopo la distensione della molla, sarà
Etot =
1
1
m1 |~v1∗ |2 + m2 |~v2∗ |2
2
2
(2.17)
11 Questi risultati potevano essere ottenuti ovviamente anche utilizzando il principio di conservazione dell’energia
meccanica.
17
Inserendo le (2.16) e (2.15) nella (2.17) si giunge, dopo alcuni semplici passaggi di algebra elementare
(accessibili a qualunque studente di scuola media superiore minimamente preparato) a
Etot =
′
′
1
1
1
1
(m1 + m2 )(v ∗ (t∗ ))2 + [m1 (v1 )2 + m2 (v1 )2 ] = · M (v ∗ )2 + · k(∆l)2
2
2
2
2
(2.18)
Ovviamente la (2.18) esprime ancora una volta la conservazione dell’energia meccanica durante il processo
di distensione della molla, o, anche, il teorema di Koenig per l’energia cinetica, separando i contributi
dell’energia cinetica del centro di massa e quelli del sistema relativamente al centro di massa.
~ tot;f inale sarà
La quantità di moto totale del sistema subito dopo la distensione della molla Q
~ tot;f inale = m1 · ~v1 (t∗ ) + m2 · ~v2 (t∗ )
Q
(2.19)
~ tot; f inale = Q
~ tot; prima distensione ,
Inserendo le (2.16) e (2.13) nella (2.19) si giunge a dimostrare che Q
come era ovvio essendo le forze in gioco durante la distensione forze interne al sistema e quindi non in
grado di alterare la quantità di moto totale del sistema.
Questo semplice esempio dimostra passo-passo e quantitavamente come agiscono i contenuti dei principi
della meccanica che abbiamo utilizzato (conservazione dell’energia meccanica se non agiscono forze dissipative e conservazione della quantità di moto totale nel caso che agiscano solo forze interne). Vogliamo
ricordare che gli stessi principi fisici vengono utilizzati per situazioni molto più complicate formalmente
e analiticamente (es., esplosioni, urti [centrali e non, elastici e non], di vari corpi, reazioni nucleari, interazioni fra sistemi gravitanti, interazioni fra particelle elementari ecc.).
Consideriamo adesso un’altra semplice applicazione del teorema dell’impulso applicata a un sistema a massa variabile.
Con riferimento alla Fig.2.10 consideriamo un sistema di massa
M = (M − dM ) + dM che al tempo t si muova con
~ (t); supponiamo che al tempo t + dt un si- d M
dM
velocità V
V(t+ d t)
stema di forze interne (può essere la molla di massa
M− d M
M− d M
trascurabile dell’esempio precedente, o un’esplosione
v(t+dt)
V(t)
interna al sistema o un motore a “reazione”) provochi
il distacco della piccola massa dM dal corpo principale Figura 2.10: Schema del moto con massa variabile
del sistema, imprimendogli anche una velocità ~v (t +
dt) relativa a M − dM .
Scriviamo la prima equazione cardinale della dinamica dei sistemi (o anche dalla (2.9))
~ tot
dQ(t)
F~est =
dt
(2.20)
e consideriamola durante l’intervallo infinitesimo di tempo dt, ottenendo
~ + dt) − Q(t)
~
~ (t + dt) + dM · ~v (t + dt) − M V
~
Q(t
(M − dM ) · V
F~est ≃
=
≃
dt
dt
~
dM
dV
~)
+
· (~v − V
=M
dt
dt
~ (t + dt) = V
~ (t) + dV
~ e ~v (t + dt) = ~v (t) + d~v e abbiamo trascurato i
dove abbiamo considerato che V
~
termini dM · dV e dM · d~v rispetto agli altri termini.
Passando al limite e tenendo conto che il nostro esempio è unidimensionale, otteniamo
M·
dV
dM
= Fest +
· (V − v) = Fest + Ṁ · vrel
dt
dt
(2.21)
dove vrel = V − v indica la componente della velocità relativa di dM rispetto alla massa principale
M − dM e considerando che Ṁ < 0 nel nostro caso. Il termine Ṁ · vrel è detto forza di reazione o,
nel caso del moto di razzi, spinta e rappresenta la forza (di natura interna al sistema) che utilizzando
una fonte di energia interna al sistema, fornisce il lavoro necessario per aumentare l’energia cinetica del
sistema principale, che però perde massa durante il moto. Ovviamente per massimizzare la forza di
reazione occorre espellere la massima quantità di materia nell’unità di tempo per massimizzare il termine
Ṁ e occorre simultaneamente imprimere la massima vrel alla massa espulsa per massimizzare l’altro
18
termine della forza di reazione.
Consideriamo il moto di un razzo (posto su un piano orizzontale liscio), che espelle (con continuità) una
massa di gas dM nel tempo dt, con una velocità relativa al corpo principale del razzo di modulo u (in
direzione opposta a quella del moto del razzo), a causa di un sistema di forze interne al razzo (motore
a reazione). Avremo, in questo caso, che Fest = 0 e la conservazione della quantità di moto totale del
sistema si esprime come Fest = 0 e la conservazione della quantità di moto totale del sistema si espreme
come
M · V (t) = dM · v(t + dt) + (M − dM )V (t + dt) = dM [v(t) + dv] + (M − dM )[V (t) + dV ] =
= dM · v(t) + dM · dv + M · V (t) + M · dV − V (t)dM − dM · dV
Trascurando gli infinitesimi di ordine superiore al primo otteniamo, ricordando che u = v − V ,
0 = dM (v − V ) + M · dV
;
−u
dM
= dV
M
che, integrata fra la situazione iniziale (Vi , Mi ) e quella finale (Mf , Vf ), fornisce
Vf − Vi = u · ln
Mi
Mf
(2.22)
Essendo Mi > Mf
⇒ Vf > Vi . È evidente la soluzione adottata nella tecnica spaziale di razzi
multistadio, che consente di sganciare sezioni del razzo che hanno esaurito il combustibile e che consentono
di ridurre drasticamente la massa finale (e utile) del razzo (carico pagante).
Applicazioni di quanto descritto finora si possono trovare in:
• moto dei fuochi artificiali (moto a reazione dell’involucro dall’accensione a terra fino all’esplosione in
volo, dopo la quale i frammenti si muovono secondo moti parabolici determinati dalla loro velocità
al momento dell’esplosione, mentre il centro di massa dei frammenti si muoverebbe idealmente lungo
la traiettoria parabolica definita dalla velocità dell’involucro prima dell’esplosione);
• moto dei razzi multistadio;
• moto dei frammenti delle bombe a grappolo (purtroppo molto spesso le conoscenze accumulate con
passione dalla scienza vengono utilizzate in modo barbaro e disumano dalla stupidità umana, che,
com’è noto, tende a non avere limiti);
• moto dei razzi di segnalazione (idem c.s., solo che dopo l’esplosione si apre un piccolo paracadute
(o un apparato di frenamento), che tende a ritardare il moto di discesa del razzo acceso in modo
da aumentare la probabilità di essere osservato da qualcuno);
• bengala illuminanti (v. razzo di segnalazione).
• moto di corpi in acqua. Questo potrebbe essere un vasto capitolo di Fisica applicata, ma limitiamoci a alcuni semplici esempi. Sia i pesci in moto che i nuotatori spostano (o con le pinne laterali
e con le mani e i piedi) masse d’acqua in direzione opposta a quella in cui vogliono andare; per la
conservazione della quantità di moto del sistema pesce (o uomo) + acqua spostata si produce il
moto relativo fra il sistema pesce (o uomo) e quello acqua spostata rispetto all’acqua in quiete, cioè
l’azione che definiamo nuoto. Alcuni animali acquatici usano una forma di spostamento dell’acqua
più efficiente dell’uso delle pinne laterali, utilizzando il movimento di tutta la parte posteriore del
corpo (coda), spostando una quantità maggiore di acqua (ma usando quindi una maggior quantità
di energia corporea) e questa tecnica è chiamata “bratto”; muovono la coda in direzione orizzontale
il coccodrillo, il tonno, il pescecane, ecc., muovono in direzione verticale il delfino, la balena, il
nuotatore in stile “delfino” (con le gambe!). Utilizzano la conservazione della quantità di moto
(in direzione verticale ) anche i giocatori di pallanuoto per elevarsi col busto fuori dalla linea di
galleggiamento naturale (assicurata dalla spinta di Archimede), eseguendo velocemente ed energicamente il moto tipo “bicicletta” delle gambe in acqua per muovere verso il basso la maggior quantità
di acqua possibile con la massima velocità possibile 12 , le nuotatrici del nuoto sincronizzato e del
balletto in acqua;
12 Per lo scatto finale per la parata, inoltre, i portieri della pallanuoto fanno scattare energeticamente e simultaneamente
entrambe le gambe verso il basso in modo da realizzare la massima elevazione fuori dall’acqua.
19
• il moto dell’elica, che con la sua forma particolare (v. moto elicoidale descritto precedentemente),
induce nell’acqua un moto circolare (attorno all’asse dell’elica, che non produce nessun effetto utile
al moto dell’imbarcazione) e un simultaneo moto rettilineo lungo l’asse dell’elica di una massa di
acqua cospicua. È questo moto rettilineo di acqua (spesso detto impropriamente per “reazione”)
che produce il moto in avanti dell’imbarcazione in modo da conservare la quantità di moto del
sistema globale, generando l’elica un sistema di forze interno al sistema.
2.8
Conservazione del momento angolare
Considerando la seconda equazione cardinale della dinamica dei sistemi, se il sistema considerato è isolato
(cioè il momento meccanico risultante delle forze esterne rispetto a un asse passante per il centro di massa
del sistema è nullo) il momento angolare del sistema resta costante. Se il sistema può essere considerato
~ k , rispetto a quest’asse, è espresso
rigido e ruotante attorno a un asse di versore ~k, il momento angolare L
semplicemente da
~ k = Ik · ω · ~k
L
(2.23)
dove ω è la componente lungo ~k della velocità angolare del sistema e Ik è il momento d’inerzia del sistema
rispetto a ~k.
Conservandosi il momento angolare deve quindi rimanere costante il prodotto Ik · ω.
Questa relazione è la base della rotazioni rapide dei ballerini e dei pattinatori: infatti, iniziano la rotazione
(attorno a un asse verticale passante per il loro centro di massa) a braccia larghe, avendo cioè un momento
d’inerzia Iiniz e una velocità angolare iniziale ωiniz . Quando stringono le braccia al corpo, il loro momento
d’inerzia diminuisce, divenendo If in < Iiniz , e conseguentemente la loro velocità angolare diverrà
ωf in = ωiniz ·
Iiniz
If in
per cui ωf in > ωiniz e vedremo il ballerino-pattinatore ruotare molto più velocemente alla fine dell’esercizio.
Altri esempi che utilizzano il principio fisico sopra descritto:
• tuffi carpiati, avvitati, rovesciati ecc,;
• moto di un boomerang;
• moto impresso ai coltelli da un (bravo!) lanciatore di coltelli;
• evoluzioni dei ginnasti nella ginnastica a corpo libero;
• evoluzioni di pattinatori e ballerini. In questi casi la situazione fisica diventa più complicata perché
i bravi atleti riescono ad aumentare sia la loro quantità di moto sia il loro momento angolare
utilizzando il cambio di gamba (o di pattino) d’appoggio e, tramite l’attrito col suolo, ad aumentare
la loro energia cinetica;
• salti fuori dall’acqua di delfini, orche, pinguini, pesci volanti, balene ecc.
Nei casi sopra indicati c’è anche da considerare il moto di traslazione dei diversi sistemi considerati
solidalmente al moto del loro centro di massa, descritto dalla prima equazione cardinale della dinamica
dei sistemi. Si tratta di moti parabolici, perché effettuati nel campo di gravità terrestre con una velocità
iniziale impressa inizialmente dall’impulso della spinta applicata al sistema.
Esaminiamo, in modo molto semplificato, cosa accade nell’esecuzione di un tuffo dalla piattaforma al
~ che imprime al suo corpo all’istante
tuffatore, in piedi sulla piattaforma, al momento della spinta S
del distacco dalla piattaforma (v. Fig.2.11). In realtà il metatarso del tuffatore imprime una pressione
sull’area A della piattaforma, che, tramite l’attrito esistente fra piattaforma e piede, reagisce applicando
~ La forza S
~ agisce per un brevissimo intervallo di tempo ∆t comunicando
la forza di spinta impulsiva S.
~
~
~ = velocità del tuffatore dopo la spinta iniziale).
un impulso I = M · V al tuffatore (M = massa e V
~ nei componenti S
~⊥ perpendicolare e S
~k parallelo al corpo del tuffatore.
È più istruttivo scomporre S
Questo significa che il tuffatore, nel tempo ∆t, deve aver spostato il proprio centro di massa dalla verticale
20
S
S
S
A
Figura 2.11: Schema della spinta in un
tuffo
Figura 2.12: Evoluzione di un tuffo
~k crea un impulso I~k che, diretto verso
passante per A verso l’esterno della piattaforma. Nel tempo ∆t, S
il centro di massa del tuffatore, fa aumentare la sua quantità di moto, fornendogli la velocità di distacco
dalla piattaforma, che poi definirà il moto del centro di massa del tuffatore.
~⊥ , invece, crea, nel tempo ∆t, una variazione di momento d’impulso rispetto al centro di massa del
S
corpo del tuffatore, a cui corrisponde un aumento di momento angolare del tuffatore rispetto al suo
centro di massa. Al distacco dalla piattaforma il tuffatore avrà un momento angolare iniziale di modulo
Iiniz · ωiniz , essendo Iiniz e ωiniz rispettivamente il momento d’inerzia e la velocità angolare iniziali del
tuffatore. Durante l’esecuzione del tuffo il tuffatore varia, con rapidi movimenti, il suo Iistantaneo e,
conseguentemente, la sua ωistantanea , conseguendo (se eseguite correttamente) le bellissime evoluzioni
che caratterizzano questa disciplina sportiva (v. Fig.2.12).
Notare che, al momento dell’ingresso in acqua, il tuffatore si distende (riassumendo Iiniz , e quindi ωiniz ,
che è la minima possibile), per poter entrare in acqua ortogonalmente alla superficie e non provocare
eccessivi spruzzi.
21
Capitolo 3
Fisica dei fluidi
Premettiamo alcune riflessioni su concetti fondamentali della Fisica dei fluidi. Si definiscono (in modo
semplice) come “fluidi” quei sistemi non dotati di forma propria definita e che assumono la forma del
recipiente che li contiene. I fluidi possono essere sia i “liquidi” (che occupano solo una parte del recipiente che li contiene) che i “gas” (che occupano invece tutto lo spazio a disposizione nel contenitore).
Una definizione più operativa può essere: i liquidi hanno un coefficiente di comprimibilità isoterma circa
nullo, mentre i gas lo hanno positivo 1 . Poiché i fluidi devono sempre essere contenuti in un contenitore,
di cui è facile misurare il volume interno (purtroppo si continua a usare spesso il termine capacità, di
dubbio significato e che può generare confusione quando si affronta l’elettromagnetismo), è utile definire le
grandezze fisiche “densità” (o massa volumica secondo la moda recente) e “pressione” per caratterizzare
le proprietà inerziali dei fluidi e di scambio di forze di superficie con l’ambiente esterno.
3.1
Idrostatica
In idrostatica le leggi elementari fondamentali (che si trovano nei testi) per fluidi isotropi sono:
• la legge di Pascal, che stabilisce che la pressione all’interno di un fluido in quiete è una grandezza scalare, cioè il valore della pressione misurata è indipendente dall’orientazione della superficie
attraverso la quale viene misurata la forza che esercita la pressione su quella superficie. Questa
legge si può dimostrare sperimentalmente tramite una sfera avente fori simmetrici sulla superficie
e uno stantuffo tramite il quale applicare una forza di breve durata ma di alta intensità al liquido
contenuto nella sfera. I getti di liquido escono dai vari fori con la stessa velocità e radialmente (in
prossimità della superficie della sfera) per poi assumere le tipiche traiettorie paraboliche (dovute
al campo di gravità). Questa legge potrebbe anche essere illustrata teoricamente dall’esame delle
condizioni di equilibrio di ogni elemento di volume all’interno del liquido, soggetto all’equilibrio fra
le forze di volume e di superficie agenti sull’elemento considerato;
• la legge di Archimede che afferma che in un fluido pesante in quiete un corpo immerso nel fluido
(e in quiete rispetto a esso) riceve dal fluido una “spinta” (cioè una forza verticale diretta verso
l’alto) pari al peso del fluido spostato dal corpo e applicata nel centro di massa del volume di
fluido spostato. In realtà non si tratta di una legge particolare ma semplicemente dell’espressione
dell’equilibrio che deve sussistere fra le forze di volume (peso del corpo) e l’insieme delle forze di
superficie applicate dal fluido pesante alla parte immersa del corpo. Una semplice dimostrazione
sperimentale: si prenda una busta di plastica e la si immerga in un largo recipiente di acqua (o altro
liquido pesante), allargandola in modo che si riempia di acqua ma che resti in equilibrio (il peso della
busta è ovviamente trascurabile rispetto alle altre forze in gioco). Si sollevi e si estragga poi la busta
∆V
1
−1
−10
1
Il coefficiente di comprimibilità isoterma è definito come c = − ∆p ·
V
t
; cH2 O ≃ 4.6 · 10
Pa
, mentre cHg ≃
3.5 · 10−11 Pa−1 ; per chiarire meglio il significato fisico di questi valori sperimentali, essendo 1 Pa−1 = 105 Atm−1 ,
cHg ≃ 3.5 · 10−6 Atm−1 , cioè 1 dm3 di Hg presenta una diminuzione di volume di 3.5 mm3 per un aumento di pressione
di 1 Atm a temperatura ordinaria, che corrisponde alla contrazione isobara che avrebbe subito per una diminuzione di
−0.002 ◦ C. Per un gas perfetto, dalla relazione di Boyle, si ricava che cgas perf etto = 0.5 Atm−1 .
22
piena di acqua e si misuri il peso a cui è soggetta da parte del campo di gravità. Riposizionando la
busta (in modo quasi statico) nell’acqua si vede che il peso dell’acqua contenuta nella busta deve
essere bilanciato dall’insieme delle forze che si esercitano da parte dell’acqua circostante attraverso
la superficie della busta immersa perché il sistema “busta” resti in quiete. È ammirevole che
Archimede se ne sia accorto circa 2500 anni fa ma non sembra che si possa trattare di una legge
specifica della Fisica quanto di una semplice applicazione dei principi dell’equilibrio dei sistemi
meccanici;
• la legge di Stevino, p(z) = Pest + ρ · g · z, che stabisce che all’interno di un fluido pesante in quiete
la pressione totale alla profondità z nel fluido è data dalla somma della pressione esterna al fluido
Pest e della pressione idrostatica del fluido sovrastante; è una conseguenza del fatto che le pressioni
nei fluidi “onesti”2 sono scalari e quindi si sommano con le semplici regole delle somme degli scalari.
L’espressione per la pressione idrostatica ρ · g · z si ottiene banalmente imponendo l’equilibrio al
sistema di forze di volume (gravità) e di superficie (pressione) che agiscono su ogni volumetto
di fluido all’interno del fluido alla quota z nell’ipotesi che g e ρ non varino con z (altrimenti ci
ritroveremmo un integrale definito da valutare).
Piuttosto che scomodare leggi fisiche a hoc forse sarebbe più semplice considerarle come importanti
conseguenze dei principi fisici generali (leggi dell’equilibrio di sistemi continui, proprietà di simmetria e
isotropia).
Lo stesso discorso si può applicare al cosidetto principio dei vasi comunicanti, che invece risulta come una
conseguenza ovvia della legge di Pascal.
In alcuni testi la presentazione della fondamentale esperienza di Torricelli (sulla misura indiretta della
pressione atmosferica) è fatta in modo non molto preciso, soprattutto nei suoi aspetti operativi; si consiglia
di vedere le dispense relative a questa misura Misura della pressione atmosferica col barometro di Fortin
andando sul sito hep.fi.infn.it/fisichetta1/dispensea.html e poi cliccando su → Miscellanea dispense a.a.
precedenti.
Un’applicazione importante idrostatica è rappresentata dal torchio idraulico, che andrebbe sempre illustrato agli studenti; applicazioni del torchio idraulico sono tutti i tipi di presse idrauliche e il sistema di
trasmissione della pressione esercitata dal piede dell’automobilista sul pedale del freno (che esercita una
forza limitata) alle ganasce dei freni (che esercitano una forza molto maggiore sui dischi o sul tamburo
dei freni, ovviamente in assenza di servo-freno!).
Un altro argomento importante dell’idrostatica è la determinazione dell’andamento con l’altezza della
pressione nell’atmosfera terrestre. L’equazione dell’equilibrio idrostatico ci dice che dP = −ρ · g · dh,
dove dP è la diminuzione di pressione atmosferica P per un aumento della quota dh nell’atmosfera,
che consideriamo (come semplificazione di prima approssimazione) come un gas perfetto isotermo di
massa molecolare Mmol . Conseguentemente, dall’equazione di stato dei gas perfetti, otteniamo che ρ =
(P · Mmol )/(R · T ), e, definendo h◦ = (R · T )/(Mmol · g) detta scala d’altezza, otteniamo che P (h) =
P◦ · exp(−h/h◦ ), dove P◦ rappresenta la pressione atmosferica al suolo (h = 0). Assumendo per Mmol =
29 · 10−3 kg/mole, corrispondente alla composizione dell’aria, fatto per 3/4 di N2 e 1/4 di O2 , si ottiene
che h◦ ∼ 8 km, cioè in circa 8 km la pressione atmosferica si riduce a circa il 37% (e−1 ) del suo valore
al suolo. Il realtà un valor medio della scala d’altezza atmosferica è dell’ordine di 7.5 km; questo è
dovuto al fatto che l’ipotesi di isotermia per l’atmosfera terrestre è un’approssimazione grossolana perché
il gradiente termico medio nell’atmosfera terrestre è dell’ordine di −6.5 o C/km.
Fra le molte esperienze quotidiane relative all’idrostatica ricordiamo:
• vari tipi di galleggiamento in acqua; il corpo umano immobile galleggia se la persona resta “calma”,
cioè col torace dilatato; se viceversa il torace è contratto dall’apprensione, il nostro “galleggiante”
naturale (l’aria nel torace) si riduce di volume (il diaframma si contrae), la spinta di Archimede si
riduce e il .... fifone beve;
• l’iceberg, di cui circa 1/10 del volume emerge dall’acqua (e conseguentemente si deduce che la
densità del ghiaccio è circa 0.9 la densità dell’acqua);
• palloncini, palloni aerostatici, mongolfiere ad aria calda (il cui funzionamento necessita di alcune
ulteriori considerazioni che lasciamo volentieri al lettore!).
2 Cioè
con proprietà fisiche macroscopiche isotrope, in quiete, nel campo di gravità.
23
3.2
Idrodinamica
Consideriamo inizialmente il moto di un fluido non viscoso, cioè che non presenta fenomeni di attrito
interno fra le varie porzioni di fluido in moto. Tale fluido è detto ideale. In un fluido ideale, quindi,
non si ha dissipazione di energia meccanica durante il moto. I gas approssimano molto meglio dei liquidi
il comportamento di un fluido ideale; fra i liquidi l’acetone è fra quelli che presenta un attrito interno
minore durante il moto.
Il moto del fluido può essere:
A1 rotazionale (presenta vortici durante il moto; è caratterizzato matematicamente da avere il rot ~v =
∇ × ~v 6= 0 in molti punti del fluido in moto);
A2 irrotazionale (non presenta mai vortici durante il moto; è caratterizzato matematicamente da avere
il rot ~v = ∇ × ~v = 0 in ogni punto del fluido in moto);
B1 stazionario (la velocità di ogni porzione di fluido durante il moto dipende solo dalla posizione della
porzione di fluido considerata, ma non esplicitamente dal tempo. Matematicamente ~v = f (x, y, z)
ovunque nel fluido);
B2 non stazionario (la velocità di porzioni di fluido o di tutto il fluido durante il moto dipende
esplicitamente dal tempo, matematicamente ~v = g(x, y, z; t)).
Per semplicità iniziamo a considerare il moto di un fluido ideale in moto stazionario e irrotazionale,
che chiamiamo anche moto laminare. Nell’intorno di un punto P1 (x1 , y1 , z1 ) tutti gli elementi di fluido
dV in moto devono transitare con la stessa velocità ~v1 (P1 ); ma il vettore velocità è sempre tangente alla
traiettoria, quindi tutti i dV di fluido transitano, nell’intorno di P1 , con la stessa traiettoria. Se consideriamo un punto P2 prossimo a P1 e ripetiamo il ragionamento precedente, giungiamo alla conclusione
−−−−−−→
che tutti gli elementi di fluido percorrono la stessa traiettoria nel tratto (P2 − P1 ). Iterando il ragionamento per tutto l’insieme di punti occupati successivamente dall’elemento dV , si giunge a definire una
traiettoria ben definita all’interno del fluido, che deve essere percorsa da tutti gli elementi di fluido che la
intercettano; infatti, se per un qualunque elemento di fluido fosse possibile, nell’intorno dello stesso punto P◦ , seguire almeno 2 diverse traiettorie, significherebbe che questo elemento di fluido potrebbe avere
almeno 2 diversi vettori velocità nell’intorno di P◦ , contraddicendo all’ipotesi di stazionarietà. Questa
−−−−−−→
traiettoria (inizialmente definita da (P2 − P1 )) viene detta linea di flusso.
L’insieme delle linee di flusso che si appoggiano a una linea chiusa, contenuta tutta all’interno del fluido in moto stazionario, si chiama tubo di flusso. Ogni elemento di fluido che transita attraverso una
sezione del tubo di flusso deve uscirne necessariamente dalla parte “finale” del tubo stesso, non potendo
assolutamente attraversare le pareti laterali del tubo di flusso per l’ipotesi della stazionarietà del moto.
Quindi per un tubo di flusso deve valere il principio della conservazione della massa, cioè della costanza
della portata ∆M/∆t valutata attraverso qualunque sezione del tubo di flusso. Si ricava facilmente che
l’espressione che esprime quanto descritto, chiamata equazione di continuità, è
ρ(P ) · S(P ) · v(P ) = cost.
(3.1)
dove P è un qualunque punto all’interno del tubo di flusso, ρ(P ) rappresenta la densità, v(P ) il modulo
della velocità del fluido nell’intorno di P e S(P ) è la sezione del tubo di flusso normale a ~v .
Considerando il moto di un fluido ideale in moto stazionario in un tubo di flusso in presenza della gravità
e applicando il teorema dell’energia cinetica a un elemento di fluido in moto, si arriva a dimostrare
facilmente l’equazione di Bernoulli, valida in qualunque punto contenuto nel tubo di flusso considerato
1
p + ρgz + ρv 2 = cost.
2
(3.2)
dove p è la pressione, z è la quota del punto considerato e gli altri simboli sono noti.
Talvolta può essere utile esprimere l’equazione di Bernoulli in termini di lunghezze,
v2
p
+z+
= cost.
ρg
2g
24
(3.3)
dove il primo termine, detto quota piezometrica, rappresenta, in quiete, l’altezza di una colonna di
fluido pesante esercitante una pressione p alla sua base, il secondo termine è la quota geometrica e il
terzo termine, detto quota d’arresto, rappresenta l’altezza a cui arriverebbe un elemento di fluido pesante
lanciato verticalmente con velocità iniziale v. La forma (3.3) è spesso utilizzata per verificare la correttezza
di funzionamento degli impianti di alimentazione dell’acqua.
Sono molteplici le applicazioni pratiche e gli
eventi di vita quotidiana che sfruttano quanto
espresso dalla combinazione simultanea dell’equazione di continuità (costanza della portata
in un tubo di flusso, ma, a maggior ragione, in
un condotto fisico) e dell’equazione di Bernoulli (fluido non viscoso, quindi conservazione dell’energia meccanica):
Figura 3.1: Schema del venturimetro
• tubo di Venturi, per misurare la portata in un condotto (ancora usato dai tecnici degli acquedotti), di
cui riportiamo la semplice schematizzazione come possibile esempio di applicazione didattica. Con
riferimento alla Fig. 3.1 consideriamo il moto stazionario di un fluido, con viscosità trascurabile, in
un condotto cilindrico orizzontale, che presenta una strozzatura limitata della sezione del tubo, da
A1 , dove la velocità del fluido sia v1 e la pressione nel fluido sia p1 , ad A2 , caratterizzata da v2 e p2 .
Le due sezioni A1 e A2 sono connesse da un manometro laterale che misura la differenza di pressione
∆p = p1 − p2 tramite la differenza di quota h + ∆h del liquido presente nel manometro (solitamente
Hg) 3 . Dall’equazione di Bernoulli si ricava che ∆p = p1 − p2 = 1/2 · ρ · (v22 − v12 ), essendo ρ la
densità del fluido, supposta costante. Dall’equazione di continuità si ricava che v2 = v1 (A1 /A2 ),
che sostituita nella relazione precedente permette di esprimere
s
s
2(p1 − p2 )
2ρHg · g · (h + ∆h)Hg
=
v1 =
2
ρ[(A1 /A2 ) − 1]
ρ[(A1 /A2 )2 − 1)]
da cui si ottiene che la portata di volume nel tubo è
(h + ∆h)Hg
Qv = v1 · A1 = K ·
ρ
1/2
2ρHg
con K = A1 ·
(A1 /A2 )2 − 1
1/2
Conoscendo la costante K di costruzione del venturimetro, misurando (h + ∆h)Hg e sapendo la
densità del fluido ρ si ottiene una semplice misura indiretta della portata di volume nel tubo
principale, parametro importante per il corretto funzionamento di ogni impianto idraulico.
• ugello di un becco Bunsen;
√
• formula di Torricelli, v = 2 · g · ∆h, che fornisce la velocità di efflusso di un fluido pesante da un
piccolo foro posto a una quota ∆h dalla superficie libera di un vasto recipiente (si noti che v è la
stessa che avrebbe avuto un elemento di fluido in caduta libera per un tratto ∆h);
• comportamento del traffico automobilistico e delle file di persone in una strettoia (allo stadio,
all’uscita delle stazioni, ecc.);
• dispenser per profumo, ugelli delle spruzzatrici, spray, ecc.;
• ugello dell’idrante;
• portanza delle ali dell’aeroplano;
3 Si noti che h + ∆h si riferisce alle quote verticali dei limiti superiori del tubo principale e della sua strozzatura. Inoltre
la strozzatura deve essere smussata per non indurre moti turbolenti nel fluido in moto, dovuti a discontinuità geometriche
della sezione del tubo.
25
• sollevamento di un foglio quando ci si soffia sopra (o, peggio, di un tetto di una casa o di un
capannone con temporale e forte vento);
• sifone;
• l’aumento del tiraggio del fumo in un caminetto (o in una ciminiera) con vento forte;
• vuotamento del “collo d’oca” in un WC con violento flusso d’acqua;
• il frullino a immersione, che si attacca al fondo della pentola quando è in funzione.
3.3
Gas e vapore
Percorriamo rapidamente il percorso logico-sperimentale che ha condotto i fisici a ipotizzare l’esistenza
di un gas-limite, il gas perfetto.
Le esperienze condotte sui gas reali avevano portato a stabilire tre relazioni fenomenologiche fondamentali
per trasformazioni quasi-statiche
P · V = cost. (trasf. isoterme, legge di Boyle)
(3.4)
V (t) = V◦ · (1 + αx · t) (trasf. isobare, 1a legge di Gay − Lussac)
(3.5)
P (t) = P◦ · (1 + βx · t) (trasf. isocore, 2 legge di Gay − Lussac)
(3.6)
a
dove V◦ e P◦ indicano il volume e la pressione del gas a 0 ◦ C, αx e βx rappresentano rispettivamente i
coefficienti di espansione e di tensione per la sostanza chimica x mentre t indica la temperatura misurata
in ◦ C. αx e βx sono dell’ordine di 3.66 − 3.67 ◦ C−1 ma, con misure molto accurate, risultano numericamente diverse fra loro e soprattutto variano da gas a gas.
Tuttavia misure effettuate con concentrazione di gas sempre più ridotte, cioè per valori decrescenti della
pressione P◦ (proporzionale alla densità ρ◦ del gas e quindi alla concentrazione a 0 ◦ C), mostrano chiaramente un andamento lineare di αx e βx con P◦ , ma soprattutto è illuminante l’evidenza sperimentale
(v. Fig.3.2) che tutte le rette interpolanti i dati sperimentali di αx e βx convergono, per P◦ → 0 a un
unico valore γ = 3.6608 ◦ C−1 . Inoltre i valori di α e β per i gas nobili sono molto vicini fra loro e il loro
andamento con P◦ è grosso modo parallelo all’asse delle ascisse P◦ , cioè quasi indipendente da P◦ . Viene
quindi evidente l’indicazione, dall’andamento dei dati sperimentali di tutte le sostanze gassose utilizzate
(v. Fig.3.2), di pensare a utilizzare un gas, che
chiameremo gas perfetto, molto rarefatto, non
chimicamente reattivo (useremo He o Ne non
O2 ), per il quale i coefficienti di espansione α e
di tensione β coincidano e siano uguali a γ. Le
leggi di Gay-Lussac si scriveranno allora
P (t) = P◦ (1 + γ · t)
(3.7)
V (t) = V◦ (1 + γ · t)
(3.8)
Solo adesso possiamo impostare il noto ragionamento che ci porta a dedurre l’equazione
di stato dei gas perfetti. Infatti, partendo,
con trasformazioni quasi-statiche, da (P◦ , V◦ ),
con una isocora, possiamo giungere all’isoterma generica t, per la quale varrà la (3.7). Figura 3.2: Andamento dei coefficienti αx e βx con la
Moltiplicando ambo i membri per V◦ avremo
concentrazione del gas
P (t; V◦ ) · V◦ = P◦ · V◦ (1 + γ · t)
(3.9)
Su un qualunque punto dell’isoterma a temperatura t avremo che P (t; V◦ ) · V◦ = P (t) · V (t) e quindi,
sostituendo in (3.9),
1
+t
(3.10)
P (t) · V (t) = P◦ · V◦ · γ
γ
26
Ma V◦ = n · V◦ (mol), dove n è il numero di moli contenute in V◦ e V◦ (mol) = 22.414 dm3 è il volume
di una mole di gas perfetto in condizioni normali. Ponendo R = P◦ · V◦ (mol) · γ = 8.314 J/(mole· K),
costante dei gas perfetti, e T = ( γ1 + t) = (273.15 ◦ C + t), temperatura assoluta dal gas perfetto, e
sostituendo nella (3.10) otteniamo la ben nota equazione dei gas perfetti
P ·V =n·R·T
(3.11)
Avremmo potuto anche, partendo da (P◦ , V◦ ), raggiungere l’isoterma a temperatura t con una trasformazione quasi-statica isobara e ottenere V (t) = V◦ (1 + γ · t), e proseguire con il ragionamento fatto
precedentemente (moltiplicando ambo i membri della relazione precedente per P◦ , e successivamente
“spostarsi” sull’isoterma) e saremmo giunti ovviamente all’equazione di stato dei gas perfetti (3.11), ma
questo SOLO perché troviamo lo stesso valore γ per il coefficiente di espansione e di tensione nelle relazioni di Gay-Lussac. Anche una piccola differenza nei loro valori numerici avrebbe avuto la conseguenza
di non poter definire un unico valore per la costante dei gas perfetti R, che, ovviamente, non sarebbe più
stata una costante fondamentale della Fisica.
La definizione di T come temperatura assoluta significa che non sono possibili temperature inferiori allo
zero assoluto (−273.15 ◦ C), perché, se potessero esistere, inserite nelle (3.7) e (3.8), porterebbero a valori
negativi della pressione e del volume, che sono assurdi fisici 4 5 .
Essendo la (3.11) valida per ogni T si giunge alla conclusione che un gas perfetto non può mai cambiare
di stato, cioè un gas perfetto non è mai liquefattibile.
Sappiamo invece che anche l’elio (il gas nobile più leggero che meglio approssima, in condizioni di grande
rarefazione, il comportamento sperimentale di un gas perfetto) è liquefattibile (a T < 5.2 K). Quindi
qualunque gas reale si discosta sperimentalmente dal comportamento previsto per un gas perfetto in
condizioni standard (e detto cosı̀ sembra quasi la scoperta dell’ombrello!).
Per descrivere gli scambi energetici che avvengono nei cambiamenti di stato sono stati introdotti i calori
latenti (di liquefazione, di evaporazione ecc.), che rappresentano numericamente l’energia che si deve
scambiare con l’unità di massa di sostanza, in condizioni standard di pressione, per fare avvenire il cambiamento di stato considerato. Se esaminiamo i valori numerici dei calori latenti per le varie sostanze 6 , si
vede che lo stato di vapore è associato con la maggiore quantità di energia per unità di massa di sostanza
che cambia di stato, mentre lo stato solido è quello associato con la minima quantità di energia specifica
della sostanza.
Il cambiamento di stato avviene a temperatura e pressione costanti, spesso con variazioni di volume non
rilevanti 7 . Quindi tutta l’energia ceduta al sistema (nel caso della fusione a esempio) deve essere immagazzinata dal sistema allo stato liquido, sotto forma di energia potenziale, perché nel cambiamento
di stato inverso (solidificazione) esattamente la stessa energia (sotto forma di calore latente di solidificazione) è restituita dal sistema all’esterno.
Se, in questi processi, è coinvolta energia potenziale, significa che devono essere presenti forme di forze
conservative. Forze conservative sono, a esempio, le forze posizionali centrali non dipendenti esplicitamente dal tempo; se sistemi di molecole presentano la capacità di immagazzinare energia potenziale
possiamo dedurre che fra le molecole si debbano esercitare forze posizionali centrali attrattive, ricordando le proprietà delle forze elastiche studiate in meccanica. Una rappresentazione funzionale semplice di
forza di questo tipo potrebbe essere F~ = −k · r−α vers ~r, che ammette un’energia potenziale del tipo
k
· r−α+1 + cost..
U = −α+1
Poiché siamo interessati a trovare un’equazione di stato che valga anche per i gas reali in condizioni
4 Con l’introduzione della temperatura assoluta T = 273.15 + t(◦ C) l’isocora di Gay-Lussac diventa P (T ) = P · γ · T ,
◦
mostrando una dipendenza lineare di P (T ) da T , con termine noto nullo. Questo ci consente di costruire un termometro a
gas perfetto a volume costante e di poterlo tarare su un unico punto fisso, come il punto triplo dell’acqua pura, con un valore
di temperatura di riferimento T3 = 273.16 K, essendo la temperatura centigrada del punto triplo dell’acqua t3 = 0.01 o C.
5 Per una presentazione più articolata si veda quanto contenuto nel primo capitolo del libro di Bertin, Poli , Vitale,
Fondamenti di Termodinamica, Progetto Leonardo, BO, 1998.
6 Per l’acqua C
liq = 0.333 MJ/kg, Cevap = 2.26 MJ/kg alla pressione atmosferica standard.
7 Solo nel caso dell’acqua si ha un aumento di volume dell’ordine del 10% nella solidificazione dell’acqua, che causa la
rottura di tubi, contatori, ma anche vasi sanguigni e linfatici, causando necrosi dei tessuti biologici. Anche la ghisa, bismuto
e argento hanno un notevole aumento di volume nella solidificazione, e questo fenomeno è molto utilizzato nelle fusioni di
strutture fatte con tali materiali perché, versati in stampi rigidi, il materiale aumenta di volume nella solidificazione andando
a aderire perfettamente alla cassaforma della fusione. Invece l’oro, rame ad altre sostanze comuni presentano una leggera
diminuzione di volume all’atto della solidificazione per cui le fusioni tendono a non venire perfette copie della cassaforma e
in questo caso si preferisce utilizzare la tecnica dello stampaggio a forte pressione per produrre,a esempio, monete in oro o
in rame senza difetti.
27
normali (per ovvie necessità pratiche e applicative) vediamo se sia possibile introdurre alcune correzioni
all’equazione di stato dei gas perfetti per renderla utile a descrivere il comportamento anche dei gas reali
in condizioni normali. Se il gas reale non è estremamente rarefatto, vuol dire che la concentrazione di
molecole non è prossima a zero ma finita e quindi le dimensioni delle singole molecole limitano significativamente il volume a disposizione. L’insieme di tutte le molecole, pensate impacchettate le une accanto
alle altre, occuperà un volume proprio b, detto covolume, esprimibile anche come b = n · bmol dove n
è il numero di moli di gas contenute nel volume V e bmol è il covolume molare. Il volume realmente a
disposizione del moto delle molecole sarà quindi V − b.
Le forze attrattive fra le molecole del gas reale non potranno però avere una dipendenza da r del tipo
k · r−α , perché, avendo le singole molecole un volume proprio, quando due molecole vengono a contatto,
non potendosi compenetrare l’una con l’altra, dovranno esercitare, a quel punto, fra loro una intensa
forza repulsiva. Dovrà quindi esistere un r-minimo al di sotto del quale le forze attrattive divengono
intensamente repulsive.
Una semplice soluzione fu proposta da van der Waals (alla fine del XIX secolo) ipotizzando l’esistenza di
una forza intermolecolare del tipo
(3.12)
F~ (r) = A · r−13 − B · r−7 vers ~r
I valori di A e B nella (3.12) (caratterizzanti la molecola considerata) sono tali per cui F~ si annulla per
un determinato valore r = rm . Una forma classica e molto semplice per V(r), energia potenziale da cui
poter derivare l’espressione di F~ (r), è quella proposta da Lennard-Jones 8
(3.13)
V (r) = 4ǫ (d/r)12 − (d/r)6
Nella (3.13) ǫ rappresenta il valore minimo dell’energia potenziale e d è la distanza per cui V (d) = 0. In
questo caso avremo che
" #
6
d
24ǫ · d6
dV (r)
2
−1
(3.14)
=
F (r) = −
dr
r7
r
6
Dalla (3.14) si ricava che F (rm ) = 0 per 2d6 = rm
, cioè per rm = d · 21/6 = 1.1225 · d, oppure per
d = 0.89 · rm . Per i gas nobili si ottiene sperimentalmente che rm ∼ 0.3 − 0.4 nm. Un esempio di
andamento dell’energia di interazione intermolecolare con la distanza è dato in Fig.3.3.
Per r ≪ rm la forza di van der Waals è nettamente positiva, cioè repulsiva, e lo si spiega col fatto
che a queste distanze la molecola è praticamente impenetrabile (si entrerebbe nella struttura interna
dell’atomo); per r ≫ rm invece la forza di van der Waals è debolmente negativa, cioè attrattiva, ed è
la forza responsabile dell’aggregazione delle molecole (a temperature non elevate) e del comportamento
sperimentale delle sostanze reali (cambiamenti di stato, calori specifici, tensione superficiale, ecc.). La
componente attrattiva della forza di van der Waals è praticamente attiva fino a distanze dell’ordine di
rmax ∼ 300 · rm , conseguentemente ogni molecola potrà esercitare una forza di attrazione non nulla
su tutte le molecole contenute in una sfera di raggio rmax , centrata sulla molecola in esame, detta sfera
d’azione molecolare. Per il terzo principio di Newton tutte le molecole entro la sfera d’azione eserciteranno
una forza di attrazione (uguale e contraria a quella esercitata dalla molecola in esame) su questa molecola,
e la forza totale esercitata sulla molecola al centro della sfera d’azione sarà nulla.
Con riferimento alla Fig.3.4 consideriamo un volume V riempito di gas con densità uniforme. Le molecole
M◦ e M3 (rappresentate con un punto nella figura) non sono soggette a forze di attrazione molecolare
perché le sfere d’azione (ombreggiate in figura) delle loro forze molecolari sono uniformemente riempite
dalle molecole circostanti di gas.
Per le molecole che si trovano in una zona di spessore rmax dalle pareti del contenitore (cioè nella zona
compresa fra le pareti del contenitore e la zona trattaggiata di Fig.3.4), la forza totale esistente su di
esse, da parte delle molecole contenute nello spazio definito dalla superficie della sfera d’azione e dalle
pareti fisiche del contenitore, non è nulla, perché il volume della sfera non è uniformemente riempito di
molecole di gas (mancano le molecole delle calotte sferiche definite dalle pareti del contenitore e dalla
superficie esterna al contenitore della sfera d’azione). Conseguentemente ogni molecola di questa zona
di “confine” sarà soggetta a una forza, diretta ortogonalmente alla parete verso l’interno del contenitore;
8 Una presentazione semplice ma rigorosa può essere trovata nel cap. 10 del bel testo di G. Boato, Termodinamica, casa
ed. Ambrosiana, MI, 1987.
28
M1
M2
F1
F2
M0
M3
M4
Figura 3.3: Andamento dell’energia di
interazione intermolecolare nel caso dell’Ar
F4
Figura 3.4:
Effetto della sfera
d’azione (indicata con un cerchietto)
delle forze intermolecolari
sempre con riferimento alla Fig.3.4 si comprende anche intuitivamente che F~2 > F~1 > F~4 . Il valor medio di
queste forze su una superficie ∆S creerà una extra-pressione, diretta verso l’interno del contenitore, che si
aggiungerà alla pressione che si esercita da parte delle pareti del contenitore sul gas come conseguenza delle
variazioni di quantità di moto nel tempo per gli urti delle molecole del gas, in movimento per agitazione
termica, con le pareti del contenitore (formula di Clausius-Kroenig). Questa extra-pressione ∆Pex sarà
proporzionale al prodotto del numero delle molecole attraenti nella sfera d’azione per il numero delle
molecole attratte entro la sfera d’azione del gas. La concentrazione delle molecole nel gas è esprimibile
tramite la densità numerica specifica delle molecole ν = NT OT /VT OT = n · NA /VT OT , quindi ∆Pex sarà
proporzionale a ν 2 e si potrà esprimere come ∆Pex = a · n2 /V 2 , con n numero di moli di gas contenute
nel volume V e a una costante dimensionale dipendente dal tipo di gas reale utilizzato.
Possiamo apportare le correzioni all’equazione di stato dei gas perfetti per tener conto del covolume e
dell’extra-pressione delle molecole del gas reale scrivendo la ben nota equazione di stato dei gas reali di
van der Waals
a · n2
)(V − n · b) = n · R∗ · T
(3.15)
(P +
V2
Il valore di R∗ non coinciderà ovviamente col valore della costante dei gas perfetti (puzzerebbe di miracolo!) ed è tale che la temperatura misurata da un termometro a volume costante riempito del gas reale
in esame fornisca la stessa temperatura assoluta T che misurerebbe un termometro a volume costante
a gas perfetto 9 . Per gas molto rarefatti V >> n · b, il termine dell’extra-pressione (a · n2 )/V 2 ) → 0 e
R∗ → R e si ottiene, ovviamente, il comportamento descritto dall’equazione dei gas perfetti.
Esaminiamo adesso l’andamento, nel piano di Clapeyron, dei dati sperimentali relativi a trasformazioni
quasi-statiche isoterme di una sostanza pura, il cosidetto diagramma di Andrews (v. Fig.3.5). Per T
elevate gli andamenti delle isoterme sono iperboli equilatere aventi gli assi coordinati come asintoti, cioè
sono sostanzialmente gli andamenti di un gas perfetto (v. andamenti T4 e T3 Fig.3.5). Diminuendo T
le isoterme si scostano dall’andamento iperbolico (v. andamento T2 Fig.3.5) fino a giungere all’isoterma
alla temperatuta Tc che presenta un flesso parallelo all’asse V , nel punto (VC , PC ) di Fig.3.5, che viene
detta isoterma critica.
Diminuendo ancora la temperatura (v. isoterme T1 e T◦ di Fig.3.5) si nota un sostanziale cambio di regime:
nella regione compresa fra l’asse delle ordinate P , l’isoterma critica e la curva tratteggiata PC → P1 → A
il fluido si presenta allo stato liquido, mentre nella regione compresa fra l’asse delle ascisse V , l’isoterma
critica e la curva tratteggiata PC → Q → B il fluido si presenta allo stato aereiforme (e la chiamiamo
regione del vapore).
All’interno della regione compresa fra l’asse delle ascisse V e la curva tratteggiata (in Fig.3.5)
A − P1 − PC − Q − B le isoterme divengono anche isobare e durante questo “percorso” fisico 10 si
9 Le costanti a, b e R∗ dell’equazione di van der Waals possono essere espresse tramite i valori dei parametri critici del
gas in esame, v. par. 1.11 del testo di Bertin, Poli, Vitale citato precedentemente.
10 Ricordiamo che si tratta di trasformazioni quasi-statiche, cioè di una successione continua di stati di equilibrio raggiunti
effettivamente dal fluido durante queste “lente” trasformazioni durante i quali sono stati misurati i parametri di stato P, V, T
caratterizzanti lo stato di equilibrio.
29
Figura 3.5: Diagramma di Andrews, in cui
sono rappresentate le isoterme quasi-statiche
di una sostanza pura
Figura 3.6: Isoterma di van der Waals e
isocora di cambiamento di stato reale
ha il passaggio di stato da liquido (punto P1 ) a vapore (punto Q) e viceversa, con scambio di energia
fra il fluido e l’ambiente esterno misurato dal calore latente di vaporizzazione (o di liquefazione), esattamente uguali in valore ma di segno opposto (secondo le convenzioni adottate in termodinamica). Il ramo
PC → A è detto curva del liquido saturo mentre il ramo PC → B è detto curva di rugiada (con ovvio
significato etimologico).
L’andamento descritto dall’equazione di van der Waals si adatta piuttosto bene con l’andamento delle
isoterme sperimentali nel diagramma di Andrews nelle zone del liquido e del vapore, mentre differisce
notevolmente durante i cambiamenti di stato (v. curve tipo a “S” orizzontale R-T-S-Q tratteggiate in
Fig.3.6) 11 . L’andamento R → T descrive una situazione fisica non di equilibrio ma fisicamente esistente; si tratta di una situazione di liquido sovraespanso, che si realizza quando si lascia del liquido a
riscaldare lentamente in modo che il vapore (e l’aria) contenuti nel liquido siano evaporati e il volume
sia un po’ maggiore a quello a cui dovrebbe iniziare il cambiamento di stato. Basta una leggerissima
azione di disturbo di questa situazione di equilibrio instabile perché il fluido passi istantaneamente (e
tumultuosamente) allo stato di parziale vaporizzazione (imposto dai valori dell’isoterma sperimentale),
con fuoriuscita violenta di vapore dal fluido 12 . Anche l’andamento Q → S descrive una situazione non
di equilibrio fisico ma fisicamente esistente ed è detta curva di vapore sovrasaturo; si realizza facendo
contrarre lentamente il vapore saturo e si arriva a un volume inferiore a quello in cui avrebbe dovuto
iniziare la condensazione del vapore in liquido. Basta una minima perturbazione a questa situazione di
equilibrio instabile affinché il fluido passi istantaneamente alla situazione di parziale liquefazione, indicata
dall’isobara di cambiamento di stato 13 .
Invece il ramo T → S non è assolutamente realizzabile sperimentalmente e non ha significato fisico
(sarebbe proprio bizzarro che in un’isoterma si abbia simultaneamente aumento di volume e di pressione!).
È importante notare che l’insieme dell’isoterma isobara R → Q e dell’isoterma di van der Waals
R − T − S − Q realizza un ciclo isotermo e che le aree delimitate dall’isoterma isobara con il tratto
R − T (area Σ1 di Fig.3.6) e con il tratto Q − S (area Σ2 di Fig.3.6) sono uguali in modulo. Questo lo
potevamo supporre perché la formulazione di Kelvin-Planck del secondo principio della termodinamica
11 L’andamento a S, con tre punti di intersezione con rette parallele all’asse delle ascisse era prevedibile, essendo l’equazione
di van der Waals del terzo ordine in V .
12 Spesso, lasciando l’acqua sul fornello a riscaldare lentamente si nota che, versandoci dentro o sale, o cibo, o immettendovi
qualunque oggetto, inizi a bollire violentemente, fuoriuscendo dalla pentola; è una manifestazione di liquido sovraespanso.
13 Situazione che si può verificare in autunno inoltrato al mattino, dopo una fredda nottata, con un tasso di umidità vicino
al 100%; uscendo di casa, o mettendo un indumento all’esterno immediatamente si bagna vistosamente.
30
impedisce che si realizzi un lavoro positivo prelevando calore da un unico termostato. Conseguentemente
il lavoro ottenibile nel ciclo completo isotermo sopra descritto può al massimo essere nullo (se assumiamo
tutte trasformazioni reversibili) ed essendo i segni dei lavori ottenibili attorno all’area Σ1 e all’area Σ2
opposti (il verso di percorrenza attorno alle due aree è opposto, v. Fig.3.6) non potrà che essere possibile
la situazione di uguaglianza dei valori delle due aree.
Dobbiamo quindi concludere che l’equazione di van der Waals è un’utilissima approssimazione per la descrizione del comportamento effettivo dei fluidi reali, vista la semplicità e l’eleganza degli argomenti che
ci hanno permesso di giungere alla sua formulazione partendo dall’astrazione (di importanza concettuale
enorme) del gas perfetto.
Le forze di van der Waals giocano un ruolo fondamentale anche in numerosi fenomeni di interazione tra
corpi solidi; tra questi fenomeni ricordiamo in particolare:
• la tendenza ad “appiccicarsi” l’un l’altro di due oggetti, fatti dello stesso materiale e aventi superfici
perfettamente identiche (come forma) ma opposte (in segno). La forma più semplice è ovviamente il
piano e infatti due lastre di specchio piano, due piani metallici (lavorati alla macchina rettificatrice)
aderiscono tenacemente fra loro. È molto difficile creare una simile aderenza reciproca fra due
piani di legno. Tutto questo è intimamente collegato con la definizione operativa di piano fisico
14
, che può raggiungere precisioni dell’ordine di ≈ 10−10 m nel caso del piano ottico (specchi),
di ≈ 10−5 − 10−6 m nel caso del piano metallico rettificato, ma solamente di ≈ 10−4 m nel caso
del piano di legno. Ovviamente queste precisioni di lavorazione sono un’indicazione dello scarto
quadratico medio delle varie fluttuazioni e asperità della superficie reale rispetto al piano ideale
che quella superficie vuol rappresentare e devono essere almeno dell’ordine di grandezza di rmax
affinché le mutue forze di attrazione di van der Waals siano attive fra le due superfici a contatto.
La realizzazione di due superfici sferiche complementari (nel senso descritto sopra per i piani) è
possibile, ma con estrema complessità di lavorazione. Si tratta di realizzare due calotte sferiche
aventi lo stesso raggio di curvatura ma con segno opposto (una concava e l’altra convessa) ed è
molto difficile al livello delle precisioni indicate nel caso delle superfici piane. Per superfici di forma
diversa (anche se di rivoluzione, cioè con simmetria cilindrica) la loro realizzazione è estremamente
ardua, possibile solo per piccole porzioni di superficie.
Notiamo che non si tratta (come talvolta viene detto) del fatto che fra le superfici viene creato
...un vuoto d’aria!. Questo fenomeno si verifica invece quando una ventosa viene deformata, nella
sua parte centrale, da una forza di trazione verso l’esterno, mentre il bordo della ventosa rimane
a contatto della superficie su cui la ventosa è appoggiata. La forza che la ventosa esercita sulla
superficie di appoggio è data dalla differenza di pressione fra l’esterno della ventosa (generalmente
la pressione atmosferica esistente) e la pressione che si crea nell’intercapedine fra il centro della
ventosa e la superficie di contatto, moltiplicata per la superficie di distacco della ventosa dal corpo
a cui si appoggia. Questo fenomeno viene utilizzato nei dispositivi di sollevamento o di sostegno
di oggetti pesanti, fragili e molto lisci, come le lastre di vetro. Ovviamente se la pressione esterna
viene ridotta al valore della pressione interna all’intercapedine la ventosa si distacca. Il fenomeno
dell’aderenza si verifica, invece, anche ponendo gli oggetti aderenti sotto una campana a vuoto.
• le forze di van der Waals sono responsabili anche dell’adesione della polvere (di qualunque natura
e dimensione) anche a pareti molto lisce, come a esempio uno specchio. Sono ben noti gli sforzi
propagandistici di molte imprese che forniscono prodotti per eliminare (sarebbe più corretto dire
“ridurre”) l’elettrizzazione della polvere (cosı̀ dicono negli spot pubblicitari!) e non farla attaccare
a oggetti e pareti domestiche.
• una straordinaria applicazione delle forze di van der Waals in natura è offerta dall’efficienza dimostrata dal geco 15 nel camminare e rimanere attaccato a pareti verticali, anche perfettamente
lisce, e perfino sui soffiti (cioè rivolto col dorso verso terra). Le zampe del geco non contengono
sostanze appiccicose (che impedirebbero la sua deambulazione veloce e sicura) né strutture tipo
ventose. Mostrano invece 5 dita molto larghe, sotto le quali sono presenti una serie di lamelle
parallele, ognuna delle quali è formata da sottili setole (setae), del diametro di circa 0.2 µm 16 , con
14 Si veda al riguardo la chiarissima esposizione contenuta nel cap. I del testo di Mario Ageno, Elementi di Fisica, ed.
Boringhieri, (TO), 1960.
15 Sauro insettivoro, di abitudini notturne, dal corpo depresso, estremamente agile e veloce.
16 Per confronto il capello umano ha un diametro medio dell’ordine di 10 µm
31
una densità superficiale di circa 1.4 · 104 setole/mm2 per un totale di circa 5 105 setole/zampa.
Ogni setola è a sua volta ricoperta da numerosi e sottilissimi peli, detti spatulae, con circa 103
spatulae/setola. In questo modo ogni zampa del geco offre un’elevatissima superficie di contatto
con la parete con cui viene in contatto tramite il gran numero di spatulae che aderiscono alla parete.
Ogni spatula è composta da tessuti biologici contenenti sostanze chimiche che possiedono un piccolo
momento dipolare, in grado di polarizzare le molecole della parete con cui è in contatto. Si viene
quindi a creare una distribuzione superficiale di forze di van der Waals (attrattive) fra le spatulae e
la parete. È stato stimato che ogni spatula può esercitare una forza media dell’ordine di 4 10−8 N
con i silicati, di cui è generalmente fatta una parete (sia naturale che artificiale). Valutiamo la forza
totale FT che il sistema di forze di van der Waals esercita sul corpo del geco.
FT = nr.zampe ·
nr.setole nr.spatulae f orza di aderenza
·
·
≃ 4 · 5 105 · 103 · 4 10−8 N = 80 N
zampa
setola
spatula
Essendo la massa media del geco dell’ordine di 40 − 50 g, si vede immediatamente che il valore di
FT è maggiore del peso del geco, che può quindi muoversi liberamente e con agilità e velocità su
qualunque superficie comunque inclinata rispetto alla verticale.
Solo sul teflon 17 , materiale non polarizzabile, il geco non può camminare, mancandogli la necessaria
forza di aderenza di van der Waals. Inoltre le sue spatulae hanno anche la proprietà di autopulirsi
dai granelli di polvere sottile, che, se aderisse alle spatulae, produrrebbe uno strato isolante, che
ridurrebbe notevolmente la polarizzabilità del materiale della parete di appoggio.
Anche le mosche presentano sulla parte inferiore delle loro zampe cuscinetti pelosi che hanno la
stessa funzionalità delle spatulae del geco.
Molti laboratori di biomeccanica e di meccanica applicata stanno studiando la realizzazione di superfici dotate di nanotubuli di materiale altamente dipolare per tentare di imitare queste straordinarie
capacità offerte dalla genialità della natura nella sua evoluzione.
3.4
Tensione superficiale e capillarità
Consideriamo un liquido reale posto, in quiete, in un recipiente (es., acqua in un bicchiere). Per le
molecole del liquido poste in prossimità della superficie libera, a contatto dell’aria, si possono ripetere le
considerazioni che abbiamo svolto nel caso dell’introduzione dei termini correttivi all’equazione dei gas
perfetti per giungere all’equazione di van der Waals. Tutte le molecole di liquido contenute in uno strato
superficiale di spessore rmax , cioè contenute entro la sfera d’azione delle forze d’attrazione di van der Waals
(v. Figg.3.4 e 3.3), saranno soggette a una forza risultante non nulla
e diretta verso l’interno del liquido.
P
Un semplice esperimento ci consente di dare una definizione operativa al sistema di forze superficiali accennate precedentemente. Con
riferimento alla Fig.3.7 consideriamo, in un piano verticale, un leggero telaietto rigido, vincolato in P, con due tratti verticali sui quali
possa scorrere (con attrito trascurabile) una leggera asta orizzontale
rigida AB di lunghezza l. All’interno del telaietto formiamo (con
molta cautela e delicatezza!) una leggera pellicola di liquido (l’acqua
saponata può essere un facile inizio). Per mantenere invariata la superficie verticale della pellicola di liquido in aria occorre applicare alla
sbarretta AB una forza F~ diretta verso il basso. Facendo molti esl
perimenti, con sbarrette di diversa lunghezza (e stesso liquido) e con
B
diversi liquidi (con la stessa sbarretta) si arriva a formulare una re- A
lazione fenomenologica in cui il modulo di F~ è proporzionale a l, cioè
F
F = τ · 2 · l, che porta immediatamente a definire
τ=
F
2·l
(3.16)
Figura 3.7: Misura della tensione
τ rappresenta la forza globale che il sistema di forze molecolari dello superficiale
strato superficiale del liquido esercita, per unità di lunghezza, per
17 Materiale
che ricopre le superfici di cottura di vasellame antiaderente, composto da polimeri di tetrafluoroetilene.
32
tenere uniti i lembi di un “taglio” superficiale lungo un metro nella superficie di separazione liquido-aria
(detto anche strato interfasale). τ è detto anche tensione superficiale liquido-aria (va sempre precisato,
ovviamente, quali sono le due fasi a contatto). Il fattore 2 nella (3.16) indica che sono 2 le superfici di
interfase in azione sulla sbarretta AB, una davanti e l’altra dietro al telaietto.
Una definizione alternativa di tensione superficiale è la seguente. Se il valore di F applicata alla sbarretta
provoca un abbassamento ∆x della sbarretta (senza rompere la lamina di liquido contenuta nel telaietto),
significa che la forza F ha compiuto un lavoro ∆L = F · ∆x; corrispondentemente la superficie S della
lamina nel telaietto ha subito un aumento ∆S = 2 · l · ∆x per cui
τ=
F · ∆x
∆L
=
∆S
2 · l · ∆x
(3.17)
Ovviamente le due definizioni operative (3.16) e (3.17) forniscono lo stesso valore di τ , che si misura, nel
S.I., in N m−1 e in J m−2 . Valori tipici di τ : per l’acqua in aria (a 20 ◦ C) vale 7.27 · 10−2 J m−2 ,mentre
per il mercurio in aria (a 20◦ C) vale 4.65 · 10 −1 J m−2 . τ tende a diminuire di valore con l’aumentare
della temperatura (per l’acqua in aria diminuisce del 20 % nel passaggio da 20 → 80 ◦ C). Il valore di τ
è fortemente influenzato dalle impurezze che si possono depositare sulla superficie d’interfase; basta uno
strato monomolecolare di sapone o di detergente liquido per ridurre di un fattore 3 la τ dell’acqua pura. È
notevole anche l’invecchiamento della superficie d’interfase nel ridurre il valore di τ ; τ resta costante per
circa mezz’ora dal momento della formazione della superficie d’interfase, poi, fenomeni di allineamento
molecolare (e le impurezze sempre presenti nell’aria) fanno ridurre sempre più il valore di τ .
Talvolta τ è detta anche forza di coesione superficiale.
Può essere utile definire operativamente la tensione superficiale anche in maniera “microscopica”. Per
aumentare di un ∆S la superficie d’interfase liquido-fluido considerati, occorrerà “trasportare”, dall’interno del liquido dove tutte le molecole sono in equilibrio fra loro, nello strato d’interfase, di spessore
rmax , un determinato numero di molecole ∆N , dato da
ρ
(3.18)
∆N = ∆V · n = rmax ∆S · n = rmax ∆S
Mmol
dove n rappresenta la densità numerica di molecole nel liquido di densità ρ, Mmol la massa di una molecola
di liquido. Indicando con w il lavoro che si dovrà compiere contro le forze di coesione per portare una
molecola dall’interno del liquido nello strato d’interfase, avremo che il lavoro che dovremo globalmente
fare sarà
w · rmax ρ
w · rmax ρ
∆L = ∆N · w =
· ∆S = τ ∆S, con τ =
(3.19)
Mmol
Mmol
Quindi τ rappresenta il lavoro fatto contro le forze di coesione per creare l’unità di superficie interfasale,
di spessore rmax , nello strato di interfase.
Sappiamo tutti per esperienza “infantile” che per formare una bolla di acqua saponata occorre soffiare
delicatamente nella cannuccia intinta nell’acqua saponata o agitare in aria l’attrezzo (con un cerchietto
posto al termine di un’asta), cioè occorre compiere un lavoro per formare una bolla di sapone. Formata
la bolla in aria cerchiamo di capire quale possa essere il bilancio delle pressioni che si esercitano sulle
superfici della bolla 18 .
Chiamiamo con ∆P = Pi −Pe la differenza di pressione fra l’interno e l’esterno della bolla; se aumentiamo
il volume della bolla di ∆V dobbiamo compiere un lavoro ∆L = ∆P · ∆V contro le forze di tensione
superficiale delle due facce delle superfici interfasali (interna ed esterna) che tenderebbero a far rimanere
la bolla nelle dimensioni imperturbate. Il lavoro della forze di tensione superficiale è ∆Lτ = 2τ · ∆S e
avremo che
∆P · ∆V = 2τ · ∆S
(3.20)
con ∆V = 4πR2 ∆R e ∆S = 8πR∆R, che sostituiti nella relazione precedente portano alla ben nota legge
di Laplace
4·τ
(3.21)
∆P = Pi − Pe =
R
Nella (3.21) cambia solo il 4 in 2 se si considera una goccia (una sola superficie interfasale) invece di una
bolla (due superfici interfasali).
18 Viene quasi automatico pensare che la pressione all’interno della bolla debba essere maggiore della pressione esterna,
coincidente con la pressione atmosferica, poiché all’interno deve trovarsi anche il contenuto energetico equivalente al lavoro
fatto per formare la bolla.
33
Fad
r*
FT
F coe
α
Pi = P Atm
F coe
Fad
FT
R
α
α
Pe
h
PAtm
PAtm
r*
r*
a)
a)
b)
b)
Figura 3.8: Composizione di forze di adesione
e di coesione al bordo di fluidi reali
Figura 3.9: Effetto capillare
Per quanto espresso nella (3.21) se una bolla di raggio maggiore viene a contatto con una bolla di raggio
minore, la bolla più grande cresce inglobando la bolla più piccola (fenomeno di coalescenza), perché la
Pi della bolla più piccola è maggiore della Pi della bolla più grande e quindi l’aria della bolla minore
viene spinta all’interno della bolla maggiore. Questo fenomeno è vistosissimo facendo interagire gocce di
mercurio (che ha una τ molto alta) di diverso diametro.
Una stima dello spessore x di una bolla di acqua saponata può essere fatta considerando che da una goccia
di acqua saponata del diametro di 2 · r = 2 mm si può ottenere una bolla del diametro di 2 · R = 20 cm
e conseguentemente, dalla conservazione della massa di acqua saponata fra la piccola goccia e la grande
bolla, otteniamo che x ≃ (r3 /3 · R2 ) = 3 · 10−6 cm.
Dobbiamo anche considerare le interazioni che il fluido reale in esame può avere col materiale di cui è
composto il recipiente che lo contiene. Ovviamente queste interazioni si manifesteranno solo nelle zone
di confine fra il contenitore e il fluido (cioè nelle parti a contatto con le pareti del recipiente). In queste
zone di “confine” si eserciteranno sistemi di forze di van der Waals fra le molecole del contenitore e quelle
del fluido; mentre le molecole del contenitore sono vincolate a un sistema rigido (e quindi non si possono
muovere altro che tutte insieme!), le molecole del fluido hanno capacità di muoversi anche rispetto all’insieme di tutto il fluido, quindi saranno quelle che potranno subire effetti dinamici evidenti. Le forze che il
contenitore esercita su elementi di volume del fluido si dicono “forze di adesione” del fluido al contenitore.
Esaminiamo le molecole del fluido che si trovano nello strato di interfase fra il fluido e l’esterno (generalmente l’aria). Mentre abbiamo visto precedentemente che i “vuoti” presenti nelle sfere d’azione di queste
molecole nello strato di interfase generano il sistema di forze di tensione superficiale, in vicinanza delle
pareti del recipiente dobbiamo anche considerare le forze di adesione che le pareti (rigide) del contenitore
esercitano sulle molecole del fluido. Con riferimento alla Fig.3.8, nella parte a) è rappresentata la situazione in cui la forze di adesione è molto più grande della forza di coesione (tensione superficiale), per cui
la forza risultante F~T è diretta verso l’esterno del fluido e conseguentemente la superficie di interfase deve
assumere un andamento con la concavità rivolta verso l’esterno (dovendo rappresentare una superficie
equipotenziale all’equilibrio). Questa è la condizione in cui il fluido “bagna” le pareti del contenitore,
tipico dell’acqua nel vetro (si esamini, anche con una semplice lente d’ingrandimento l’andamento della
superficie di interfase dell’acqua in un bicchiere). Si definisce angolo di contatto α l’angolo formato dalla
parete interna del contenitore e dalla tangente alla superficie d’interfase al punto di contatto estremo
fluido-parete.
Invece nella parte b) della Fig.3.8 Fcoe è molto maggiore rispetto a Fad e la F~T è diretta verso l’interno
del fluido e la superficie d’interfase assume un andamento con la concavità verso l’interno del fluido, cioè
il fluido “non bagna” le pareti del contenitore e questo succede mettendo mercurio nel vetro. In questo
caso l’angolo di contatto α è maggiore di π/2.
Nel caso a) di Fig.3.8 la forza FT , che agisce essenzialmente solo nel tratto r∗ , tende a spostare verso l’alto
le parti superficiali del fluido. Immergiamo allora nel fluido un tubetto cilindrico, dello stesso materiale
di cui sono fatte le pareti del contenitore, e di diametro 2 · r∗ . Vedremo che il fluido si innalza nel tubetto
di un tratto h (v. Fig.3.9); in queste condizioni il tubetto si comporta da “capillare” 19 . Consideriamo
19 Non
ha senso affermare che tubetti di vetro del diametro di 1 mm sono capillari, bisogna precisare con quale fluido si
34
la situazione nella parte b) di Fig.3.9: la superficie concava verso l’alto può essere considerata come la
superficie limite di una goccia di liquido, in cui la pressione interna alla goccia è Pi = Patm , mentre la
Pe esterna alla goccia è la pressione che si esercita immediatamente al di sotto della superficie concava
(interna alla colonnina di fluido risalita nel capillare). Possiamo quindi scrivere la legge di Laplace (3.21),
che in questo caso diviene
r∗
2τ
, con R =
(3.22)
Patm − Pe =
R
cosα
Per la legge di Stevino la colonnina di fluido di altezza h crea, a livello della superficie orizzontale di
equilibrio del fluido con l’aria circostante al capillare, una pressione idrostatica che deve equilibrare la
pressione atmosferica Patm , cioè Patm = Pe + ρ · g · h (ρ densità del fluido), che inserita nella (3.22) fornisce
la classica formula di Jurin
2τ cosα
h=
(3.23)
ρ · g · r∗
A es., in un capillare di un filo d’erba del diametro di 2r = 0.2 mm, l’acqua (τH2 O ≃ 75 dyne/cm)
può risalire fino a un’altezza massima di ≃ 15 cm. Si possono realizzare una varietà di esperienze
qualitative, ma molto istruttive, immergendo vegetali, fiori, fili di lana, in acqua colorata (con colori
accesi) e misurando la quota di risalita segnalata dalla zona colorata sul vegetale dopo un pò di tempo.
È estremamente utile, per una comprensione anche visiva degli effetti collegati alla tensione superficiale,
andare a esaminare (con una buona lente d’ingrandimento) la formazione di una goccia (cominciando
ovviamente con l’acqua, ma sarebbe molto opportuno proseguire con liquidi di differente τ ), utilizzando
un contagocce o una pipetta da laboratorio. Inizialmente dall’estremità del beccuccio del contagocce si
nota la formazione di un rigonfiamento di liquido, che aumenta fino a formare una goccia, che ricorda
la forma di un involucro di plastica riempito di liquido pesante, cioè con una strozzatura attaccata al
beccuccio che sorregge la goccia vera e propria, grosso modo sferica. La goccia si stacca e cade quando il
suo peso non è più bilanciato dalle forze di tensione superficiale che agiscono sullo strato interfasale della
goccia e il ciclo riprende con la goccia successiva. Analizziamo questo processo.
Con riferimento alla Fig.3.10, la formazione naturale della goccia (senza cioè la pressione che si esercita
tramite il finale flessibile del contagocce) è dovuta al lavoro fatto dalla forza peso contro la tensione
superficiale per creare la superficie della goccia. La formazione della goccia si realizza con il passaggio di
un volume di liquido contenuto nel cilindro di altezza ∆h e diametro 2r, posto alla fine del beccuccio, nel
volume occupato dalla goccia, che al distacco si suppone (con ragionevole approssimazione dell’evidenza
sperimentale) avere un diametro 2R, essendo 2R il diametro esterno del beccuccio. Uguagliando i volumi
del cilindretto e della goccia si ottiene ∆h = (4R3 /3r2 ). Per una stima di prima approssimazione 20
possiamo porre r = R/2 e quindi ottenere che ∆h = 16R/3. Il baricentro del liquido che forma la goccia,
entro il canale della pipetta, è in P1 , posto a una quota (∆h)/2 = 8R/3 dalla fine della pipetta, mentre
il baricentro della goccia è in P2 , a quota −R dalla fine della pipetta. Quindi avremo che il lavoro fatto
dal campo di gravità sarà
11
8
≈ 4mgR
mg · (P1 − P2 ) = mg( R + R) = mgR
3
3
(3.24)
mentre il lavoro fatto contro le forze di tensione superficiale per formare la superficie della goccia è 4πR2 τ ,
che uguagliato al risultato della (3.24) fornisce la formula di Tate
m=
π·R·τ
g
(3.25)
La massa m della goccia può essere misurata con una bilancia di precisione, eseguendo la pesata sulla
massa di varie gocce (da 10 a 20; per numeri superiori il tempo di attesa per la formazione delle gocce è
troppo lungo rispetto al tempo di evaporazione del liquido delle gocce formate e si avrebbe una misura
sottostimata) e conseguentemente si può dedurre il valore di τ . Il valore effettivo di R della goccia non
è facilmente misurabile e, se non si vuol utilizzare la nostra approssimazione (Rgoccia ≃ Rugello ), si può
mette a contatto perché le forze di adesioni possono cambiare enormemente. La definizione di capillare è relativa a un ben
definito materiale che contiene un ben preciso fluido.
20 La modellizzazione esatta della forma delle gocce in campo di gravità è piuttosto complicata ed è il soggetto di studi
di idrostatica avanzata e di Fisica Matematica.
35
2R
2r
∆h
P1
τ2,3
P2
R
P
τ1,2
Figura 3.10: Schema
di formazione di una
goccia
τ1,3
aria(2)
olio(3)
acqua(1)
Figura 3.11: Schema delle tensioni superficiali agenti su
una goccia d’olio
ricavare Rgoccia dalla massa della goccia tramite la relazione m = 4πR3 ρ/3, che fornisce R = (3m/4πρ)1/3 .
Inserendo tale espressione nella (3.25) si arriva finalmente a
τ=
mg
mg
=
·
πR
π
4πρ
3m
1/3
=
g
·
π
4πρm2
3
1/3
(3.26)
La misura di τ tramite la legge di Tate è molto semplice e significativa, da un punto di vista qualitativo,
ma poco accurata da un punto di vista quantitativo, potendo raggiungere approssimazioni dell’ordine del
10 − 20 % rispetto al valore effettivo di τ anche a causa di tutte le ipotesi che abbiamo introdotte per
semplificare la trattazione (è la vecchia storia della coperta corta!).
Un altro aspetto interessante è dato dall’esame del comportamento degli strati interfasali di 3 fluidi reali a
contatto, come a es. succede per una goccia di olio posta sulla superficie di acqua in aria. Con riferimento
alla Fig.3.11 ci sono 3 forze agenti sul punto P, intersezione delle 3 superfici di interfase:
1. la tensione superficiale H2 O − aria τ1,2 ≈ 7.3 · 10−2 J/m2 ;
2
2. la tensione superficiale H2 O − olio τ1,3 ≈ 2.0 · 10−2 J/m ;
2
3. la tensione superficiale aria − olio τ2,3 ≈ 3.5 · 10−2 J/m ;
Si vede subito che τ1,2 > τ2,3 + τ1,3 e quindi il punto P non può rimanere fermo ed è trascinato dalla
forza risultante ad “allontanarsi” sempre più dalla posizione del centro della goccia, cioè la goccia di olio
tende a spandersi sempre più sull’acqua e a disporsi su tutta la superficie libera dell’acqua fino a trovarsi
(al limite) in uno strato quasi monomolecolare.
Questo fenomeno può essere utilizzato per determinare vari parametri “microscopici” a livello molecolare.
Per es., una goccia del diametro di 1 mm di benzene (C6 H6 ) si può spandere su acqua pura, formando
una “macchia” del diametro di circa 102 cm, che possiamo supporre essere costituita da uno strato
monomolecolare di benzene. Dati dati sopra riportati si può stimare il raggio rmol e il volume Vmol
3
molecolare del benzene. Da questi, conoscendo la densità del benzene ρ(C6 H6 ) = 0.881 g/cm , si può
infine ricavare una stima della massa mmol e del numero di Avogadro NA .
Lo spessore dello strato monomolecolare della “macchia” sarà infatti
h=
4r3
≃ 6.67 · 10−8 cm,
3R2
rmol ≃
h
= 3.33 · 10−8 cm
2
36
Vmol ≃ 1.55 · 10−22 cm3
(3.27)
Se indichiamo con Vmole il volume di una mole di C6 H6 , avremo che il numero di Avogadro NA =
Vmole /Vmol . Il peso molecolare di C6 H6 è 78, la sua massa molare è µ = 78 g e quindi il volume di una
mole di C6 H6 , Vmole , sarà
Vmole =
µ
= 88.5 cm3 ;
ρ
NA =
Vmole
≃ 5.9 · 1023 molecole/mole;
Vmol
µ
= 1.28 · 10−22 g
m(C6 H6 ) =
NA
D’altra parte la massa molecolare del C6 H6 si può anche esprimere come m(C6 H6 ) ≃ 78·(massa protone) ≃
78 · 1.67 · 10−24 g ≃ 1.3 · 10−22 g in accordo col valore trovato precedentemente.
Elenchiamo alcuni esempi degli effetti della tensione e della capillarità su fatti e azioni della nostra vita
quotidiana:
• foglie, piccoli insetti, se posati con delicatezza sulla superficie dell’acqua, galleggiano, mostrando
che nelle zone di contatto creano “piccoli avvallamenti” nella superficie libera dell’acqua. Se affondati oltre il limite dello strato superficiale affondano. Anche un ago metallico (unto!), posto con
delicatezza parallelamente alla superficie in quiete dell’acqua, galleggia, mentre affonda se posto
ortogonalmente alla superficie;
• il contorno esterno della superficie dell’acqua in un bicchiere di vetro mostra con evidenza che l’acqua
tende a “bagnare” il vetro, cioè che le forze di van der Waals esistenti fra le molecole d’acqua e
quelle del vetro creano una forza di adesione che tende a “tirare” verso la parete di vetro le porzioni
d’acqua vicine alla parete;
• l’acqua viene respinta (non bagna!) da superfici contenenti sostanze “grasse”; l’acqua non bagna vari
tipi di verdure (cavolo, bietola, carciofi, ecc.) per l’alto valore della tensione superficiale dell’acqua,
che tende a formare la “goccia” e a non distendersi sulle foglie delle verdure (e quindi a “lavarle”).
Basta salare l’acqua, diminuendone la tensione superficiale, per lavare bene tutte le verdure;
• per sfogliare facilmente le pagine di un libro o di un giornale ci umettiamo le dita della mano,
cosı̀ come per raccogliere piccoli pezzetti di carta o granelli di sabbia o minuzzole di pane ecc.
(servendoci delle forze di tensione superficiale del velo di umido sulla nostra pelle per applicare le
forze necessarie per compiere le azioni descritte);
• le molecole organiche, di elevato peso molecolare, sono efficienti tensioattivi dell’acqua, cioè ne
diminuiscono molto il valore della tensione superficiale. Infatti queste molecole organiche (meno
dense dell’acqua) tendono a disporsi sulla superficie libera dell’acqua e con le loro elevate dimensioni
molecolari (si pensi che il peso molecolare dell’albumina, una delle proteine più leggere, è di 64500,
cioè oltre 3 ordini di grandezza superiore all’acqua) separano fisicamente le catene superficiali dei
legami a idrogeno delle molecole d’acqua, riducendone drasticamente il valore della tensione superficiale. La prima presenza di una sofferenza renale è data dallo spumeggiare dell’urina, cioè la
presenza anche di tracce di albumina riduce drasticamente la tensione superficiale dell’urina e si
formano cosı̀ bolle stabili sulla superficie, ben visibili;
• lavare qualcosa significa toglierne il “sudicio” che la ricopre, che è essenzialmente composto da
molecole grasse, idrorepellenti. Per ottenere tale risultato bisogna quindi cercare di diminuire
la tensione superficiale dell’acqua (per “stenderla” sulla superficie da lavare), ma anche cercare di
utilizzare grosse molecole che abbiano un estremo idrofilo (cioè che tenda ad attaccarsi alle molecole
d’acqua) e l’altro estremo lipofilo (cioè che tenda ad attaccarsi alle molecole di sudicio). Questo
è il sapone, che fino a varie decine di anni fa veniva prodotto facendo bollire acqua di cenere di
legna (la cosidetta acqua di lisciva, ottenuta filtrando acqua calda in cenere di legna e contenente
idrossidi di Na e K, elementi elettropositivi che tendono ad attrarre la parte negativa [O−− ] della
molecola d’acqua) e grasso animale fino a creare un composto omogeneo, che, filtrato e raffreddato,
formava il sapone da bucato casalingo. Adesso la preparazione dei saponi industriali è molto più
elaborata e complessa, ma sicuramente meno ecologica;
• alcuni prodotti alimentari (burro, maionese, gelati e simili) sono emulsioni stabili di liquidi e aria.
Nei liquidi c’è sempre una notevole quantità di acqua, che, per la sua elevata tensione superficiale,
37
non può formare emulsioni stabili (mai provato a “montare” l’acqua con un frullino..!?). Solo con
liquidi biologici (panna, latte, uova) si riescono a formare (manovrando con sapienza e delicatezza,
senza farle “impazzire”!) le ottime emulsioni stabili che poi gustiamo come delizie del palato;
• quando si chiude un rubinetto si nota che la portata del rubinetto si riduce, cioè il flusso di liquido
diminuisce e il filetto di liquido che esce dal rubinetto si riduce man mano che si chiude il rubinetto.
A un certo momento, però, si nota che il flusso non si riduce ulteriormente ma cambia drasticamente
il regime di fuoriuscita del liquido, che incomincia a gocciolare (v. formazione delle gocce e legge
di Tate illustrate precedentemente).
• ci sono innumerevoli evidenze quotidiane dell’applicazione pratica della legge di Jurin, cioè degli
effetti della capillarità nelle nostre azioni concrete quotidiane, e ne riportiamo alcune, stimolando
gli insegnanti di Fisica a trovarne altre, magari coinvolgendo in questa ricerca gli studenti:
* sia l’asciugamano che la federa sono fatte di cotone, ma per asciugarsi usiamo l’asciugamano;
* sia la carta assorbente da cucina che la carta A4 da stampante sono fatte di cellulosa, ma in
cucina usiamo la carta assorbente;
* sia il cotone idrofilo (o le garze) che la tela dell’ombrello sono fatte di cotone, ma usiamo il
cotone idrofilo (o le garze) per trattare le ferite o spandere disinfettante sulla pelle;
* invece il tessuto della tela di un ombrello, di una tenda da campo, di un soprabito impermeabile,
è fatto di sottile filo di cotone, ma con una trama cosı̀ serrata e fitta che è impossibile per
l’acqua piovana (che tende a formare gocce) penetrarvi all’interno;
* sia la stoppa che lo spago sono fatti di canapa, ma usiamo la stoppa per togliere l’olio dal
fiasco del vino (e perché veniva messo un velo d’olio nel fiasco del vino?);
* sia i savoiardi che i biscotti duri, tipo le “marie”, sono fatti con farina + uova + zucchero, ma
usiamo i savoiardi per inzupparli bene di liquore o altre essenze liquide;
* sia il pane tipo bolognese che il pane duro tipo “galletta” sono fatti di farina + acqua, ma
usiamo il pane bolognese per inzupparlo (con gusto!) nel caffè-latte.
La spiegazione è sempre la stessa per tutti questi casi.
• la linfa risale (vincendo la gravità) nei capillari (notare l’aiuto dell’etimologia!) delle piante erbacee;
lo si mette facilmente in evidenza ponendo le piantine in acqua contenente un colorante;
• l’umidità (cioè l’acqua contenuta nel terreno) risale (vincendo la gravità) in strutture porose (muri
esterni, cantine senza vespaio, vasi di coccio, ecc.);
• al mare le “formine” si fanno utilizzando sabbia fine umida, non asciutta ma nemmeno molto
bagnata. Infatti si deve formare attorno a ogni granello di sabbia (che possiamo supporre sferico di
3
raggio R, formato da silice avente una densità ρ = 2.7 g/cm ), uno strato di acqua dello spessore
21
dell’ordine di rmax ; ogni granello resta al suo posto (e non cadrà) se la forza originata dalla
tensione superficiale dell’acqua (attaccata alp
granello) risulta ≥ della forza peso del granello, cioè
2πRτ ≥ ρg 43 πR3 , da cui si ottiene che R = 3τ /2ρg ≤ 2 mm con τ = 70 dyne/cm, R ≤ 1.3 mm
con τ = 30 dyne/cm e R ≤ 0.75 mm con τ = 10 dyne/cm. Da questi valori si deduce che
sono i granelli più piccoli quelli che rimangono “attaccati” fra loro, anche se τ si riduce. Inoltre
l’acqua marina, contenendo N aCl, quando evapora crea un sottile reticolato di sale che riesce a
trattenere solo i granelli più piccoli (e quindi più leggeri). Questo fenomeno si osserva anche quando
la sabbia si asciuga sulla nostra pelle: i granelli molti fini rimangono attaccati alla pelle in modo
molto persistente, perché basta l’umidità residua della pelle a trattenerli. Notiamo che per formare
formine (o castelli di sabbia) stabili dobbiamo battere e comprimere bene la sabbia umida, in modo
da cercar di formare solo lo strato di acqua di spessore rmax . Tuttavia una pressione eccessiva può
provocare una “asciugatura” eccessiva della sabbia, compromettendo la stabilità del manufatto.
Questo effetto di pressione sulla sabbia umida si nota anche rimanendo in piedi sul bagnasciuga:
l’area sotto e circostante il piede sembra più “asciutta”. Infine con la sabbia asciutta non si formano
21 Se lo strato di acqua ha uno spessore > r
max si creerebbe attorno al granello di sabbia anche una pellicola di acqua
nella quale le molecole risulterebbero tutte soggette a una mutua forza di attrazione nulla, quindi soggette solo al loro peso
e, conseguentemente, faciliterebbero la caduta del granello a terra.
38
strutture stabili: si può solo formare una struttura conica (monte di sabbia) avente al massimo un
angolo di circa 30◦ col piano orizzontale, imposto dal coefficiente di attrito statico dei singoli granelli
di sabbia fra loro.
Le “formine” sarebbero più stabili se fatte con sabbia d’acqua dolce, umidificata con acqua distillata
(perché?);
• per stendere l’intonaco sui muri i muratori (dopo secoli di esperienza) usano sabbia di fiume, molto
fine, mescolata a malta “grassa” (cioè contenente circa la metà di calce spenta), e piuttosto umida.
Adesso sappiamo spiegarci perché;
• utilizzando le spugne (sia naturali che in materiale plastico) si vede con chiarezza l’effetto della
capillarità sull’assorbimento dei liquidi da parte delle strutture spugnose;
• esistono una grande varietà di giochi che si possono realizzare con le bolle di sapone che rendono
evidenti i fenomeni che avvengono sulla superficie di interfase fra la pellicola del liquido (sottile
parete) e l’aria interna ed esterna alla bolla.
Ci sono stati notevoli sviluppi tecnologici nello studio del comportamento dei materiali soggetti a forze
interfasali. Sono stati creati materiali con caratteristiche igroscopiche molto elevate quali:
1. sostanze igroscopiche per attrazione coulombiana, es. cloruro di calcio CaCl2 . Le molecole d’acqua
sono efficienti dipoli elettrici (O−− + 2 · H + ); il CaCl2 si dissocia facilmente in acqua formando ioni
Ca++ , che agganciano la parte negativa (O−− ) della molecola d’acqua, e 2 ioni Cl−, che agganciano
la parte positiva (H + ) della molecola d’acqua. In pratica con 1 g di CaCl2 si può assorbire 0.5 g
di acqua, perché il CaCl2 si forma con molte impurezze. Inoltre alla fine del processo si forma una
poltiglia molto antiestetica per cui il suo uso è molto ridotto;
2. sostanze molto porose, es. gel di silice (SiO2 ), i cui granuli si formano con una struttura spaziale
molto “porosa”, con reticolati di spessori dell’ordine del nm alternati a “vuoti” delle stesse dimensioni (circa 1/4 del volume del gel di silice secco è composto di aria, infatti ha una densità relativa di
0.7). Presenta quindi una efficientissima capacità capillare e può assorbire 0.35 g di acqua per ogni
grammo di gel di silice secca. È fondamentale che a circa 130 o C (a pressione atmosferica standard)
il gel di silice saturo d’acqua la libera in aria, sotto forma di vapore acqueo, rigenerandosi, cioè
ritornando allo stato di gel di silice secco, riutilizzabile quasi all’infinito;
3. polimeri poliacrilici, sintetizzati recentemente dalla chimica e di cui sono fatti i pannolini (per bambini, donne, adulti incontinenti e della cui ossessiva sponsorizzazione siamo quotidianamente afflitti
dalla reclame televisiva soprattutto nelle ore di pranzo e cena!). Sono sostanzialmente lunghe catene
filiformi di molecole di acido acrilico, intrecciate le une con le altre da un numero elevatissimo di corti filamenti laterali (pensiamo a un piatto di spaghetti ai 4 formaggi, abbondantemente conditi con
formaggio parmigiano, che si presenta come un insieme di spaghetti avviluppati da molti filamenti
laterali di “filini” di formaggio parmigiano parzialmente fuso!), che terminano con un atomo di Na
o di K. I metalli alcalini (Na, K) si legano facilmente anche ad acidi organici (come l’acido acrilico)
mettendo in compartecipazione con la fine della catena acrilica l’elettrone di valenza e quindi divenendo spazialmente terminali elettropositivi (N a+ o K + ). A contatto con le molecole fortemente
dipolari di H2 O la parte negativa O−− si lega tenacemente a due terminali elettropositivi N a+ o
K + . Queste catene di acido acrilico con metalli alcalini hanno dimensioni lineari che vanno dai
µm fino ad alcune decine di nm, con un rapporto superficie/volume molto elevato, in grado quindi
di assorbire una grande quantità di acqua. Per acqua pura si può ottenere un assorbimento di
MH2 O ∼ (0.5 ÷ 3.) · 103 Mac. acril. . Se in acqua ci sono sali (o peggio tensioattivi) l’assorbimento
scende a MH2 O ∼ 30 · Mac. acril. . L’acqua assorbita va a diminuire l’attrazione chimica fra le strutture filiformi dell’acido acrilico, facendone aumentare il volume totale. Il sistema non perde l’acqua
assorbita anche se sottoposto a una pressione esterna “ragionevole” (i legami con gli ioni alcalini
sono piuttosto forti) e, nel caso dei pannoloni, il peso di una persona normale non riesce a creare
una pressione sufficiente a far espellere i liquidi assorbiti dalla struttura (ottima cosa soprattutto
per le persone vicine!). A es., un pannolone può assorbire tranquillamente fino a 0.5 kg di H2 O.
Questi materiali si trovano anche sul fondo delle vaschette per alimenti umidi nelle confezioni dei
supermercati (per carne, pesce, verdure fresche).
39
S
F
vo
ho
Figura 3.12: Definizione operativa della
viscosità
Figura 3.13: Moto laminare in un condotto
cilindrico
Se mescolato con granuli di gomma si viene a formare un materiale con proprietà praticamente
impermeabili se vincolato all’interno di una struttura rigida. Infatti se c’è penetrazione di acqua la
struttura poliacrilica aumenta di volume, andando a comprimere i granuli di gomma che, disposti
uniformemente nella struttura spaziale del composto, vanno a sigillare ogni successiva infiltrazione
di acqua nella struttura. Questa tecnica è stata utilizzata come intercapedine del tunnel ferroviario
sotto la Manica.
3.5
Viscosità
Consideriamo un fluido reale in quiete in un contenitore e appoggiamo sulla sua superficie, tramite
opportuni sostegni, un corpo solido di area S in modo che penetri oltre la superficie di interfase (v.
Fig.3.12). Applichiamo al corpo una forza F~ , il cui modulo può essere misurato tramite un dinamometro.
Si nota che gli strati di fluido attaccati al corpo (ovviamente nel caso in cui sia “bagnato” dal fluido)
si muovono insieme al corpo, mentre gli strati più profondi tendono ad avere velocità sempre minori,
decrescenti in modulo linearmente con la profondità, rispetto alla v◦ superficiale, fino ad arrivare a una
velocità nulla sul fondo del contenitore. Questa fenomenologia è valida solo se le velocità in gioco sono
sufficientemente piccole, in modo da garantire che il moto dei vari strati di fluido avvenga in modo
laminare, cioè senza la formazione di vortici all’interno del fluido (questo può essere messo facilmente
in evidenza usando coloranti inorganici). Il fenomeno più evidente è che l’applicazione di una forza di
modulo costante F non provoca accelerazione sul corpo S ma assicura solo costanza al modulo della
sua velocità v◦ , evidenza che sul corpo in movimento deve agire simultaneamente una forza di attrito
di modulo F . Dopo serie di misure su corpi di diversa S, con diversa v◦ , con lo stesso corpo e liquidi
diversi, con diverse profondità h◦ , si arriva a una relazione fenomenologica che riassume il comportamento
quantitativo delle varie misure
v◦
(3.28)
F =η·S
h◦
L’andamento sperimentale dei moduli delle velocità dei vari strati di fluido, lineare e crescente in funzione
della quota h, ci suggerisce di prendere in esame il moto del singolo strato di fluido, di spessore ∆h e
situato alla generica quota h, avente velocità v(h), rispetto allo strato immediatamente superiore con
velocità v(h + ∆h) = v(h) + ∆v e a quello immediatamente inferiore con velocità v(h − ∆h) = v(h) − ∆v.
Questo strato si muove con v(h) costante sotto l’azione di una forza F (h + ∆h) = F (h) + ∆F , diretta
come ~v (h) e operata su di esso dallo strato superiore “per attrito”, e da una forza (ma diretta in senso
inverso, cioè frenante) F (h − ∆h) = F (h) − ∆F , operata dallo strato inferiore. Con un ragionamento
simile a quello fatto per dedurre la (3.28) otteniamo
F (h) = η · S
∆v(h)
∆h
(3.29)
dove η è il coefficiente di viscosità del fluido considerato, misurato nel S.I. in kg/(m· s) (unità chiamata
poiseuille e talvolta decapoise, perché maggiore di un ordine di grandezza della corrispondente unità di
40
misura di η nel sistema C.G.S., detta poise), decresce fortemente con l’aumento della temperatura, ma
dipende molto meno dalle variazioni di pressione a cui è sottoposto il fluido in esame. A es., per l’acqua
pura η(20 ◦ C) ≃ 1.00 · 10−3 kg/(m · s) e descesce del 2.5% per l’aumento di 1◦ C di temperatura. Per i
gas η è inferiore mediamente di circa 3 ordini di grandezza ma decresce al diminuire della temperatura
(come spiegato dalla teoria cinetica dei gas) 22 .
In effetti la (3.29) vale rigorosamente per fluidi inorganici classici, detti fluidi newtoniani; se vogliamo
descrivere il comportamento viscoso di ogni tipo di fluido occorre modificare la (3.29)
n
∆v(h)
(3.30)
F (h) = ξ · S
∆h
Per n = 1, ξ = η(T, P ), cioè fluidi newtoniani. Per n 6= 1 la (3.30) può essere scritta come
n−1 ∆v(h)
∆v(h)
∆v(h)
F (h) = ξ · S ·
= ηn · S ·
·
∆h
∆h
∆h
(3.31)
con ηn = ξ(T, P ) · [∆v(h)/∆h]n−1 denominata viscosità globale.
Se n < 1, ηn decresce per [∆v(h)/∆h] crescente, essendo (n − 1) < 0; i fluidi di questo tipo sono detti
fluidi tixotropici, come il sangue, latte, creme base dei cosmetici ecc. In questi casi la viscosità globale
ηn diminuisce man mano che la velocità del fluido aumenta; pensiamo quindi al vantaggio che ne trae
il sistema circolatorio sanguigno, l’allattamento naturale, ma anche le procedure del makeup (quando le
creme di bellezza delle nostre belle signore si spandono più facilmente man mano che procede il massaggio,
invece di formare grumi e bacherozzi come fanno le creme di scarsa qualità) 23 .
Se invece n > 1, ηn aumenta per [∆v(h)/∆h] crescente e i i fluidi di questo tipo sono detti fluidi non
newtoniani dilatanti, e spesso sono i collanti (la loro viscosità globale ηn aumenta man mano che la
velocità del fluido aumenta).
Consideriamo adesso il moto (che supporremo laminare, cioè senza formazione di vortici) di un fluido
newtoniano in un condotto cilindrico orizzontale di raggio R (v. Fig.3.13). La evidente simmetria
cilindrica del sistema ci suggerisce di utilizzare un sistema di coordinate cilindriche (x,r,ϕ), nel quale la
simmetria rispetto a ϕ ci permette di scomporre il sistema in cilindri infinitesimi, di spessore dr, centrati
sull’asse x, di lunghezza ∆l. Analizzando le forze che agiscono sulle superfici laterali di un cilindro assiale
infinitesimo generico 24 , per effetto delle forze di attrito viscoso applicate dai cilindri elementari adiacenti
al cilindretto considerato, e uguagliandole alle forze di pressione esercitate dal fluido sulle basi elementari
dS = 2π · r · dr, cioè ∆P · dS, con ∆P = P − P ′ , si arriva a dimostrare che in condizioni stazionarie
l’andamento delle velocità del fluido viscoso nel condotto cilindrico
ha un andamento parabolico
R
∆P
v(r) =
· (R2 − r2 )
4η · ∆l
(3.32)
v(r)
r
vo
come rappresentato il Fig.3.14.
Per valutare il flusso di materia che, in regime stazionario, transita
nel condotto (quella che viene chiamata “portata”), basta valutare Figura 3.14: Andamento parabolico
la quantità
delle velocità di un fluido in moto
Z R
laminare in un condotto cilindrico
∆M
πρ
∆P
Qm =
=
ρ · v(r)2πr dr =
· R4
(3.33)
∆t
8η
∆l
0
che rappresenta la ben nota legge di Poiseuille. La quantità η/ρ = ν viene denominata viscosità cinematica, con ovvio significato anche etimologico del termine.
Vogliamo presentare anche una versione semplificata della dimostrazione della legge di Poiseuille proponibile anche a studenti liceali non a conoscenza del calcolo differenziale. Va loro detto esplicitamente che se
22 Si consiglia di esaminare le tabelle dei coefficienti di viscosità di vari liquidi per riflettere sul loro comportamento
sperimentale nell’uso quotidiano che ne viene fatto.
23 L’industria dei cosmetici spende cifre cospicue per migliorare le prestazioni delle varie creme base, formate da fluidi
tixotropici.
24 Rimandiamo per la dimostrazione completa al classico testo di G.Bernardini, Fisica Sperimentale, parte 1, ed. Veschi,
Roma, 1954, oppure al manuale di C.Mencuccini-V.Silvetrini, Fisica 1, ed. Liguori, NA, 1996, dove la trattazione è fatta in
modo chiarissimo ed esauriente.
41
rappresentiamo il fenomeno naturale con una legge semplificata otterremo risultati approssimati rispetto alle misure che poi si effettueranno realmente sui fenomeni analizzati. L’approssimazione sarà tanto
migliore quanto più l’approssimazione introdotta nel modello matematico utilizzato sarà equivalente alla
modellizzazione corretta del fenomeno studiato.
Con riferimento alla Fig.3.15 consideriamo il solido condotto cilindrico di raggio R in cui scorre
un fluido viscoso in moto stazionario di densità ρ.
Supponiamo che l’andamento dei vettori velocità dei
B
C
filetti di fluido possa essere rappresentabile con un p
v(r)
p2
R
andamento lineare con la distanza r dal centro del 1
r
vo
condotto
p
p2
1
∆v −v◦ r
=
v(r) = v◦ (1 − ) ; (3.34)
A
D
l
R
∆r R Ricordiamo che il modulo della forza di attrito viscoso Figura 3.15: Rappresentazione lineare delle veè fv = ηSl · (∆v/∆r), dove Sl = 2πR · l è la superfi- locità radiali di un fluido in moto laminare in un
cie laterale dell’elemento cilindrico di fluido ABCD e, condotto cilindrico
nella nostra approssimazione, (∆v/∆r) è la pendenza della retta inviluppo dei vettori velocità v(r) ed è
data dalla (3.34). All’elemento di fluido ABCD è applicata dal fluido una forza di pressione data da
fp = (p1 − p2 ) · S = ∆p · πR2 e la stazionarietà del moto impone che debba necessariamente essere fp = fv
per cui
∆p · R2
v◦
; v◦ =
(3.35)
∆p · π · R2 = η · 2π · R · l
R
2ηl
Si noti che il valore di v◦ ottenuto semplicemente dalla (3.35) differisce per un fattore 2 dal quello esatto
valutato dalla (3.32).
La portata di massa del condotto sarà semplicemente
Qm = ρS < v >=
πρ
∆P
· R4
4η · l
l
(3.36)
dove < v >= v◦ /2 è la velocità media con cui avanza l’elemento ABCD di fluido considerato. Ovviamente
la Qm ottenuta con la (3.36) differisce per fattore 2 dal valore ottenuto con l’uso della rappresentazione
parabolica delle velocità nel condotto cilindrico (eq. 3.33). Quello che si guadagna in semplicità di trattazione analitica si perde in precisione nella descrizione corretta dei risultati ottenibili. Contentiamoci
quindi della correttezza degli ordini di grandezza ottenuti.
Notiamo nella (3.33) e nella (3.36) la dipendenza della portata Qm dal termine R4 ; a parità delle altre condizioni (η, ∆P/∆l) una riduzione relativa ∆R/R nel raggio del condotto provoca una riduzione
relativa nella portata pari a 4∆R/R, di estrema importanza. Questo fatto è di grande rilevanza per
la circolazione del sangue nei nostri vasi (si pensi a cosa possa accadere con una parziale occlusione di
una arteria o di una vena, es. trombi, ischemie, placche arterosclerotiche, embolie, e simili) e in tutti i
sistemi di condotte industriali in cui si debba garantire un flusso di materia stazionario (come circuiti di
raffreddamento di impianti nucleari, pipelines per idrocarburi, acquedotti ecc.).
Vogliamo infine trattare brevemente un argomento che spesso suscita interesse, soprattutto nella componente maschile dell’uditorio, l’effetto Magnus 25 . Consideriamo il moto di una sfera rigida e omogenea,
~ costante e orizzontale (rispetto a un fluido omogeneo, in quiete, con
di raggio r, che trasla con velocità V
viscosità trascurabile) e ruotante con velocità angolare ω costante, verticale, passante per il suo centro
C. Rispetto a un sistema di riferimento inerziale (S) (v. Fig.3.16) questa situazione non è stazionaria,
perché il moto della sfera induce profondi cambiamenti locali nella situazione dinamica del fluido, che
dipenderanno ovviamente dal tempo. Possiamo però considerare una situazione “speculare” 26 pensando
di vincolare l’asse di rotazione ω della sfera a una guida orizzontale G (senza attrito) disposta lungo ~j e
facendola investire da un fluido con velocità
25 Ringraziamo sentitamente i colleghi proff. E. Landi-Degl’Innocenti e F. Rosso per gli utilissimi scambi di informazioni
e chiarimenti avuti con loro sull’effetto Magnus.
26 La legittimazione teorica di questa procedura è data dalle proprietà delle funzioni armoniche, soluzioni dell’equazione
di Laplace, ∇2 ϕ = 0, che descrive moti stazionari di fluidi incomprimibili, con velocità ottenibili da potenziali. Per
approfondimenti si consiglia il cap. 7 di F. Rosso - Istituzioni di Fisica Matematica, 2004.
42
~ , uniforme per grandi distanze d ≫ r da
−V
C (teoricamente d → ∞). Assumendo che
il fluido a contatto con la superficie della
sfera sia “trascinato” dal moto di rotazione
della stessa 27 , avremo che i filetti di fluido passanti in vicinanza dei punti A e B
della sfera (v. Fig.3.16) avranno velocità
rispettivamente
~vA = −(V −ωr) ~i
;
a)
b)
A
V
ω
−V
C
ω
C
B
~vB = −(V +ωr) ~i
(S)
j
i
È evidente che kv~A k < k~[vB ]k. Ricordando l’equazione di Bernoulli (3.3) si ricava Figura 3.16: Sistema di riferimento per spiegare l’effetto
che PA > PB nei filetti di fluido circostan- Magnus
ti la sfera e quindi ci aspettiamo che sulla
sfera agisca una forza F~ , normale all’asse di
rotazione della sfera e diretta secondo −~j.
Per ottenere un’espressione analitica di F~ possiamo ragionare nel moa)
b)
do seguente. Con riferimento alla
Fig.3.17 consideriamo, per sempliciω
−V
A’(θ)
−V
tà, la semisfera superiore della palla
P(−ϕ)
in moto. Essendo solidali con la palla
P(+ϕ+π)
r sen θ
r
conviene
adesso riferirsi a un sistema
θ
r
C
di
riferimento
polare (θ, ϕ) centrato
−V
−
ϕ
−V
ω
O
C
+ϕ
nella palla. L’areola elementare at+ϕ
torno al punto P (+ϕ), evidenziata
equatore palla
P(−ϕ−π)
nella
Fig.3.17, a), possiede una velocP(+ ϕ)
ità
~
v
(θ,
+ϕ) = (V + ωrsenθ)~uϕ , men−V
B’(θ)
−V
tre attorno al punto P (ϕ+π) la velocità è ~v (θ, ϕ + π) = (V − ωrsenθ)~uϕ .
Essendo il filetto di fluido, aderente
Figura 3.17: Sistema di riferimento per spiegare l’effetto Magnus
alla corona sferica elementare considerata, in moto stazionario, applicando il teorema di Bernoulli, troviamo la differenza di pressione ∆p(θ, φ) = p(θ, ϕ + π) − p(θ, +ϕ) fra i punti
P (ϕ + π) e P (+ϕ)
∆p(θ, ϕ) =
1
ρ[(V + ωrsenθ)2 − (V − ωrsenθ)2 ] = 2ρV ωrsenθ
2
∆p(θ, ϕ) insiste su l’areola elementare d2 a = r2 senθdθdϕ, su cui crea, conseguentemente, una forza
elementare, ortogonale a d2 a,
d2 F (θ, ϕ) = 2ρV ωr3 sen2 θdθdϕ
costante su tutta la semicorona sferica di raggio rsenθ e azimuth +ϕ. Mentre d2 F (θ, ϕ) agisce lungo la
direzione ϕ → ϕ+π (verso il basso della Fig.3.17), la forza elementare d2 F (θ, −ϕ) agisce lungo la direzione
−ϕ → −ϕ − π (sempre verso il basso della Fig.3.17). Le componenti d2 F (θ, ϕ)cosϕ e d2 F (θ, −ϕ)cosϕ si
compensano, mentre si sommano (verso il basso) le componenti lungo la direzione A′ (θ) → B ′ (θ).
Quindi la forza totale agente su tutta la sfera sarà data da 28
FT = 2ρV ωr
3
Z
0
π
senϕdϕ
Z
π
sen2 θ dθ = 2ρπr3 V ω = 2ρ r St V ω
(3.37)
0
27 Per assicurare questa condizione la superficie della sfera viene generalmente coperta da piccole asperità, come a esempio
leggera peluria nelle palle da tennis, piccoli fori o piccole asperità nelle palle da golf e da ping-pong, cuciture evidenti nei
palloni da calcio e rugby,
R π ecc.).
28 Ricordiamo che
sen2 θ dθ = π/2
0
43
con St = πr2 sezione trasversale massima presentata dalla sfera 29 .
Ritornando nel sistema di riferimento (S) di Fig.3.16 e ricordando che la Ft della (3.37) deve essere diretta
secondo −~j, possiamo scrivere che
~
F~T = 2 ρ r St ~ω × V
(3.38)
Un’interessante applicazione della forza trasversale al moto che si origina nell’effetto Magnus 30 è stata
la progettazione (da parte dell’ingegnere tedesco A. Flettner, 1924) di una nave (la “Buchau”) che, utilizzando il
vento proveniente trasversalmente al moto e mettendo in rotazione due larghi cilindri/fumaioli, potesse ricevere una F~t
nella direzione del moto della nave. I risultati (non economici) di questo esperimento e l’instabilità al rollio e beccheggio
per venti molto forti (infatti è naufragata nei Caraibi nel
1931!) hanno condotto all’abbandono di questo progetto.
Questi studi sono stati però ripresi negli anni 2000 in paesi
scandinavi per lo sviluppo di catamarani definiti “ecologici”.
L’effetto Magnus è il fondamento fisico su cui si basa il
cosidetto “giro” che si imprime alla palla in vari tipi di giochi.
Il bravo battitore di punizioni “a rientrare” (nel calcio) deve
imprimere una forza impulsiva alla palla non solo diretta
lungo la traiettoria parabolica che desidera, ma anche con
un componente trasverso, in modo da creare il moto di ro- Figura 3.18: Esempio di effetto
tazione rispetto a un asse passante per il centro di massa Magnus su un pallone con giro
della palla, che poi creerà la differenza di velocità periferiche sulla superficie della palla, che daranno
origine alla FT , spiazzando i difensori e il portiere avversari (v. Fig.3.18).
3.5.1
Moto vorticoso e numero di Reynolds
Il moto laminare di un fluido in un condotto cilindrico è descritto dalle relazioni (3.32) e (3.33) solo se
la velocità del fluido rimane “piccola”; aumentando il valore del termine ∆P/∆l si aumenta il valore del
modulo della velocità media nel condotto e, a un certo punto, si osserva che il moto del fluido diventa
improvvisamente disordinato, si creano al suo interno vortici, con complicati moti di rimescolamento fra
le varie parti del fluido. Sperimentalmente si è visto che è utile, ai fini della stima della velocità limite
che garantisce il moto laminare, definire una quantità adimensionale, detta numero di Reynolds, definita
da
v · 2R
v·d·ρ
=
(3.39)
Re =
η
ν
con ν = η/ρ coefficiente di viscosità cinematica e d dimensione travsersale del tubo.
Per Re < 103 il moto è sicuramente laminare, mentre per Re > 105 è sicuramente turbolento, cioè con
vortici e rimescolamenti vari. Nella zona intermedia sono possibili varie situazioni. non completamente
stabili; basta una minima perturbazione (colpo, asperità nella superficie del condotto, al limite anche un
suono violento) per far passare il regime da laminare a immediatamente turbolento. Innescato il regime
turbolento è più difficile ritornare al regime laminare (occorre riportarsi a valori di Re < 103 ).
Una giustificazione qualitativa dell’espressione di Re , data nella (3.39), è la seguente. L’aumento del
modulo della velocità media del fluido nel condotto porta, a un certo punto, che gli strati laminari di
fluido non riescono più a seguire gli strati contigui e a rimanerci attaccati. Questo significa che le forze
inerziali, agenti sull’elemento di volume di fluido in moto laminare, diventano molto maggiori delle forze
di attrito, originate dalla viscosità, per cui questo elemento di fluido non procede più nel suo moto
29 Molte misure di F , dovuta all’effetto Magnus, presenti nella letteratuta scientifica, si riferiscono al moto di palle da
T
baseball e non sono particolarmente coerenti fra loro. Consigliamo al lettore interessato L.J. Briggs, Am. J. Phys. 27, 589
(1959) e R.G. Watts & R. Ferrer, Am. J. Phys. 55, 40 (1987).
30 La (3.38) è in accordo col teorema di Kutta-Zukovskij dell’aerodinamica che afferma che per moti potenziali (cioè in
~ = ∇ϕ) la portanza F
~
cui la V
~ è data
H l , cioè la forza per unità di lunghezza, su un cilindro ruotante con velocità angolare ω
~ · d~s vers~
~ attorno al cilindro in moto.
~l = ρ~
~ , con ~
V
ω , circuitazione di V
da F
Γ×V
Γ=
C
44
ordinato, insieme con gli strati contigui, ma prosegue quasi isolandosi, e una minima perturbazione (che
sicuramente si origina al distacco fra gli strati) crea un momento angolare che origina il moto vorticoso.
Rendiamo quantitativo il ragionamento qualitativo descritto sopra
Re ≈
f orze inerziali, Fin
f orze d′ attrito, Fatt
(3.40)
Ma possiamo anche stimare che
Fin ≃
∆m
∆p
≃
· v ≃ Q m · v ≃ ρ · S⊥ · v 2
∆t
∆t
v
Fatt ≃ η · Slaterale
d/2
(3.41)
che, sostituite in (3.40) danno
Re ≃
ρ · S⊥ · v 2 · d
ρvd
≃
η · Slat · v · 2
η
(3.42)
ρ · R5 ∆P
·
k
∆l
(3.43)
che coincide con la definizione data nella (3.39).
Per la valutazione della portata di un condotto cilindrico orizzontale in regine turbolento non vale più,
ovviamente, la legge di Poiseuille. Esiste una relazione fenomenologica che si esprime come
Q2m =
in cui Qm = ∆m/∆t è la portata di massa e k è una costante numerica sperimentale, che in molti casi di
pratica utilità è dell’ordine di ≈ 0.4. È utile fare un confronto fra la portata di un condotto in regime di
moto laminare (o anche detto regime viscoso) e la portata dello stesso condotto ma in regime turbolento;
possiamo stimare
−1/2
Qm;turb
∆P
· R−1.5
(3.44)
≈ ηρ−1/2 ·
Qm ; visc
l
Nel S.I. il termine ηρ−1/2 ≈ 10−4.5 , quindi possiamo dire che, dalla (3.44), risulta che Qm;turb ≪ Qm;visc ,
per cui è di grande importanza pratica (ed economica) cercare di mantenere il flusso dei liquidi nei condotti in regime di moto laminare (o viscoso) il più a lungo possibile e di non far innescare il regime
turbolento.
Una stima di Re nel caso di un condotto di 2 cm di diametro, in cui scorra acqua η ≈ 10−3 , ρ ≈ 103
nel S.I., a una velocità di 2 m/s, ci porta a Re ≈ 4 · 104 , al limite del regime laminare, ma in condizioni
instabili.
È utile anche fornire una derivazione dimensionale di Re ; sappiamo che deve essere una quantità adimensionale e che le grandezze fisiche coinvolte nella transizione dal regime laminare a quello turbolento
sono ρ, v, d, η. Possiamo quindi scrivere l’equazione dimensionale per Re , nell’ipotesi (ragionevole) che
l’espressione di Re (ρ, v, d, η) sia a variabili separate,
[Re ] = [dα ρβ v γ η δ ] = [lα−3β+γ−δ mβ+δ t−γ−δ ]
(3.45)
da cui si ottiene, dopo qualche passaggio, imponendo che tutti gli esponenti delle grandezze fondamentali
siano nulli per garantire l’adimensionalità di Re
β
= −1;
δ
γ
= −1;
δ
α
= −1
δ
(3.46)
che, sostituite nell’equazione dimensionale (3.45) per Re , forniscono la sua corretta definizione, tenendo
conto che l’esperienza ci indica che Re ∝ η −1 e quindi che δ = −1.
3.5.2
Resistenza di un fluido reale al moto di un corpo
Consideriamo il moto di un corpo solido in un fluido reale (v. fig.3.19); si possono avere sostanzialmente
due casi: a) il moto del fluido attorno al corpo è laminare, con assenza di vortici (figura inferiore); b) il
moto avviene con produzione di vortici posteriormente e lateralmente al corpo. Diciamo subito che per la
45
descrizione quantitativa dei fenomeni un parametro fondamentale è la velocità relativa del fluido rispetto
al corpo, cioè sostanzialmente è lo stesso considerare il corpo vincolato e fermo e il fluido che si muove
con velocità relativa ~v rispetto al corpo, oppure il fluido in quiete e il corpo in moto rispetto al fluido con
velocità relativa ~v 31 .
Si applichi al corpo un dinamometro per misurare il modulo della forza F~ necessaria per mantenere
costante la velocità del corpo stesso durante il moto (ovviamente sarà uguale alla risultante
delle forze di attrito da parte degli strati di fluido che scorrono sulla superficie del corpo e nelle vicinanze, scorrimenti dovuti al moto
del corpo in studio). Anche in questo caso si definisce un numero di
Reynolds (per il corpo in movimento) Re,c dato da
Re,c =
v·d
v·d·ρ
=
η
ν
(3.47)
in cui i simboli hanno lo stesso significato di quelli usati precedentemente per la definizione del numero di Reynolds per il moto in un
condotto cilindrico, fatta eccezione per d, che, in questo caso, indica
la dimensione trasversale del corpo in moto. Fissato il corpo, cioè d,
fissato il fluido in cui il corpo si deve muovere, cioè ν, l’unico grado di
libertà per variare Re,c resta v.
Ogni corpo possiede un proprio valore critico per Re,c , indicato con
Re,crit , per il quale se Re,c ≪ Re,crit il moto del fluido circostante Figura 3.19: Schema del moto
il corpo è sicuramente laminare, mentre per Re,c ≫ Re,crit il moto è di un corpo immerso in un fluisicuramente turbolento e vorticoso. In questo caso, però, il passaggio do reale in condizioni viscose (in
dal regime laminare a quello turbolento è quasi continuo: si iniziano a basso) e turbolenti (in alto)
formare alcuni piccoli vortici, poi, con l’aumentare della velocità relativa, se ne formano altri, sempre in numero maggiore e con maggiori dimensioni, fino ad arrivare a un
regime di turbolenza estrema (si pensi al moto di un motoscafo da corsa e al sistema di gorghi, onde, e
vortici che produce in acqua).
In regime laminare (o di moto viscoso) la forza che agisce sul corpo in moto può essere espressa da
Fv = k · η · d · v
(3.48)
con k fattore di forma, che dipende dalla forma “aerodinamica” del corpo in moto. Per una sfera, k = 3π
per cui la forza che agisce su un corpo sferico di raggio R in moto con velocità v risulta essere
Fv = 6π · η · R · v
(3.49)
La (3.49) è nota come legge di Stokes.
In regime turbolento la forza che agisce sul corpo in moto diventa
Ft = c · S · ρ · v 2
(3.50)
dove c è sempre un fattore di forma (che per la sfera vale 0.25), S è la sezione trasversale del corpo in
movimento (per una sfera πd2 /4), ρ la densità del fluido e v la velocità relativa del fluido rispetto al corpo
in moto.
Valutiamo il rapporto Ft /Fv per una sfera
c · S · ρ · v2
cπ dρ · v
Ft
=
=
·
≈ 10−2 · Re,c
Fv
k·η·d·v
4k
η
(3.51)
Si comprende, quindi, che, per un corpo in moto in un fluido reale, il superamento della velocità relativa
tale da far aumentare Re,c oltre il limite dell’innesco del regime turbolento causa un improvviso e violento
aumento della forza frenante il suo moto nel fluido, anche di vari ordini di grandezza, secondo il valore
31 È sostanzialmente quello che succede con l’uso delle gallerie del vento, in cui si studiano gli effetti aereodinamici su un
corpo fermo rispetto a un flusso di aria che si muove rispetto al corpo. I risultati sono poi utilizzati per produrre corpi che
si muovono “meglio” in aria (ferma!) con la stessa velocità relativa studiata nella galleria del vento; si comprende quanto
sia importante questa tecnica in tutte le applicazioni al moto di veicoli e areomobili.
46
raggiunto da Re,c . Per una sfera Re,crit ≈ 104 , quindi un corpo sferico di 2R = 1 m che si muove in acqua,
ν ≃ 10−6 (S.I.), con una velocità di 10−2 m/s, è caratterizzato da un Re,c ≈ Re,crit e quindi già inizia
a generare sistemi di piccoli vortici nell’acqua anche a questa piccola velocità. Invece delfini, cetacei e
simili hanno Re,crit ≈ 107 e quindi con 2R ≈ 1 m possono permettersi velocità dell’ordine di 10 m/s quasi
senza innescare un regime turbolento. Infatti il loro nuoto è estremamente efficiente, elegante, morbido.
Questo è il motivo per cui nei decenni recenti si siano sviluppati studi approfonditi sui fattori di forma
e sulla struttura “acquadinamica” di questi bellissimi abitanti del mare per migliorare le prestazioni dei
natanti, ma soprattutto dei mezzi subacquei (in particolare sommergibili, che hanno assunto sempre più
la conformazione simile a quella dei cetacei e capodogli). L’uomo cerca di carpire i segreti dell’efficienza
evolutiva della natura (si pensi anche alle imitazioni delle tecniche di volo degli uccelli per i profili degli
aerei), ma non si preoccupa quasi mai di osservarne le regole di rispetto per l’ambiente nel quale dovranno vivere i propri discendenti, a dimostrazione, ancora una volta, che la “stupidità umana → ∞”, come
diceva saggiamente Einstein.
3.5.3
Sedimentazione e centrifugazione
Consideriamo il moto di un corpo rigido, omogeneo di massa m, diametro trasversale d, volume V e
densità ρ in un fluido di densità ρl e coefficiente di viscosità η, che parta da fermo; esso è soggetto alla
propria forza peso mg, alla spinta di Archimede −mg(ρl /ρ) e alla forza di attrito viscoso −kη · d · v
(abbiamo assunto come positiva la direzione di discesa verso il basso). La sua equazione di moto sarà
ρl
m · a = m · g · (1 − ) − kη · d · v
(3.52)
ρ
Si vede subito che la massima a sarà all’inizio, per t = 0, con v = 0; appena v cresce in modulo a
diminuisce e avremo, a un certo istante, che a = 0 e questo avverrà per una velocità limite vs , detta
velocità di sedimentazione, data da (v. 3.52)
vs =
ρ · V · g(1 −
ρl
ρ)
(3.53)
kη · d
Se il corpo è assimilabile a una sfera di raggio r avremo
vs =
2
2 r ρ · g(1 −
·
9
η
ρl
ρ)
(3.54)
È ovvio che vs aumenta per r che aumenta e per ρ crescente, quindi le sfere di diametro maggiore e di
densità più alta hanno una velocità di sedimentazione più elevata. Infatti un fiume in piena (per l’elevato
valore della velocità dell’acqua) trasporta materiale di ogni tipo e dimensione; si nota che, nella fase di
“stanca” della piena, i sassi e le pietre più grandi, quindi con vs elevate, sedimentano al centro del fiume,
dove la velocità di scorrimento è maggiore (v. profilo parabolico delle velocità 3.14), mentre la sabbia
fine, caratterizzata da un basso valore di vs , sedimenta vicino alle rive del fiume, dove la velocità di
scorrimento è piccola.
A livello biologico (inserendo nella (3.54) i dati per le macromolecole biologiche) si ottengono valore di vs
dell’ordine di 10−6 −10−7 m/s; poichè le distanze tipiche su cui avviene la sedimentazione sono dell’ordine
della decina di cm, ne segue che i tempi di sedimentazione per gravità sarebbero dell’ordine di giorni. Si
applica allora non solo la g del campo di gravità, ma si immette il materiale in una potente centrifuga,
che applica un campo “centrifugo” (ricordare le forze fittizie!) ω 2 · R, che può raggiungere anche valori
dell’ordine di 106 g, ottenendo cosı̀ tempi di sedimentazione centrifuga di pochi minuti. Questa tecnica
è molto utile in biologia per separare molecole di diverso peso molecolare, che avranno quindi diverse vs
a parità di campo centrifugo. Possiamo quindi riscrivere la (3.54) come
vs,centrif =
2
2
2 r ρω R(1 −
·
9
η
ρl
ρ)
Dividendo vs,centrif per ω 2 R otteniamo il cosidetto coefficiente di sedimentazione s
s=
ρV (1 −
kdη
ρl
ρ)
(caso generale)
47
(3.55)
s=
2
2 r ρ(1 −
·
9
η
ρl
ρ)
(sf era)
L’unità di misura utilizzata per s è lo svedberg, che corrisponde a 10−13 s.
s dipende fortemente dalla temperatura, soprattutto tramite η. Il valore di s è ottenibile da misure
di grandezze macroscopiche (vs,centrif , ω, R) ed è legato alle proprietà della particella sedimentante
(ρ, V, k, d) e del fluido in cui avviene la sedimentazione (ρl , η). Per risolvere tutte le incognite occorrono quindi altre misure (a es., la misura dei coefficienti di diffusione, stima dei pesi molecolari ecc.), ma
questi aspetti esulano dal contesto in cui ci stiamo muovendo in questa sede.
3.6
Pressione osmotica
Una soluzione chimica è un insieme omogeneo in cui una sostanza (generalmente solida), il soluto, viene
disciolto (a livello molecolare) in un solvente (generalmente un liquido). Si pensi all’acqua salata, al caffè
zuccherato ecc. Per la soluzione Si definiscono la concentrazione cs = ms /V come il rapporto fra la
massa di soluto ms e il volume della soluzione, la concentrazione molare (o molarità) come cM = ns /V ,
dove ns è il numero di moli di soluto disciolto in soluzione, e la frazione molare x = ns /(ns + nsolv ),
definita da rapporto fra il numero di moli di soluto disciolto in soluzione rispetto al numero totale di moli
contenute nella soluzione. Ci occuperemo di soluzioni diluite per le quali x ≪ 1; in questo caso V coincide
praticamente col volume di solvente iniziale. Per le soluzioni diluite tutte
le quantità fisiche coinvolte risultano
sperimentalmente esprimibili con relazioni lineari fra loro e questo semplifica enormemente la trattazione dei
fenomeni.
Con riferimento alla Fig.3.20 consideriamo un tubo a U riempito parzialmente
con solvente, in cui sia inserita una membrana semipermeabile 32 ; nella parte destra del tubo a U mettiamo una piccola quantità di soluto, per formare una
soluzione diluita. Dopo un po’ di tempo
si osserva che il livello della soluzione inizia ad aumentare rispetto a quello della Figura 3.20: Schema dell’effetto della pressione osmotica in
parte sinistra occupata da solvente puro presenza di una parete semipermeabile
(che contemporaneamente si abbassa) fino a quando il sistema si troverà in equilibrio con un aumento totale di quota h rispetto alla parte sinistra
(dove si trova ancora solvente puro). A tale differenza di livello corrisponderà una differenza di pressione
idrostatica ∆p fra le due parti del tubo a U . Chiaramente la soluzione dovrà esercitare una pressione
idrostatica Π = ρ·g ·h (ρ densità del solvente) sulla membrana semipermeabile. Sperimentalmente si trova
che Π risulta, per soluzioni diluite, proporzionale a cM , mantenendo la soluzione a temperatura costante,
mentre, mantenendo costante cM , Π risulta proporzionale alla temperatuta assoluta T della soluzione e
la costante di proporzionalità ha il valore della costante R dei gas perfetti. Quantitativamente
Π = cM R T
(legge di van′ t Hof f )
(3.56)
Ricordando la definizione di cM otteniamo che
Π · V = ns · R · T
(3.57)
32 Una membrana semipermeabile consente il libero passaggio del solvente attraverso la sua parete ma non al soluto. Può
essere realizzata con una porzione di membrana ricavata da tessuto biologico [animale o vegetale, a es. un sottile strato
di pergamena vegetale] oppure sinteticamente facendo, a es., precipitare elettroliticamente ferrocianato di rame in un setto
poroso, come può essere una parete di terracotta non verniciata.
48
La pressione Π è detta pressione osmotica della soluzione diluita considerata.
È notevole che la (3.57) risulti formalmente identica alla equazione di stato dei gas perfetti; significa
che le condizioni fisiche che venivano descritte quantitativamente nell’equazione dei gas perfetti devono
rappresentare anche le condizioni fisiche nella soluzione considerata. Le molecole del solvente sono libere
di muoversi in tutto il recipiente (la membrana semipermeabile non offre ostacolo apprezzabile), mentre
le molecole di soluto (che “trasportano” anche molecole di solvente a cui sono “agganciate”) urtano sulla
membrana semipermeabile, venendone respinte, quindi variando la loro quantità di moto di 2 · m · v,
essendo m la massa e v la velocità prima dell’urto di ogni molecola di soluto. Sappiamo che la pressione
su una parete da parte di un gas è generata dal valor medio della variazione di quantità di moto totale
∆QT = 2 · m · v · NT di NT particelle di gas urtanti, divisa per l’intervallo di tempo durante il quale si
valuta ∆QT e divisa per la superficie S su cui avvengono gli urti. Quindi Π sarà generata, nel nostro
caso, dagli urti delle molecole di soluto sulla membrana semipermeabile, che, supposta rigida, reagisce
elasticamente applicando alla soluzione una pressione in valore assoluto uguale a Π, che è proprio quella
che garantisce alla colonnina di soluzione h di rimanere in equilibrio 33 .
Soluzioni diverse ma aventi la stessa Π si dicono isotoniche.
La pressione osmotica ha un’enorme importanza in biologia; tutti gli scambi di sali, nutrienti e prodotti
di reazioni biologiche fra cellule, tessuti, ecc, sono influenzati dalla pressione osmotica; a es., se in una
cellula esiste una concentrazione molare di cM ≈ 0.3 moli/dm3 a temperatura di 20 ◦ C → 293 K, la sua
Π vale circa 8 Atm. Si comprende quindi l’impatto che questa grandezza fisica possa avere nei processi
di scambio a livello cellulare.
La pressione osmotica è anche responsabile (insieme ad altri fenomeni di natura più specificamente biologica) della salita della linfa nei vasi vegetali degli alberi; infatti le radici sono ricche di elementi nutrienti
e sali minerali e con una cM ≈ 5 · 10−2 moli/dm3 si provoca una Π che (dalle (3.56) e Π = ρgh) causa la
risalita della linfa fino a 12 m di altezza. È la pressione osmotica presente nelle radici delle viti (ricche di
zuccheri, soprattutto a fine estate) che, alle piogge primaverili, dopo la potatura dei tralci a fine inverno,
provoca il cosidetto pianto della vite, cioè la caduta di gocce di linfa dai tagli della recente potatura.
3.7
Le equazioni fenomenologiche delle leggi di trasporto
Riscriviamo alcune leggi che abbiamo dedotto in vari settori della Fisica Generale e che ci porteranno
a interessanti conclusioni sulla efficacia (ma forse anche sulla bellezza) delle descrizioni quantitative dei
fenomeni naturali che sono tipiche della Fisica.
La legge di Poiseuille descrive essenzialmente il principio della conservazione della massa in un condotto
cilindrico di raggio R, lunghezza ∆x, soggetto a una differenza di pressione ∆P = Pingresso − Puscita , di
un fluido viscoso di coefficiente di viscosità η e densità ρ in moto laminare nel condotto
∆M
πρ ∆P
ρ · R2
∆P
=
·
· R4 =
·S·
∆t
8η ∆x
8η
∆x
(3.58)
Notiamo che QM = ∆M/∆t (detto anche portata) rappresenta il flusso di massa che attraversa qualunque
sezione del condotto cilindrico nel tempo ∆t.
La legge di Fourier sulla conduzione del calore Q attraverso una lastra piana (indefinita), di spessore
∆x e costituita da un materiale di conducibilità termica k, soggetta a una differenza di temperatura
∆T = Tparete iniz. − Tparete f in. supposta costante tra le due pareti isoterme di superficie S, si esprime
tramite la ben nota equazione della conduzione
∆T
∆Q
=k·S
∆t
∆x
(3.59)
Combinando la prima con la seconda legge di Ohm per le correnti elettriche stazionarie possiamo scrivere
∆q
∆V
1
·S
=
∆t
ρe
∆l
(3.60)
dove i = ∆q/∆t è l’intensità di corrente che scorre in un filo di lunghezza ∆l, sezione S, resistività
elettrica ρe , sottoposto a una differenza di potenziale ∆V ai suoi estremi e ∆q è la quantità di carica
33 In
altre parole, è come se la membrana semipermeabile fosse un pistone che esercita una pressione Π sulla soluzione.
49
elettrica che fluisce attraverso qualunque sezione del filo nell’intervallo di tempo ∆t.
Applichiamo la legge di Fick per i processi di diffusione al caso della solubilità di un soluto, di massa ms ,
in un solvente. La legge (fenomenologica) si scrive in questo caso come
∆cs
∆ms
=h·S·
∆t
∆x
(3.61)
dove h indica il coefficiente di solubilità del soluto, S la superficie totale del soluto a contatto del solvente,
∆cs /∆x il gradiente radiale della concentrazione del soluto cs 34 , e ∆ms /∆t rappresenta il flusso di massa
di soluto che diffonde nella soluzione nell’unità di tempo.
La (3.61) esprime chiaramente gli aspetti operativi che, spesso inconsapevolmente, si compiono quando si
effettuano soluzioni nella nostra vita quotidiana (salare l’acqua, zuccherare bevande, preparare coloranti,
diluire miscele, ecc.). Affinché il termine ∆ms /∆t abbia il massimo valore possibile (significa minimizzare
il tempo per poter disporre della soluzione finale!), quindi occorre rendere massimi i tre termini a destra
dell’uguaglianza nella (3.61). Sappiamo che h è generalmente una funzione monotona crescente della
temperatura, quindi useremo solvente caldo; inoltre per aumentare S (a parità di ms che deve andare
in soluzione) useremo frammentare al massimo il soluto (usare sale fine o zucchero a velo rende più
veloce le operazioni relative!) e infine per assicurare che ∆cs /∆x sia massimo occorre provocare nella
soluzione moti convettivi stocastici, in modo da riportare continuamente solvente fresco a contatto del
soluto e quindi rendere elevato il gradiente ∆cs /∆x (infatti si usa girare il caffè, rigirare l’acqua nella
quale abbiamo gettato il sale ecc.). In realtà queste operazioni sono svolte spesso in modo non razionale,
perché si usa girare un attrezzo (cucchiaino nel caffè, mestolo nell’acqua, ecc.) con velocità angolare
uniforme provocando moti circolari ordinati nella soluzione; la conseguenza è che al centro del recipiente
la velocità della soluzione è molto bassa, quindi il gradiente della concentrazione resta a un valore basso
(non arriva solvente fresco a contatto del soluto) e alla fine si nota un accumulo di soluto residuo al centro
del recipiente. Il modo corretto è quello di muovere l’attrezzo (cucchiaino, mestolo, ecc.) in modo casuale,
in direzione radiale rispetto al recipiente ma in tutte le direzioni angolari, assicurando moti convettivi
non ordinati nella soluzione per ottenere una soluzione omogenea e uniforme in tempi rapidi.
Esaminando la struttura delle 4 equazioni (3.58), (3.59), (3.60), (3.61) si vede immediatamente che
presentano tutte la stessa struttura: la variazione rispetto al tempo di una quantità estensiva (M , Q, q,
ms ), rappresenta il flusso della grandezza considerata attraverso la sezione S del condotto ed è uguale
a un coefficiente, che dipende dalle sostanze considerate e dal fenomeno in esame, per la sezione S,
per il gradiente di una grandezza intensiva (∆P/∆x, ∆T /∆x, ∆V /∆l, ∆cs /∆x). Conseguentemente le
connessioni logiche e le soluzioni ai problemi che riguardano questi fenomeni saranno dello stesso tipo
formale, cioè lo sforzo fatto per comprendere come si evolve uno di questi fenomeni ci fornisce facilmente
gli strumenti per comprendere cosa succede anche agli altri.
Le 4 equazioni (3.58), (3.59), (3.60), (3.61) possono essere scritte anche in un altro modo
∆P =
∆M
8η · ∆x
8η · ∆x ∆M
·
= Ri ·
, con Ri =
2
ρ · R · S ∆t
∆t
ρ · R2 · S
∆x ∆Q
∆Q
∆x
∆T =
·
= Rt ·
, con Rt =
k · S ∆t
∆t
k·S
∆q
∆l
∆l ∆q
·
= Re ·
, con Re =
∆V =
c · S ∆t
∆t
c·S
∆ms
∆x
∆x ∆ms
·
= Rs ·
, con Rs =
∆cs =
h · S ∆t
∆t
h·S
(3.62)
(3.63)
(3.64)
(3.65)
in cui Ri indica la resistenza idraulica, Rt la resistenza termica, Re la resistenza elettrica e Rs la resistenza alla solubilità dei vari componenti coinvolti nei fenomeni analizzati. Da quanto sappiamo sulla prima
legge di Ohm sui circuiti elettrici, possiamo concludere che le leggi per le resistenze in serie (che danno
luogo a una resistenza totale uguale alla somma delle varie resistenze) e le resistenze in parallelo (in
cui si sommano i reciproci delle resistenze) valgono anche per le combinazioni di vari elementi dotati di
resistenza negli altri fenomeni. Si pensi a connettere diversi condotti per il passaggio dell’acqua in serie o
in parallelo, oppure a mettere vari materiali termicamente isolanti l’uno sull’altro (cioè in serie) per creare
strati con elevata efficienza isolante ecc. Si comprende immediatamente l’utilità di saper comprendere
34 La concentrazione c di una soluzione è il rapporto fra la massa di soluto ∆m e il volume ∆V di soluzione in cui ∆m
s
s
s
è contenuta.
50
l’essenza dei collegamenti logici e funzionali fra le diverse grandezze coinvolte nei fenomeni analizzati e
di saperli ricondurre a schemi di comprensione unitari: è una delle tante bellezze della Fisica.
Le (3.58), (3.59), (3.60), (3.61) sono state ottenute in condizioni stazionarie, in sistemi con spiccata simmetria lineare (tipo muro) o cilindrica (tipo condotto) e con moti laminari.
Possono essere scritte in modo locale, per qualunque geometria, senza le condizioni di stazionarietà, e, utilizzando gli operatori differenziali vettoriali (divergenza, gradiente, rotore) e i teoremi relativi dell’Analisi
Matematica (teorema della divergenza 35 , teorema di Gauss, equazione di continuità [che esprime la
conservazione di grandezze fisiche estensive] ecc.), si arriva sempre, in tutti e quattro gli argomenti fisici
considerati, a una delle fondamentali equazioni alle derivate parziali del secondo ordine, di tipo parabolico
36
,
∂T
D(P ) · ∇2 T =
(3.66)
∂t
che costituisce uno dei capitoli fondamentali della Fisica Matematica [D(P) è il cosidetto coefficiente
di diffusività, e ∇2 è il quadrato simbolico dell’operatore nabla, cioè l’operatore differenziale laplaciano
∂2
∂2
∂2
definito, in coordinate cartesiane, da ∇2 = ∂x
2 + ∂y 2 + ∂z 2 ].
Illustriamo, come esempio, la derivazione della (3.66) nel caso della conduzione del calore. Supponiamo
di considerare un mezzo omogeneo, isotropo, caratterizzato da densità ρ, calore specifico a pressione
costante cp e conducibilità termica k, e prendiamo una qualunque superficie Σ, contenente un volume V ,
tutta interna (non deve nemmeno toccare la superficie esterna del mezzo considerato) al mezzo, in cui la
temperatura T vari da punto a punto. La quantità di calore dQ scambiata da una porzione dm = ρ · dV ′
(interna a Σ) con l’esterno, nel tempo dt, per effetto di una variazione di temperatura dT = (∂T /∂t)dt,
è espressa da
∂T
dQ
= cp ρdV ′
(3.67)
dt
∂t
L’incremento totale di quantità di calore, nell’unità di tempo, in tutto il volume V è dato da
Z
∂T
dV ′
(3.68)
cp ρ
∂t
V
Per la conservazione dell’energia (e quindi per la conservazione delle quantità di calore scambiate tra il
volume V e l’esterno) la quantità di calore data dalla (3.68) deve essere uguale a quella trasmessa per
conduzione attraverso la superficie Σ, cioè, scrivendo la (3.59) in modo locale, applicata al caso che stiamo
considerando, otteniamo
Z
Z
dT
∇T · ~ndσ
(3.69)
k·
· ~ndσ = k ·
Σ dn
Σ
Uguagliando le (3.68) e (3.69) otteniamo
Z
Z
∂T
′
∇T · ~ndσ
dV = k ·
cp ρ
Σ
V ∂t
Applicando il teorema della divergenza al secondo membro della (3.70) otteniamo
Z
Z
Z
Z
k
k
∂T
∂T
dV ′ =
dV ′ =
∇ · (∇T )dV ′ ;
∇2 T dV ′
cp ρ V
cp ρ v
V ∂t
V ∂t
(3.70)
(3.71)
Essendo il volume V qualunque, ponendo D = k/(cp ρ) coefficiente di diffusività termica del mezzo,
otteniamo la (3.66). Analogamente si può procedere negli altri casi illustrati.
Ovviamente queste ultime considerazioni non possono essere nemmeno accennate a studenti liceali (ma
anche a studenti universitari di laurea triennale!), ma le abbiamo volute menzionare per ribadire, ancora
una volta, la bellezza conoscitiva e concettuale della Fisica e gli intrecci, profondi e fecondi, che esistono
con la Matematica e che un buon docente di Matematica e Fisica deve cercare sempre di far apprezzare
dai suoi studenti, chiaramente con esempi semplici.
35 Il teorema della divergenza corrisponde alla definizione intrinseca dell’operatore differenziale divergenza: div~
v = ∇·~
v=
Φ (~
v)
limV →0 ΣV , dove Σ è una superficie chiusa contenente il volume V , centrato attorno al punto P dove è definito il vettore
~
v e ΦΣ (~
v ) è il flusso del vettore ~
v attraverso Σ.
36 Si veda il cap. 11 del testo già citato di G.Boato per una presentazione piuttosto semplice, oppure il cap. VII del
classico testo di E.Persico: Introduzione alla Fisica Matematica, Zanichelli, BO, 1960.
51
Capitolo 4
Termologia
4.1
Trasmissione del calore
Già nel termine che si usa (trasmissione) è presente, anche etimologicamente, l’idea che la forma di
scambio di energia fra sistemi, a diversa temperatura, chiamata scambio di quantità di calore (o spesso
semplicemente, ma forse non molto esattamente, scambio di calore), implichi che nei sistemi reali questa
trasmissione debba avvenire con una velocità finita. Esaminiamo brevemente le tre modalità classiche di
trasmissione del calore.
4.1.1
Conduzione
Si ha conduzione termica quando due corpi solidi, a differente temperatura, sono posti a contatto termico
e quindi si ha uno scambio di quantità di calore dal corpo più caldo a quello più freddo.
Il modo più semplice di descrivere il processo fisico della conduzione termica è quello di descrivere
quantitativamente la situazione stazionaria di una parete omogenea piano-parallela, le cui superfici esterne siano tenute a temperature diverse e costanti che creano una differenza di temperatura costante
∆T = Tparete iniz. − Tparete f in. > 0. In tali condizioni misureremo un passaggio di quantità di calore
∆Q, attraverso un cilindro (o un parallelepipedo) di lunghezze ∆x e sezione S, (posto ortogonalmente
alla parete e isolato termicamente dall’esterno), in un intervallo di tempo ∆t secondo la cosidetta legge
di Fourier
∆Q
∆T
=k·S
(4.1)
∆t
∆x
dove k è la conducibilità termica del materiale (omogeneo) di cui è formata la parete. Esaminando le
tabelle dei valori misurati di k per i diversi materiali (a temperature ambiente) si vede che esistono
materiali ottimi conduttori di calore (come Ag, Cu, Au), che hanno valori di k ≈ 102 J/(s m K), e
materiali isolanti termici (come il sughero, lana animale, lana di vetro, terreno secco, aria secca ecc.) che
hanno k ≈ 10−2 J/(s m K).
La (4.1) si può scrivere anche come
∆x
∆T
=
=v
(4.2)
k·S·
∆Q
∆t
La quantità ∆x
∆t = v rappresenta la stima della velocità con cui una quantità di calore ∆Q = 1 J si
propaga, per ∆T = 1 K e S = 1 m2 , per conduzione nella direzione x. Per ottimi conduttori termici
∆x/∆t ≈ 4 · 102 m/s, mentre per buoni isolanti termici ∆x/∆t ≈ 4 · 10−2 m/s. Notiamo che i materiali ottimi (o buoni) conduttori termici sono anche ottimi (o buoni) conduttori elettrici; ne possiamo
dedurre (intuitivamente, salvo approfondimenti ulteriori in sede di studi di elettrologia) che anche nella
conduzione termica sono gli elettroni di conduzione (elettrica ma anche termica!) che giocano il ruolo
fondamentale per questo trasporto di energia.
Esaminiamo l’effetto della conducibilità termica sulla distribuzione della quantità di calore e della temperatura all‘interno di una sbarra conduttrice. Con riferimento√alla Fig.4.1 una sbarra√ cilindrica, di
materiale termicamente conduttore, di sezione S (perimetro p = 4πS), lunghezza l ≫ S, avente infilati (in perfette condizioni di contatto termico) una serie equidistante di termometri Ti , viene scaldata
all’estremo A con una TA costante, con TA ≫ TB , essendo TB la temperatura ambiente. Si tratta di
52
determinare l’andamento spaziale (a un certo
T1
istante) delle temperature indicate dai variterT2
mometri Ti . 1 L’equilibrio energetico dell’eleT3
T4 T
mento di sbarra di lunghezza dx, posto alla di5
stanza x dall’origine della sbarra, richiede che
la quantità di calore (∆Q)CD che nel tempo TA
D F
TB
∆t viene condotta attraverso la superficie CD
S
x
sia uguale alla quantità di calore (∆Q)EF che,
C dx E
B
A
nello stesso intervallo di tempo, viene condotta
l
attraverso EF e alla quantità di energia ∆En
che viene perduta per convezione attraverso la Figura 4.1: Sbarra conduttrice scaldata a un estremo
superficie laterale del cilindretto dx nello stesso
intervallo di tempo. In formule
∆QEF
∆En
dT
dT
∆QCD
= h · p · dx · (T − TB )
(4.3)
−
=
+
; k·S
∆t
∆t
∆t
dx CD
dx EF
dove il termine a secondo membro rappresenta il termine di trsmissione per convezione (vedi par.
successivo). Notiamo che
dT
d2 T
dT
−
=
· dx = f racd2 (T − TB )dx2 · dx
(4.4)
dx CD
dx EF
dx2
che, sostituita nella (4.3) fornisce l’equazione differenziale lineare, omogenea, del secondo ordinea
coefficienti costanti
h·p
d2 (T − TB )
= a · (T − TB ),
con a =
(4.5)
2
dx
k·S
L’integrale generale della (4.5) è
√
√
(T − TB ) = C1 exp( a · x) + C2 exp(− a · x)
(4.6)
che, con le condizioni al contorno T = TA per x = 0 e T = TB per x = l, con l → ∞ (vista l’ipotesi
della sbarra molto lunga), fornisce la soluzione del nostro problema
√
(T − TB ) = (TA − TB )exp(− a · x)
(4.7)
L’andamento esponenziale della distribuzione spaziale della temperatura lungo la sbarra è verificato bene
dalle misure dei termometri distribuiti lungo la sbarra (v. Fig.4.1). L’esperienza è piuttosto semplice,
mentre la trattazione è difficilmente semplificabile.
Alcune considerazioni tratte dalla vita quotidiana, in cui il nostro comportamento dimostrerebbe che
siamo a conoscenza delle leggi della conduzione termica (purtroppo questo è vero molto raramente!):
• i manici di padelle, romaioli, forchettoni da cucina, sciumarole sono molto lunghi;
• i manici delle pentole sono rivestiti di materiale termicamente isolante;
• le prese (o guanti da forno) per afferrare oggetti molto caldi sono riempiti di materiale tipo bambagia
(in cui viene immagazzinata una quantità notevole di aria);
• per scaldare il contenuto di una recipiente (pentola, padella, ecc.), posto sulla fiamma del gas domestico, NON SI DEVE MAI aprire il gas a fondo creando una fiamma (sorgente di quantità di
calore) che abbia un diametro superiore al fondo del recipiente. La quantità di calore trasferita al
contenuto del recipiente è proporzionale SOLO alla superficie del recipiente a contatto della fiamma
(fra l’altro bisognerebbe ricordare che la parte più calda della fiamma è quella più esterna [il “mantello” della fiamma, spesso coincidente con il limite azzurro della fiamma], dove l’ossidazione del gas
è completa, essendo a diretto contatto con l’ossigeno dell’aria; in caso di fiamma sovrabbondante
questa parte della fiamma va SOLO a scaldare l’aria e a bruciare i manici del contenitore, oltre che
ad aumentare vistosamente la bolletta del gas!);
1 L’apparato
sperimentale descritto è detto di Wiedemann-Franz.
53
• durante l’inverno si deve proteggere il contatore dell’acqua (esposto generalmente in armadi a
muro posti all’esterno) con materiali termicamente isolanti per evitare il congelamento dell’acqua
nell’indicatore di consumo del contatore (il ghiaccio ha una densità minore dell’acqua e quindi
spaccherebbe il vetro dell’indicatore con conseguente fuoriuscita di acqua allo scongelamento);
• gli idraulici proteggono i tubi di rame degli impianti idraulici con stracci umidi quando devono
eseguire saldature in vicinanza di apparati delicati (contatori, sensori di pressione o di temperatura
ecc.);
• gli indumenti di lana (o, al limite, di qualunque fibra di origine animale, peli, capelli, ecc. che hanno
un canalino vuoto al loro interno) o fibre sintetiche (tipo “pile”), che riescono a immagazzinare molta
aria al loro interno “tengono caldo”, mentre quelli di cotone o fibre vegetali compatte “non tengono
caldo”.
4.1.2
Convezione
Si ha “convezione” quando uno degli elementi posti a contatto termico è un fluido. In questo caso
il riscaldamento di un elemento di fluido provoca una diminuzione di densità dell’elemento di fluido,
e poiché viviamo nel campo di gravità, a causa della spinta di Archimede, questo elemento di fluido
(non essendo vincolato a una struttura rigida) inizia a salire nel fluido rimanente creando un sistema di
correnti, dette correnti convettive.Tali correnti si possono osservare facilmente ponendo sul fondo di una
pentola con acqua un po’ di farina di semolino (o di mais) e scaldando il recipiente. Il fondo della pentola
inizia a scaldarsi e si notano i primi grani di farina che tendono a muoversi verso l’alto. Aumentando
la temperatura degli strati d’acqua a contatto del fondo della pentola le correnti convettive verso l’alto
aumentano la loro portata e la farina tenderà a muoversi tutta verso l’alto, per poi scendere di nuovo
verso il basso appena le correnti convettive si siano raffreddate alla superficie dell’acqua.
Una descrizione quantitativa fenomenologica degli scambi energetici in atto è data dall’equazione di
Newton
∆Q
= λ · S · ∆T
(4.8)
∆t
dove ∆Q/∆t rappresenta il flusso di quantità di calore che attraverso la superficie S passa nel fluido a
seguito della differenza di temperatura ∆T fra la parete solida e il fluido.
Si raggiunge la fase di ebollizione (corrispondente a T = 100 ◦ C a pressione atmosferica standard) quando
la tensione di vapor saturo nel fluido2 uguaglia la pressione atmosferica presente all’esterno del fluido. A
quel punto si formano una serie tumultuosa di bolle di vapore saturo all’interno del fluido, fenomeno che
viene detto ebollizione. È ovvio che se ci troviamo in ambienti con ridotta pressione atmosferica (come
a es. in alta montagna) si raggiunge la fase di ebollizione dell’acqua a temperature inferiori a 100 ◦ C,
cambiando il regime di cottura dei cibi.
Alcune considerazioni di vita quotidiana legate a quanto detto finora:
• per una cottura uniforme gli spaghetti non possono avere diametro superiore a un limite massimo
(dell’ordine di 1.0 − 1.5 mm per pasta secca di grano duro); infatti la temperatura all’interno dello
spaghetto cresce con velocità finita (è una propagazione per conduzione fra i vari strati concentrici
a simmetria cilindrica nello spaghetto) e durante il tempo di propagazione del calore verso gli strati
più interni gli strati esterni già arrivano a cottura per cui questi spaghetti giganti risulterebbero
o scotti all’esterno o crudi all’interno. L’esperienza ragionata (ma a cui adesso possiamo arrivare
anche con la comprensione fisica e conseguente modellizzazione matematica, argomento irrilevante
dal punto di vista gastronomico!) ha portato a creare i “bucatini”, pasta di diametro maggiore di
1.5 mm a crudo, che può cuocere perfettamente avendo anche una superficie interna da cui il calore
possa penetrare all’interno della pasta per provocarne le modificazioni strutturali e organolettiche
che chiamiamo cottura;
• per una cottura uniforme i cibi (o pezzi di cibi) devono avere grosso modo dimensioni confrontabili
fra loro (v. argomentazione precedente). Mettendo a esempio a cuocere patate di diversa dimensione, otterremo che le più piccole arriveranno a essere praticamente disfatte quando le maggiori
saranno ancora crude al loro interno;
2 Si riguardi il paragrafo dell’equazione di Clapeyron e argomenti correlati nella parte di Termodinamica del programma
di Fisica Generale 1.
54
• per risparmiare energia (e soldi in bolletta) sarebbe bene spengere la fiamma del gas un po’ prima
del termine della cottura e lasciare che il tutto rimanga per qualche minuto alla temperatura di
ebollizione. Per migliorare l’efficienza di questa procedura bisognerebbe isolare termicamente il
recipiente dopo lo spegnimento della fiamma; infatti le vecchie (e sagge) contadine usavano far
finire di cuocere cibi a lunga cottura (lesso, fagioli, ceci, ecc.) togliendoli dal fuoco e rinvoltando
la pentola (o il paiolo) in una vecchia coperta di lana e lasciar finire di cuocere lentamente e senza
spesa (ma occorreva avere tempo, pazienza e attenzione, cose che purtroppo sono desuete in questi
tempi frenetici e forse un po’ folli);
• i liquidi raggiungono prima l’ebollizione se i recipienti hanno il coperchio. In tal modo tutta l’energia ceduta al liquido va ad aumentare l’energia interna del liquido (sostanzialmente quindi la sua
temperatura), minimizzando il lavoro di espansione del vapore verso l’esterno (e questo ce lo dice
il primo principio della termodinamica!);
• è conveniente salare l’acqua quando si butta la pasta, perché la presenza di sale (cioè l’esistenza di
una soluzione) aumenta il valore della temperatura di ebollizione a parità di pressione atmosferica
esterna (v. effetto ebullioscopico);
• perché si “soffia” una sostanza troppo calda (la minestra nel cucchiaio o il caffè, il thè, ecc.) per
raffreddarla;
• perché per raffreddare un liquido caldo conviene passarlo in diversi recipienti freddi (invece di
metterlo in frigo come purtroppo spesso viene fatto in modo irrazionale);
• perché non si deve MAI mettere in frigo sostanze calde, ma farle arrivare a temperatura ambiente
(o metterle all’esterno se d’inverno) e poi collocarle in frigo;
• perché su strade ghiacciate si spande sale (abbassamento del punto di congelamento per effetto
crioscopico);
• perché è irritante (per chi conosce un briciolo di Fisica) veder decongelare cibi mettendoli nel forno
a microonde (consumo insipiente di energia), quando con un minimo di preveggenza si potrebbe far
scongelare il cibo a temperatura ambiente togliendolo dal congelatore qualche ora prima dell’utilizzo;
• per raffreddare ambienti in estate potrebbe essere conveniente nebulizzare acqua; le goccioline in
sospensione evaporano e sottraggono calore all’ambiente abbassando piano piano la temperatura
dell’ambiente. Questo sistema viene usato talvolta per ambienti con uscita esterna, mentre per gli
interni aumenterebbe la concentrazione di umidità degli ambienti con conseguenze non desiderate;
• il problema del corretto “tiraggio” di caminetti e stufe: affinché il fumo della combustione si incanali
velocemente nel camino, soprattutto nella fase di accensione iniziale, (e non ristagni languendo nella
stanza dove avviene la combustione, evento spesso catastrofico per la quiete familiare!) occorre che
si crei il massimo ∆T possibile (v. (3.59) e (4.8)) fra la zona della prima combustione e l’esterno
(cioè la sommità del camino). Poiché la stanza in cui si sta formando la fiamma si trova certamente
a una temperatura intermedia fra quella esterna e quella circostante la prima fiamma, conviene
(anche per evitare l’asfissia degli astanti!) aprire una finestra (o una porta) e creare cosı̀ un alto
∆T nella zona della prima fiamma, che faciliti l’inizio della salita nel camino dei gas di combustione
e anche l’afflusso di aria “fresca” (ricca di ossigeno) sulla fiamma. I vecchi muratori mettevano
in comunicazione il fornello della cenere dei caminetti con l’esterno tramite un piccolo tubo di
ferro, rifornendo quindi continuamente di aria fresca l’ambiente della combustione, e dicevano che il
caminetto doveva poter respirare, se no “soffocava anche lui”, quasi con un tocco poetico nei riguardi
di un fenomeno ritenuto quasi sacro, il fuoco. Sprazzi di una cultura ormai perduta, purtroppo;
• in inverno, con la scusa di “cambiare l’aria delle stanze” (cosa necessaria), si lasciano gli ambienti
al freddo esterno per ore, necessitando di grandi quantità di energia per riportarsi a temperature
degne di una vita civile, quando si dimostra che nell’arco di 10-20 s l’aria di qualunque stanza si
rinnova varie volte (visti i gradienti termici invernali fra l’esterno e l’interno delle civili abitazioni).
Il grande problema dell’isolamento termico delle abitazioni (ma, in generale, di tutti gli ambienti
utilizzati per attività umane) è di estrema importanza per gli alti costi economici (e di inquinamento
55
collegato) che può produrre. Sarebbe molto istruttivo se nelle scuole si sviluppassero progetti di
educazione scientifica sui temi del risparmio energetico, sull’autosufficienza energetica, ecc., basati
su solide conoscenze fisiche e scientifiche (spesso si sentono dire scemenze inaudite su questi temi
sui media divulgativi), facendo capire che anche gli aspetti applicativi della Fisica sono importanti,
interessanti e stimolanti, nella consapevolezza che gli attuali nostri studenti diverranno molto presto
“cittadini”, che vogliamo produttivi ma responsabili.
4.1.3
Irraggiamento
L’irraggiamento è il processo di emissione e assorbimento di energia raggiante da parte dei corpi, cioè
riguarda l’emissione e l’assorbimento delle onde elettromagnetiche, di varia lunghezza d’onda, da parte
di corpi e sostanze.
La sorgente di energia raggiante per eccellenza è per noi il Sole, che ci garantisce la vita. Se esponiamo
qualunque oggetto alla luce del Sole questo si riscalda, manifestazione evidente che l’oggetto ha assorbito
energia. Lo stesso oggetto emette energia raggiante, ma di lunghezze d’onda diverse a seconda della
temperatura a cui si trova durante il processo di emissione. Inoltre il riscaldamento dell’oggetto è diverso
(cioè si troverà a temperature diverse dopo lo stesso tempo di esposizione alla medesima radiazione solare)
a seconda che sia verniciato oppure no, e a seconda del colore (e della composizione chimica!) della vernice
(bianco → resta abbastanza fresco, nero → diventa molto caldo). Viene quindi l’idea che il colore nero
caratterizzi un assorbitore (ma anche un emettitore) di energia raggiante più efficiente degli altri colori.
Ma il colore è solo una sensazione fisiologica del nostro occhio; in termini fisici dobbiamo riferirci solo
alla lunghezza d’onda (o alla frequenza) delle radiazioni elettromagnetiche assorbite ed emesse dal corpo
in studio. Inoltre una descrizione fisica corretta delle proprietà emettitrici del corpo dovrà essere basata
su grandezze fisiche ben definite operativamente. Consideriamo quindi una superficie dS di un corpo che
emette energia raggiante dEν nel tempo dt nell’angolo solido dω nella direzione θ rispetto alla normale a
dS e nell’intervallo di frequenze ν → ν + dν; avremo che dEν sarà proporzionale alle quantità descritte,
in formule
dEν
dEν = Rν dS cosθ dω dt dν; Rν =
(4.9)
dS cosθ dω dt dν
dove Rν , detta radianza (o intensità della radiazione emessa) della sorgente, rappresenta la potenza
raggiante emessa dall’unità di superficie emittente, in direzione normale, nell’angolo solido unitario, per
intervallo unitario di frequenze attorno a ν. Nel sistema S.I. è misurata in W/(m2 sterad Hz).
Spesso la radianza viene definita in termini di emissione in funzione della lunghezza d’onda e allora la
sua definizione operativa è
dEλ = Rλ dS cosθ dω dt dλ;
Rλ =
dEλ
dS cosθ dω dt dλ
(4.10)
Rλ ha la stessa definizione data in precedenza, con la sola variante che l’energia emessa viene valutata
per intervallo unitario di lunghezza d’onda attorno a λ. Nel sistema S.I. è misurata in W/(m2 sterad m);
notiamo subito che per il passaggio dalla descrizione dell’emissione in termini di frequenza a quella in
lunghezza d’onda occorre esprimere kdλk = (c/ν 2 )· dν e dkνk = (c/λ2 )·dλ, altrimenti si scrivono relazioni
senza senso (e non torna nemmeno il bilancio energetico!).
Proseguendo il percorso culturale della Fisica (cioè di cercar di comprendere e spiegare razionalmente la
più ampia varietà di fenomeni naturali), si è definito il radiatore perfetto come quel radiatore capace di
assorbire perfettamente qualunque radiazione, di qualunque frequenza, e capace di emettere qualunque
radiazione, di qualunque frequenza; a questa astrazione (a cui ci si può avvicinare quanto si vuole) si è
dato il nome di “corpo nero” (con ottima scelta etimologica). Una possibile realizzazione sperimentale
di un corpo (sarebbe più corretto dire, in questo caso, “cavità”) nero è illustrata in Fig.4.2; in un corpo
solido, mantenuto a temperatura costante T , si crea una cavità che comunica con l’esterno tramite un
piccolo foro, di area S, avente le pareti verniciate con nero fumo (o vernice “nera”). Dopo un tempo
sufficientemente lungo (rispetto ai tempi di stabilizzazione dell’equilibrio termico) si può supporre che
all’interno della cavità si sia stabilito l’equilibrio fra l’emissione raggiante delle pareti della cavità e
l’assorbimento di radiazione da parte delle pareti della cavità. Supponiamo che il tutto si trovi nel vuoto.
Attraverso il piccolo foro di area S, una quantità (molto piccola3 ) di energia raggiante può lasciare la
3 La piccolezza di S è fondamentale per assicurare che le perdite d’energia, ma anche il rifornimento energetico per
assorbimento di radiazione proveniente dall’esterno, siano trascurabili rispetto all’energia totale contenuta nella cavità.
56
T
T
T
Ω
S
T
T
Figura 4.2: Schema di un corpo nero
Figura 4.3: Distribuzione della radianza di un corpo
nero; notare l’ottimo accordo con le misure.
cavità verso l’esterno, entro un angolo solido Ω; sperimentalmente si misura che questa radiazione emessa
dalla cavità non dipende nè dalla sostanza di cui è fatta la cavità, nè dalla forma della cavità, ma dipende
solamente dalla temperatura T a cui è mantenuto il corpo in cui è ricavata la cavità. La radiazione emessa
dal “corpo nero” attraverso il piccolo foro S è detta radiazione del corpo nero e ha una distribuzione
spettrale tipica e ben definita (v.Fig.4.3).
La spiegazione teorica dello spettro del corpo nero fu uno dei maggiori problemi della Fisica classica della
fine del XIX secolo. Infatti la spiegazione classica di Rayleigh-Jeans (basata sulla statistica di Boltzmann,
sul principio dell’equipartizione dell’energia e sull’elettromagnetismo classico) 4 portava alla relazione
Rν =
2
kB T ν 2 ;
c2
oppure
Rλ =
2ckB T
λ4
(4.11)
con c velocità della radiazione elettromagnetica nel vuoto, kB = R/NA costante di Boltzmann, T temperatura assoluta del corpo irraggiante. La (4.11) si accorda con la distribuzione dell’emissione di corpo
nero solamente per ν → 0, ma soprattutto porta all’assurdo che il suo integrale, esteso fra 0 e ∞ diverge,
portando a un assurdo fisico inaccettabile, perché l’intensità di qualunque radiatore è una quantità che
deve essere finita.
Questo problema fu risolto nel 1900 da Planck, che postulò (lui sostenne come ipotesi di disperazione,
avendone tentate di tutte per risolvere questo problema) che l’energia raggiante si potesse scambiare (fra
le pareti del corpo “nero” e il campo di radiazione elettromagnetica con cui era in equilibrio) non in
modo continuo ma secondo quantità discrete, in modo che ogni scambio elementare di energia raggiante
fosse multiplo della frequenza della radiazione, cioè Eν = h · ν, con h costante. Giunse a formulare per
la radianza del corpo nero (e quindi anche per l’intensità del campo di radiazione emesso) le seguenti
espressioni
2hν 3 /c2
2hc2 /λ5
Bν (T ) =
;
Bλ (T ) =
(4.12)
exp(hν/kB T ) − 1
exp(hc/λkB T ) − 1
Notiamo che le espressioni delle radianze del corpo nero 5 date nella (4.12) rispettano la condizione per cui
deve essere che Bν (T )dν = Bλ (T )dλ. Il valore della costante di Planck, dopo decenni di misure accuratissime su vari effetti in cui l’ipotesi quantistica di Planck era ormai entrata in maniera decisiva, è diventato
una delle costanti fondamentali della Fisica, con un valore di h = (6.62606957 ± 0.00000029) · 10−34 Js.
L’andamento della distribuzione di Planck dato dalle (4.12) si accorda perfettamente con le misure sperimentali
per
la
radianza
del
corpo
nero
(v.
Fig.4.3).
4 Per una presentazione accurata, ma ben comprensibile di rimanda al cap. XII del testo di C.Mencuccini - V.Silvestrini,
Fisica II, ed. Liguori, NA, 1998.
5 Useremo d’ora in avanti il simbolo B per indicare la radianza data dalla distribuzione di Planck, in accordo con la
simbologia generalmente usata in tutti i testi.
57
Un campo di radiazione descritto dalla distribuzione
di Planck (spesso detta “planckiana”), dovendo essere
in equilibrio col corpo nero che lo genera, è detto in
condizioni di Equilibrio Termodinamico (ET).
In Fig.4.4 sono rappresentate le planckiane di corpi neri a diverse temperature; si vedono subito due
importanti proprietà : 1) il massimo della radianza
monocromatica si sposta verso le lunghezze d’onda
più corte (e corrispondentemente verso le frequenze
maggiori) con l’aumentare della temperatura T ; 2)
l’area sottesa dalla planckiana e dall’asse delle ascisse
(che rappresenta quindi la radianza integrale, cioè su
tutte le λ, emessa) cresce cospicuamente con l’aumentare della temperatura T .
Figura 4.4: Andamento delle planckiane con la
Per determinare quantitativamente la prima propri- temperatura
età basta derivare la Bλ (T ) rispetto a dλ e annullarla;
troviamo la condizione
dBλ (T )
xex
hc
=0→ x
= 5; con x =
(4.13)
dλ
e −1
λkB T
L’equazione trascendente
xex
ex −1
= 5 ha per soluzione grafica
λmax T =
6
x = 4.965, quindi segue che
hc
= 2.898 · 10−3 m K
4.965kB
(4.14)
dove λmax indica la lunghezza d’onda a cui si ha il massimo della radianza del corpo nero per la temperatura T . La (4.14) è nota come la legge di spostamento di Wien (spostamento di λmax con T ). È una
relazione di grande importanza pratica e sperimentale, perché rappresenta un modo molto semplice per
stimare la temperatura di un radiatore dalla semplice misura di λmax .7 Si pensi al processo di riscaldamento di un pezzo di ferro: a temperatura ambiente (per semplicità circa 17◦ C, cioè circa 290 K) emette
preferenzialmente a λmax ≈ 10 µm, quindi a noi sembra freddo (il nostro senso del tatto avverte soprattutto l’elevata conduzione termica del materiale, ma uno spettrografo infrarosso rivelerebbe facilmente
questa radiazione); aumentando la temperatura iniziamo a sentire una leggera sensazione di caldo (mentre
λmax si sta spostando verso la zona dell’infrarosso “vicino”); aumentando ancora la temperatura si inizia
ad avvertire sempre maggior caldo e il ferro inizia a colorarsi di rosso cupo, per virare sempre più verso
il rosso vivo fino al giallo, quando, per T = 1530 K fonde, cambiando di stato. A questa temperatura
λmax ≈ 1.9 µm, ma quello che vediamo col nostro occhio è solamente la coda delle lunghezze d’onda più
corte della planckiana a T = 1530 K.
Se avessimo impostato la ricerca del massimo della planckiana espressa in funzione delle frequenze
avremmo ottenuto
dBν (T )
xex
hν
=0→ x
= 3; con x =
(4.15)
dν
e −1
kB T
per cui (risolvendo l’equazione trascendente contenuta nella (4.15)) avremmo dedotto
2.831kB
νmax
=
≃ 0.5901 · 1011 (sK)−1
T
h
(4.16)
Ovviamente la forma funzionale della (4.16) è diversa dalla (4.14), ma questo è ovvio data la differente
dipendenza funzionale della distribuzione di Planck in funzione di λ o di ν.
Se vogliamo determinare la radianza integrale (cioè su tutto il dominio spettrale emesso) basta che
integriamo la radianza monocromatica, cioè
Z ∞
Z
2k 4 T 4 ∞ x3 dx
Bν (T )dν = B
B(T ) =
(4.17)
h 3 c2 0 e x − 1
0
6 La soluzione si ottiene plottando nel primo quadrante cartesiano la funzione x/5 e la funzione ex − 1/ex e trovandone
l’intersezione, che corrisponde a x = 4.965.
7 La legge di Wien è usata in astrofisica per una prima stima della temperatura superficiale delle stelle.
58
L’integrale definito
R∞
0
x3 dx
ex −1
vale π 4 /15 per cui, sostituendo nella (4.17) otteniamo
B(T ) =
σ 4
T ;
π
con σ =
4
2π 5 kB
= 5.670 · 10−8 W/(m2 K 4 )
15h3 c2
(4.18)
La (4.18) è la famosa legge di Stefan-Boltzmann, da cui si evince la forte dipendenza della radianza
integrale di un corpo nero dalla temperatura.8
Esaminiamo il comportamento asintotico della distribuzione spettrale di una planckiana a una determinata T e prendiamo, a es., quello della Bλ (T ) (v. eq.(4.12)); per λ ≫ λmax (matematicamente si vede
bene quando λ → ∞) l’esponente hc/λkB T diviene piccolo a piacere e quindi l’esponenziale può essere
sviluppato in serie arrestandosi al termine lineare ottenendo
Bλ (T ) ≃
2ckB T
2hc2 /λ5
=
1 + hc/λkB T − 1
λ4
(4.19)
che coincide con l’approssimazione di Rayleigh - Jeans (v. eq.(4.11)), rappresentata in Fig.4.4 dall’andamento indicato con classical theory. Si vede molto bene che l’approssimazione è migliore per λ molto
grandi.
Se invece λ ≪ λmax il fattore exp(hc/λkB T ) ≫ 1 e quindi si può trascurare 1 rispetto all’esponenziale
ottenendo
2hc2
(4.20)
Bλ (T ) ≃ 5 exp(−hc/λkB T )
λ
nota come approssimazione di Wien, molto utile nella descrizione dell’emissione di un corpo nero nel
dominio dei raggi UV e X, se la T non diventa troppo elevata da non rendere possibile l’approssimazione
considerata, nei limiti della precisione con cui vogliamo procedere.
Ovviamente le approssimazioni di Rayleigh-Jeans e Wien si possono derivare anche dall’espressione di
Bν (T ), ma questo lo lasciamo al lettore.
4.1.4
L’effetto serra
Abbiamo accumulato le conoscenze per spiegare quantitativamente, in modo semplice e approssimato,
l’effetto serra, di cui si parla tanto sui media, talvolta affermando anche cose profondamente inesatte.
La Terra è investita dalla radiazione elettromagnetica emessa dal sole, una sorgente con una Tef f = 5783 K
e conseguentemente con una distribuzione spettrale della radiazione che avrà la sua λmax ≈ 0.5 µm
(v. (4.14)), cioè la maggior parte dell’energia che il Sole ci manda è nella banda visibile dello spettro.
La potenza specifica media della radiazione solare al di fuori dell’atmosfera terrestre (quella grandezza
fisica che viene anche definita come irradianza solare media, soprattutto nel linguaggio meteorologico)
(v. Fig.4.5 a) vale C̄⊙ = 1366 W m−2 .9 Riflessione e diffusione (sia sulle nubi, che sulle particelle in
sospensione nell’atmosfera, che dal suolo direttamente) causano che circa il 30% della potenza specifica
solare sia rinviata nello spazio (infatti la Terra possiede un albedo di circa 0.3). Quindi il 70% della
potenza specifica media inviataci dal Sole verrà assorbito, in condizioni stazionarie, dalla terra (solida +
acqua + aria).
Tuttavia bisogna considerare che la radiazione solare deve attraversare l’atmosfera terrestre prima di
giungere a terra e interagire (tramite assorbimento, riflessione, diffusione, ecc.) con i corpi e le strutture
che si trovano nel nostro mondo. L’atmosfera terrestre è praticamente trasparente alla radiazione visibile,
(v. Fig.4.5, b) mentre assorbe fortemente dall’ultravioletto fino al dominio dei raggi X e γ e presenta
vistose ed estese bande di assorbimento nell’infrarosso, dovute essenzialmente alla presenza di molecole di
anidride carbonica CO2 e metano CH4 nell’alta atmosfera. Questi assorbimenti alterano in minima parte
la distribuzione spettrale della radiazione solare, che ricordiamo è concentrata nel visibile. Considerando
che la Terra ruota con un periodo di un giorno, possiamo stimare che in un giorno la radiazione solare
8 Viene utilizzata in astrofisica per definire la T
ef f di una sorgente, essendo la Tef f la temperatura che dovrebbe avere
un corpo nero per emettere la stessa potenza specifica, cioè per unità di superficie, della sorgente considerata. Ovviamente
questo parametro si collega solo alla quantità di potenza radiante emessa, ma non alla sua distribuzione spettrale, cancellata
dall’integrazione, ma talvolta anche questo dato risulta molto significativo per la comprensione del fenomeno studiato.
9 Parliamo di potenza specifica media perché si possono avere piccole variazioni legate al livello dell’attività solare
(dell’ordine di qualche unità in 10−4 ) e alla diversa distanza fra il Sole e la Terra nei vari periodi dell’anno.
59
SOLE
PN
C
S
C
Atmosfera
O
R
L
E
PS
b)
a)
Figura 4.5: Schema dell’effetto serra atmosferico
intercettata dalla sezione del cerchio di raggio R⊕ si distribuisca uniformemente sulla superficie di una
sfera di raggio R⊕ , quindi con un fattore di diluizione di 1/4 (pari al rapporto tra la superficie del disco
terrestre e quella dell’emisfera terrestre). La potenza specifica media assorbita dalla Terra sarebbe, in
assenza di effetto serra, quindi
0.7
P⊕ =
· C̄⊙ ≃ 239 W/m2
(4.21)
4
Ricordando la legge di Stefan-Boltzmann (4.18) possiamo stimare che la temperatura a cui si porterebbe
la Terra (in media) in queste ipotesi sarebbe
s
r
P
239 W/m2
4
⊕
T⊕ =
≃ 4
≃ 255 K(≈ −18◦ C)
(4.22)
σ
5.67 · 10−8 W/(m2 K 4 )
Per la legge di Wien (4.14) un corpo a 255 K emette radiazione essenzialmente nell’IR (infrarosso), con
λmax ≈ 11 µm. Ricordiamo che la condizione di stazionarietà richiede che la potenza specifica assorbita
deve uguagliare la potenza specifica emessa.10 Tuttavia la radiazione IR emessa dalla Terra a 255 K viene
successivamente assorbita e diffusa in tutte le direzioni (quindi anche verso il basso, cioè verso terra) dalle
molecole di CO2 e CH4 , per cui il rifornimento energetico sulla Terra aumenta, creando quello che viene
chiamato effetto serra, per identità con l’effetto che una lastra di vetro (trasparente al visibile ma non
all’IR) crea all’interno di una serra per coltivazioni. Si crea un complesso meccanismo di assorbimenti e
riemissioni successive da parte della Terra e degli alti strati atmosferici, per cui alla fine possiamo stimare
un aumento medio dell’ordine di ≈ 60% della potenza specifica media assorbita dalla Terra nel visibile
dalla radianza primaria solare. Conseguentemente la stima della temperatura media della Terra sarà
√
4
(4.23)
T⊕;f inale ≃ 255 K 1.6 ≃ 287 K (≈ 14◦ C)
che fornisce una stima ragionevole della temperatuta media (su tutta la superficie terrestre!) durante un
completo irraggiamento (totale assenza di nuvole!) della superficie terrestre.
Si comprende quindi l’importanza che ha per l’equilibrio energetico terrestre un aumento della concentrazione dei gas “serra” (CO2 , CH4 soprattutto); infatti negli ultimi 30 anni si sono misurate cospicue
variazioni climatiche, che fanno temere molto per il futuro delle condizioni ambientali globali per la vita
delle future generazioni.11
10 Si considera che le condizioni stazionarie raggiunte non consentano altre perdite energetiche, come conduzione nel
terreno e simili.
11 Si consiglia di consultare il sito www.noaa.gov, dove sono riportati i risultati delle misure di questi anni, misure
attendibilissime e analizzate da ottimi fisici con grande professionalità. Altri siti da consultare: www.wmo.int → World
Meteorological Organization, Ginevra, e www.nimbus.it.
60
4.2
Alcune semplici trasformazioni termodinamiche
• La pentola a pressione.
L’uso della pentola a pressione permette forti risparmi energetici. Infatti per la cottura dei cibi
(non in forno) utilizziamo generalmente temperature dell’ordine di 100◦ C, corrispondente alla temperatura di ebollizione dell’acqua alla pressione di 1 Atm. Nella pentola a pressione la cessione di
quantità di calore al sistema (che si sta portando dalla temperatura ambiente a quella d’ebollizione)
avviene a volume costante, quindi (v. primo principio della termodinamica) tutto il calore ceduto
viene immagazzinato come aumento di energia interna del sistema, sostanzialmente rappresentato
da un aumento della temperatura molto rapido (non avendo da fare lavoro verso l’esterno). Inoltre
la pressione all’interno della pentola (ermeticamente chiusa) aumenta per il vapore che si forma dal
liquido scaldato; questo causa l’aumento della temperatura di ebollizione per cui il tempo di cottura
dei cibi viene ridotto, anche di un fattore 3-4. Soprattutto per lunghe cotture (lesso, legumi secchi,
patate, stufati, ecc.) il risparmio energetico è notevole, come pure il tempo impiegato in cucina.
Tuttavia la pentola a pressione deve essere usata con cautela, perché un eccessivo aumento di pressione interna potrebbe causarne l’esplosione, se la struttura non dovesse più sopportare il regime
della pressione interna formatasi. Per questo le pentole a pressione sono dotate di doppio sistema di
valvole di sicurezza, una generalmente costituita da un cappuccio pesante (con una massa di circa
100 − 150 g), infilato su un tubetto di sostegno (del diametro di 2 mm), e l’altra da una valvola
fissa, a molla o a sigillazione calibrata. Generalmente il funzionamento di regime delle pentole a
pressione comporta una pressione interna di circa 2 Atm con una temperatura di ebollizione di
120◦ C. La differenza di pressione fra l’interno e l’esterno sarà quindi di 1 Atm, che, attraverso il
tubetto di sostegno (avente una sezione di π mm2 ), produce una forza, diretta verso l’alto, di circa
0.314 N, corrispondente a circa 320 gpeso , ben sufficienti a espellere il cappuccio, pesante circa la
metà. Quindi il sistema è in funzionamento di sicurezza.
Un uso oculato della pentola a pressione suggerisce di chiudere l’afflusso di energia (il gas!) un
po’ prima della metà del tempo di cottura indicato dalle istruzioni tecniche della pentola (o dai
“milianta” manuali di cucina facile esistenti) e lasciare che la cottura prosegua durante il raffreddamento di tutto il sistema fino a quando l’indicatore di pressione (posto sul coperchio) non indichi il
raggiungimento della pressione atmosferica esterna (per poter aprire in sicurezza il coperchio). In
questo modo si aumenta ancora il risparmio energetico e si evita di invadere gli ambienti di casa di
vapori e odori non sempre piacevoli.
• La macchina da caffè tipo Moka.
Il funzionamento di questa macchina da caffè è simile a quello della pentola a pressione, nel senso
che l’acqua messa nella base della macchina (fino al livello indicato dal costruttore, troppa acqua
potrebbe rendere pericoloso il funzionamento del tutto!), scaldandosi produce vapore, che va ad
aumentare la pressione all’interno della base della macchina; questa spinge l’acqua calda contenuta
nella base a salire nell’imbuto contenente la polvere di caffè e a fare l’infuso (il caffè!). Con una
temperatura di circa 80 − 85◦ C dell’acqua nella base della macchina la pressione interna del vapore
arriva a circa 1.5 Atm; conseguentemente la pressione effettiva sull’acqua calda, per salire nell’imbuto, è di circa 0.5 Atm, e questo permette all’acqua di risalire 12 attraverso la polvere di caffè e
fornire il piacevole infuso nel deposito di utilizzo della macchina.
Nella macchina da caffè “alla napoletana”, invece, l’acqua calda viene fatta percolare attraverso
il deposito di polvere di caffè per gravità (infatti la macchina viene girata sotto-sopra!), fino al
completamento del passaggio di tutta l’acqua calda. Spesso il caffè si raffredda durante questa
procedura e la polvere di caffè viene sfruttata con minore efficacia rispetto alla “Moka”.
Nella macchina da bar l’acqua bollente è forzata a passare attraverso la polvere di caffè (compressa!) da una pressione notevole esistente sopra il contenitore di caffè e l’infuso è molto più “forte”
e lo sfruttamento della polvere di caffè più accentuato; in questo caso si ha un miglioramento (per
alcuni) delle proprietà organolettiche dell’infuso, ma forse aumenta anche la presenza di sostanze
non proprio utili alla salute (caffeina, e altre sostanze generalmente sconsigliate).
• Aspirazione e compressione.
12 Lentamente, visto l’attrito esercitato sull’acqua calda dalla percolazione forzata nella polvere di caffè; questa fase deve
essere seguita con cura, evitando di far spruzzare con violenza l’acqua calda dall’ugello posto nel deposito superiore, sia per
migliorare il processo di solubilizzazione delle essenze aromatiche del caffè sia per risparmiare energia.
61
Esaminiamo cosa succede quando aspiriamo una bibita da un tetrapack con una cannuccia: il
sistema costituito dall’interno del tetrapack + cannuccia + labbra + polmoni è inizialmente un
sistema soggetto alla PAtm esistente e avente un volume totale iniziale Vin . Il procedimento di
suzione consiste essenzialmente nel far aumentare il volume del sistema (soprattutto attraverso la
dilatazione dei muscoli del torace, che aumenta di volume) fino a un valore Vf in = Vin + ∆V ; se
possiamo considerare questa trasformazione come una isoterma avremo che ∆V /Vin ≈ −∆P/PAtm ,
dove −∆P rappresenta la diminuzione della pressione che si crea, dopo la dilatazione, all’interno
del sistema considerato. La maggior pressione esterna al sistema, PAtm , crea conseguentemente un
sistema di forze sul liquido contenuto nel tetrapack, che viene cosı̀ spinto nella nostra bocca e poi
immediatamente deglutito.13
Anche se volessimo considerare la trasformazione di aumento di volume ∆V come un’adiabatica, la
logica della spiegazione data non cambia, avremmo solo che ∆P/PAtm ≈ −γ · ∆V /Vin .
Il processo invece di compressione (a es., gonfiaggio di un palloncino, di un salvagente. ecc.) si attua
attraverso una compressione del volume toracico, sia tramite una contrazione dei muscoli toracici,
ma soprattutto tramite una sollevazione del diaframma; le spiegazioni sul gioco delle variazioni di
pressione collegate sono le stesse descritte precedentemente, solo che tutti i segni sono invertiti.
Nei procedimenti per la creazione delle confezioni cosidette “sotto vuoto” una pompa toglie aria dagli
involucri (isolati dall’esterno), provocando una diminuzione di pressione interna negli involucri, che,
non essendo rigidi, collassano aderendo ai contenuti; segue poi la sigillazione finale degli involucri.
Quando si aprono queste confezioni si sente un leggero soffio dell’aria che precipita all’interno per
ristabilire la Pin = PAtm . Ovviamente il problema degli equilibri fra variazioni di pressione e di
volume si sposta sul funzionamento della pompa aspirante, ma forse quest’aspetto è troppo tecnico
per essere trattato in questa sede.
• Il frigorifero.
Il frigorifero è un sistema che preleva quantità di calore ∆Q da una sorgente a temperatura più bassa
Ti per cederlo a una sorgente a temperatura superiore Test insieme al lavoro ∆L necessario per far
compiere questa trasformazione ciclica in accordo con il 1◦ e con il 2◦ principio della termodinamica.
Le trasformazioni non sono ovviamente reversibili. ∆L viene fatto dal motore del compressore
del frigorifero, che deve comprimere il gas refrigerante per liquefarlo, farlo circolare nel circuito
idraulico e farlo giungere nella zona dove compie una rapida espansione che lo porta in condizioni
di evaporazione, costringendolo a sottrarre all’ambiente (cioè all’interno del frigorifero) la quantità
di calore, prelevata a Ti . La cessione all’ambiente esterno dell’energia totale ∆Q + ∆L, avviene
tramite scambiatore di calore, struttura a nidi d’ape, con un alto rapporto superficie/volume, di
colore nero (perché?), disposta sul retro del frigorifero, che dovrà smaltire questa quantità di calore
totale sia per convezione con l’aria circostante sia per irraggiamento (ecco il “nero”!). Per un
funzionamento ottimale del frigorifero, quindi, bisognerebbe che lo scambiatore fosse ben pulito
(il sudicio e la polvere sono isolanti termici), ben arieggiato (per facilitare la convezione), non
attaccato a un muro. Queste condizioni non sono quasi mai rispettate, peggiorando la funzionalità
dell’elettrodomestico (si pensi alle condizioni difficili in cui deve operare un frigorifero incassato
in un mobile chiuso e attaccato a un muro!). Inoltre l’abitudine di lasciare aperta la porta del
frigorifero mentre si fanno altre attività è semplicemente sciocca, facendoci consumare energia (il
compressore dovrà lavorare più a lungo) e usurando più in fretta l’apparato.
Al limite il frigorifero può anche funzionare da stufa, basta vuotarlo di cibi, lasciare aperta la porta e
il continuo funzionamento del compressore produrrà un flusso di calore allo scambiatore posteriore,
che andrà a riscaldare l’ambiente. Ovviamente una vera stufa avrebbe un’efficienza indubbiamente
superiore (perché?).
• Radiatore dell’auto.
Il funzionamento del radiatore dell’auto è identico a quello dello scambiatore di calore del frigorifero,
essendo un dispositivo che deve cedere all’ambiente esterno una notevole quantità di calore per
convezione e irraggiamento. In questo caso il flusso d’aria attraverso le celle della struttura a nido
13 È infatti una complessa sequenza di azioni automatiche, suzione + aspirazione + cessazione della suzione + deglutizione
+ ripresa della fase successiva ecc., che purtroppo le persone con problemi neurologici non sanno coordinare, potendo anche
creare seri problemi di asfissia e affogamento.
62
d’ape del radiatore è garantito dal moto relativo dell’auto rispetto all’aria circostante e anche dal
ventilatore se la temperatura del liquido di raffreddamento diventa troppo elevata.
• Ventilatore e impianto di condizionamento termico.
Durante i periodi di caldo estivo è meglio usare un ventilatore o il condizionatore? Il ventilatore
(inclusi anche i sistemi a pale ruotanti al centro stanza) produce un flusso d’aria che, passando sulla
nostra pelle, trasporta via il vapor acqueo formatosi per la sudorazione. Questo induce l’epidermide
a produrre altro sudore, cioè a far evaporare altra acqua dai nostri tessuti dell’epidermide, e, visto
l’elevato valore del calore latente di evaporazione dell’acqua, si produce un notevole prelievo di
quantità di calore dai nostri tessuti epidermici superficiali, dandoci la sensazione di raffreddamento
benefico.
Il condizionatore invece è un grosso frigorifero, che abbassa la temperatura di tutto l’ambiente
immettendovi correnti di aria fredda. Ovviamente è molto più efficiente, ma molto più costoso, sia
come installazione che come gestione, e può essere anche dannoso per la salute, se usato in modo
esagerato. In questo caso i gusti e le abitudini personali polarizzano le scelte, che però dovrebbero
essere sempre razionali e non dissennate.
• Isolamento termico delle abitazioni
Dovrebbe essere molto evidente, a questo punto, che isolare termicamente la propria abitazione
rappresenta un modo estremamente efficiente di risparmio energetico e di benessere, sia in inverno,
sia in estate. Le immagini di case, prese in inverno con camere a infrarossi, sono di un’evidenza
plateale: zone brillanti in infrarosso corrispondono a pareti non isolate, a porte e finestre non
coibentate, a soffitti non isolati, ecc. Lo stesso si vedrebbe in estate ma prendendo le immagini
infrarosse dall’interno dell’abitazione. Talvolta basterebbe usare un termometro sensibile e misurare la temperatura dei vari elementi considerati (un cattivo isolamento termico li rende caldi in
estate e freddi in inverno). Il nostro tatto, invece, può essere molto fallace anche per una semplice
indicazione qualitativa; infatti il senso del tatto è molto sensibile alla quantità di calore che si disperde tramite la superficie di epidermide interessata e quindi, toccando superfici fredde alla stessa
temperatura, una metallica e una di legno, si ha l’impressione che quella metallica sia più fredda,
semplicemente perché il coefficiente di conduzione del metallo è più elevato di quello del legno.
• Forno a incandescenza e forno a microonde.
Nel forno a incandescenza (sia elettrico che a legna o a gas) normalmente si riscalda, con differenti
meccanismi fisici e chimici, un elemento (le resistenze elettriche o le pareti di terracotta del forno)
a temperature dell’ordine di 400 − 900◦ C , che fanno salire la temperatura dell’aria all’interno del
forno a circa 100 − 300◦ C (la temperatura di regime all’interno del forno dipende dall’isolamento
e dai materiali con cui è costruito). Conseguentemente (v. leggi di Wien dell’irraggiamento), il
forno diventa un ambiente in cui esiste radiazione infrarossa distribuita, in modo quasi continuo, su
intervalli di lunghezza d’onda da 0.7 µm fino alle microonde. Questo flusso di radiazione infrarossa
trasporta molta energia raggiante, che provoca l’evaporazione dell’acqua contenuta negli strati superficiali dei cibi (e forma cosı̀ la crosta croccante tipica delle cotture in forno), ma può anche
provocare la carbonizzazione di alcune parti meno protette dei cibi (“si è bruciato l’arrosto!!”). La
vera e propria cottura (trasformazione delle strutture delle proteine e dei tessuti dei cibi) avviene
soprattutto perché contengono acqua.
Le molecole d’acqua non assorbono in ugual misura tutte le radiazioni, ma assorbono solo quelle
che sono capaci di emettere (v. principio di Kirchhoff dell’irraggiamento). Un’importante banda
rotazionale della molecola d’acqua si trova attorno alle frequenza di 2.45 GHz, corrispondente a una
lunghezza d’onda di ≈ 10 cm; quindi la molecola d’acqua investita da radiazione di questa frequenza
inizia a ruotare velocemente, cioè aumenta la sua energia rotazionale, in altre parole “si scalda”
e scalda le sostanze con cui è in contatto (i cibi) e ne provoca la cottura. Questo è il principio
di funzionamento del cosidetto forno a microonde, che quindi utilizza come veicolo di trasmissione
dell’energia non uno spettro ampio di radiazioni infrarosse, ma solo una ristretta banda nel dominio
delle onde centimetriche (emesse, generalmente, da un dispositivo detto magnetron). Infatti in un
forno a microonde tutto rimane alla temperatura iniziale, solo i componenti contenenti molecole
d’acqua si riscaldano molto efficacemente (anche alcune porcellane contenenti composti idrati si
riscaldano molto!). Chi sostiene che i cibi cotti nel microonde sono dannosi alla salute, o peggio
ancora inquinati, dimostra solo di essere ignorante dei principi fondamentali della Fisica.
63
Bisogna fare invece molta attenzione alla perfetta chiusura del forno a microonde. Infatti le microonde sono pericolose perché non provocano sensazione di caldo sui tessuti umani e quindi possono
“cuocerli” senza che ce ne accorgiamo. La rete metallica posta sul vetro dello sportello del forno a
microonde serve a intercettare le microonde e a non farle uscire. Occorre quindi adoprare il forno a
microonde con cura e consapevolezza, curandone la manutenzione, come d’altronde dovrebbe essere
per qualunque apparato domestico, sempre potenzialmente dannoso se utilizzato con irresponsabile
leggerezza.
• Propagazione del calore nel suolo.
La trattazione rigorosa di questo problema rappresenta uno dei capitoli fondamentali della FisicaMatematica, irto di difficoltà matematiche che vanno ben oltre i limiti di queste riflessioni. Cerchiamo di riassumerne i risultati. Consideriamo un terreno solido, omogeneo, isotropo, di densità ρs ,
calore specifico a pressione costante cp,s e conducibilità termica ks , con struttura piano-parallela.14
Definiamo la profondità verticale nel suolo z, positiva verso il basso e chiamiamo con S la superficie
terrestre, su cui supponiamo che la temperatura possa variare in modo sinusoidale secondo una
legge
2π
·t
(4.24)
TS = T̄S + ∆TS · cos
P
dove T̄S è il valor medio della temperatura superficiale durante il periodo P considerato e ∆TS =
(TS;max − TS;min )/2 rappresenta la metà dell’escursione massima della temperatura superficiale. Il
periodo P sarà di 24h nel caso delle variazioni diurne o di 12 mesi nel caso delle variazioni annuali
di temperatura superficiale. Come abbiamo visto nel paragrafo 3.7 il trasporto di calore è un caso
di fenomeni più generali indicati come fenomeni di trasporto; per riportarsi alle equazioni generali
del trasporto definiamo il coefficiente di diffusione termica del suolo come ds = ks /(ρs · cp,s ). Dalla
trattazione teorica risulta che alla profondità z e al tempo t la temperatura varia secondo la seguente
legge
z
2π
=
T (z, t) = T̄S + ∆TS · exp(−z/L) · cos
·t+
P
L
zP
2π
t+
(4.25)
= T̄S + ∆TS · exp(−z/L) · cos
P
2π · L
p
con L = ds P/π, definita come profondità di smorzamento termico.15 Pergiustificare il fattore
di smorzamento exp(−z/L) basta ricordarsi della (4.7), relativa all’andamento esponenziale della
temperatura in una sbarra conduttrice.16 Anche il ritardo di tempo δt(z) = zP/2π · L nell’andamento di T (z) è ragionevole, perché quando si verifica il massimo T̄S + ∆TS della temperatura
superficiale lo strato a profondità z si trova a una temperatura inferiore, in quanto che il calore si
propaga nei mezzi fisici con
p velocità finita. Possiamo stimare la velocità di propagazione dell’onda
termicavT = z/δt(z) = 2π ds /π · P . 17
Scrivendo il flusso di calore che transita alla profondità z nel suolo si vede che il ritardo di fase
nella distribuzione di temperatura (v. (4.25)) modula il flusso di calore che viene condotto alle
varie profondità (se la temperatura raggiunge il suo massimo con un determinato ritardo ∆t, la
quantità di calore che riesce a essere condotta a quella quota sarà minima a quel ∆t). Pertanto il
minimo flusso di quantità di calore che dalla superficie terrestre si propaga negli strati più profondi
del terreno avverrà con un ritardo rispetto al massimo della temperatura al contorno (4.24). Come
conseguenza di questo ritardo nel flusso di calore anche la temperatura del terreno, ovvero per
z → 0, varierà con un ritardo di fase ∆φ rispetto all’andamento indicato dalla (4.24). La teoria
indica che questo ritardo di fase è di ∆φ = π/4, corrispondente a P/8. Quindi nel caso diurno
P/8 = 3ore e infatti il massimo di temperatura del suolo si ha verso le 15, mentre il minimo verso
14 Lo spessore del suolo interessato è al massimo di pochi metri, ovviamente trascurabilissimi rispetto al raggio terrestre
e quindi possiamo trascurare la curvatura della superficie terrestre.
15 Alcuni valori sperimentali per informazione: sabbia e argilla secca → L
giorno ≃ 7 cm, Lanno ≃ 1.5 m, sabbia e argilla
√
√
umida → Lgiorno ≃ 10 cm, Lanno ≃ 2 m. Si noti che L ∝ P e infatti Lanno /Lgiorno = 365 ≈ 19, come dai dati.
16 Per z = 3L il fattore exp(−z/L) ≃ 0.05 e quindi già a queste profondità si può considerare che le fluttuazioni superficiali
di temperature non abbiano più influenza.
17 v è, per normale terreno umido, dicirca 3 cm/ora per le fluttuazioni diurne e di circa 4 cm/giorno per quelle annuali.
T
64
le 3 di notte, mentre nel caso annuo il gran caldo si ha circa 1.5 mesi dopo il solstizio d’estate (ai
primi d’agosto, il cosidetto “solleone”; ma perché si chiama cosı̀?) e il gran freddo circa 1.5 mesi
dopo il solstizio d’inverno (ai primi di febbraio).
Ovviamente queste stime rappresentano solo ordini di grandezza, essendo la situazione reale (disomogeneità del terreno, fluttuazioni di temperatura non sinusoidali, non omogenee, presenza di
vento, pioggia ecc. in superficie) molto diversa dalla schematizzazione ideale che abbiamo usato.
Tuttavia sono considerazioni molto interessanti, che dimostrano, ancora una volta, la validità del
metodo fisico per la descrizione quantitativa dei fenomeni naturali.
• Dilatazione termica.
Il fenomeno della dilatazione termica, fondamentale per la scelta della proprietà termometrica
necessaria per la definizione operativa della grandezza fisica “temperatura”, è utilizzato in molte
applicazioni pratiche. Pensiamo agli interruttori termici, che chiudono (o aprono) contatti elettrici
in vari circuiti di apparati di controllo in funzione della temperatura (e quindi della lunghezza di
un elemento metallico) esistente nell’ambiente che si vuole sorvegliare termicamente. Richiamiamo
le relazioni funzionali principali. Per un solido filiforme (cioè con una lunghezza l(t) ≫ V 1/3 ),
essendo V il volume del solido, abbiamo l(t) = l◦ (1 + αt), con t temperatura misurata in ◦ C e α =
coefficiente di dilatazione lineare (misurato in ◦ C−1 , mentre per un solido di forma cubica, ma il
risultato varrà per una forma qualunque, abbiamo
V (t) = l(t)3 = l◦3 (1 + αt)3 ≃ V◦ (1 + γt)
(4.26)
con V◦ = l◦3 , γ = 3α, arrestandosi al primo ordine nello sviluppo del cubo nella (4.26).
A causa degli effetti della dilatazione termica le strutture meccaniche e edili di grandi dimensioni,
esposte alle variazioni di temperatura ambientali, devono possedere adeguate cerniere per permettere le variazioni di volume (o di lunghezza) causate dalle variazioni di temperatura ambientale: i
binari dei treni e dei tram presentano interruzioni che causano il ben noto “dum-dum—dum-dum”
al passaggio delle ruote sulle interruzioni, i ponti hanno sezionature metalliche nella struttura del
cemento armato, che permettono le variazioni di lunghezza dei vari segmenti senza causarne deformazioni, ecc.
Un’utilizzazione domestica è rappresentata dai termometri a colonna, detti talvolta di tipo “Galileo”,
contenenti un liquido e alcune palline colorate che salgono (o scendono) nella colonna a seconda
della temperatura dell’ambiente in cui si trovano. Le singole palline portano appese indicazioni
sulla temperatura a cui si “muovono” in alto-basso nel liquido. Quando si è raggiunto l’equilibrio
termico con l’ambiente circostante, si vengono solitamente a creare due gruppi di palline, uno più
in basso nella colonna e l’altro in alto. La temperatura segnata sulla pallina più in basso tra quelle
del gruppo in alto segnala l’attuale temperatura ambiente. Analizziamone il funzionamento. Se V
è il volume di una pallina e w è il suo peso, la pallina sarà in equilibrio indifferente nel liquido se
w = V ρl (t)g, essendo ρl (t) = ml /Vl (t) la densità del liquido e ml la massa di liquido racchiusa nel
volume Vl (t). Se si produce una variazione di temperatura dt avremo una corrispondente variazione
di densità del liquido data da
ρl (t) =
m
;
Vl (t)
dρl (t)
dVl (t)
=−
;
ρl (t)
Vl (t)
dρl (t)
γdt
=−
ρl (t)
1 + γt
(4.27)
La spinta di Archimede agente sulla pallina varierà quindi di dSA = V · g · dρl , con dρl dedotto dalla
(4.27). La pallina non potrà più rimanere in equilibrio indifferente e quindi tenderà a galleggiare
se dρl > 0, cioè se dt < 0, (raffreddamento dell’ambiente), mentre tenderà ad affondare nel caso
opposto (dρl < 0 con dt > 0). Come liquido si sceglie l’alcool, perché ha (nell’intorno di t ≈ 20 ◦ C)
un γ ≃ 1.012 · 10−3 ◦ C−1 , molto maggiore di quello dell’acqua −0.064 · 10−3 ◦ C−1 , mentre il
suo calore specifico è minore di quello dell’acqua, quindi è più “pronto” nel mettersi in equilibrio
con le variazioni di temperatura ambientale, dovendo scambiare una minor quantità di calore con
l’ambiente.
Valutiamo dSA per un dt = 2 ◦ C, generalmente corrispondente alla risoluzione offerta da questo
genere di termometri domestici. Con un valor medio di densità di 0.79 g/cm3 per l’alcool e con
palline sferiche aventi un diametro di 2 cm, abbiamo
dSA = −V g
ρl γdt
≃ −6.8 mg
1 + γt
65
(4.28)
sufficiente a far galleggiare (o affondare) la pallina tarata per rimanere in equilibrio alla temperatura
t segnata nella sua targhetta.
4.3
Le straordinarie proprietà fisiche dell’acqua
Riassumiamo brevemente le caratteristiche fisiche e strutturali dell’acqua:
• la struttura spaziale della singola molecola è piana, con gli atomi di H disposti a V rispetto all’atomo
di O con un angolo relativo di 104.5◦ , a una distanza di circa 10−1 nm;
• le singole molecole tendono a creare strutture spaziali di tipo tetraedrico, con l’atomo di O−− al
centro, i due atomi di H + collegati da un legame covalente, e altri due atomi di H + di un’altra
molecola d’acqua attratti elettrostaticamente, per dar luogo a una struttura spaziale molto stabile
detta di legame a idrogeno;
• poiché una mole di acqua ha una massa di circa 18 g e la densità dell’acqua è di circa 1 g/cm3 , il
volume molare dell’acqua è di circa 18 cm3 ; il volume medio di una molecola d’acqua sarà dell’ordine
di (18 cm3 )/NA cioè di ≈ 3 · 10−23 cm3 , da cui possiamo ricavare che una stima della dimensione
media spaziale totale della molecola d’acqua di ≈ 0.3 nm, in ottimo accordo con la misura del
diametro medio di van der Waals per la molecola d’acqua di 0.282 nm;
• il momento dipolare p della molecola d’acqua è di circa 6 · 10−30 C m, il maggiore fra quelli delle
molecole dei liquidi naturali più diffusi. Essendo p = 2ed, con e carica dell’elettrone, si può facilmente ricavare che d, distanza media fra gli elettroni del due atomi di H dall’atomo di O, proiettata
sulla bisettrice dell’angolo di 105◦ fra i due atomi di H, sarà di circa 0.019 nm, da cui si ricava che la
distanza l fra gli atomi di O e di H sarà dell’ordine di l = d/cos(52.5◦ ) ≈ 0.03 nm, circa un ordine di
grandezza inferiore del diametro medio della molecola d’acqua. Ricordiamo che la definizione di d
corrisponde, grosso modo, alla distanza fra i baricentri elettrici degli atomi di H e quello dell’atomo
di O, ed è ragionevole che risulti minore del diametro spaziale dell’intera molecola;
• il ghiaccio ha una struttura cristallina a simmetria esagonale, ma con strutture che possono variare
in funzione delle condizioni fisiche a cui è stato sottoposto al momento del cambiamento di stato e
anche a possibili successive modifiche (forti variazioni di pressione, a esempio). Comunque il volume
specifico del ghiaccio è maggiore di circa il 10% quello dell’acqua prima della solidificazione.
Da queste proprietà derivano le seguenti caratteristiche uniche dell’acqua come sorgente primaria e
indispensabile per lo sviluppo della vita nella forma evolutasi nelle condizioni fisico-chimiche della Terra:
1. la dipendenza della densità dell’acqua dalla temperatura (v. Fig.4.6) è tale per cui la massima
densità si ha per una temperatura di 3.98 ◦ C. Avendo densità minore dell’acqua, il ghiacciosi forma
sulla superficie di una distribuzione d’acqua (stagno, lago o mare) e la porzione d’acqua a circa 4◦ C
scende negli strati più profondi (avendo massima densità). Il ghiaccio superficiale protegge (per
distanze di alcuni metri) l’acqua sottostante dalla propagazione di temperature inferiori a 0◦ C, per
cui negli strati più profondi dei bacini d’acqua non si arriva mai alla formazione di ghiaccio e non si
può produrre il congelamento (cioè rottura) dei vasi e dei tessuti biologici e la vita può continuare;
2. per il suo elevato momento dipolare l’acqua è un solvente efficientissimo sia per i sali che per le
sostanze organiche (a es., zuccheri, amidi, proteine, ecc.), quindi un ottimo trasportatore di elementi
nutrienti e costitutivi della vita, basata sul C (molecole organiche);
3. l’estrema efficienza dei legami a idrogeno garantiscono che l’acqua possegga il calore specifico a
pressione costante cp ≃ 1 cal/(g ◦ C) più elevato fra le molecole naturali allo stato liquido e quindi funzioni da efficiente termostato (i forti cambiamenti di temperatura non aiutano la vita, e,
modernamente, vengono utilizzati nella “pastorizzazione” che ha lo scopo di sterilizzare, cioè di
inibire i processi vitali). Anche i calori latenti dell’acqua sono i massimi fra i liquidi naturali
(cf us ≃ 2.26 MJ/kg; cevap ≃ 0.333 MJ/kg), garantendo all’acqua la proprietà di immagazzinare
una grande quantità di energia nella fase liquida. Infine il valore della tensione superficiale dell’acqua è elevato (τ ≃ 75 dyne/cm), e la costante dielettrica dell’acqua pura è la massima fra i liquidi
naturali (ǫr ≃ 80).
66
Figura 4.6: Andamento della densità dell’acqua con la temperatura
Dobbiamo all’insieme di tutte queste eccellenti proprietà fisiche dell’acqua se la vita sulla Terra ha potuto
raggiungere questo stadio evolutivo, con una ricchezza e varietà di forme di vita straordinarie e affascinanti.18
18 L’acqua, con le sue meravigliose proprietà fisiche e chimiche, ha anche permesso che per circa 1.5-2.0 milioni di anni
una scimmia antropomorfa abbia potuto evolversi in modo tale da riuscire a scrivere La Divina Commedia, dipingere La
Gioconda, scolpire La Nike di Samotracia, comporre La nona sinfonia di Beethoven, ecc.. Negli ultimi tempi, tuttavia, vien
da dubitare sul reale livello di “evoluzione” raggiunto stabilmente dalla razza umana, ma questo non dipende dall’acqua!
67
Capitolo 5
Ottica
Per un’introduzione all’ottica geometrica si rimanda alle dispense di Introduzione all’ottica geometrica e
La formazione delle immagini nell’ottica geometrica, che si trovano sul sito
http://e-l.unifi.it/file.php/3891/Dispense old/Dispense Lab Fis I.htm.
5.1
Lenti
Dopo aver introdotto l’astrazione fisica di “raggio luminoso” (come un sottile pennello di luce, tanto
sottile da essere confuso con l’asse del pennello, a cui ci si può avvicinare nella pratica realizzazione fino
a quando i limiti tecnologici a disposizione lo concedono e non si vanno a creare fenomeni di diffrazione),
ricordiamo che le proprietà rifrattive del vetro erano note fin dall’antichità e che già nei secoli XIII e XIV
si conosceva il modo di costruire una struttura piano-convessa in vetro, nella quale la parte convessa aveva
la forma di una calotta sferica, a cui fu dato il nome di “lente”.1 Già allora era noto che una lente aveva
la proprietà di convogliare i raggi luminosi che si propagavano parallelamente all’asse ottico (la retta
ortogonale al piano della lente e passante per il suo centro ) in un unico punto del suo asse ottico detto
“fuoco”.2 Inoltre accoppiando (sulla parte piana) due lenti piano-convesse si creava una lente biconvessa
avente una capacità di convergenza (quella che poi definiremo potere diottrico) doppia rispetto alla lente
piano-convessa. Chiamiamo distanza focale di una lente 3 la distanza del fuoco dal piano meridiano di
simmetria della lente; in una lente esistono due fuochi (a seconda che i fasci di raggi luminosi incidano
sulla lente da sinistra o da destra della lente), F1 e F2 , posti simmetricamente rispetto al piano meridiano
della lente se questa è immersa in un unico mezzo (generalmente è in aria, v. Fig.5.1 a)).
Inoltre se la lente è sottile (cioè lo spessore della lente sull’asse ottico è trascurabile rispetto alla distanza
focale f ), il raggio luminoso che si propaga per il centro della lente praticamente non viene deviato dalla
lente e prosegue il suo percorso rettilineo.
Con riferimento alla Fig.5.1 b), consideriamo una lente biconvessa sottile, di distanza focale f , e poniamo
un oggetto luminoso AB sull’asse ottico a distanza p > f dalla lente. Ogni punto di AB può essere
considerato una sorgente puntiforme di luce; se a es. prendiamo in esame il punto B, questo emette nello
spazio un’infinità di raggi luminosi, per 3 dei quali sappiamo seguire il percorso dopo l’interazione con la
lente: il raggio BB ∗ si propaga parallelamente all’asse ottico, quindi la lente lo rifrange in F2 ; il raggio
BV prosegue indisturbato e si incontra col precedente raggio luminoso in B ′ ; infine il raggio BF1 viene
visto dalla lente come proveniente dal primo fuoco F1 e quindi viene rifratto parallelamente all’asse ottico
e incontra in B ′ con altri due raggi luminosi. Conseguentemente i punti B e B ′ sono in corrispondenza
biunivoca e si dicono otticamente coniugati. Ripetendo il ragionamento per tutti i punti luminosi della
sorgente AB si trova che A′ B ′ è otticamente coniugata con AB ed è detta immagine “reale” di AB, e
si presenta capovolta rispetto ad AB. Chiamiamo q la distanza dell’immagineA′ B ′ dalla lente e dalla
Fig.5.1 b) ricaviamo che i triangoli ABV e A’B’V sono simili, quindi AB/p = A′ B ′ /q. Inoltre sono simili
1 Ricordava
la forma di una lenticchia, che in latino si chiama lenticula, ae, ma anche lens, lentis.
spiega tutto! Basta ricordare che con una lente convergente si riesce a dar fuoco a oggetti di carta, legno
e materiali facilmente infiammabili, cioè con temperature d’innesco della combustione autoalimentata non elevate.
3 Da ora in poi definiremo lente un sistema diottrico bi-convesso e bi-concavo, salvo avvertenze contrarie.
2 L’etimologia
68
f
A
F
B*
B
f
f
F1
f
F2
A’
V
F
p
lente
q
a)
B’
b)
Figura 5.1: Lente convergente e schema della formazione delle immagini reali
i triangoli B ∗ V F2 e F2 A′ B ′ e quindi B ∗ V /f = AB/f = A′ B ′ /(q − f ). Sostituendo in questa relazione
l’espressione di A′ B ′ ricavata da quella precedente otteniamo
AB
AB q
=
;
f
p(q − f )
quindi
pq − pf = qf
(5.1)
Dividendo per pqf ambo i membri della (5.1) si perviene a
1
1 1
+ = =P
p q
f
(5.2)
La (5.2) è la ben nota formula dei punti coniugati e P è il potere diottrico della lente che si misura in
diottrie nel S.I.
Ricordiamo che la distanza focale di una lente semplice è affetta da aberrazione cromatica, cioè dipende
dalla lunghezza d’onda λ della radiazione incidente e quindi f (λ) e P (λ) dipenderanno da λ. È utile
ricordare la formula dei costruttori di lenti (valida per lenti biconvesse di ugual curvatura)
P (λ) =
1
2
= (nλ − 1)
fλ
R
(5.3)
dove nλ è l’indice di rifrazione relativo al passaggio dall’aria al vetro di cui è fatta la lente e R è il raggio
di curvatura delle superfici convesse (se le superfici fossero concave il segno di R sarebbe negativo).
Si definisce ingrandimento lineare operato dalla lente il rapporto g = A′ B ′ /AB.
Con riferimento alla Fig.5.2 , se l’oggetto AB è posto fra il primo fuoco F1 e la lente, la costruzione ottica
dell’immagine fatta in precedenza mostra che i raggi luminosi B ∗ F2 e BV non si incontrano nel semipiano
delle immagini, ma si incontrano i loro prolungamenti nel semipiano degli oggetti, dando l’impressione,
a un occhio che veda i due raggi B ∗ F2 e BV divergere dalla lente, che provengano da un’immagine
“virtuale”, dritta, A′′ B ′′ che si trovi oltre il primo fuoco F1 . Alla stessa conclusione si giunge operando
analiticamente tramite la relazione dei punti coniugati (5.2), ottenendo un valore negativo per q. Questo
è il principio su cui si basa il funzionamento della lente d’ingrandimento.
Lenti divergenti sono quelle che hanno superfici sferiche concave (cioè con R < 0 e quindi con distanze
focali negative). Investite da un fascio di raggi luminosi paralleli all’asse ottico lo rifrangono, dopo il
passaggio dalla lente, in modo che i raggi si “aprano” in un cono divergente come se provenissero da un
fuoco virtuale situato dalla parte di arrivo dei raggi luminosi sulla lente. Ovviamente (si controlli sia con
la costruzione geometrica che con la formula dei punti coniugati (5.2)) le lenti divergenti non possono
mai fornire immagini reali ma virtuali; il loro utilizzo è sempre in combinazione con lenti convergenti con
lo scopo di realizzare sistemi composti convergenti.
Una proprietà molto utile dei sistemi composti da due o più lenti, poste a contatto (cioè con distanze fra
loro trascurabili rispetto alle distanze focali delle lenti componenti) è che il sistema composto possiede un
potere diottrico che è la somma dei poteri diottrici (ognuno preso con segno) delle singole lenti componenti
Ptotale =
N
X
k=1
Pk ;
(nel caso di due lenti) → PT = P1 + P2 ,
1
1
1
=
+
fT
f1
f2
(5.4)
L’ultima relazione delle (5.4) è molto utile per misurare facilmente la distanza focale di una lente divergente; infatti abbinandola a una lente convergente di distanza focale nota e misurando la fT totale
69
B"
q
B
B*
B
y
A"
A
θ
A
V
d0
F2
F1
d’
p
B’
y’
B
θ’
y
A’
A
f
Figura 5.2: Lente convergente usata come
lente d’ingrandimento
Figura 5.3: Schema di un oculare
si ricava facilmente il valore di fdiverg , anche se con un’incertezza notevole nella misura. Per metodi
più precisi si rimanda all’esperienza della misura della distanze focali di lenti (descritta nel sito indicato
all’inizio del capitolo).
Nell’uso di sistemi ottici (binocoli, canocchiali, telescopi, microscopi, ecc.) nei quali è l’occhio umano
l’elemento che acquisisce l’immagine finale, poichè l’occhio umano possiede un potere risolutivo angolare
limitato (in media dell’ordine di 1′ , solo in condizioni d’illuminazione ottimale e di riposo si può arrivare
a un limite di 0.5′ ), si utilizzano particolari lenti d’ingrandimento (dette oculari) che permettono una
visione molto ingrandita angolarmente dell’immagine finale fornita dal sistema ottico. Gi oculari Sono
caratterizzati dal loro ingrandimento angolare Gθ , che, con riferimento alla Fig.5.3, si esprime come
Gθ =
y ′ d◦
θ′
= ′· ,
θ
d y
con θ ≃
y
;
d◦
θ′ ≃
y′
d′
(5.5)
dove d◦ = 25 cm è la distanza della visione distinta per l’occhio umano (cioè la distanza minima a cui,
esercitando al massimo l’accomodazione del cristallino, si riesce ad avere ancora una visione nitida), d′
è la distanza dall’occhio a cui si forma l’immagine virtuale A′ B ′ fornita dall’oculare L, avente distanza
focale f . Dalle relazioni che hanno portato a ricavare la formula dei punti coniugati (5.2), ricaviamo che
y ′ /y = (q − f )/f . Ponendo l’oggetto (o l’immagine da ingrandire angolarmente) circa nel primo fuoco di
L, avremo che q ≫ f , d′ ≫ f e infine q ≃ d′ . Inserendo queste conclusioni nella (5.5) otteniamo
Gθ ≃
d◦
0.25
q d◦
≃
·
=
= 0.25 · PL
f d′
f
f
(5.6)
Essendo PL il potere diottrico dell’oculare (spesso inciso sulla ghiera stessa dell’oculare) si usa misurare Gθ in diottrie (oppure direttamente in ingrandimenti; un oculare di 10X significa che possiede un
PL = 40 diottrie, cioè una focale equivalente di 2.5 cm).
Si apre la possibilità di una grande varietà di esperienze. con diverse lenti convergenti e divergenti, raccomandate caldamente a ogni livello di studenti. Si possono eseguire con varie lenti da occhiali (acquistabili
di seconda mano da negozi di ottico, che generalmente ne hanno in gran quantità dopo il cambio degli
occhiali) e con varie lenti d’ingrandimento, presenti in ogni casa. Alcune possibilità:
• misura della distanza focale di varie lenti, iniziando con la misura diretta, formando cioè l’immagine
reale di una sorgente posta a grande distanza dalla lente convergente e misurandone la distanza
dal piano di simmetria della lente (anche con un semplice metro a nastro). Si può usare anche
il sole (infatti il cerchietto luminosissimo che si forma nel piano focale della lente non è altro che
l’immagine del sole fornita dalla lente, che ha un diametro di fc · 10−2 rad, essendo 10−2 l’angolo
sotteso in media dal disco del sole in cielo);
• utilizzando la (5.4) si possono misurare successivamente le distanze focali di lenti divergenti;
70
• per misure più accurate si possono porre le varie lenti su un tavolo e costruire una sequenza fissa di
oggetti (sorgente + lente + schermo nel piano immagine) e tramite la formula dei punti coniugati si
misura la distanza focale della lente. La precisione di questa misura è migliore di quella ottenibile
con il metodo del punto precedente (si consiglia di stimare sempre l’incertezza delle misure ottenute);
• avendo a disposizione un banco ottico (anche se non professionale) si possono usare metodi di misura
ancora più precisi (v. le dispense sulla misura delle distanze focali nel sito indicato all’inizio del
capitolo);
• con una lente convergente a lunga focale (P ≈ 0.5−1 diottria) e una a corta focale (P ≈ 20 diottrie),
come oculare, si può realizzare (con un tubo di cartone o di plastica, da disegni) un canocchiale;
• la lente convergente a corta focale può essere sostituita con una lente divergente a corta focale, come
oculare negativo da porre prima del fuoco principale della convergente a lunga focale, per avere un
canocchiale galileiano;
• con una lente convergente ad alto potere diottrico (P ≈ 40 − 50 diottrie) come lente primaria e un
buon oculare si può costruire un microscopio composto galileiano;4
5.2
Lastra a facce piano-parallele e prisma
Una lastra a facce piano-parallele sposta lateralmente il raggio luminoso che l’attraversa senza cambiarne
la direzione di propagazione. Il vetro di una finestra rappresenta un semplice esempio di lastra a facce
piano-parallele; aprendo la finestra (a circa 45◦ dal piano di chiusura) e osservando da sotto il bordo della
finestra un oggetto verticale (lo spigolo di una casa, un albero, un palo dell’illuminazione, ecc.), per metà
visto direttamente da sotto il bordo e per metà attraverso il vetro della finestra, si vede nettamente che
l’oggetto sembra “spezzato” in corrispondenza del bordo vetro della finestra. È la manifestazione della
deviazione laterale del fascio luminoso creata dal passaggio entro il vetro della finestra.
È interessante anche esaminare il comportamento di una finestra con i vetri termici (doppi); ogni superficie di separazione aria-vetro riflette, per propria natura, circa il 5% della radiazione incidente (il
rimanente viene trasmesso e rifratto, eventualmente assorbito a seconda della lunghezza d’onda della
radiazione utilizzata). Ponendo la finestra sempre con un angolo di circa 45◦ rispetto al piano di battuta
e osservando una sorgente di luce esterna (questa osservazione è più facile di sera, ovviamente) si vedono
le diverse immagini riflesse mutuamente fra le superfici dei due vetri costituenti la finestra; si vede anche
la notevole diminuzione di intensità delle immagini che si originano da riflessioni multiple (ognuna è il 5%
della precedente e cosı̀ via). Anche la deviazione laterale di strutture verticali subisce un doppio effetto
di spostamento laterale al passaggio del primo e poi del secondo vetro.
È facile procurarsi un prisma, anche se di qualità ottiche non eccelse (sempre in un negozio di ottico) e di
limitate dimensioni. Si può vedere la dispersione della radiazione continua, prodotta da una lampada a
incandescenza, interponendo fra la lampada e il prisma un cartone dove si è praticata una sottile fessura,
da porre parallela allo spigolo del prisma. In questo modo un sottile fascio di luce investe una faccia del
prisma; dall’altra faccia del prisma uscirà un fascio di luce “dispersa”, che, fatto incidere su uno schermo
opaco, mostrerà lo spettro della radiazione che ha attraversato il prisma. Questa semplicissima esperienza
è sempre molto interessante, soprattutto le prime volte che si mostra a un uditorio studentesco. Si può
sostituire la lampada a incandescenza con una lampada alogena e si potrà riflettere e commentare sulle
differenze spettrali che si osservano. Ancora più interessante è alimentare il prisma con la luce del sole,
ottenendo lo spettro della radiazione solare. Potendo disporre di un piccolo spettroscopio si può anche
fare uno spettro di emissione di alcune sostanze: basta prendere come sorgente una fiamma (basta anche
quella di una candela) e gettarci sopra alcuni grani di sale da cucina (NaCl) per vedere l’intensa emissione
gialla caratteristica del sodio (si pensi all’illuminazione di alcune periferie cittadine ottenuta con lampade
al sodio per avere miglior visione in caso di nebbia). Con altre sostanze (K, Ca, ecc.) si ottengono “colori”
diversi, ognuno caratteristico della sostanza utilizzata. È un modo semplice per introdurre, volendo, il
metodo spettroscopico a una platea studentesca.
4 Galileo lo descrisse ufficialmente nel 1624, e un esemplare è al Museo “Galileo” di Firenze, P.za dei Giudici; con questo
strumento Galileo aprı̀ una nuova strada alla medicina, permettendo innumerevoli e fondamentali scoperte nel campo
dell’anatomia e fisiologia umana.
71
Si può anche utilizzare il prisma tenendolo in mano con lo spigolo parallelo a un tubo fluorescente dell’illuminazione domestica e ponendo il braccio, steso, lungo la direzione di visuale diretta verso il tubo
fluorescente: ruotando lentamente il prisma intorno allo spigolo, vedremo, per un ben determinato angolo d’incidenza dei raggi luminosi proveniente dal tubo fluorescente, emergere dal prisma varie immagini
colorate del tubo, ognuna delle quali caratteristica della sostanza posta nel tubo. Molto spesso questi
colori corrispondono alle righe spettrali tipiche del mercurio e sono di sicura attrazione e interesse.
5.3
Specchi
Sono innumerevoli le applicazioni che si fanno quotidianamente del funzionamento degli specchi, soprattutto degli specchi piani. Ognuno ha le sue esperienze, che però andrebbero analizzate alla luce delle leggi
fisiche della riflessione. È interessante anche l’utilizzo di diversi specchi piani in serie per rendersi conto
praticamente delle proprietà di inversione destra-sinistra (e in alcune configurazioni anche alto-basso)
operate dagli specchi. Ricordiamo solo che quando ci “guardiamo allo specchio” vediamo un’immagine
virtuale di una persona identica a noi, che sembra stare dietro lo specchio, con lo scambio destra-sinistra.
Questo effetto è evidente se si fa osservare un’immagine ottenuta con uno specchio piano a un essere non
“educato” (può essere un infante che inizia ad andare a “gattoni” ma anche un giovane cane o gatto): la
loro reazione è identica, cercano subito di girare dietro allo specchio per andare a vedere “chi c’è dall’altra
parte” (e il gattino spesso accompagna il tutto con una soffiata intimidatoria all’ipotetico rivale che lo
guarda minaccioso!).
Il comportamento degli specchi concavi (spesso sono sferici) è identico a quello di una lente convergente,
fatto salvo il fatto che per lo specchio il semipiano delle immagini si trova dalla stessa parte di quello degli
oggetti; vale la stessa legge dei punti coniugati e per fasci assiali e di piccola apertura angolare la distanza
focale di uno specchio sferico concavo è pari a R/2, essendo R il raggio di curvatura della superficie sferica
dello specchio. Specchi sferici concavi sono utilizzati negli impianti di produzione energetica solare per
concentrare nel fuoco un’elevata densità di flusso d’energia, che permette di riscaldare l’acqua, di produrre anche vapore, ecc. Specchi concavi parabolici sono utilizzati (sfruttando le ben note proprietà dei
luoghi geometrici e delle parabole) per produrre fasci luminosi che si propagano parallelamente all’asse
della parabola se si pone una sorgente “puntiforme” (generalmente una piccola ma intensa lampadina) nel
fuoco della parabola (anzi, del paraboloide di rivoluzione, per essere corretti). Questo fenomeno è utilizzato nei fanali dei veicoli, nei fari marittimi, nei proiettori, ecc. Il comportamento degli specchi convessi
(spesso sono sferici) è analogo a quello delle lenti divergenti; danno solo immagini virtuali, rimpiccolite, e
le leggi del loro comportamento sono le stesse delle lenti divergenti (con i cambiamenti dovuti al fatto che
si tratta di riflessioni, cioè di un cambio di verso di propagazione della luce). Sono quasi sempre utilizzati
in combinazione con elementi convergenti (si pensi, a es., al telescopio in montatura Cassegrain).
Un modo molto semplice (anche se grossolano) per presentare il funzionamento degli specchi convergenti
(concavi) e divergenti (convessi) è quello di usare un cucchiaio, con la coppetta sferica (cioè quelli di tipo
“svedese”). Guardandosi riflessi dalla parte concava la nostra immagine è reale e capovolta, mentre dalla
parte convessa l’immagine è virtuale e dritta. Per convincersi che l’immagine fornita dalla parte concava
è reale, basta prendere una sorgente puntiforme (la fiamma di una candela, una piccola lampadina a
filamento e simili) e formarne l’immagine su uno schermo opaco, posto a fianco della sorgente, simmetricamente rispetto all’asse di simmetria della sfera della parte concava del cucchiaio; vedremo l’immagine
capovolta della sorgente sullo schermo, con diverso ingrandimento lineare in accordo con la relazione dei
punti coniugati.
Un uso molto “moderno” delle proprietà degli specchi concavi è rappresentato da superfici di plastica
(o cartone) rivestite di carta di alluminio, con una forma concava (anche se irregolare), utilizzate per
far convergere il fascio di luce solare per aumentare l’efficienza “abbronzante” della radiazione solare. Si
corre però il rischio di provocare anche ustioni epidermiche, che rappresenterebbero tuttavia una corretta
punizione per l’uso . . . sconsiderato delle proprietà fisiche della riflessione.
Utili applicazioni dei concetti fondamentali dell’ottica possono essere sviluppate avendo una vecchia
macchina fotografica (quelle a pellicola si trovano di recupero a prezzi irrisori) e mostrandone le caratteristiche e il funzionamento agli studenti. Si possono anche smontare per illustrarne i dettagli costruttivi.
Molto istruttivo è la dimostrazione del concetto di profondità di campo, del funzionamento dell’otturatore, del diaframma, la scelta del tempo di posa corretto, della necessità di porla su un cavalletto per
72
pose lunghe, e cosı̀ via. Avendone una con sistema reflex è molto facile illustrare le possibilità offerte
dall’inserimento di specchi mobili nel percorso ottico, come di miniprismi a riflessione totale per il “ripiegamento” di un fascio luminoso verso l’oculare centrale. Si può impostare un minicorso di ottica applicata
sull’uso delle macchine fotografiche e, successivamente, delle telecamere (otticamente hanno lo stesso tipo
di funzionamento).
5.4
Altre osservazioni e considerazioni
Si raccomanda di consultare il sito hep.fi.infn.it/ol/samuele/schede.php, dove si possono trovare interessantissime ma semplici esperienze sviluppate dal dr. Samuele Straulino nell’ambito delle attività del
progetto OPENLAB del Polo Scientifico e Tecnologico dell’Università di Firenze, settore FISICA. Nel
capitolo dedicato all’Ottica è particolarmente utile il kit messo a punto per la dimostrazione e lo studio
delle proprietà della riflessione e rifrazione, delle proprietà delle lenti ecc.
Un’esperienza banale ma affascinante: in estate (col sole alto sull’orizzonte), sdraiati a prendere la tintarella, portate un braccio sulla fronte, di fronte agli occhi per difendervi dall’intensa luce solare. Cercate
di porre il bordo del braccio proprio davanti ai vostri occhi , in modo che la peluria dell’avambraccio si
trovi davanti alla vostra pupilla, avendo il sole alto sull’orizzonte. Mettendo l’altra mano oltre il braccio
(per creare uno schermo alla luminosità del cielo sullo sfondo), e guardando la peluria dell’avambraccio,
si possono osservare moltissime figure di vari colori e sfumature, che rappresentano le figure di diffrazione
della radiazione solare sulle micro-asperità presenti su ogni pelo presente sulla nostra linea di vista. È
uno spettacolo affascinante, mutevole e vario (come quello offerto dalle varie forme e moti delle nuvole in
cielo), che può suscitare molte fantasie, ma può anche far riflettere sul perché si osservano quelle strutture,
iniziando cioè a ragionare di Fisica.
È facile anche procurarsi due fogli di lamina polaroid, sostanza che trasmette la radiazione con un ben
determinato piano di oscillazione.5 Ci si può divertire a fare molte prove avendo una lampadina (come
sorgente di radiazione non polarizzata) e inserendo nel percorso ottico i due fogli di polaroid, mettendoli
paralleli, incrociandoli (per avere estinzione della luce), disponendoli con angoli differenti fra i loro piani
di oscillazione, ecc. Avendo a disposizione anche occhiali da sole con lenti polarizzanti, si può capire
come funzionano, perché il piano di oscillazione delle lenti polarizzanti è disposto grosso modo in un
piano verticale, e infine ...ricordandosi dell’angolo di Brewster!6
In estate, col sole alto sull’orizzonte, si
osserva talvolta che, con persiane o tapzenith
parelle chiuse (per difendersi dal calSOLE
do), si vedono cerchietti luminosi che
z
SOLE
si muovono lentamente sul pavimento.
Sono immagini stenopeiche 7 del Sole,
originate da piccoli fori posti nella strutP0
P1
tura delle persiane o delle tapparelle.
Basta prendere un foglio di carta bianca
e “risalire” dal cerchietto luminoso sul
pavimento fino al forellino da cui l’immagine stenopeica si origina per capirne
orizzonte
l’origine. Ovviamente si muovono sul
pavimento con la velocità angolare ap- Figura 5.4: Schema della diffusione multipla della radiazione
parente con cui si muove il Sole in cielo. solare nell’atmosfera terrestre.
A questo proposito è interessante ricordare che una delle più grandi immagini stenopeiche del Sole (ma sicuramente la più bella per il luogo dove
si forma) che si possa osservare è quella prodotta dalla bronzina situata sulla sommità della cupola (a
livello della lanterna) del Duomo di Firenze. L’immagine stenopeica del Sole (di circa 90 cm di diametro)
5 Si
raccomanda di riguardare il capitolo della polarizzazione della luce!
qui si aprirebbe un grande ma complesso capitolo dell’ottica fisica, che è sicuramente oltre gli scopi di queste semplici
considerazioni.
7 Si vedano le nostre dispense, indicate all’inizio del capitolo, su questo semplice ma interessante fenomeno.
6E
73
si forma nella cappella della Croce (lato nord del Duomo), (dove si trova anche uno splendido esempio
di scala ticonica, incisa nel marmo e ricoperta normalmente da una lastra di ottone) attorno al sostizio
d’estate (infatti il sistema fu creato all’atto della costruzione del Duomo di Firenze come uno gnomone
solstiziale).8
Una frequente domanda: perché la luce del Sole è bianca e il colore del cielo diurno è azzurro? Risposta: perché fra noi e il Sole c’è l’atmosfera terrestre, che contiene una gran quantità di molecole e
particelle solide di piccolissime dimensioni. Con riferimento alla Fig.5.4 quando il fascio di radiazione
proveniente dal sole incontra l’atmosfera terrestre, la radiazione viene diffusa dai componenti (molecole
e micropolveri) presenti negli strati più alti dell’atmosfera. Questa diffusione è cromatica, nel senso che
il coefficiente di diffusione dipende da λ−4 , essendo λ la lunghezza d’onda della radiazione diffusa (diffusione alla Rayleigh). Il processo di diffusione è multiplo, vista la densità del materiale atmosferico, cioè
la radiazione diffusa inizialmente in P◦ viene successivamente diffusa nuovamente in un punto vicino P1
e poi in P2 e cosı̀ via. Poiché i fotoni violetti e azzurri sono quelli che sono diffusi preferenzialmente
(vista la dipendenza cromatica sopra detta), la radiazione diffusa verso il basso globalmente dal “cielo”
avrà una colorazione azzurra per il nostro occhio (che non vede bene il violetto e per nulla le lunghezze
d’onda più corte). Il colore bianco che apprezziamo al suolo risulta dal filtraggio che per diffusione (ma
anche per assorbimento vero) viene compiuto dall’atmosfera terrestre sulla radiazione solare. 9 Quando
il Sole è invece basso sull’orizzonte (alba o tramonto), cioè si trova a un’elevata angolazione zenitale z
in Fig.5.4, poiché il percorso geometrico nell’atmosfera è molto più lungo di quello quando il Sole è a
piccoli valori di z (alto sull’orizzonte), quasi tutti i fotoni violetti e azzurri del fascio proveniente dal Sole
vengono diffusi attraverso multiple diffusioni e conseguentemente nel fascio luminoso che arriva al nostro
occhio restano solo i fotoni gialli ma soprattutto rossi e il colore del Sole è per noi “rosso”. Si tratta
quindi di un’altra dimostrazione qualitativa del cromatismo alla Rayleigh della diffusione atmosferica,
che manifestano anche gli altri corpi celesti con l’arrossamento del loro colore apparente quando sono
osservati ad alte angolazioni zenitali z.
Una ben nota manifestazione della rifrazione che avviene nelle gocce d’acqua presenti in atmosfera è data
dall’arcobaleno. Ricordiamo che l’arcobaleno si osserva subito dopo una pioggia (cioè quando ci sono
ancora in sospensione in atmosfera gocce d’acqua) e col Sole abbastanza basso sull’orizzonte (non in
culminazione), dando le spalle al sole e osservando in
direzione antisolare. Si può osservare anche in vicinanza di una grossa cascata d’acqua, quando ci sono
in sospensione una gran quantità di gocce d’acqua.
Con riferimento alla Fig.5.5, in genere si osserva solo l’arcobaleno primario, piuttosto brillante, in cui il
rosso è l’arco più esterno (e a maggior altezza sull’orizzonte), mentre l’azzurro è il più interno e più
basso sull’orizzonte. Come vedremo, l’arcobaleno primario si origina da una sola riflessione della luce solare all’interno delle gocce d’acqua. In condizioni di
particolare tranquillità atmosferica e con cielo molto
pulito (e non “lattiginoso” per inquinamento o nebbia) si può talvolta osservare anche l’arcobaleno secondario, originato da due riflessioni all’interno delle
gocce d’acqua, molto più debole del primario e in cui
l’ordine dei colori degli archi è invertito (cioè l’arco
più esterno ha il colore azzurro e quello più interno è
il rosso).
Figura 5.5: Struttura dell’arcobaleno primario
Esaminiamo il percorso di un raggio luminoso, proveniente dal sole, all’interno di una goccia in sospensione in aria. Con riferimento alla Fig.5.6 il raggio SA,
che incide in A con un angolo i, viene rifratto con un angolo di rifrazione r in accordo con la relazione
8 Nei due mesi attorno al sostizio d’estate vengono organizzate lezioni ed esposizioni interessanti di questo fenomeno, a
cui partecipano varie scolaresche e gruppi di turisti.
9 Fuori atmosfera il colore della radiazione del sole è leggermente più azzurro del bianco perfetto che apprezziamo a terra,
il cielo appare perfettamente nero (mancando l’effetto di diffusione dell’atmosfera) e si possono osservare le stelle accanto al
disco intenso del Sole. Si vedano le molte immagini prese dallo spazio in cui vedono le stelle col Sole in vicinanza. Andando
sui siti dell’ESA e della NASA se ne trovano a centinaia.
74
S
i
A
M
∆
r
r
B
O
∆
C
Figura 5.6: Schema delle riflessioni interne alla goccia per
la formazione dell’arcobaleno
Figura 5.7: Schema della formazione
dell’arcobaleno secondario
fondamentale della rifrazione n = sen(i)/sen(r), dove n è l’indice di rifrazione relativo al passaggio ariaacqua alla lunghezza d’onda del raggio luminoso considerato. Ricordiamo che una piccola parte del fascio
incidente sulla superficie di separazione fra i due mezzi (dell’ordine di grandezza del 5%) viene riflessa nel
mezzo di arrivo del fascio, mentre il rimanente dell’energia raggiante incidente viene rifratta nel secondo
mezzo secondo la legge di Cartesio-Snell prima ricordata. Per la reversibilità del cammino ottico questo
fenomeno (la riflessione di circa il 5% dell’intensità del fascio incidente sulla superficie di separazione)
avviene anche quando si ha rifrazione da un mezzo più rifrangente (nel nostro caso la goccia) a un mezzo
meno rifrangente (nel nostro caso l’aria), a meno che l’angolo d’incidenza non superi l’angolo limite, nel
qual caso si avrà riflessione totale e tutto il fascio viene riflesso nel mezzo più rifrangente.
Dopo la rifrazione in A il raggio prosegue nella goccia fino a incontrare la superficie della goccia in B, dove
la maggior parte dell’energia incidente in B viene rifratta all’esterno della goccia; circa il 5% viene invece
riflesso all’interno della goccia e giunge in C, dove il fascio emerge dalla goccia con un’intensità dell’ordine
del 4.5% dell’intensità incidente sulla goccia e nella direzione MC, cioè con un angolo di deviazione ∆
rispetto alla direzione originaria del fascio prima dell’incontro con la goccia.
Dal triangolo ABM è facile ricavare (MB è la bisettrice di ∆) che ∆ = 2(2r − i). Ricavando r dalla
relazione di Snell abbiano che ∆ = 4 sen−1 (seni/n) − 2i; quindi ∆ è una funzione di i. Ma l’osservatore
a terra guarda lungo la direzione CM, quindi potrà vedere solo i raggi luminosi che incidono con un ben
definito i su gocce che si trovano proprio all’altezza nell’atmosfera tale da definire gli angoli in accordo
con la relazione determinata precedentemente. Una distribuzione casuale di gocce in atmosfera e di angoli
di incidenza i darebbe origine a una distribuzione casuale di raggi rifratti uscenti dalle gocce, quindi una
distribuzione angolare casuale di raggi di debole intensità, dando origine a una luminosità diffusa ma
non a un arcobaleno, che è una distribuzione ben organizzata. Se tuttavia la funzione ∆(i) avesse un
punto di stazionarietà la situazione sarebbe diversa perché i raggi luminosi che incidessero sulle gocce
con angoli prossimi a istaz sarebbero tutti deviati praticamente dello stesso angolo ∆staz , aumentando
l’intensità del fascio deviato e divenendo conseguentemente ben visibili sullo sfondo del cielo luminoso
per aumento del contrasto. Vediamo quindi se la funzione ∆(i) presenta almeno un punto di stazionarietà.
"
#
4
4cosi
2cosi
cosi
d∆
=q
(5.7)
2 · n − 2 = pn2 − (seni)2 − 2 = 2 pn2 − 1 + (cosi)2 − 1
di
1 − seni
n
Avremo stazionarietà se
p
d∆
= 0 ⇒ 2cos(i) = n2 − 1 + cos(i)2 ⇒ cos(i) =
di
r
n2 − 1
3
(5.8)
Assumendo n = 4/3 abbiamo, dalla (5.8), che istaz ≃ 59.4◦ e corrispondentemente ∆staz ≃ 42◦ , esattamente l’angolo che si misura fra il centro di simmetria dell’arcobaleno e la mediana degli archi colorati.
Con riferimento alla Fig.5.7 un raggio luminoso che incida su una goccia d’acqua presente in atmosfera
nel modo illustrato può essere rifratto anche dopo due incidenze sulla superficie della goccia. Ripetendo
il ragionamento fatto precedentemente si trova che, in questo caso, si forma l’arcobaleno secondario,
in condizioni stazionarie, per ∆staz;secondario ≃ 51◦ . Tuttavia bisogna notare che l’intensità di questo
75
arcobaleno secondario sarà circa il 2.3 · 10−3 dell’intensità del fascio incidente sulla goccia e, quindi, difficilmente osservabile (solo in condizioni quasi perfette di trasparenza e limpidezza del cielo, non facile
dopo una pioggia). Inoltre la distribuzione dei colori negli archi dell’arcobaleno secondario sarà invertita
rispetto a quella del primario (cioè l’arco azzurro sarà quello più alto, mentre quello rosso sarà il più
basso sull’orizzonte), come era prevedibile avendo subito il fascio cromatico un’ulteriore riflessione sulla
parete della goccia.
76
Capitolo 6
Elettrologia
La nostra vita è attualmente invasa da dispositivi che utilizzano l’energia elettrica, che rappresenta la
modalità più efficiente e semplice di distribuzione d’energia. Utilizziamo quotidianamente un numero sempre crescente di ordigni nei quali l’elettricità rappresenta il fulcro centrale del funzionamento. Tuttavia
è sempre più difficile riuscire a comprenderne 1 veramente il funzionamento perché la complessità tecnologica aumenta sempre, includendo discipline che si sono originate come settori dell’elettromagnetismo
classico, ma che, successivamente, si sono sviluppate in branche specialistiche molto sofisticate (a es.,
elettrotecnica, elettronica, fisica dello stato solido, ecc.). Impossibile quindi proporle a studenti liceali soprattutto facendo riferimento agli argomenti di Fisica classica di base, che sono impartiti necessariamente
nelle scuole. Tuttavia desideriamo offrire alcune riflessioni su alcuni argomenti di elettromagnetismo classico, che possono essere estratti (con una certa difficoltà) dall’esperienza di vita quotidiana.
6.1
Elettrostatica
Non è difficile avere esperienze concrete di fenomeni legati all’elettrizzazione per strofinio (triboelettricità),
cioè separazione di cariche elettriche dovuta a dissipazione di energia meccanica per attrito fra materiali
aventi diverse proprietà triboelettriche 2
• elettrizzazione dei capelli (ben asciutti, perché?) pettinati o spazzolati energicamente con pettine
d’osso o di plastica, che poi tendono a formare una chioma di capelli dritti, che vengono spostati
avvicinando loro il pettine o la spazzola. Funzionano meglio i capelli lunghi e fini (perché?);
• una sbarretta di vetro, elettrizzata tramite strofinio con un panno di lana, è capace di attrarre (per
induzione) piccoli pezzetti di carta o capelli o altri piccoli corpi isolanti, ma di peso molto modesto;
• panni di materiale facilmente elettrizzabile per strofinio, utilizzati come stracci per pulire per terra,
che raccolgono facilmente polvere e piccoli residui di sporco;
• indumenti di materiale sintetico, che si elettrizzano facilmente per strofinio (basta stare a sedere su
un divano per un po’ di tempo, muovendosi), e che generano una lieve scossa quando si tolgono.
Talvolta, se si tolgono velocemente in una stanza al buio, si vede anche una leggera luminescenza
attorno all’indumento. Ci si chieda perché;
• quando siamo seduti in auto, per un certo tempo, con indumenti di materiale sintetico o di lana, e si
scende dall’auto indossando scarpe isolanti (con la gomma, per esempio) si prende una lieve scossa
toccando l’auto o infilando la chiave nella serratura. Il fenomeno non si verifica se si ha l’avvertenza
di tenere una mano a contatto della parte metallica della carrozzeria mentre si scende dall’auto
1 Un buon insegnante deve sempre ricordare ai suoi allievi la profonda differenza che esiste fra comprendere, che deriva
dal latino cum + prehendere → prendere insieme, far proprio, e apprendere, che deriva da ad + prehendere → prendere
vicino. Bisogna che gli argomenti trattati vengano metabolizzati, diventino parte di noi, cioè vengano compresi.
2 La serie triboelettrica è sostanzialmente un elenco di materiali, disposti in modo da rappresentare qualitativamente la
loro abilità a cedere elettroni per strofinio; i primi sono elettropositivi (ottimi datori di elettroni e troviamo la pelle umana
asciutta, vetro, lana, ecc.), gli ultimi elettronegativi (ottimi accettori di elettroni e troviamo polietilene, PVC, teflon).
77
(cioè mentre si separano le cariche accumulate sull’indumento e sulla carrozzeria dell’auto), o se
siamo scalzi, oppure se piove, oppure se l’auto è dotata di una catenella metallica che tocca terra.
Perché?
• i fulmini, che si originano sostanzialmente quando cumulonembi (nubi temporalesche ad alto contenuto di vapor d’acqua) si muovono ad alta velocità rispetto al suolo, per cui si caricano negativamente (nella parte inferiore del cumulonembo) e positivamente (nella parte superiore). Per
induzione le parti emergenti del terreno (alberi, case, ecc.) si caricano positivamente mentre il terreno si carica negativamente. In questo modo si viene a stabilire un’elevata differenza di potenziale
fra la parte inferiore del cumulonembo e la Terra, che accelera gli ioni presenti in atmosfera. Questi
ionizzano per urto altri gas atmosferici, creando miniscariche locali che si propagano stocasticamente instaurando un processo a valanga che, con un percorso talvolta bizzarro, si propaga fino
a Terra, dando luogo al fenomeno che chiamiamo fulmine. Si potrebbe dire che il fulmine è una
specie di percolazione veloce di cariche elettriche, che si amplifica nel corso del suo cammino, come
succede nella formazione di alluvioni, frane e smottamenti a seguito di violente e improvvise piogge.
In realtà la conoscenza attuale dei fulmini è molto più complessa della semplicistica spiegazione
data precedentemente 3 ; si tratta di correnti improvvise di plasma ad alta energia, con differenze di
potenziale ≈ 1 − 10 GV , correnti ≈ 10 − 200 kA, temperature elettroniche ≈ 5 · 104 K, quantità di
carica trasportata ≈ 5−10 C, velocità di propagazione media ≈ 100−300 km/s. La loro trattazione
quantitativa richiede quindi profonde conoscenze di Fisica del plasma, impresentabili nel contesto
scolastico (ma anche universitario, almeno per i primi anni di corso).
I valori sopra esposti ci dicono chiaramente che i fulmini sono estremamente pericolosi 4 ; non solo se
si viene investiti direttamente, ma anche se cadono nelle vicinanze perché le correnti indotte dagli
intensissimi campi elettrici impulsivi possono provocare seri danni sia biologici sia alle apparecchiature elettriche ed elettroniche a noi vicine. Bisognerebbe dotare gli edifici di apparecchiature per
l’eliminazione delle sovratensioni impulsive, che però sono costose.
A proposito di fulmini sono da ricordare l’utilità e le proprietà su cui è basato il parafulmine: essenzialmente il cosidetto potere delle punte. Si consiglia di riguardare criticamente la struttura di un parafulmine
e di come debba essere collegato a terra per risultare efficiente 5 .
Altro fenomeno collegato all’elettricità atmosferica è quello dei fuochi di S. Elmo, cioè la leggera luminescenza che si origina nelle parti superiori degli alberi di imbarcazioni che stanno navigando in mare
aperto, ma anche sulla sommità di ciminiere e di alte guglie di chiese durante violente tempeste con nubi
basse. Perché?
6.1.1
Condensatori
I condensatori possono essere pensati come spugne per le cariche elettriche e risultano utili quando si
verificano nei circuiti interruzioni improvvise di correnti elettriche, che provocano le cosidette extracorrenti di apertura (o di chiusura), legate alla legge di Faraday-Neumann. Condensatori sono posti in
parallelo alle porte degli elettrodomestici, per evitare che durante il loro funzionamento, magari sotto
carico di correnti elettriche notevoli (resistenze di riscaldamento o motori), l’apertura (improvvida) della
porta crei una violenta scintilla sul blocco della porta con conseguenze anche spiacevoli per l’incauto
operatore. Sono messi in parallelo ai terminali di apertura/chiusura dei relais e negli starter dei tubi
fluorescenti (unitamente a induttanze e interruttori termici). Sono ampiamente utilizzati per rifasare le
correnti e le tensioni nei circuiti a c.a. (sia a costanti concentrate che nei circuiti integrati), ma queste
utilizzazioni appartengono a specialisti e non sono trasferibili nell’ambito scolastico.
3 Sono state recentemente scoperte, con misure dallo spazio, anche emissioni di raggi γ associate a fulmini molto violenti
e questo complica notevolmente la spiegazione fisica di questi fenomeni.
4 Una corrente di ∼ 20 mA può già produrre folgorazione.
5 È altamente consigliabile ribadire agli studenti le norme prudenziali da seguire durante i temporali con associate
emissioni di fulmini: non stare in piedi vicino ad alberi o pali soprattutto metallici, non toccare aste metalliche, possibilmente
restare in luogo chiuso e isolato (la casa, l’auto isolata da terra, sono ottimi rifugi in caso di fulmini, funzionano da eccellenti
gabbie di Faraday), non rimanere su tetti e spioventi elevati, cime di montagne, ecc.
78
6.1.2
Multimetri
I multimetri (chiamati anche tester) dovrebbero essere usati ampiamente in laboratorio per misure di
intensità di corrente e differenze di potenziale (sia in c.c. che c.a.), resistenza elettrica (c.c.) e impedenza
(c.a.), in vari circuiti per verificare le leggi di Ohm e di Kirchhoff (almeno!). Tuttavia è utile sottolineare la
loro utilità anche nella vita quotidiana per controllare il funzionamento (o meglio il malfunzionamento)
di apparecchi ed elettrodomestici. Spesso di tratta di interruzioni di contatti, di prese o spine in cui
qualche filo si è allentato (anche per la pessima abitudine [forse meglio definibile come barbarie!] di
alcuni sprovveduti di togliere le spine dalle prese afferrandole per il filo di trasmissione); in questi casi
l’intervento di ripristino è semplicissimo e può essere eseguito da chiunque.
È bene ribadire che le misure in c.a. sulla rete domestica (220 V) sono pericolose e vanno eseguite solo da
esperti; il rischio di folgorazione è elevato. Se proprio si devono eseguire misure di tensione sotto carico
è consigliabile di mettersi guanti isolanti, porre sotto i piedi un’asse di legno e stare molto attenti a non
essere in contatto, con altre parti del corpo, di oggetti conduttori verso terra.
Per le misure di resistenza l’oggetto va sempre tolto dall’alimentazione (qualunque essa sia) e va fatta
molta attenzione affinché i puntali del multimetro non vedano chiusure di circuito all’esterno dei puntali.
In altre parole, se si desidera misurare la resistenza elettrica di un componente bisogna che non sia in
contatto elettrico con tutto quanto di trova a monte e a valle del componente, altrimenti si misurerà la
resistenza efficace di quanto è presente all’esterno del componente 6 .
Didatticamente sono da preferire i multimetri analogici (ormai rari anche nei laboratori) perché danno la
possibilità allo studente di seguire la procedura di funzionamento della misura (si vede spostare la bobina
mobile, l’ago sulla scala graduata, si deve imparare ad apprezzare il corretto posizionamento dell’ago
mobile sulla scala, magari con l’aiuto di uno specchietto, ecc.). I multimetri digitali forniscono solo un
numero sul display (oppure lo inviano direttamente a un calcolatore che effettua poi il trattamento dei
dati) e l’operatore è una specie di servo-muto passivo 7 . Non vogliamo essere retrogradi e antistorici,
vogliamo solo dire che, inizialmente, i processi di apprendimento, anche nell’esecuzione di misure fisiche,
devono essere interiorizzati dallo studente e per questo è necessario condividerne al massimo tutti i
passaggi operativi. Successivamente, nell’applicazione pratica, ci si deve avvalere di tutte le risorse
tecnologiche a disposizione, che però devono essere sempre calibrate e tenute sotto controllo. L’operatore
uomo non deve mai abiurare alla sua capacità di decisione e di critica.
6.1.3
Bilance piezoelettriche
Le moderne bilance elettroniche funzionano sfruttando l’effetto piezoelettrico 8 . In cristalli, che non
presentano un centro di simmetria nella loro struttura cristallina, tagliati in modo che le facce superiore
e inferiore (fra loro parallele) risultino ortogonali alle direttrici di simmetria della struttura cristallina,
se viene applicata una forza di compressione, normale a queste facce, si crea una differenza di potenziale
elettrico fra di esse,che inverte il segno se la compressione viene modificata in estensione (piezoelettricità
diretta). Se invece applichiamo una differenza di potenziale alle suddette facce, si nota una contrazione (o
estensione a seconda del segno) meccanica del cristallo (piezoelettricità inversa). Misurando la differenza
di potenziale ∆Vm creata dal posizionamento di un corpo pesante sul piattello della bilancia, dopo aver
tarato ∆Vm in termini della forza di compressione applicata al cristallo piezoelettrico della bilancia
(operazione fatta dal costruttore), si legge sul display digitale il valore attribuito alla massa del corpo.
Poiché queste bilance misurano la forza peso (che sappiamo varia sia con l’altezza sul livello del mare sia
con la latitudine del luogo), per misure accurate di massa devono essere tarate, al momento della misura,
con masse campione corrispondenti al limite della loro portata, a cui verrà assegnato il valore di fondo
scala e quindi tutte le successive misure indicheranno correttamente il valore delle masse dei corpi posti
sulla bilancia.
6 Ricordarsi
sempre i teoremi fondamentali delle reti lineari, Kirchhoff, Thevenin, Miller, ma anche Norton!
stessa osservazione vale nel caso dei calibri a corsoio classici, analogici, e quelli digitali, che sparano un numero a
cui si deve credere ciecamente.
8 L’effetto piezoelettrico fu scoperto nel 1880 sul quarzo, SiO , che possiede un reticolo cristallino trigonale, con tetraedri
2
Si − O uniti fra loro per i 4 vertici a formare spirali spaziali ad andamento destro o sinistro.
7 La
79
6.1.4
Fotocopiatrice
Un’interessante applicazione dell’elettrostatica è fornita dal funzionamento della fotocopiatrice. Una
cinghia metallica (messa a terra) è ricoperta da un sottile strato di materiale fotoconduttore (spesso
è usato selenio 9 ). La superficie libera del fotoconduttore viene elettrizzata negativamente tramite un
opportuno elettrodo metallico e
quindi, per induzione, si forma
una distribuzione di cariche posifusione toner su carta
cilindro di pressione
tive sulla superficie superiore del- vassoio carta
bianca
la cinghia di supporto [fase 1, v.
4)
raccolta fotocopie
Fig.(6.1)]. Successivamente l’immagine del documento da fotocopiare viene proiettata, tramite
polarizzazione Se
un opportuno sistema ottico e
1)
d’illuminazione, sul fotocondutelettroni
cinghia metallica
tore [fase 2]. Le aree illuminate
3)
divengono conduttrici e quindi gli
2)
elettroni depositati sul fotocontoner
duttore vengono in contatto con la
immagine documento
strato di Se
superficie (carica positivamente)
della cinghia metallica e scaricati
Figura 6.1: Schema di una fotocopiatrice tradizionale
a terra. Invece le aree dove si sono
formate le lettere, disegni, grafici dell’immagine originale, nere, rimangono non conduttrici e conservano
la loro elettronegatività. Successivamente [fase 3], tramite una specie di spazzola viene depositato il toner
10
, caricato positivamente, che quindi si attacca alle zone scure del fotoconduttore. Il fotoconduttore viene
poi illuminato uniformemente di nuovo, affinché possa essere cancellata del tutto l’immagine di carica
dal fotoconduttore e quindi le particelle di toner si possano poi staccare facilmente dal fotoconduttore e
aderire al foglio di carta bianca (leggermente caricata negativamente in modo da tenere aderenti
le particelle di toner). Alla fine [fase 4] il foglio
viene pressato e riscaldato in modo che le particelle di toner fondano e s’incorporino nella struttura della cellulosa del foglio, che uscirà alla fine
nel vassoio di raccolta delle fotocopie. Riportiamo,
per maggior chiarezza, in Fig.6.2 lo schema delle
quattro fasi principali per il funzionamento di una
fotocopiatrice tradizionale.
Le fotocopiatrice moderne utilizzano sistemi con
rivelatori digitali d’immagini e con un opportuno
processore la macchina può inviare l’immagine digitale via telefono (FAX), oppure inviarla a una
memoria di calcolatore (SCANNER), oppure in- Figura 6.2: Le quattro fasi principali di una
viarla a un sistema di stampante laser, interno fotocopiatrice tradizionale
alla macchina, riprocessando il tutto come prima
descritto (FOTOCOPIATRICE).
6.2
Fornitura dell’energia elettrica
Come è noto l’energia elettrica viene fornita nelle nostre abitazioni sotto forma di c.a. monofase, a 50 Hz,
220 V (valore efficace)11 .
Dalle centrali di produzione di energia elettrica partono le linee ad alta tensione (AT), trifase, con
9 Il 79 Se è un metalloide, chimicamente affine allo zolfo, isolante al buio, che presenta, nella sua forma cristallina, bande
34
di valenza separate da ≃ 2 eV dalla banda di conduzione, per cui se viene investito da un fascio di radiazione visibile la sua
conducibilità elettrica aumenta di un fattore ∼ 103 e diventa conduttore.
10 Polvere plastica isolante che può contenere anche pigmenti colorati.
11 In realtà dovrebbe essere fornita a 230 V, con una tolleranza del 10%, ma normalmente le misure delle tensioni di rete
domestica si aggirano attorno ai 220 V di valore efficace.
80
Vef f ≈ 60 − 400 kV (nel caso italiano la Vef f tipica è dell’ordine di 380 kV) 12 , e potenze trasportate
≈ 100 − 400 MVA. Tramite cabine primarie di trasformazione (operazione semplice con c.a., almeno
in linea di principio,) si passa alla rete locale di media tensione (MT) ≈ 10 − 30 kV, per poi arrivare,
tramite cabine di trasformazione secondaria (le cabine ENEL che vediamo comunemente in giro) alla
bassa tensione (BT), con Vef f < 400 V, che viene fornita ai comuni utilizzatori sotto forma di tensione
trifase oppure monofase (quella per il normale uso domestico). Grandi utilizzatori di energia elettrica
(officine, grandi aziende, centri commerciali ecc.) hanno le proprie centrali secondarie di trasformazione
MT/BT.
Il vantaggio di usare la c.a. è di facilitare le procedure di trasformazione di tensione in modo da trasportare
elevate potenze senza immettere eccessive intensità di corrente nelle linee primarie, che produrrebero
(effetto Joule) un’alta dissipazione di energia sulle linee di trasmissione fino anche alla fusione dei cavi.
Facciamo un semplice esempio: si voglia trasportare per un tratto di 10 km una potenza di 100 kW
usando un cavo di rame di 1.5 cm di raggio. Il cavo avrà quindi una resistenza elettrica totale RT =
ρCu · l/S ∼ 0.24 Ω , con ρCu ≃ 1.7 · 10−8 Ωm, resistività del rame e S ∼ 7.1 cm2 , sezione del cavo.
Se usassimo BT (220 V ) dovremmo immettere nel cavo una corrente i1 = P/Vef f ∼ 0.45 kA, che
produrrebbe una dissipazione Joule sul cavo di PJoule,1 = RT · i21 ∼ 0.5 · 105 W, corrispondente al 50% di
quanto si vorrebbe utilizzare, quindi inaccettabile (con alti rischi anche della fusione del cavo!). Se invece
utilizziamo la MT (∼ 2.2 · 104 V), la corrente sul cavo si ridurrebbe a i2 ∼ 4.5 A e conseguentemente
la dissipazione Joule sarebbe in questo caso di PJoule,2 ∼ 5 W, praticamente nulla rispetto a quella
trasportata. Si può quindi anche pensare a ridurre la sezione del cavo fino a limiti di dissipazione
accettabili ma con evidente semplicità ed economicità costruttiva. Si lascia al lettore la valutazione della
convenienza nell’uso dell’AT.
Ovviamente il trasporto in AT comporta grossi problemi d’isolamento 13 , ampiamente compensati dai
vantaggi di efficienza nel trasporto dell’energia.
La BT monofase normalmente utilizzata per usi domestici ha una Vef f ∼ 220 V e può essere molto
pericolosa. Infatti una corrente iM ∼ 17 mA a 50 Hz che attraversa il nostro corpo può risultare mortale
(per soggetti deboli). Il corpo umano presenta una resistenza elettrica totale RT data dalla somma della
resistenza della pelle Rpelle ≈ 3 kΩ (pelle asciutta) e Rpelle ≈ 102 Ω (pelle bagnata), e dalla resistenza
interna degli organi stimabile in Rinterna ≈ 100−500 Ω. Convenzionalmente viene assunta una RT ≈ 3 kΩ
14
. Conseguentemente la tensione minima pericolosa a 50 Hz sarà im · RT ∼ 50 V.
L’impianto domestico deve prevedere quindi non solo l’alimentazione (con 2 fili, uno per la fase [colore marrone] e
l’altro per il neutro [colore blu]), ma anche un terzo cavo
[colore giallo/verde], collegato a terra, tramite un opportuno
dispersore, che dovrà sempre essere presente in tutte le prese
di tensione, spine ed elettrodomestici. Tuttavia si può sempre verificare un incidente e creare un contatto della fase con
qualche elemento metallico; in questo caso si potrebbe creare
un serio pericolo per chi entrasse in contatto con l’elemento sotto tensione (soprattutto se non adeguatamente isolato
da terra). Per questo sono stati imposti gli interruttori differenziali (chiamati anche salvavita), che sconnettono (entro
alcuni ms dall’incidente eventuale) l’alimentazione generale
dell’impianto monofase dell’abitazione. Con riferimento alla Fig.(6.3) la linea di fase dell’alimentazione è avvolta, in
forma di bobina, (P1 nella figura), su un toro di materiale
ferromagnetico per poi andare al circuito di utilizzazione, Figura 6.3: Schema di un interruttore
rappresentato nella figura da Ru , dove dovrebbe scorrere differenziale
12 Sono i grandi e alti tralicci metallici che sostengono 4 grossi cavi, di cui il centrale è il neutro e i tre laterali, disposti a
120◦ , trasportano le 3 fasi della c.a.
13 Esistono prescrizioni severe nelle distanze minime da rispettare per costruzioni, coltivazioni, attività di ogni tipo, dalle
linee ad AT per evitare scariche elettriche mortali ma anche fonti d’incendi.
14 Gli effetti prodotti dal passaggio della corrente elettrica sono molteplici, vanno dalla semplice scossa muscolare alla
tetanizzazione [contrazione permanente dei muscoli] all’arresto respiratorio e alla fibrillazione ventricolare fino alla folgorazione. Si consiglia di consultare un testo di fisiologia al riguardo per poi illustrare, magari con la collaborazione
dell’insegnante di Scienze, ai ragazzi i pericoli collegati con l’uso non consapevole dell’energia elettrica.
81
una corrente I. Se in Ru si ha una dispersione Id verso terra, nel percorso di ritorno verso il neutro la
corrente diminuirà a I − Id e nella bobina P2 , avvolta in senso contrario a P1 sul toro, il flusso magnetico
nel toro non sarà più nullo, ma diverso da zero. Conseguentemente, per la legge di Faraday-Neumann, nella bobina S si genera una tensione indotta che alimenta un relais SW che stacca (quasi immediatamente,
entro alcuni ms) l’alimentazione generale all’impianto permettendo il controllo del malfunzionamento e
il ripristino delle condizioni di sicurezza.
Al fine di operare in regime di massima sicurezza, è sempre consigliabile di toccare un elemento metallico,
su cui si sospetta possa esistere una dispersione di tensione d’alimentazione, col dorso della mano e delle
dita, per evitare che l’eventuale scossa possa indurre la tetanizzazione permanente dei muscoli della mano
e rimanere conseguentemente attaccati al conduttore sotto tensione.
Alcune considerazioni (che dovrebbero essere ovvie ma, come spesso si sente, non lo sono) sulla bolletta
relativa alla fornitura dell’energia elettrica:
• il costo della fornitura dell’energia elettrica è per kWh d’energia fornita, essendo 1 kWh = 3.6 MJ
l’unità di misura dell’energia consumata;
• il costo dipende dalla fascia di potenza massima utilizzabile, imposta dal cosidetto contatore, che non
è altro che un wattmetro con limitazione di potenza erogabile. Questa limitazione serve al gestore
dell’energia per sapere la potenza massima che deve erogare, per contratto, in una determinata
zona, cioè per sapere quale dovrà essere la massima intensità di corrente che le sue linee dovranno
sopportare (la tensione di fornitura è fissa!);
• il costo della fornitura dipende dall’orario in cui si utilizza l’energia elettrica, è minore nella fascia
notturna e festiva (quando prevedibilmente officine e aziende sono chiuse), è maggiore nella fascia
diurna.
Per limitare errori e incidenti con l’energia elettrica esiste (dal 1990) una normativa europea (CEI 164/EN60446) che impone l’uso di colori ben definiti per i fili utilizzati per realizzare impianti elettrici:
• c.a. trifase: blu → neutro, nero → fase Linea1, grigio → fase Linea2, marrone → fase Linea3, altri
colori → usi generali di circuito;
• c.a. monofase: blu → neutro, marrone → fase, giallo/verde → terra;
• c.c.: rosso → conduttore +, nero → conduttore - .
Riportiamo nella Fig.(6.4), per sollecitare la curiosità
dei futuri insegnanti anche su aspetti tecnici (ma spesso di
DEV 2
1111111
1111
0000
0
1
0
1
grande interesse pratico), uno schema di un impianto di ali- 0000000
0
1
0
1
0
1
DEV 1
0
1
0
1
mentazione di un punto-luce con due deviatori, che permette
0
1
0
1
0
1
0
1
0
1
di accendere e spengere da due punti diversi della stanza il
0
1
0
1
0
1
0
1
0
1
punto-luce considerato.
0
1
0
1
0
1
111111111111111
000000000000000
111111111
000000000
Ovviamente per schemi molto più complessi di accenPL
sione/spegnimento (di diversi punti-luce ecc.) la situazione
220 V
sarà molto più elaborata e rimandiamo ai testi specifici al
riguardo.
Figura 6.4: Schema di un impianto di
illuminazione con due punti di accensione/spegnimento.
82
Appendice A
Introduzione fenomenologica alla
meccanica quantistica
I nuovi programmi della scuola secondaria superiore (licei) prevedono che all’ultimo anno del corso di
Fisica siano impartiti anche cenni introduttivi alla Meccanica Quantistica. L’argomentazione usata dalla
propaganda ministeriale è che bisogna iniziare a insegnare ai giovani scienziati del futuro la Fisica del XX
secolo e non limitarsi a quella sviluppata fino alla fine del XIX secolo. Potrebbe sembrare un argomento
ragionevole ma invece rivela la solita logica superficiale (e sostanzialmente miope) dei nostri ministeri,
fra cui eccelle (in questo atteggiamento dannoso) il MIUR.
Infatti la Fisica (come la Matematica, la Chimica ecc.) è una scienza logico-deduttiva, che procede per
passi di conoscenze e acquisizioni successive. Occorre aver ben chiare tutte le conoscenze logicamente
e cognitivamente precedenti, non solo e non tanto temporalmente, ma soprattutto dal punto di vista
formativo. Poiché l’ignoranza (in senso strettamente etimologico del termine) della popolazione scolastica media aumenta a ritmo vertiginoso 1 , le conoscenze realmente acquisite (forse sarebbe meglio dire
metabolizzate) dagli studenti liceali in Fisica non sono, in media, sufficienti a coprire nemmeno una parte
della Fisica cosidetta classica. Sembra quindi “ardito” (per non dire insensato) proporre loro un percorso
difficile e impegnativo come quello di iniziare i prodromi della Meccanica Quantistica.
Tuttavia la disposizione esiste e i colleghi che insegnano Fisica nei licei si trovano conseguentemente in
grande difficoltà. Abbiamo pensato di preparare alcuni appunti basati soprattutto sulle evidenze sperimentali che hanno portato, nel primo quarto del XX secolo, grandi fisici (ma spesso anche grandi Uomini)
a creare questo edificio culturale bellissimo, ma molto difficile, che è la Meccanica Quantistica, come la
conosciamo e usiamo adesso.
Va subito detto che la sua applicazione riguarda principalmente il microcosmo 2 , cioè i fenomeni
che avvengono dalle scale molecolari ≈ 10−9 m fino a quelle subnucleari < 10−15 m. La Fisica classica newtoniana conserva tutta la sua validità e bellezza per tutti i fenomeni che avvengono nella scala
antropocentrica e con velocità trascurabili rispetto alla velocità di propagazione della radiazione elettromagnetica nel vuoto; nel caso opposto occorre far ricorso, come ben noto, alla correzione relativistica,
come sviluppata da Einstein.
Risulterà subito evidente che per seguire proficuamente gli argomenti proposti è necessario che i principali capitoli di Fisica Generale (soprattutto l’Elettrologia) siano stati ben compresi e assimilati. Questo
obbiettivo è estremamente ambizioso e solo pochi studenti (ma purtroppo anche non tutti i docenti)
lo raggiungono e senza questo prerequisito, assolutamente necessario, sarà inutile qualunque sforzo per
avvicinarsi alla comprensione del mondo della microfisica.
La concatenazione logica e conoscitiva delle varie esperienze e spiegazioni fisiche che hanno portato alla
formalizzazione della meccanica quantistica alla fine degli anni ’30 del secolo scorso è piuttosto articolata
1 Basta leggere una qualunque relazione scritta da studenti universitari dei primi anni per rendersene conto, in cui si
trovano errori di ortografia clamorosi, consecutio temporum strampalate, frasi mozze, vuoti drammatici nelle fondamentali
conoscenze di matematica elementare, tipo impossibilità di risolvere una proporzione, oppure attonita meraviglia alla
domanda di scrivere il volume di una sfera di dato raggio e simili beatitudini!
2 In realtà questo è vero solo parzialmente perché esistono fenomeni quantistici che si verificano anche su scale
macroscopiche. come la superfluidità e la superconducibilità, nei quali entra in gioco pesantemente anche la temperatura
83
Onde
Esp. classiche diffrazione e interferenza:
comportamento ondulatorio
Corpo nero → ∆E discreti e quantizzati
Corpuscoli
Teoria cinetica gas, chimica → atomi, molecole
Eff. Hall → portatori cariche negative
nei conduttori
Raggi X → alta penetrazione
Radioattività naturale →
α, β, γ
Esp. Thomson → elettroni, misura di −(e/me )
Esp. Millikan → e− (valore minimo) → me
Effetto fotoelettrico → fotoni → dualismo onda/corpuscolo
Esp. Rutherford → atomi ≡ strutture
localizzate (nucleo + con e− periferici)
Teoria Bohr
Spettri atomici → strutture discrete
dei livelli energetici dell’atomo
Esp. Franck-Hertz → quantizzazione
orbite e− nell’atomo
Esp. Compton → fotoni trasportano
Esp. Davisson-Germer → particelle mostrano
~ e p~, come corpuscoli
E
comportamenti “ondosi” (diffrazione)
Particelle atomiche → dualismo onda/corpuscolo
De Broglie, Heisenberg, Schroedinger, Dirac, .... → Meccanica Quantistica,
necessaria per trattare fenomeni atomici, nucleari, subnucleari.
Tabella A.1: Quadro sinottico delle connessioni fisiche e conoscitive che hanno portato alla meccanica
quantistica.
e non “lineare”. Abbiano tentato di riassumerla nella tabella A.1 che speriamo risulti chiara e autoesplicativa. Nella nostra esposizione del testo seguiremo invece un percorso storico-cronologico per evidenziare
anche come le diverse nuove acquisizioni si siano mutuamente influenzate, in modo cosı̀ efficiente e, tutto
sommato, affascinante.
A.1
Lo spettro della radiazione di corpo nero
Abbiamo già trattato (v. paragr. 4.1.3) il corpo nero e le leggi che descrivono l’andamento spettrale
della radiazione emessa da un corpo nero, che rappresenta una della innumerevoli astrazioni-limite (punto materiale, sistema rigido, sistema di riferimento inerziale, gas perfetto, trasformazione quasi-statica
ecc.) tipiche della Fisica, situazioni a cui ci possiamo avvicinare quanto si vuole nei limiti delle precisioni
sperimentali richieste dall’analisi fisica dei fenomeni studiati.
Ci riferiamo all’ottima trattazione quantitativa sviluppata su questo argomento nel volume C.Mencuccini
- V.Silvestrini, FISICA II, ed. Liguori, NA, 1998, paragr. XII.1 e XII.2, a cui rimandiamo senza ripeterne
qui i dettagli. Ricordiamo solo che un corpo nero è realizzabile tramite una cavità, praticata in un corpo termicamente conduttore mantenuto a temperatura costante T . La cavità è in comunicazione con
l’esterno (dove c’è il vuoto) tramite una piccola apertura ∆S, le cui dimensioni lineari sono trascurabili
rispetto alle dimensioni della cavità, in modo da garantire che eventuali scambi di energia sotto forma
di radiazione elettromagnetica fra l’interno e l’esterno della cavità non possano alterare la stazionarietà
dell’equilibrio esistente fra i processi di emissione e assorbimento della radiazione da parte delle pareti
della cavità e, conseguentemente, si possa assegnare al campo di radiazione esistente nella cavità ( e
analizzabile tramite il pennello di radiazione che può fuoriuscire da ∆S) la temperatura T . La radiazione
elettromagnetica presente nella cavità dovrà essere uniforme e isotropa. Infatti se non fosse uniforme si
potrebbero individuare almeno due punti P1 e P2 all’interno della cavità fra cui si potrebbe stabilire un
flusso di energia raggiante; ma questo è proibito dal secondo principio della termodinamica, essendo il
sistema stazionario e isotermo. L’isotropia è garantita dal fatto che se, nell’intorno di un punto P , interno
alla cavità, esistessero almeno due direzioni spaziali per cui la radiazione elettromagnetica presentasse
intensità diverse, queste potrebbero essere messe in equilibrio fra loro (tramite una serie di opportune
84
superfici riflettenti, anch’esse alla temperatura T ) e realizzare quindi uno scambio di energia partendo
solo da due situazioni isoterme e violando cosı̀ ancora il secondo principio della termodinamica.
Con un ragionamento analogo si può adesso dimostrare che la radiazione elettromagnetica contenuta in
due cavità di corpo nero isoterme non può dipendere né dalla forma né dalla dimensione della cavità.
Se cosı̀ fosse, si potrebbero collegare otticamente (tramite una lente e un filtro interferenziale a banda
stretta, in modo da poter considerare la radiazione che fuoriesce come praticamente monocromatica) le
due aperture verso l’esterno delle due cavità nere e realizzare un trasferimento di energia raggiante da
quella a contenuto energetico superiore a quella a contenuto minore. Ma essendo le due cavità isoterme
questo è proibito sempre dal secondo principio della termodinamica e quindi l’assunto è dimostrato.
In conclusione possiamo dire che la densità di energia monocromatica della radiazione di corpo nero contenuta nella cavità considerata non può dipendere che dalla temperatura T della cavità e dalla frequenza
(o dalla lunghezza d’onda) a cui si considera.
Si può allora scegliere, per semplicità, una cavità quadrata di spigolo a e volume V = a3 . Rimandando
al paragrafo XII.1 del citato testo di C.Mencuccini - V.Silvestrini per i dettagli dei calcoli sviluppati, si
può dimostrare 3 che la densità numerica di onde monocromatiche elementari nν presenti nell’unità di
volume della cavità quadrata nell’intervallo di frequenze fra ν e ν + dν è
nν dν =
8π 2
· ν dν
c3
(A.1)
La statistica classica di Boltzmann, sviluppata nella seconda metà del XIX secolo, assegnava, a ogni grado
di libertà di un sistema termodinamico caratterizzato da una temperatura termodinamica T , un’energia
kB T , essendo kB = R/NA = 1.38066 10−23 J/K la costante di Boltzmann, definita dal rapporto fra la
costante dei gas perfetti R e il numero di Avogadro NA . Si otteneva conseguentemente che, moltiplicando
la nν della (A.1) per kB T , la densità di energia monocromatica risultava (formula di Rayleigh-Jeans 4 ),
espressa sia in funzione della frequenza ν che della lunghezza d’onda λ della radiazione considerata 5 ,
fν (T ) =
8π
· kB T · ν 2
c3
;
fλ =
8π
· kB T
λ4
(A.2)
La formula di Rayleigh-Jeans approssima abbastanza bene l’andamento dello spettro della radiazione di
corpo nero per alte λ (o basse ν), ma si discosta brutalmente dall’andamento dello spettro misurato della
radiazione di corpo nero nelle altre zone spettrali. Soprattutto è inaccettabile perché prevede la cosidetta
catastrofe dell’UV, cioè che andando a integrare l’emissione su tutto lo spettro si troverebbe l’assurdo di
un’emissione integrata che → ∞.
Il problema fu risolto da Planck (nel 1900), che suppose (lui stesso dice ...per disperazione!) che gli scambi
energetici fra le pareti della cavità e il campo di radiazione interno avvenissero SOLO per multipli interi
di una quantità elementare di energia, proporzionale alle frequenza della radiazione considerata, secondo
la relazione
E = h · ν ; h = costante di P lanck = 6.6263 10−34 Js
(A.3)
In altre parole, per ogni valore di ν, gli scambi energetici fra il campo elettromagnetico interno alla cavità
e le pareti della cavità stessa possono assumere, in condizioni stazionarie, solo i valori discreti
E = hν, 2hν, 3hν, 4hν, ... nhν.. con n → intero
(A.4)
Formalmente, mentre nella trattazione classica si determina l’energia media corrispondente alla frequenza
ν considerata tramite un integrale, nella trattazione di Planck, essendo non più nel continuo ma nel
discreto, si usano sommatorie. Nel nostro caso non è difficile mostrare 6 che il limite di questa serie,
corrispondente all’energia media degli scambi energetici prima detti per la frequenza ν, vale
E=
hν
exp(hν/kB T ) − 1
3 Sostanzialmente si usa il teorema di Fourier per esprimere il campo elettromagnetico in serie di onde monocromatiche
stazionarie, aventi nodi sulle pareti conduttrici della cavità.
4 L’evoluzione storica delle leggi fisiche sulla radiazione di corpo nero: legge di Stefan (sperimentale), 1879, giustificata
classicamente da Boltzmann, 1884; legge di Wien (ma con argomentazioni non molto convincenti), 1886; legge di RayleighJeans, 1990 e 1905.
5 Ricordiamo che nella trasformazione delle quantità energetiche radiative si deve imporre che g(ν) · dν = g(λ) · dλ,
mediante le sostituzioni ν = c/λ e dν = c · dλ/λ2 .
6 Vedere esempio E.XII.1 del paragrafo XII.2 del testo citato di C.Mencuccini - V.Silvestrini.
85
che, con la (A.1), fornisce l’esatto andamento dello spettro della radiazione del corpo nero, e cioè
fν (T ) =
hν
8π · ν 2
·
c3
exp(hν/kB T ) − 1
(A.5)
che è esattamente quanto avevamo presentato nel paragrafo 4.1.3.
Si noti che l’ipotesi di Planck riguarda gli scambi energetici che avvengono a livello microscopico, atomico
e molecolare, della materia, per il valore molto piccolo della costante di Planck h. Solo con radiazioni di
frequenza elevata (si pensi al range dello spettro visibile, con ν ≈ 1014 Hz) e con un numero elevatissimo
di scambi energetici si possono raggiungere livelli d’intensità misurabili in termini macroscopici tipici del
nostro livello di uso comune.
A.2
Lo spettro dell’atomo di idrogeno
Lo spettro di emissione dell’atomo d’idrogeno presenta solo 4 righe nel visibile, di cui riportiamo le
lunghezze d’onda (in µm)
Hα 0.656280 [rosso]
Hβ 0.486136 [celeste] Hγ 0.434049 [blu] Hδ 0.410167 [violetto]
La posizione in lunghezza d’onda di queste righe tende
ad avvicinarsi e Balmer (1885), fotografando anche le
righe successive (vedi Fig.A.1), nell’UV vicino, mostrò
che realmente tendono ad affittirsi fino a un limite attorno a λ = 0.3645979 µm. Misurò tutte le lunghezze
d’onda delle righe che riuscı̀ a registrate e trovò (dopo
affannosi tentativi) che la regolarità nell’apparente
posizione in lunghezza d’onda delle varie righe della serie (che poi da lui prese il nome) poteva essere
espressa dalla relazione
Figura A.1: Serie di Balmer dell’idrogeno
n2
B = 0.36450682 µm, n > 2 intero
(A.6)
λn (Balmer) = B ·
n2 − 4
Era più semplice esprimere matematicamente la regolarità di posizione delle varie righe della serie di
Balmer tramite il loro numero d’onde ν = 1/λ per cui la (A.6) diviene conseguentemente
1
4
1
ν(Balmer) = Ry ·
con Ry =
−
, n > 2 intero
(A.7)
22
n2
B
La costante Ry = 1.0973731568 · 10 µm−1 è detta costante di Rydberg (per l’atomo di Idrogeno) 7 .
Nel 1908 Paschen scoprı̀ che nel vicino IR l’idrogeno emetteva una serie di righe (che da lui prese in nome)
con lo stesso andamento regolare in lunghezza d’onda della serie di Balmer, esprimibile come
1
1
ν(P aschen) = Ry ·
− 2
n > 3 intero
(A.8)
32
n
Nel 1914 Lyman scoprı̀ nell’UV lontano una serie simile alle precedenti (serie di Lyman), le cui posizioni
dei numeri d’onda erano esprimibili come
1
ν(Lyman) = Ry · 1 − 2
n > 1 intero
(A.9)
n
Furono in seguito scoperte le serie spettrali successive di Brackett (IR medio) e di Pfund (FIR); i numeri
d’onda di tutte le righe (indicate dalla lettera n) di queste serie spettrali (indicate dalla lettera m)
dell’Idrogeno potevano essere espresse nella stessa forma come 8
1
Ry
1
Ry
ν n (m) = Ry ·
− 2 = 2− 2
n > m entrambi interi
(A.10)
2
m
n
m
n
7 Valore
8m
attuale da physics.nist.gov.
= 1 → Lyman, m = 2 → Balmer, m = 3 → Paschen, m = 4 → Brackett, m = 5 → Pfund.
86
Lyman (m=1)
Lα 10.20 eV
Lβ 12.09 eV
Lγ 12.76 eV
Lδ 13.06 eV
Lǫ 13.23 eV
L7 13.33 eV
L8 13.39 eV
Balmer (m=2)
Paschen (m=3)
Hα 1.89 eV
Hβ 2.55 eV
Hγ 2.86 eV
Hδ 3.02 eV
Hǫ 3.12 eV
H8 3.19 eV
Pα 0.66 eV
Pβ 0.97 eV
Pγ 1.13 eV
Pδ 1.23 eV
Pǫ 1.30 eV
n
2
3
4
5
6
7
8
Tabella A.2: Livelli energetici dell’atomo di H.
Per inciso, la (A.10) suggerisce un utilissimo esercizio da proporre agli studenti. Sul sito web del National
Institute of Standard and Technology www.nist.gov, alla sezione Physics, sottosezione Atomic Spectra
Database Lines, si trovano le lunghezze d’onda di tutte le righe misurate dello spettro di emissione dell’H
9
. Ricavando le νn (m) (in numeri d’onda per µm) per le prime 8-10 righe delle serie di Lyman, Balmer e
Paschen (ma si può anche continuare!), riportandole in grafico in funzione di 1/n2 , si vede che si ottiene
un grafico lineare di cui si può facilmente stimare il coefficiente angolare (che deve dare il valore della
costante di Rydberg, espresso in µm), mentre il termine noto fornisce al quantità Ry /m2 , controprova
della corretta determinazione di Ry .
La (A.10) esprime analiticamente il principio di combinazione di Rydberg-Ritz della spettroscopia classica.
Fu quindi evidente che la regolarità delle serie di righe spettrali dell’H era una proprietà intrinseca
dell’atomo di idrogeno.
Il principio di Kirchhoff della spettroscopia classica afferma che
qualunque sostanza è capace di assorbire solamente le radiazioni che
è capace di emettere, cioè lo spettro di assorbimento di una sostanza è
come il “negativo” del suo spettro di emissione. L’ipotesi quantistica
di Planck suggerisce che, a livello microscopico, gli scambi energetici
col campo elettromagnetico possano avvenire, in situazioni stazionarie,
per quantità discrete proporzionali alla frequenza ν della radiazione. Si
può quindi scrivere il principio di Ritz in funzione di termini energetici
semplicemente moltiplicando la (A.10) per h c 10 . A livello atomico è
conveniente (e vedremo presto perché) esprimere gli scambi energetici
usando, come unità di misura l’eV , cioè l’energia acquistata dall’unità di carica sottoposta alla differenza di potenziale di 1 V . Essendo
h c = 1.9864685 10−25 Jm ed essendo 1 eV = 1.60218 10−19 J, esprimendo le lunghezze d’onda delle diverse righe spettrali considerate in
µm, otterremo i valori delle energie trasportate da ciascun quanto d’energia raggiante nella riga considerata ∆En (m) = 1.24 eV ·µm/λn (µm)
e questi valori sono riportati nella tabella A.2 per le prime righe delle
prime 3 serie spettrali dell’H. È evidente dai dati della tabella A.2 che
l’energia trasportata dalla Hα è esattamente la differenza fra Lβ − Lα ,
l’energia della Pα = Hβ − Hα = Lγ − Lα e cosı̀ via. Quindi l’atomo
di idrogeno è strutturato per livelli energetici stazionari e discreti, contraddistinti dal numero d’ordine n, a cui corrispondono livelli energetici
ben definiti e indicati dai livelli della serie di Lyman. Il livello n = 1 Figura A.2: Diagramma di
è detto livello fondamentale, cioè a energia minima, mentre il primo Grotrian per i livelli energetici
livello eccitato si trova a 10.21 eV ed è il livello energetico di partenza principali dell’idrogeno
9 Questo sito offre ottime sollecitazioni a uno studente attento: allena all’uso della lingua e dei termini scientifici inglesi,
presenta lo stato dell’arte per la misura delle costanti fisiche fondamentali, fornisce dati attendibilissimi e specifiche su
alcuni esperimenti (anche di Fisica attuale) interessanti, elenca tutti i convegni più importanti in corso di organizzazione,
suggerisce e fornisce (spesso gratuitamente) le pubblicazioni scientifiche del nist, può solleticare la curiosità del lettore
attento anche su altri argomenti di Fisica.
10 ∆E (m) = h ν (m) = h c ν (m) = h c/λ (m)
n
n
n
n
87
della transizione Lα in emissione, mentre la Hα si origina in emissione per la transizione dal livello n = 3
a n = 2 e cosı̀ via per tutte le righe delle altre serie.
Una chiara rappresentazione visiva di questa struttura è fornita dal diagramma di Grotrian per i livelli
energetici principali dell’H, mostrato in Fig.A.2.
A.3
Effetto Hall
Richiamiamo brevemente l’effetto Hall (1879) solo per ricordare che anche classicamente si era riusciti a
dimostrare che le correnti di conduzione erano dovute a moti di cariche negative.
L’effetto Hall consiste nel fatto che in una sbarretta conduttrice a forma di parallelepipedo rettangolare, di sezione s · d e lunghezza l, percorsa da una corrente continua di intensità I, sottoposta a un
~ ortogonale al vetcampo magnetico di induzione B,
~
tore densità di corrente J e allo spigolo d, si genera
una d.d.p. ∆VH fra punti della striscia conduttrice
A
d
B
a)
VH
posti in vicinanza dei bordi esterni della striscia ma
J
C
s
allineati al lato d (v. Fig.A.3, a), punti A e C, per
l
esempio).
+ + + +
− − − −
I portatori di cariche, in moto con una velocità di deri−
d
+
va ~v per effetto di una d.d.p. applicata all’esterno del- d
b)
v+
ES
v−
ES
− − − −
la sbarretta da un opportuno generatore di tensione,
+ + + +
~ per
B
sono soggetti alla forza di Lorentz F~L = n q ~v × B
l
l
11
~
la presenza del campo B . Tale forza produce un accumulo di cariche sulle superfici laterali che genera un
Figura A.3: Schema illustrante l’effetto Hall
~ S , diretto lungo d e con i versi
campo elettrostatico E
indicati nella Fig.A.3, b), che si oppone al campo elettrico (non conservativo), indotto dall’effetto Hall, vB.
In situazione stazionaria avremo che ES = v B e questo ES crea una VH = ES d = v B d = V (C)− V (A),
che si può misurare fra le facce laterali della sbarretta (v. punti A e C in Fig.A.3, a)) con un opportuno
microvoltmetro 12 .
Ricordando che I = J s d = n q v s d, con q carica elettrica dei portatori e n il numero di portatori di
carica per unità di volume, otteniamo
v=
I
nqsd
;
VH = RH ·
I B
s
RH =
1
nq
(A.11)
RH viene detta la costante di Hall, il cui valore risulta mediamente dell’ordine di ∼ 10−11 m3 /C.
Per i conduttori metallici RH assume valore negativo, indicando che in questo tipo di conduttori i portatori
di carica sono negativi, cioè elettroni 13 .
A.4
La scoperta della radiazione X e della radioattività naturale
Nel 1895 Roentgen scoprı̀ i raggi X studiando la conduzione di correnti elettriche in tubi contenenti gas
rarefatti 14 . Queste radiazioni avevano la capacità di attraversare spessi strati di materia e venivano
rilevati inizialmente dalla loro capacità di impressionare lastre fotografiche poste al riparo in contenitori
11 È bene ricordare che il verso della forza di Lorentz è indipendente dal segno dei portatori di cariche, perché se i portatori
sono negativi si inverte anche il segno di v, cioè quello che conta è il verso di J~ = q · ~
v, densità di corrente, per cui, fissato il
~ le cariche si separeranno sempre nello stesso modo, accumulandosi cioè dalla stessa parte laterale della sbarretta,
verso di B,
per cui il segno della VH misurata evidenzia inequivocabilmente il segno dei portatori di carica. Nella Fig.A.3, con il campo
~ uscente dal foglio, se i portatori di carica sono positivi le cariche positive si accumulano nel lato C della sbarretta, e
B
quindi quelle negative vanno verso il lato A, inversamente se i portatori di carica sono negativi.
12 Il valore di V
H è dell’ordine di alcuni µV , per cui è fondamentale eseguire la misura minimizzando possibili errori
sistematici e quindi i puntali del microvoltmetro vanno posizionati in punti A e C piazzati ortogonalmente alla direzione di
~ È comunque consigliabile controllare l’azzeramento della lettura del microvoltmetro con B
~ nullo.
J.
13 A seguito dell’esperienza di Millikan è stato evidenziato che q assume, in media, un valore per atomo dell’ordine di 1 − 2
cariche elementari (1.3 → Cu, 1.4 → Ag, 1.8 → Au).
14 Sappiamo adesso che raggi X si originano per radiazione di frenamento di elettroni a energia elevata, dell’ordine del
keV , che vengono frenati nell’urto contro l’anodo metallico positivo.
88
schermati. Non erano influenzati né da campi elettrici né da campi magnetici, per cui non trasportavano
cariche elettriche. Fu dimostrato da Laue (1912)15 che venivano diffratti da un reticolo cristallino,
per cui si dedusse che fossero onde elettromagnetiche
di corta lunghezza d’onda (≈ 10−10 m).
Nel 1896 Becquerel, studiando la fosforescenza indotta da raggi X su vari materiali, mentre stava analizzando il comportamento del solfato di 92 U , scoprı̀
che questa sostanza era capace di annerire una lastra
fotografica anche se tenuta lontana dalle sorgenti di
raggi X e completamente al buio. Questo significava
che l’92 U emetteva radiazioni molto penetranti, che
riuscivano a passare anche attraverso schermi apparentemente impenetrabili.
Mettendo sali di 88 Ra entro un contenitore di Pb (materiale che dimostrava un effetto schermante molto
efficiente per queste radiazioni allora sconosciute),
con spesse pareti ma con un piccolo forellino su una
parete, riusciva in tal modo a produrre un sottile pennello di queste radiazioni, che venivano fatte passare
in una zona di spazio in cui era presente un campo
~ costante e uniforme, che Figura A.4: Schema illustrante l’esperimento di
di induzione magnetica B
supporremo entrante nel piano dell’esperimento, in Becquerel
accordo con la Fig.A.4. Sulla lastra fotografica antistante si rivelavano 3 distinte zone impressionate:
1. prima zona allineata col foro di uscita del fornetto e ortogonale al piano della lastra fotografica;
~ non aveva avuto nessun effetto deviante sulla traiettoria
questo significava che il campo magnetico B
di questo raggio, che fu chiamato raggio γ. Successivamente fu determinato essere costituito da
radiazione elettromagnetica di lunghezza d’onda molto inferiore ai raggi X (≈ 10−13 m).
2. una seconda zona, a destra della precedente, e questo raggio fu chiamato raggio β, successivamente
identificato come un elettrone ad alta velocità.
3. una terza zona, a sinistra dell’immagine centrale del raggio γ, meno deviata di quella del raggio β,
chiamata raggio α, successivamente identificato come un nucleo di 4 He, composto da due protoni
e due neutroni (uno dei nuclei più stabili che si conoscano).
Nel 1898 Pierre Curie e sua moglie Marie Sklodowska studiarono più in dettaglio le radiazioni α, β e γ
emesse dall’ 92 U e scoprirono nella pechblenda (un minerale di uranite, U O2 , con giacimenti in Boemia)
due nuovi elementi chimici naturali, il 90 T h e il 84 P o, che mostravano attività radioattive anche superiori
a quelle dell’92 U , dando cosı̀ origine allo studio sistematico della radioattività naturale.
A.5
Esperienza di Thomson per la misura della carica specifica
dell’elettrone
L’esistenza dell’elettrone era già stata ipotizzata nella seconda metà del XIX secolo per spiegare alcuni
fenomeni chimici (elettrolisi, bilanciamento delle reazioni di ossido-riduzione, ecc.). Solo nel 1897 J.J.
Thomson, nello studio della conduzione elettrica nei gas rarefatti, riuscı̀ a misurare la carica specifica,
ovvero il rapporto e/me , dell’elettrone.
Con riferimento alla Fig.A.5, in un tubo a vuoto vengono prodotte cariche elettriche negative per effetto
termoelettrico in R, che poi vengono accelerate da una griglia A, posta a un conveniente potenziale
positivo. Il fascetto di cariche negative va a colpire uno schermo fluorescente S, creando una piccola
macchia luminosa, allineata con l’asse centrale del tubo. Fra le due placche Py1 e Py2 viene applicata
una differenza di potenziale tale 16 da deflettere il fascetto di cariche negative verso ordinate positive
15 La famosa esperienza di von Laue, Friedrich e Knipping (1912) dimostrò non solo che i raggi X erano radiazioni
elettromagnetiche, ma anche che gli atomi, nei cristalli, erano strutture reticolari regolari.
16 Elettrodo P
y1 positivo ed elettrodo Py2 negativo.
89
Figura A.5: Schema illustrante l’esperimento di
J.J. Thomson per la misura della carica specifica
dell’elettrone
Figura A.6: Sistema di riferimento per la deflessione degli elettroni nella esperienza di J.J.
Thomson
(lo schermo è riferito a un sistema cartesiano ortogonale con origine nel centro di simmetria del tubo e
ordinata positiva verso l’alto).
L’entità della deflessione ys vale 17
1 e E l2
(A.12)
ys = ·
2 me v◦2
dove E è il modulo del campo elettrico esistente fra le placche Py1 e Py2 e v◦ è il modulo della velocità
delle cariche nel punto A (vedi Fig.A.6).
Fra le placche Px1 e Px2 si applica (mediante bobine esterne al tubo) un campo magnetico di vettore d’in~ avente direzione perpendicolare al piano della Fig.A.6, tale da riportare il fascetto nell’origine
duzione B,
del sistema di coordinate (cioè nel punto in cui si trovava prima dell’applicazione del campo elettrico E).
Conoscendo B e ricordando la relazione che lega la forza di Lorentz al moto di una carica in un campo
magnetico 18 si ricava v◦
F~tot
~ + ~v◦ × B
~ = 0 → v◦ = E
=E
(A.13)
e
B
Combinando la (A.12) e la (A.13) si ottiene per la carica specifica dell’elettrone la relazione
2 ys E
e
= 2 2
me
B l
(A.14)
Dalla misura sperimentale delle grandezze a secondo membro della (A.14) si ottiene un valore per la
carica specifica dell’elettrone di −1.7588192 1011 C/kg.
Thomson 19 propose un modello di atomo costituito da una sfera contenente cariche positive uniformemente distribuite, in cui si trovavano gli elettroni negativi, distribuiti isotropicamente. In altre parole
una specie di panettone sferico, carico positivamente, in cui l’“uvetta” era rappresentata dagli elettroni.
Un’interessante evoluzione dell’esperienza di Thomson per la misura della carica specifica dell’elettrone
è costituita da un tubo a raggi catodici, contenente idrogeno a bassa pressione (∼ 10−5 bar), immerso in
bobine di Helmholtz 20 . Il percorso del pennello di elettroni nell’ampolla è visualizzato da una traccia
luminosa dovuta all’eccitazione collisionale delle molecole di H2 , che si diseccitano emettendo radiazione
elettromagnetica a ∼ 450 nm. Con una semplice calamita è quindi possibile alterare facilmente il percorso degli elettroni, avvicinandolo a noi, allontanandolo, distorcendolo, a seconda della posizione della
calamita e del suo orientamento nello spazio. Si tratta di una possibile esperienza tattile sul moto degli
elettroni che gli studenti (più attenti) non dimenticheranno facilmente.
17 Rivedere
su un testo di elettromagnetismo il paragrafo sugli effetti dinamici dei campi elettrici su cariche in moto.
~
(A.13) è anche un modo di definizione operativa del campo d’induzione magnetica B.
19 Il termine elettroni per indicare cariche negative elementari fu usato per la prima volta dal fisico irlandese G. Stoney nel
1874 e lo derivò dal greco ηλǫκτ ρoν, che significa “ambra”, la resina naturale fossile facilmente elettrizzabile per strofinio.
20 Si consiglia di esaminarla sul sito hep.fi.infn.it/ol/samuele/ → Schede esperimenti di laboratorio.
18 La
90
A.6
Esperienza di Millikan
Nel 1913 Millikan pubblicò i risultati della sua esperienza per la misura della carica elementare di un
elettrone. Con riferimento alla Fig.A.7 in un contenitore di vetro (per evitare correnti d’aria e contaminazioni di varia natura) sono poste due placche metalliche orizzontali, separate da una distanza
d, che costituiscono sostanzialmente un condensatore; mentre l’armatura inferiore è posta a massa,
quella superiore può essere tenuta a
una differenza di potenziale positiva e
costante, (variabile con un opportuno
dispositivo esterno) rispetto a massa e
presenta un foro centrale. Al di sopra
di essa si trova un nebulizzatore in grado di produrre piccole gocce di olio; alcune di queste riescono a passare dal foro
e scendono, per gravità, verso la placca
inferiore. Alla stessa quota delle armature si trova, all’esterno del contenitore
di vetro, un canocchiale, avente nell’oFigura A.7: Schema dell’esperienza di Millikan
culare una scala graduata verticale, per
seguire il moto di una singola gocciolina
d’olio.
Quando la d.d.p. fra le armature è nulla, le goccioline hanno un moto uniformemente accelerato in regime
viscoso, la cui equazione di moto è, indicando con M la massa della gocciolina e assumendo come verso
positivo quello della verticale discendente, M a = M g − FArchimede − Fviscosa . Esplicitandola otteniamo
M a=
4
π r3 g (ρ − ρA ) − 6π r η v
3
(A.15)
in cui r è il raggio della gocciolina, ρ la densità dell’olio, ρA la densità dell’aria, η il coefficiente di viscosità
dell’aria e v la velocità di discesa della gocciolina. All’aumentare di v durante la discesa si ha una costante
diminuzione di a fino al momento in cui questa si annulla per un valore limite vG (raggiunto rapidamente
considerate le dimensioni ridottissime delle goccioline), che si ottiene dalla (A.15) ponendo a = 0
vG =
2 r2 g (ρ − ρA )
·
9
η
→
r2 =
9 η vG
2 g (ρ − ρA )
(A.16)
Mediante una sorgente di radiazione ionizzante, posta lateralmente all’ampolla di vetro ma schermata
alla visuale dell’osservatore, si generano ioni e cariche negative nello spazio fra le armature, alcune delle
quali possono depositarsi su una gocciolina d’olio. Se adesso applichiamo una d.d.p +V , rispetto a
massa, all’armatura superiore, si genera sulla carica − q della gocciolina una forza elettrostatica − q V /d.
Conseguentemente il regime stazionario di discesa della gocciolina si raggiungerà quando
0=
4
V
π r3 g (ρ − ρA ) − q − 6π η r vE
3
d
(A.17)
Tenendo conto del valore di r dato dalla (A.16) e con un paio di semplici passaggi algebrici si ottiene
q = 6π η r
d
(vG − vE )
V
(A.18)
Ricordiamo che nella (A.18) q rappresenta il valore assoluto della carica depositata sulla gocciolina 21 .
Facendo una serie di misure indipendenti si vede che i vari valori di q sono sempre multipli interi di
una quantità minima elementare, che rappresenta quindi la carica posseduta da un elettrone e che vale
qe = − 1.60217653 10−19 C 22 .
Ricordando che la carica specifica dell’elettrone vale − 1.7588192 1011 C/kg, si deduce immediatamente
che la massa dell’elettrone risulta me = 0.91093873 10−30 kg.
21 Riportiamo per curiosità alcuni dati originali di Millikan: ρ
−4 g/(cm s),
olio = 0.896 ρH2 O , η(aria) = 1.836 10
m(gocciolina) ≃ 3.2 10−11 g, tempo di caduta libera su un tratto di 1.01 cm = 22.28 s; ottenne un valore di e che si
discostava dai valori attuali per circa 1%.
22 Si consiglia vivamente di esaminare la presentazione dell’esperienza di Millikan fornita da OPENLAB, struttura didattica
91
A.7
Effetto fotoelettrico
Nel 1902 Lenard scoprı̀ l’effetto fotoelettrico, mettendo in evidenza
un comportamento corpuscolare della radiazione elettromagnetica.
In un’ampolla di vetro, in cui è praticato il vuoto, (v. Fig.A.8)
sono inseriti un catodo e un anodo, mantenuti a una differenza
di potenziale continua (ma variabile sia in segno che in modulo
tramite un opportuno sistema potenziometrico esterno), posti in
serie a un circuito elettrico, in cui ovviamente non passa corrente
essendo catodo e anodo separati dal vuoto. Tramite una finestra
laterale in quarzo (necessaria per trasmettere anche radiazione UV)
è possibile inviare sul catodo un flusso di radiazione elettromagnetica di frequenza data (tramite un opportuno monocromatore).
Si misura che per radiazioni di frequenza superiore a un valore
di soglia nel circuito passa una corrente elettrica che non è proporzionale alla tensione V applicata agli elettrodi ma è invece
proporzionale all’intensità della radiazione incidente sul catodo
(v.Fig.A.9 dove I1 , I2 e I3 sono le correnti massime ottenibili con
flussi di radiazione di intensità crescente). Inoltre, applicando una
tensione −V agli elettrodi, la corrente nel circuito si azzera per
un ben determinato valore di −Varresto , detto potenziale d’arresto,
indipendente dall’intensità della radiazione incidente e dipendente
solo dalla natura del metallo che costituisce il catodo.
Dalla Fig.A.10 si deduce che il lavoro di estrazione, dato da
Figura A.8: Schema dell’esperienza
−e · Varresto , per un dato metallo, è funzione solo della frequendi Lenard per lo studio dell’effetto
za di soglia della radiazione incidente sul catodo e che, in generale,
fotoelettrico
esiste una evidente relazione di proporzionalità fra il potenziale
d’arresto e la frequenza di soglia.
Questo quadro sperimentale era incompatibile con la teoria classica dell’elettromagnetismo, che prevedeva
per la densità superficiale di potenza di un’onda elettromagnetica P = 1/2 ǫ◦ c E◦2 e, conseguentemente,
per l’energia totale ET OT = P · S · t raccolta da una superficie S in un tempo t. Qualunque fosse la
frequenza dell’onda elettromagnetica considerata, bastava aspettare un tempo t sufficientemente lungo
per cui (ovviamente in assenza di dissipazioni) si poteva accumulare qualunque energia e quindi liberare
qualunque numero di elettroni dal catodo. L’intensità di corrente nel circuito considerato doveva dipendere dal tempo e dalla superficie illuminata del catodo, ma non dalla frequenza della radiazione incidente,
ma questo non era congruo coi risultati sperimentali.
Einstein (1905) spiegò la fenomenologia dell’effetto fotoelettrico supponendo che la radiazione elettromagnetica fosse composta da un flusso di quanti elementari d’energia, i fotoni (riprendendo cosı̀ l’idea di
Planck degli scambi energetici elementari della radiazione di corpo nero), ognuno dotato di un’energia
E = h ν = h c/λ, con h costante di Planck e ν frequenza della radiazione considerata. In questo modo
l’intensità del fascio di radiazione, almeno al momento della sua incidenza sul catodo, sarà espressa da
If = n h ν = n h c/λ, con n numero intero ma dal valore grandissimo. È la stessa situazione che si
crea quando consideriamo il flusso di una corrente d’acqua, che, nella nostra percezione (per definizione!)
antropocentrica, viene rappresentata come una quantità continua, ma in realtà è composta da un enorme
corteo di piccolissime molecole d’acqua 23 .
Indicando con We = −e · Varresto il lavoro di estrazione di un elettrone dal metallo costituente il catodo,
(cioè l’energia che occorre fornire a un elettrone della banda di conduzione del metallo per estrarlo dalla struttura policristallina del metallo), si otterrà l’estrazione di un elettrone a opera dell’assorbimento
dell’energia di un fotone solo se h ν ≥ We , cioè se la frequenza della radiazione incidente sul catodo è
del Polo Scientifico dell’Università di Firenze, nel sito
hep.fi.infn.it/ol/samuele/didactics/millikan.pdf
molto precisa sugli aspetti sperimentali e che include anche la correzione di Cunningham, necessaria quando le goccioline
hanno dimensioni confrontabili col libero cammino medio in aria delle molecole per raggiungere elevate precisioni nella
misura di q.
23 Ricordiamo il valore enorme, per una scala numerica umana, del numero di Avogadro! Per i fotoni, non avendo massa,
è impossibile una definizione simile.
92
Figura A.9: Dipendenza dell’intensità di corrente dalla tensione applicata tra anodo e catodo
per diverse intensità della radiazione nell’effetto
fotoelettrico
Figura A.10: Dipendenza del lavoro di estrazione
dalla frequenza della radiazione nell’effetto
fotoelettrico
ν ≥ We /h (in perfetto accordo con quanto riportato in Fig.A.10).
L’energia cinetica dell’elettrone che fuoriesce dal catodo è, per il principio di conservazione dell’energia,
Kmax = h ν − We , quindi Kmax , per un dato metallo, dipende solo dalla ν della radiazione assorbita,
non dalla sua intensità, che abbiamo visto essere If = n h ν, che creerà conseguentemente n fotoelettroni
e quindi una corrente elettrica nel circuito di intensità IMAX ∝ n (come riportato in Fig.A.9).
Questo spiegava mirabilmente i risultati sperimentali di Lenard, ma apriva un dilemma di importanza enorme per la Fisica, il cosidetto dualismo onda-corpuscolo per la rappresentazione della radiazione
elettromagnetica, di cui tratteremo in dettaglio successivamente.
A.8
Esperienza di Rutherford
Nel 1911 Rutherford (insieme a Geiger e Marsden) ideò un’esperienza per verificare la correttezza del
modello proposto da J.J. Thomson (modello a “panettone”) per l’atomo 24 . Con riferimento alla Fig.A.11
un sottile pennello di particelle α, originate da materiale radioattivo contenuto in un contenitore di
Pb avente un piccolo foro, andava a colpire una sottile lamina di oro (scelto per la sua duttilità e
per il suo elevato peso atomico). Il rivelatore di particelle α a scintillazione (solfuro di zinco) veniva
posizionato, attorno alla lamina di Au, a vari angoli rispetto alla direzione del pennello delle particelle
α. Se fosse stato valido il modello di Thomson, gli atomi di Au dovevano avere una distribuzione di
carica positiva nucleare uniforme come quella delle particelle α e conseguentemente queste dovevano
essere diffuse debolmente, ma isotropicamente, attorno alla direzione di provenienza delle α incidenti.
Invece la maggior parte delle α incidenti passano indisturbate attraverso la lamina di Au, mentre ≈ 10−4
di loro vengono diffuse con angoli di diffusione > 90◦ .
Alcune erano addirittura rimbalzate indietro con la
stessa energia, segno che si trattava di urti elastici
centrali con particelle simili.
Tale risultato sperimentale, incompatibile con il modello atomico di Thomson, poteva essere spiegato con
nuclei di Au carichi positivamente, come le α, ma che
dovevano avere dimensione dell’ordine di ≈ 10−4 il
volume dell’atomo di Au. Essendo le dimensioni lineari dell’atomo di Au dell’ordine di 10−10 m, risultava che le dimensioni del suo nucleo dovevano essere
Figura A.11: Schema dell’esperienza di Rutherdell’ordine di 10−14 m.
ford
24 Rutherford fu il primo che chiamò protone il nucleo dell’atomo d’idrogeno, e lo dedusse dal greco πρωτ oν che significava
primo.
93
Questo comportamento fu successivamente confermato anche per molte altre specie atomiche. Quindi il
modello dell’atomo doveva essere drasticamente cambiato: un nucleo, carico positivamente e di dimensioni ≤ 10−14 m, circondato da un numero di elettroni pari alla carica del nucleo (in modo da assicurare la
neutralità elettrica dell’elemento), posti a una distanza dell’ordine di 10−10 m. Per non far precipitare gli
elettroni sul nucleo per attrazione elettrostatica bisognava supporre che questi fossero in moto circolare
attorno al nucleo, con una velocità tale da bilanciare la forza di attrazione elettrostatica del nucleo. Ma,
in questo modo, gli elettroni avrebbero dovuto irradiare (secondo l’elettrodinamica classica), perdendo
energia, quindi diminuendo la loro velocità, e conseguentemente essendo sempre più attratti verso il nucleo, sul quale avrebbero dovuto precipitare rapidamente.
Era necessario trovare una soluzione a questa grave discrepanza nella descrizione dell’intima struttura
della materia.
A.9
Il modello di Bohr per l’atomo d’idrogeno
Nel 1913 Niels Bohr propose un modello rivoluzionario per l’atomo di idrogeno. Con riferimento alla
Fig.A.12 un protone (particella trasportante la carica elementare positiva + e) è posto,
nel vuoto, a riposo 25 . Un elettrone, di massa me e carica − e
si trova a percorrere con velocità ~v una circonferenza di raggio r attorno al protone; affinché il suo moto sia stazionario
v
(circolare uniforme) dovrà obbedire all’ equazione di moto
−
me v 2
e2
=
r
4π ǫ◦ r2
e
(A.19)
L’ipotesi fondamentale di Bohr fu quella di ipotizzare che
la quantità di moto dell’elettrone dovesse essere un multiplo
intero della costante di Planck ridotta, cioè
h
= n · h̄ n = 1, 2, 3, 4, ....
(A.20)
2π
Dalla (A.20) si ottiene v = nh/2πme r e sostituendo nella
(A.19) si giunge a
r
+
p
me v r = n ·
v=
h
·n
2π me r
; rn = a◦ · n2 con a◦ =
ǫ ◦ h2
(A.21)
π me e 2
a◦ rappresenta il raggio dell’orbita più interna, per n = 1, Figura A.12: Schema dell’atomo di Bohr
e sostituendo i valori delle costanti fisiche che lo definiscono
otteniamo il valore di a◦ = 0.529 10−10 m, detto raggio di Bohr e rappresenta una stima delle dimensioni
dell’atomo d’idrogeno.
L’energia totale dell’elettrone sarà quindi
ET =
e2
e2
1
1
1
·
·
me v 2 −
=−
2
4π ǫ◦ r
8π ǫ◦ r
(A.22)
Saranno quindi “disponibili” all’elettrone n = 1, 2, 3, 4, ...∞ orbite circolari, ognuna caratterizzata da
un’energia totale
1 me e 4 1
En = − 2 ·
· 2
(A.23)
8ǫ◦
h2
n
Se l’elettrone “passa” da un’orbita n → m (n > m), per la conservazione dell’energia dovrà emettere un
fotone di energia
1
1
me e 4
− 2
h ν = En − Em = 2 2 ·
8ǫ◦ h
m2
n
me e 4
1
1
ν = Ry ·
R
=
−
(A.24)
y
m2
n2
8ǫ2◦ h3
25 Questa ipotesi è suffragata dal fatto che il rapporto m
protone /me = 1836.645, che si determina con misure effetuate con
lo spettrometro di massa. Ricordiamo che l’unità di massa atomica unificata, detta Dalton, è definita cone la dodicesima
parte di un atomo di 12 C e vale 1.660538921 10−27 kg.
94
Figura A.13: Schema dell’esperienza di Frank e Hertz
con atomi di Hg
Figura A.14: Andamento della corrente
anodica nell’esperienza di Frank e Hertz
per il Hg
Sostituendo i valori delle costanti fisiche indicate in Ry nella (A.24) si ottiene Ry = 3.27177 1015 s−1 ,
che rappresenta il valore della costante di Rydberg, in unità di frequenza, e coincide (fatte le dovute
sostituzioni) col valore determinato dall’analisi delle righe spettrali emesse dall’idrogeno (v. A.7). Inoltre
l’espressione della (A.24) coincide con la (A.10) e possiamo quindi dire che la semplice teoria di Bohr
(anche se basata su ipotesi che potevano sembrare arbitrarie) spiegava bene i livelli energetici fondamentali dell’atomo d’idrogeno e degli ioni idrogenoidi. Rafforzava enormemente l’ipotesi quantistica della
descrizione dei fenomeni a livello microscopico 26 .
A.10
Esperienza di Franck e Hertz
Nel 1914 Franck e Hertz 27 eseguirono una famosa esperienza per verificare, tramite urti anelastici di
elettroni opportunamente accelerati, l’esistenza di stati energetici discreti (quantizzati) per gli elettroni
di un atomo. Con riferimento alla Fig.A.13 in un’ampolla di vetro (con una finestra di quarzo per far
passare eventuali fotoni UV prodotti nell’interno) viene creato il vuoto e poi vengono immessi atomi
(originariamente di Hg) a bassa pressione. Un filamento emette elettroni (per effetto termoelettrico), che
vengono accelerati da una griglia, mantenuta a un potenziale positivo (ma variabile a piacere) rispetto al
filamento da cui si originano gli elettroni. Successivamente una placca, tenuta a un potenziale positivo,
ma leggermente inferiore a quello della griglia (in modo da raccogliere solo gli elettroni che possiedono
un’energia cinetica superiore a un’energia di soglia predefinita), raccoglie gli elettroni incidenti dando
luogo da una debole corrente elettrica, che può essere misurata da un opportuno microamperometro. Gli
atomi di Hg si trovano sicuramente nello stato energetico fondamentale (non emettono né assorbono radiazione elettromagnetica). Gli elettroni, accelerati dal potenziale V della griglia, acquisteranno un’energia
cinetica K = 1/2 · me v 2 = e V ; se questa energia e V è minore di (E2 − E1 ), essendo E1 l’energia di
un elettrone nello stato fondamentale e E2 la corrispondente energia del primo livello eccitato del Hg,
allora l’urto degli elettroni di conduzione con gli atomi di Hg è essenzialmente elastico, l’energia cinetica
degli elettroni di conduzione rimane sostanzialmente costante e si misura che la corrente anodica aumenta
26 Dobbiamo dire che sembra adesso incomprensibile che, circa un secolo or sono, destasse meraviglia che la Fisica classica,
sviluppata e costruita antropologicamente [ricordare quanto sono “umane” le definizioni di metro, chilogrammo, secondo]
da un essere insignificante [homo], su un pianeta microscopico [Terra], ruotante attorno a una stella debole [Sole], posta
in posizione periferica in una dei miliardi di galassie dell’universo, dovesse anche poter spiegare i fenomeni che avvenivano
su scala microscopica ≪ 10−10 m, in tempi brevissimi ≤ 10−8 s. Viene in mente una delle famose frasi di Einstein: “È
incomprensibile quanto l’uomo riesca a comprendere dell’Universo.”
27 Gustav L. Hertz, nipote di Heinrich R. Hertz, che scoprı̀ sperimentalmente la propagazione e l’esistenza delle onde
elettromagnetiche nel 1885 a cui è dedicata l’unità di misura della frequenza.
95
all’aumentare della tensione V (v. Fig.A.14).
Se, invece, e V = (E2 − E1 ), gli urti degli elettroni di conduzione con gli atomi di Hg divengono anelastici,
gli elettroni di conduzione cedono la loro energia cinetica all’atomo di Hg (che ha una massa ≈ 3.6 105
volte me ), che la trasmette a un elettrone di valenza dell’atomo di Hg, il quale si porta nel primo stato
energetico eccitato E2 . Conseguentemente gli elettroni di conduzione non riescono più a raggiungere
l’anodo (per la debole controtensione applicata far griglia e anodo) e si misura una notevole diminuzione
della corrente anodica (v. primo picco in Fig.A.14 a ≈ 4.9 e V ).
L’elettrone eccitato del Hg, però, dopo un tempo brevissimo (dell’ordine di ≈ 10−8 s) si riporta nel livello
fondamentale E1 emettendo un fotone di lunghezza d’onda
λ=
hc
= 253.54 nm
E2 − E1
corrispondente esattamente alla lunghezza d’onda della transizione di risonanza dell’atomo di Hg e che è
facilmente rivelabile grazie alla finestra a quarzo presente nell’ampolla di vetro dell’esperienza.
Aumentando ancora il potenziale V , gli elettroni di conduzione saranno nuovamente accelerati e arriveranno all’anodo; si misurerà un nuovo aumento della corrente anodica fino a quando l’energia fornita agli elettroni di conduzione sarà sufficiente per un nuovo urto elastico (v. secondo picco in Fig.A.14 a ≈ 9.8 e V ).
Si osserveranno picchi di caduta della corrente anodica misurata ogni volta che e V = n (E2 − E1 ), con
n = 1, 2, 3, .... e ogni volta misureremo l’emissione di fotoni di 253.54 nm di lunghezza d’onda.
L’esperienza può essere ripetuta con atomi di elementi chimici diversi e si otterranno sempre le stesse
situazioni sperimentali (ovviamente cambieranno i valori E1 e E2 e, conseguentemente, λ).
Questa esperienza conferma in modo molto convincente l’esistenza di stati energetici stazionari atomici.
A.11
Dualismo onda-corpuscolo per la radiazione elettromagnetica
Ricordiamo che il comportamento ondulatorio per la propagazione della radiazione elettromagnetica
era, alla fine del XIX secolo, un principio saldamente stabilito, sia sperimentalmente (esperienze sulla
diffrazione e interferenza in ottica) sia teoricamente (teoria di Maxwell) 28 .
Il fenomeno della diffrazione era ben noto nella propagazione di onde meccaniche nei fluidi (si pensi al
sistema di onde concentriche che si generano quando le onde del mare incontrano un ostacolo di dimensioni
dell’ordine della lunghezza d’onda dell’onda stessa, a esempio un pilone di un ponte). Per l’ottica il
principio di Huygens-Fresnel (enunciato alla fine del XVII secolo) affermava che nella propagazione della
luce ogni punto di un fronte d’onda diveniva sorgente di un sistema di onde sferiche centrate nel punto
considerato. Si spiegava quindi il fenomeno per cui, se un fascio di luce parallela (cioè proveniente da
una sorgente posta a grande distanza dal punto in cui si eseguiva l’esperienza) investiva una fenditura
di larghezza a confrontabile con la lunghezza d’onda λ della radiazione considerata, si formava, su uno
schermo posto a grande distanza, una figura di diffrazione come mostrato nella Fig.A.15. La trattazione
rigorosa del fenomeno mostra che la distribuzione d’intensità del profilo di diffrazione sullo schermo (v.
Fig.A.16) è data da
π a senθ
sen2 α
con
α=
(A.25)
I(α) = I◦
α2
λ
essendo θ l’angolo formato dalla direzione che unisce il centro della fenditura col punto dello schermo
considerato e la direzione di incidenza sulla fenditura del fascio parallelo, λ la lunghezza d’onda della
radiazione utilizzata e I◦ l’intensità centrale della distribuzione d’intensità, corrispondente alla direzione
del punto centrale della fenditura e parallela al versore di propagazione della radiazione (cioè tutte le
onde che arrivano in quel punto sono in fase fra loro). I minimi d’intensità si hanno per α = ±n π, cioè
per a senθ = ±n λ, con n intero.
Nel 1801 Young fece una celeberrima esperienza in cui faceva diffrangere un fascio di luce monocromatica,
di lunghezza d’onda λ, parallelo (cioè proveniente da una sorgente praticamente a distanza infinita) su
due fenditure rettangolari identiche, di larghezza a, poste alla distanza d. Sullo schermo si formava una
figura di diffrazione e simultanea interferenza come mostrato nella Fig.A.17. La trattazione rigorosa del
28 Per un ripasso serio di questi aspetti si consiglia il classico testo F.A. Jenkins - H.E. White: Fundamentals of Optics,
McGraw Hill Book Co., New York, 1957, oppure G. Toraldo di Francia, La diffrazione della luce, Einaudi, TO, 1958.
96
Figura A.16: Figura di diffrazione, formata su
uno schermo, da un fronte d’onda piano incidente
su una fenditura
Figura A.15: Diffrazione di Fraunhofer su una
fenditura rettangolare
fenomeno mostra che la distribuzione d’intensità del profilo sullo schermo (v. Fig.A.17) è data da
I = 4 · I◦
sen2 α
cos2 γ
α2
(A.26)
dove i simboli sono quelli definiti nell’eq.(A.25) e γ = π d senθ/λ è un parametro che rappresenta il
fenomeno dell’interferenza dei fasci di radiazione provenienti dalle due fenditure considerate.
Nella Fig.A.18 è riportato in dettaglio la successione dei profili di diffrazione su ogni singola fenditura,
il profilo d’interferenza originato da 3 fenditure identiche equidistanti e il profilo d’intensità risultante.
È inequivocabile dedurne che la propagazione della radiazione elettromagnetica ha un comportamento
tipicamente “ondoso”. Al momento di attraversare due o più fenditure, su cui si produce la diffrazione, la
radiazione sembra che non decida di passare da una sola fenditura, ma dimostra di comportarsi come se
passasse simultaneamente da ogni fenditura presente sul suo cammino. Infatti, se si copre una fenditura
(nell’esperienza con due fenditure) sullo schermo si forma immediatamente la distribuzione d’intensità di
Fig.A.16, mentre nel caso delle 3 fenditure l’ostruzione di una qualunque delle tre provoca che la distribuzione d’intensità sullo schermo risulti quella di Fig.A.17.
Ma la fenomenologia sperimentale e le relative spiegazioni quantitative riguardo ai processi fisici di emissione (corpo nero, spettroscopia atomica) e di assorbimento (corpo nero, spettroscopia atomica, effetto
fotoelettrico) della radiazione elettromagnetica dimostrano che tali fenomeni avvengono in modo “corpuscolare”, cioè per quantità discrete di energia, i fotoni 29 . Si delinea, quindi, il cosidetto dualismo
onda-corpuscolo per la descrizione quantitativa della radiazione elettromagnetica, che attraversa la Fisica
per il primo quarto del XX secolo.
Vedremo come l’intuizione geniale di de Broglie e l’abilità e profondità culturale di grandi fisici (Schroedinger, Heisenberg, Dirac, Pauli, Fermi ecc.) portò rapidamente alla creazione del formalismo (molto
complesso) della meccanica quantistica, che riuscı̀ a spiegare questo apparente dualismo e a sviluppare
metodi adeguati per l’interpretazione del mondo della microfisica, cioè dei fenomeni che avvengono su
scale spaziali dell’ordine di ≤ 10−10 m e temporali ≤ 10−7 s, cioè la Fisica atomica, nucleare e subnucleare.
A.12
Esperienza di Compton
Nel 1923 Compton pubblicò i risultati della sua celebre esperienza, in cui ribadiva inequivocabilmente il
comportamento corpuscolare dei fotoni, mostrando che essi, oltre a trasportare un’energia h ν, possedevano anche un impulso p~ avente modulo (h ν/c).
29 Un fascio laser He-Ne, di lunghezza d’onda λ = 0.6328 µm, di 1 mW di potenza, è formato da una “corrente” di
h c/λ · NT fotoni, quindi NT = 10−3 J/s 3.14007 10−19 J/f otone ≃ 3 1015 f otoni/s.
97
Figura A.17: Figura di diffrazione prodotta nell’esperienza di Young
su due fenditure
Figura A.18:
Figura di
diffrazione prodotta nell’esperienza di Young su tre
fenditure
Con riferimento alla Fig.A.19 a) un fascio collimato di raggi X monocromatici 30 investiva un bersaglio
costituito da grafite. L’energia dei raggi X era > 10 keV , quindi molto maggiore dell’energia di legame
degli elettroni negli atomi di carbonio del reticolo cristallino della grafite. Conseguentemente gli elettroni
del carbonio potevano essere considerati come elettroni
liberi fermi nello spazio, dove venivano
investiti dal flusso di
raggi X incidenti.
Sperimentalmente si
osservava che una
parte dei raggi X
incidenti veniva diffusa in tutte le direzioni con un angolo φ rispetto alla di- Figura A.19: Schema dell’esperimento di Compton e sistema di riferimento relativo
rezione di provenienza dei raggi X incidenti e con una lunghezza d’onda λ′ maggiore della lunghezza d’onda λ◦ dei raggi
incidenti. Contemporaneamente si osservava anche una emissione di elettroni dalla lastra di della grafite
irradiata, secondo un angolo θ, rispetto alla direzione d’incidenza dei raggi X, e una velocità ~v 31 .
La schematizzazione della fenomenologia descritta (v. Fig.A.19b)) necessita del trattamento relativistico
30 Inizialmente furono utilizzati raggi X di 70 pm di lunghezza d’onda; successivamente furono utilizzati raggi X sempre
più energetici, fino ad arrivare a 2.5 pm di lunghezza d’onda.
31 L’elettrone diffuso poteva essere rivelato facilmente facendo avvenire l’esperienza in camera di Wilson.
98
delle grandezze considerate, poiché i raggi X, essendo fotoni, si muovono con velocità c. Si poteva quindi
trattare il processo di diffusione dei raggi X come un urto elastico fra la particella fotone X e l’elettrone,
inizialmente fermo e di massa a riposo m◦ . Le equazioni relative ad un particolare urto in cui il fotone è
diffuso di un angolo φ e l’elettrone esce ad un angolo θ sono quindi
hν
h ν′
=
cosφ + p cosθ; conservazione impulso lungo direzione f otoni incidenti
c
c
h ν′
senφ − p senθ; conservazione impulso lungo direzione normale f otoni incidenti
0=
c
1
h ν + m◦ c2 = h ν ′ + m◦ c2 γ; γ = p
; conservazione energia
1 − (v/c)2
Moltiplicando per c ambo i membri delle prime due equazioni, quadrando e
sommando, si ottiene
p2 c2 = (h ν)2 − 2h2 ν ν ′ cosφ + (h ν ′ )2
(A.27)
Separando il termine mc2 nell’equazione della conservazione dell’energia, elevando
al quadrato ambo i membri, ricordando che p2 c2 = (m2 − m2◦ ) c4 e sostituendo nella
(A.27), dopo alcune semplificazioni si giunge a
(ν − ν ′ )m◦ c2 = hν ν ′ (1 − cosφ)
(A.28)
che può essere riscritta come
(λ′ − λ) = λc (e− ) · (1 − cosφ)
; λc (e− ) =
h
m◦ c
(A.29)
λc (e− ) = 2.42631 · 10−12 m è la lunghezza d’onda Compton per l’elettrone.
I risultati sperimentali (v. Fig.A.20 32 ) confermano le previsioni teoriche espresse da
(A.29) sia per i valori numerici ottenuti per la dipendenza angolare della radiazione
X diffusa, che per l’indipendenza di questi risultati dalla sostanza su cui sono fatti
interagire i raggi X diffusi. Sono verificati inoltre i valori dell’energia e dell’impulso
ceduti all’elettrone diffuso.
È una dimostrazione ulteriore e assolutamente convincente che i fotoni hanno un Figura A.20: Alcomportamento di tipo corpuscolare (cioè propagazione di quanti energetici dotati cuni risultati sperimentali dell’effetto
anche di impulso), almeno nelle interazioni con le particelle atomiche.
di Compton
A.13
Ipotesi di de Broglie
Nel 1924 Louis de Broglie, nella sua tesi di dottorato, formulò l’ipotesi che i fenomeni che avvengono
su scale atomiche e subatomiche debbano essere pensati e rappresentati in modo diverso dalla Fisica
classica, deterministica e fondata su principi che derivano da esperienze condotte su scale sostanzialmente
antropocentriche 33 . A ogni particella in moto con impulso di modulo p si “associava” una lunghezza
d’onda definita dalla relazione
λb =
h
p
con h costante di P lanck
(A.30)
Veniva cioè assegnato un comportamento ondulatorio a particelle materiali in moto. Il valore molto
piccolo di h significa che questa schematizzazione è importante solo per particelle di dimensioni atomiche
32 Nella figura sono riportate le distribuzioni in funzione della lunghezza d’onda degli X del Molibdeno diffusi a diversi
angoli da un bersaglio di carbonio (per maggiori dettagli si consiglia la lettura degli articoli originali, Phys. Rev. 21 (1923)
483 e Phys. Rev. 22 (1923) 411, che fruttarono il premio Nobel a Compton nel 1927)
33 Le leggi di Newton valgono quando le velocità coinvolte sono trascurabili rispetto alla velocità della radiazione elettromagnetica nel vuoto, le unità di misura fondamentali della meccanica sono congrue con le dimensioni umane [il m è
dell’ordine di grandezza di una gamba umana media, il kg dell’ordine della massa d’acqua minima per la sopravvivenza,
il s dell’intervallo fra due battiti del cuore umano a riposo], il punto materiale deve avere dimensioni trascurabili rispetto
alle dimensioni in cui si svolge il moto, ma deve essere molto maggiore delle dimensioni atomiche, altrimenti l’equazione di
~ = m ~a e cosı̀ via.
moto non può essere semplicemente F
99
e subatomiche. Infatti, se consideriamo una particella di massa m = 1 g che si muove con una velocità
v = 1 m/s, cioè con impulso p = 10−3 kg m/s, a questa viene associata una lunghezza de Broglie λb =
6.6262 10−34 Js/10−3 kg m s−1 = 6.6262 10−31 m, assolutamente insignificante e priva di conseguenze
osservabili.
Vediamone alcune conseguenze importanti:
1. nella descrizione dell’effetto fotoelettrico i fotoni
possiedono un’energia E = h ν, ma (dalla relatività ristretta) anche un impulso p = E/c =
h ν/c = h/λ e si ritrova quindi la (A.30);
2. nell’ipotesi di quantizzazione di Bohr per l’atomo d’idrogeno il momento angolare l =
me v r = p r dell’elettrone sull’orbita circolare doveva essere un multiplo intero di h̄, cioè
p r = n h/2π; se teniamo conto della (A.30)
λb = 2π r/n, cioè λb n = 2π r. Le orbite
stazionarie permesse all’elettrone in moto attorno al protone erano solo quelle per cui la λb
associata al moto dell’elettrone si “adatta” perfettamente all’orbita descritta, cioè il sistema di
onde λb si chiude perfettamente in fase sull’orbita considerata, senza provocare fenomeni di
interferenza distruttiva per l’onda di de Broglie
Figura A.21: Onda associata di de Broglie
sull’orbita di Bohr per l’elettrone nell’atomo
d’idrogeno
che si propaga sull’orbita (v. Fig.A.21).
La relazione (A.30) spiegava bene il comportamento duale (corpuscolare e ondulatorio) dei fotoni, ma
richiedeva anche che particelle atomiche in moto con impulso p presentassero simultaneamente comportamenti ondulatori, che non erano ancora misurati.
A.14
Esperienza di Davisson e Germer
Nel 1927 Davisson e Germer eseguirono un famoso esperimento per dimostrare che si ottenevano figure
di diffrazione identiche facendo incidere sulla stessa struttura 34 sia raggi X che fasci monoenergetici di
elettroni aventi velocità corrispondenti, secondo la relazione di de Broglie (A.30).
Con riferimento alla Fig.A.22 un opportuno cannone elettronico produce un fascio
√ collimato di elettroni
monoenergetici di energia E = p2 /2 me , che possiedono quindi un impulso p = 2 me E, che vien fatto
incidere su un cristallo di N i, avente una distanza interreticolare d, che funziona da “passo del reticolo”.
La lunghezza d’onda di de Broglie associata al fascio di elettroni sarà
λb = √
h
2me E
(A.31)
Per una tensione di accelerazione di 102 V si ottiene λb ≃ 0.12 nm e per avere diffrazione-interferenza
costruttiva nella direzione θ occorre che sia verificata la relazione
h
;
d senθ = n λb = n √
2me E
n → intero
(A.32)
Come si può facilmente vedere dalla Fig.A.23, il pattern di diffrazione che si ottiene utilizzando raggi X
con λ ≃ 0.12 nm (a SX nella figura) è praticamente identico a quello ottenuto col fascio di elettroni aventi
la stessa λb (a parte il nucleo centrale “brillante” nell’immagine elettronica dovuto alla rivelazione della
componente non diffratta del fascio elettronico incidente). Entrambe le distribuzioni d’intensità sono in
perfetto accordo con la (A.32).
Altri importanti esperimenti a sostegno del comportamento duale (corpuscolare e ondulatorio) delle particelle atomiche e subatomiche sono stati eseguiti in epoche più recenti. Vogliamo citare quello di Tonomura
34 Utilizzarono cristalli di N i per avere reticoli con “passo” d dell’ordine di grandezza delle lunghezze d’onda delle radiazioni
utilizzate per produrre le figure di diffrazione registrate.
100
Figura A.23: Figure di diffrazione prodotte raggi X (SX) e da elettroni (DX) nell’esperienza di
Davisson e Germer
Figura A.22: Schema dell’esperienza di Davisson
e Germer
et al. 35 in cui hanno riprodotto l’esperienza della diffrazione e interferenza alla
Young usando elettroni, che potevano inviare uno per volta sul cristallo diffrattore.
Nella Fig.A.24 sono riportati i risultati dell’esperimento dell’interferenza di elettroni
“alla Young” (interferenza su doppia fenditura) con diverso flusso totale di elettroni
(indicati nel seguito): a) → 10, b) → 200, c) → 6000, d) → 40000, e) → 140000. È
evidente come l’aumento della statistica delinei in modo migliore la localizzazione
delle frange dovute all’interferenza delle onde di de Broglie associate all’impulso
degli elettroni inviati sulle fenditure.
Sono stati utilizzati anche neutroni (diffratti da cristalli di Si) per dimostrare che
il dualismo onda-corpuscolo si realizzava anche con queste particelle (H.Rauch et
al., Phys. Lett. A 47, 369, 1974).
Riassumendo, si è verificato sperimentalmente che si possono creare fenomeni di
diffrazione/interferenza anche con fasci di particelle sempre più “pesanti”:
• fasci di atomi (Carnal e Mlynek, Phys. Rev. Lett. 66, 2689, 1991);
• fasci di piccole molecole e dimeri e trimeri di gas nobili (Schoellkopt e Toennis,
Science 266, 1345, 1994);
• fasci di molecole di fullerene
319, 2003);
36
(Naizz, Arndt, Zeilinger, Am. J. Phys. 71,
• il gruppo del Vienna Center for Quantum Science and Technology,
vcq.quantum.at sembra aver ottenuto comportamenti ondulatori anche per Figura A.24: Fimolecole di 514 e 1298 a.m.u. (2012).
gure di diffrazione
prodotte da eletL’intuizione di de Broglie è sperimentalmente ben provata.
troni nell’esperienza di Tonomura et
al. (1989)
A.15
Principio d’indeterminazione di Heisenberg
Nel 1927 Heisenberg introdusse, nella descrizione dei fenomeni atomici e subatomici, oltre a un formalismo matriciale (molto complesso) per la descrizione del loro stato energetico, il cosidetto principio di
35 A.Tonomura et al., Am. J. Phys. 57, 117, 1989. Non per campanilismo, ma per correttezza, dobbiamo dire che i primi
a effettuare una misura di diffrazione alla Young con singoli elettroni sono stati italiani, Merli-Missiroli-Pozzi, J. Phys E:
Sc. Instrum. 7, 729, 1974, ma non sembra che la letteratura internazionale abbia dato loro il credito dovuto.
36 60 atomi di C, disposti in strutture di anelli pentagonali, esagonali, ottagonali (simili alla struttura della grafite),
disposti su una superficie sferica, simile a un pallone.
101
indeterminazione secondo il quale per alcune variabili 37 esiste una semplice relazione che lega limiti
naturali invalicabili nelle precisioni (indicate nelle formule seguenti col simbolo ∆) a cui si può arrivare
in qualunque misura si possa realizzare su quelle grandezze
∆x ∆px
∆y ∆py
∆z ∆pz
∆E ∆t
∆φ ∆Jz
>
>
>
>
>
h
4π
h
4π
h
4π
h
4π
h
4π
=
=
=
=
=
h̄
2
h̄
2
h̄
2
h̄
2
h̄
2
x, px → posizione e impulso lungo x
y, py → posizione e impulso lungo y
z, pz → posizione e impulso lungo z
E, t → energia e tempo
φ, Jz → posiz. angolare e momento angolare lungo z
(A.33)
Ribadiamo con forza che non si tratta di errori di misura; anche misure accuratissime e molto precise
possono solo raggiungere i limiti imposti dalle (A.33), ma mai superarli. Per effettuare qualunque misura
occorre interagire con la particella su cui si esegue la misura e qualunque interazione altera lo stato in
cui si trova la particella, causando le incertezze nelle misure descritte dalle disuguaglianze (A.33).
Visto il valore numerico molto piccolo di h̄/2, le (A.33) riguardano solamente misure che si effettuano
su particelle atomiche e subatomiche. Supponiamo infatti di considerare il moto di un cubetto di lato l = 1 cm , di densità ρ = 5 g/cm3 , che trasla con una velocità v = 1 m/s; avrà un impulso
p = 5 10−3 kg m s−1 . Il prodotto p · l assume il valore 5 10−5 Js, che risulta maggiore di h̄/2 per
almeno 29 ordini di grandezza, assolutamente ininfluente rispetto a qualunque errore di misura si possa
considerare sulle misure effettuabili sulla posizione e impulso del cubetto; nella definizione che diamo in
Meccanica classica, il cubetto è assimilabile a un punto materiale, ma la Meccanica classica, ribadiamo
ancora una volta, è stata elaborata per spiegare quantitativamente i fenomeni che avvengono su scale
finite e congrue con le nostre esperienze di vita quotidiana.
Sostanzialmente le (A.33), che formalizzano il principio d’indeterminazione di Heisenberg, dicono che la
misura (con grande precisione) di alcune grandezze fisiche relative a stati energetici e dinamici di particelle
atomiche e subatomiche provoca alterazioni dello stato fisico della particella, che causano necessariamente
incertezze nella simultanea misura di grandezze fisiche associate secondo le relazioni riportate dalle (A.33).
Riportiamo alcune esperienze concettuali importanti collegate al principio d’indeterminazione.
1) localizzazione di una particella subatomica tramite la diffusione di radiazione elettromagnetica.
Con riferimento alla Fig.A.25 vogliamo determinare la posizione x
S
e l’impulso px di una particella, che si trova nel punto P con velocità ~v , tramite la diffusione di almeno un fotone su di essa, rivelato
da un microscopio perfetto su uno schermo S preceduto da una
lente perfetta L. Dall’ottica fisica sappiamo che ogni lente produce
L
un’immagine affetta da diffrazione 38 , per cui la migliore localizzazione possibile della posizione x della particella sarà dell’ordine
2ϕ
y
di ∆x ∼ λ/senϕ, dove λ è la lunghezza d’onda della radiazione
impiegata. Se pensiamo alla diffusione di un singolo fotone, questo F
P v
x
x
possiede un impulso p ∼ h/λ per la relazione di de Broglie. Ma la
relazione che fornisce ∆x ci dice che questo fotone è “partito” dall’intorno del punto P (NON da P !) con un’indeterminazione ∆x; Figura A.25: Schema dell’esperienza
l’indeterminazione della componente px dell’impulso del fotone dif- ideale per localizzare una particella
fuso sarà dell’ordine di ∆ px ∼ (h/λ)·senϕ 39 . Non essendo presenti tramite diffusione di luce
forze esterne durante la diffusione sul sistema composto da [particella + fotone diffuso + microscopio],
37 Le variabili sono quelle canonicamente coniugate nel senso espresso dalla meccanica analitica hamiltoniana, ma la
complessità formale e concettuale di questi argomenti, ostici anche a livello di corsi universitari del terzo anno dei CdL in
Fisica, consiglia di non affrontarli assolutamente per corsi a livello liceale e anche a livello del primo biennio universitario.
Meglio tacere che rischiare di proprorre idee rozze o, peggio, incomplete e foriere di interpretazioni sbagliate.
38 Un fascio di radiazione elettromagnetica di lunghezza d’onda λ perfettamente parallela, cioè proveniente da una sorgente
posta a distanza infinita dalle lente, produce una centrica di diffrazione di semilarghezza 1.22λ f /D, essendo f la distanza
focale e D il diametro della lente.
39 Il fotone diffuso è contenuto nell’angolo solido di semiampiezza ϕ, quindi il suo impulso p potrà, al massimo, essere
diretto lungo la direzione P → bordo − lente, per cui la sua proiezione lungo x sarà px = p · senϕ. Notiamo inoltre che le
componenti secondo x degli impulsi della particella e del fotone possono essere misurate con assoluta precisione prima della
diffusione perché non si ha interesse a misurare simultaneamente anche la loro posizione lungo x.
102
si deve dedurre che l’indeterminazione nella componente px della particella non può che essere uguale
all’indeterminazione ∆px del fotone lungo la stessa direzione, per cui abbiamo che, per la particella,
∆x · ∆px ∼ h
sostanzialmente quanto previsto dal principio di Heisenberg (a parte un fattore numerico 4π, che non
altera il profondo significato fisico della validità del principio).
2) localizzazione di una particella in direzione ortogonale alla sua direzione di propagazione.
Supponiamo di creare un fascio di elettroni monoenergetici che si propagano tutti con velocità parallela
alla direzione x. Per localizzare la posizione di ogni elettrone lungo la direzione ortogonale a x (che
chiameremo y) facciamo incidere il fascio su una fenditura, di larghezza d, molto piccola, posta su una
parete (non trasparente agli elettroni) che si trovi lungo y. Nella regione di spazio attorno alla fenditura la
posizione di ogni singolo elettrone è indeterminata per un ∆y = d. Attraversando la fenditura ogni singolo
elettrone sarà affetto da diffrazione, quindi la sua propagazione dopo l’attraversamento della fenditura
avverrà in un angolo di diffrazione α ∼ λ/d, con λ = h/pe , essendo pe = me v l’impulso di ogni singolo
elettrone. Quindi α ∼ h/(pe d). Ma
∆py = 2 sen
h
α
·p∼ p α ∼
2
d
da cui, per l’elettrone lungo y,
∆y · ∆py ≃=
h
·d= h
d
come sostanzialmente previsto dal principio di Heisenberg.
Volendo migliorare la precisione di una grandezza si danneggia inevitabilmente. come limite imposto dalla
natura, la precisione con cui si può, al limite, misurare la grandezza associata alla prima da relazioni di
coniugazione canonica (v. relazioni (A.33)).
3) esperienza di Young con elettroni.
Nella Fig.A.24 abbiamo visto come si possa riprodurre, con elettroni di opportuna velocità, la distribuzione di diffrazione-interferenza (Fig. A.17) identica a quella dell’esperienza di Young con i fotoni. Si
può inviare un elettrone per volta sulle due fenditure e, dopo il tempo necessario per accumulare una statistica dei conteggi sufficiente sullo schermo di collezione degli elettroni diffratti, si delineano le frange di
interferenza tipiche (v. Fig. A.17). Se volessimo tentare di identificare la posizione dell’elettrone in volo,
a esempio tappando una delle due fenditure, otterremmo la distribuzione di diffrazione su una singola
fenditura (v. Fig. A.16). Ribadiamo quindi che (a livello atomico e subatomico) la distribuzione d’intensità I(f end1 + f end2 ) 6= I(f end1 ) + I(f end2 ), avendo indicato con I(f end1 + f end2 ) la distribuzione
di diffrazione-interferenza su due fenditure (Fig. A.17), mentre con I(f end1 ) e I(f end2 ) indichiamo la
distribuzione di diffrazione su singola fenditura (Fig. A.16). I(f end1 ) è ovviamente identica a I(f end2 ),
solo che è spostata sullo schermo di d, interdistanza delle due fenditure.
Cercando di determinare da quale fenditura passa il singolo elettrone, si distrugge la figura d’interferenza. Per descrivere il comportamento fisico di sistemi per i quali si applica il principio d’indeterminazione
di Heisenberg si deve, quindi, abbandonare il determinismo della Fisica newtoniana classica (stretta relazione causa-effetto) e sostituirlo con un approccio di determinismo “statistico” (o probabilistico).
Riportiamo di seguito alcuni esempi schematici, molto semplici, che possono aiutare a comprendere questo
nuovo modo di descrivere i fenomeni (a scale spaziali e temporali tipiche della fenomenologia atomica e
subatomica).
1) energia di una particella in una buca di potenziale nullo, limitato spazialmente.
Con riferimento alla Fig.A.26 consideriamo una particella posta in una buca di potenziale tale che V (x) =
0 per a ≤ x ≤ b e V (x) → ∞ per x < a e per x > b. Classicamente la particella può stare in qualunque
103
punto dell’intervallo a ≤ x ≤ b con velocità nulla. Questo non è possibile quantisticamente perché
in tale stato la particella potrebbe essere localizzata
con precisione → ∞, quindi ∆x = 0, e con impulso
nullo, quindi ∆px = 0; conseguentemente avremmo
che ∆x · ∆px = 0 < h̄/2, in violazione del principio
d’indeterminazione di Heisenberg.
In realtà la particella, trovandosi in qualunque punto dell’intervallo b − a, sarà caratterizzata da un’incertezza massima (lungo x) ∆xMAX = (b − a)/2.
Conseguentemente l’incertezza minima su px sarà
V(x)
0
a
b
x
Figura A.26: Schema di una particella in una
buca di potenziale nullo, limitato spazialmente
h̄
h̄
∆px (min) ≃
=
2 ∆xMAX
b−a
e l’energia minima che potrà assumere sarà
Emin ≃
h̄2
1
· (pmin )2 =
2m
2 m (b − a)2
Quantisticamente lo stato di energia minima per una particella vincolata entro una buca di potenziale
nullo, limitato da potenziale → ∞ all’esterno, non può essere 0, come avremmo detto in base alla Fisica
classica, ma finita (anche se di valore molto piccolo).
2) buca di potenziale quadratico.
Ricordiamo che una particella di massa m che si muove di moto armonico attorno all’origine di un sistema
2
di assi cartesiani ortogonali lungo la direzione x, è soggetta
p a un potenziale V = 1/2 k x e che la sua
equazione oraria è x(t) = Acos(ω t + ϕ), essendo ω = k/m la pulsazione del moto armonico e A
l’ampiezza degli spostamenti rispetto all’origine degli assi coordinati. La sua energia totale sarà
ET (x) =
m ω 2 x2
p2
+
2m
2
Supponiamo di poter localizzare la particella in un intervallo di ampiezza a attorno all’origine (cioè compresa in un intorno dell’origine fra −a/2 e +a/2). Quindi possiamo porre che ∆x ∼ a e conseguentemente,
per il principio di Heisenberg, ∆px = ∆p ≃ h̄/2 a. Avremo quindi che
ET (a) =
h̄2
m ω 2 a2
+
2
8ma
2
Vogliamo trovare la condizione per cui ET (a) sia minima. Ma ET (a) è una funzione definita positiva e
→ ∞ sia per a → 0 che per a → ∞. Quindi la condizione di minimo è assicurata da
d ET (a)
a
h̄2
= [− 4 + m2 ω 2 ] = 0
da
m 4a
Si ricava facilmente che la condizione sopraesposta si realizza per
r
h̄
h̄2
4
; a◦ =
a◦ =
4 m2 ω 2
2mω
e otteniamo infine, dopo le opportune sostituzioni, che
ET (a◦ ) =
h̄ω
2
Anche in questo caso lo stato di energia minima per l’oscillatore armonico quantistico non è quello di
energia nulla.
104
3) buca di potenziale coulombiana.
Supponiamo di mettere, nel vuoto, un elettrone in una buca di potenziale coulombiana, la cui espressione,
rispetto a un sistema di riferimento in cui nell’origine sia posta una carica +e, ferma, è
V (r) = −
1
e2
·
4πǫ◦ r
Con un ragionamento analogo a quello fatto nel caso precedente, cioè pensando di poter localizzare
l’elettrone con un’incertezza totale a attorno all’origine, si ottiene per la sua energia totale
ET (a) =
h̄2
1
e2
−
·
2
8m a
4πǫ◦ a
e, col solito ragionamento sulla determinazione del minimo per ET (a) si ottiene
h̄2
1
e2
d ET
]=0
= 2 · [−
+
da
4a
ma πǫ◦
che è risolto per
h̄2 πǫ◦
m e2
valore molto prossimo al raggio della prima orbita di Bohr dell’atomo d’idrogeno.
a◦ =
A.16
Necessità di un nuovo approccio per la Fisica dell’infinitamente piccolo: la meccanica quantistica
Tutte le esperienze effettuate sul comportamento dinamico ed energetico di entità fisiche dell’ordine
atomico e subatomico, unitamente a principi (sostenuti da una larga varietà di verifiche sperimentali)
fondamentali, come quelli di de Broglie e Heisenberg, dimostrano che è necessario sviluppare un modo
diverso dalla Fisica newtoniana classica di descrizione della realtà microscopica della natura. Ovviamente
principi che troviamo sempre verificati nelle nostre esperienze (conservazione dell’energia, conservazione
della quantità di moto in sistemi isolati) devono continuare a valere anche a livello microscopico 40 .
Sostanzialmente particelle e fotoni devono essere descritti come entità che presentano un comportamento sia corpuscolare (soprattutto in fase di creazione e cattura) che ondulatorio (soprattutto in fase di
propagazione), impossibili a misurare simultaneamente con precisione infinita (almeno per le grandezze
coniugate nel senso definito dalle (A.33)). Si assume che essi possano essere descritti come pacchetti
d’onde, localizzati, come rappresentato in Fig.A.27.
Seguendo l’interpretazione data da M.Born (1926), la funzione d’onda a essi associata ψ(P, t) deve essere
considerata una funzione di densità di probabilità, in modo che kψ(P, t∗ )k2 dV (P ), cioè il modulo quadro
di ψ(P, t∗ ) al tempo t∗ moltiplicato per il volume infinitesimo dV (P ) centrato attorno a P , rappresenti
la probabilità di trovare la particella, associata alla funzione
ψ(P, t), nel volume dV (P ) al tempo t∗ .
R
Ovviamente la ψ(P, t) dovrà essere normalizzata, cioè ∞ ψ(P, t∗ ) dV = 1 41 .
Il famoso teorema di Fourier 42 offre un potente metodo per esprimere qualunque funzione periodica “onesta” come serie di opportune funzioni circolari (seni e coseni). Riportiamo nella Fig.A.28 l’esempio di
40 Questi sono ritenuti validi in ogni parte del nostro Universo, per cui anche nella descrizione della macrofisica [dimensioni
dell’ordine di ≃ 1024 − 1026 m e tempi ≃ 106 − 109 anni] e durante tutta l’evoluzione dell’universo sono ritenuti, almeno
fino a prova contraria, validi.
41 Questa interpretazione probabilistica fu confutata da molti fisici dell’epoca, fra cui Einstein che disse il famoso aforisma
Dio non gioca ai dadi!. Tutta la Fisica del microcosmo sviluppata successivamente ha invece dimostrato che l’interpretazione
di Born e di tutta la scuola di Fisica Teorica di Copenhagen, guidata da N.Bohr, era corretta e offriva un modo abbastanza
semplice per spiegare la complessità dei fenomeni che si misurano sulle scale tipiche del microcosmo.
42 Una funzione f (x) periodica, con periodo 2π, limitata (insieme alla sua derivata prima) nel periodo salvo un numero
finito di punti, in cui però esista il limite destro e sinistro sia per la f (x) che per la sua derivata prima, è sviluppabile in
serie di funzioni circolari
∞
f (x) =
∞
X
X
1
bn sen(n x)
an cos(n x) +
a◦ +
2
n=1
n=1
;
an =
1
n
105
Z
+π
−π
f (x) cos(n x) dx
;
bn =
1
n
Z
+π
−π
f (x) sen(n x) dx
Figura A.27:
Schema di un pacchetto d’onde,
spazialmente e temporalmente localizzato
Figura A.28: Schema della sovrapposizione
delle prime 7 armoniche di Fourier per
riprodurre un’onda quadra
come si possa riprodurre l’andamento di un’onda quadra (con approssimazione grossolana) con la somma
delle prime 7 armoniche di Fourier.
Anche nel caso della ψ(P, t) possiamo pensare
di esprimerla come inviluppo di opportune funzioni circolari, cioè di rappresentazione di serie
di onde sinusoidali, come mostrato in Fig.A.29.
Per studiare sia le condizioni di stazionarietà che la propagazione e interferenza connesse
con le funzioni ψ(P, t) bisogna quindi utilizzare equazioni che trattano e descrivono la
propagazione ondosa. Anche nel caso più semplice di onde meccaniche trasversali (vibrazione
di una corda elastica) si arriva a un’equazione
differenziale lineare omogenea, a coefficienti
costanti, con derivate parziali del secondo ordine in x, y, z e in t, la cosidetta equazione di Figura A.29: Schema di rappresentazione di un
d’Alembert, che però è affrontabile solo al terpacchetto d’onde tramite sovrapposizione di onde
mine del secondo anno (meglio al terzo anno) di sinusoidali
CdL universitari in Matematica, Fisica o CdL
classici di Ingegneria. Quindi non è assolutamente possibile proporre simili formalizzazioni a studenti
liceali e bisogna quindi fermarsi a questo punto, invitandoli a una paziente attesa per formarsi i bagagli
culturali e tecnici necessari per affrontare le difficoltà matematiche collegate con questi argomenti.
A.17
Conclusioni
Siamo arrivati al punto in cui le evidenze sperimentali e le intuizioni geniali di alcuni grandi fisici dimostravano la necessità di sviluppare un modo nuovo per descrivere il comportamento delle grandezze
fisiche della microfisica, cioè lo sviluppo della meccanica quantistica. Questo fu realizzato quando, nel
1926, Schroedinger propose la sua equazione alle derivate parziali per valutare la funzione di densità
di probabilità ψ(P, t), che dimostrò subito tutta la sua utilità. Successivamente l’algebra matriciale di
Heisenberg, ma soprattutto l’estensione all’elettrodinamica relativistica di Dirac, portarono a compimento il processo della formulazione della meccanica quantistica.
106
Da quel momento una valanga di scoperte, di miglioramenti e di nuove teorie (soprattutto nel campo
delle fisica delle particelle elementari) hanno portato al quadro soddisfacente delle conoscenze attuali.
È stato un percorso difficile e per comprenderlo in pieno sono necessari anni di formazione universitaria
specialistica. Quindi Ad maiora!!
Un’ultima considerazione: si legge, ogni tanto, su articoli di divulgazione (non proprio attendibile) ma
anche su libri non specialistici (e talvolta anche si sente proclamare con sussiego da conferenzieri molto
superficiali) che la Fisica classica è ormai superata 43 , che Einstein (uno dei bersagli preferiti di questi
cialtroneschi dulcamara) è stato smentito, che le leggi fondamentali della natura sono tutte cambiate e
cosı̀ via. Tutte queste scemenze rivelano solo l’ignoranza profonda di chi le propina. La Fisica (come
ogni altra Scienza razionale) è un edificio costruito tramite il contributo di tantissimi ricercatori, molti
modesti (ma onesti), tanti brillanti, pochi geniali, ma tutti rispettosi e grati per il contributo dato da altri
colleghi ma soprattutto dai predecessori, senza i quali non si potrebbe MAI andare avanti. Ovviamente ci
possono essere state interpretazioni errate 44 , sviste, percorsi contorti nelle spiegazioni, ma le conoscenze
consolidate non possono che essere rispettate. Ovviamente non si tratta di Verità ma di conoscenze
attuali (quindi modificabili), ma il nostro profondo rispetto e la nostra sincera gratitudine verso tutti
coloro che ci hanno donato questa valanga di conoscenze non devono mai mancare. Soprattutto quando
si sentono i nomi dei cosidetti giganti (Galileo, Newton, Maxwell, Planck, Einstein ecc.) si dovrebbe stare
un attimo in silenzio per esprimere loro la nostra sincera gratitudine ma soprattutto per pensare a non
pronunciare (solo noi!) qualche grullata.
43 È con la meccanica classica di Newton e successori che si riesce a inviare sonde spaziali fuori dal sistema solare, che
si costruiscono tutte la macchine che utilizziamo, è con l’elettromagnetismo classico che si realizzano gli apparati elettrici
che ci rendono la vita più comoda, è la termodinamica classica che ci aiuta a capire tantissimi fenomeni della nostra vita
quotidiana e cosı̀ via.
44 Galileo sosteneva che le comete non erano un fenomeno celeste ma una perturbazione della nostra atmosfera, affermazione, in questo caso, sbagliata; questo non inficia minimamente la sua grandezza e profonda importanza nello sviluppo
della conoscenza umana, perché è stato una pietra miliare nella costruzione della Fisica come la conosciamo oggi.
107