Riflessioni di Fisica domestica
Transcript
Riflessioni di Fisica domestica
Università degli Studi di Firenze Dipartimento di Fisica e Astronomia Corso di Laurea in Fisica Prof. R. Falciani Prof. A. Stefanini Riflessioni di Fisica Domestica e su alcuni argomenti di Fisica Generale (integrati da un’appendice su ”Introduzione fenomenologica alla Meccanica Quantistica”) Novembre 2014 Indice 1 Introduzione 4 2 Meccanica 2.1 Moti relativi . . . . . . . . . . . . . . . 2.2 Moto parabolico di un corpo pesante . 2.3 Forze e momenti di forza . . . . . . . . 2.4 Forze apparenti . . . . . . . . . . . . . 2.5 Attrito . . . . . . . . . . . . . . . . . . 2.6 Pressione . . . . . . . . . . . . . . . . 2.7 Conservazione della quantità di moto . 2.8 Conservazione del momento angolare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 6 7 7 8 12 14 15 20 3 Fisica dei fluidi 3.1 Idrostatica . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2 Idrodinamica . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Gas e vapore . . . . . . . . . . . . . . . . . . . . . . . . 3.4 Tensione superficiale e capillarità . . . . . . . . . . . . . 3.5 Viscosità . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.1 Moto vorticoso e numero di Reynolds . . . . . . 3.5.2 Resistenza di un fluido reale al moto di un corpo 3.5.3 Sedimentazione e centrifugazione . . . . . . . . . 3.6 Pressione osmotica . . . . . . . . . . . . . . . . . . . . . 3.7 Le equazioni fenomenologiche delle leggi di trasporto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 22 24 26 32 40 44 45 47 48 49 4 Termologia 4.1 Trasmissione del calore . . . . . . . . . . . . . . 4.1.1 Conduzione . . . . . . . . . . . . . . . . 4.1.2 Convezione . . . . . . . . . . . . . . . . 4.1.3 Irraggiamento . . . . . . . . . . . . . . . 4.1.4 L’effetto serra . . . . . . . . . . . . . . . 4.2 Alcune semplici trasformazioni termodinamiche 4.3 Le straordinarie proprietà fisiche dell’acqua . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 52 52 54 56 59 61 66 5 Ottica 5.1 Lenti . . . . . . . . . . . . . . . . . . . 5.2 Lastra a facce piano-parallele e prisma 5.3 Specchi . . . . . . . . . . . . . . . . . 5.4 Altre osservazioni e considerazioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 68 71 72 73 6 Elettrologia 6.1 Elettrostatica . . . . . . . . . 6.1.1 Condensatori . . . . . 6.1.2 Multimetri . . . . . . 6.1.3 Bilance piezoelettriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 77 78 79 79 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 6.1.4 Fotocopiatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Fornitura dell’energia elettrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A Introduzione fenomenologica alla meccanica quantistica A.1 Lo spettro della radiazione di corpo nero . . . . . . . . . . . . . . . . . . . . . A.2 Lo spettro dell’atomo di idrogeno . . . . . . . . . . . . . . . . . . . . . . . . . A.3 Effetto Hall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.4 La scoperta della radiazione X e della radioattività naturale . . . . . . . . . . A.5 Esperienza di Thomson per la misura della carica specifica dell’elettrone . . . A.6 Esperienza di Millikan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.7 Effetto fotoelettrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.8 Esperienza di Rutherford . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.9 Il modello di Bohr per l’atomo d’idrogeno . . . . . . . . . . . . . . . . . . . . A.10 Esperienza di Franck e Hertz . . . . . . . . . . . . . . . . . . . . . . . . . . . A.11 Dualismo onda-corpuscolo per la radiazione elettromagnetica . . . . . . . . . A.12 Esperienza di Compton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.13 Ipotesi di de Broglie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.14 Esperienza di Davisson e Germer . . . . . . . . . . . . . . . . . . . . . . . . . A.15 Principio d’indeterminazione di Heisenberg . . . . . . . . . . . . . . . . . . . A.16 Necessità di un nuovo approccio per la Fisica dell’infinitamente piccolo: la quantistica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . A.17 Conclusioni . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . meccanica . . . . . . . . . . . . . . 80 80 83 84 86 88 88 89 91 92 93 94 95 96 97 99 100 101 105 106 Capitolo 1 Introduzione Con il termine Fisica domestica intendiamo tutto quel vasto insieme di fenomeni fisici, di azioni anche banali ma riconducibili a fenomeni fisici, di comportamenti spiccioli e spesso effettuati in modo quasi automatico e non percepito, che incontriamo quotidianamente nella nostra vita di tutti i giorni, ma che nascondono l’uso (magari inconsapevole) di fenomeni e leggi fisiche di grande importanza. Queste riflessioni, oltre che cercare di abituare il giovane fisico all’analisi critica dei comportamenti anche più semplici, possono costituire un utile e valido sussidio soprattutto per coloro che si dedicheranno all’insegnamento. Infatti uno dei principali ostacoli che si incontrano nell’attrarre l’attenzione e l’interesse dei giovani per la materia da insegnare è rappresentato dall’indifferenza che i giovani spesso riservano per la materia, soprattutto quando, come la Fisica, si tratta di una materia di tipo logico-deduttivo quantitativo. Poter offrire loro esempi tratti dalla vita quotidiana, far loro riflettere su azioni che compiono quasi automaticamente, ma che invece nascondono profondi significati fisici, può rappresentare un’efficace molla per suscitare attenzione e curiosità nelle loro menti. Senza questa molla l’insegnamento decade inevitabilmente in nozionismo, destinato a non lasciar traccia stabile nella formazione culturale dell’allievo. Con questi obbiettivi, quindi, discuteremo alcuni dei vari fenomeni fisici che incontriamo in ogni momento della nostra vita quotidiana, non volendo ovviamente esaurire l’argomento ma invece incoraggiando il futuro insegnante a trovarne altri, molti altri, nella sua esperienza di vita, per arricchire continuamente il suo bagaglio culturale di buon docente di Fisica. Queste note nascono da appunti formulati per il corso di “Complementi di Fisica 1”, tenuto negli anni 2000-2008 da uno degli autori per gli specializzandi dell’indirizzo Fisico-Informatico-Matematico della SSIS Toscana presso l’Università di Firenze. Per questo, per alcuni argomenti (come la Fisica dei fluidi), generalmente trascurati (se non ignorati) dai corsi di Fisica Generale non del CdL in Fisica, abbiamo anche riportato alcune riflessioni disciplinari di Fisica Generale, come esempio di riflessioni critiche che ogni futuro docente di Fisica dovrebbe fare, nell’ambito della propria preparazione disciplinare, nel continuo processo di affinamento del proprio bagaglio culturale per diventare un buon docente. È utile ribadire che condizione necessaria per diventare un buon insegnante è la profonda e ampia conoscenza della materia (sarebbe ancora meglio “amarla”) per poter essere in grado di affrontare i vari argomenti (spesso delicati e non semplici) in vari modi per poi riuscire a trovare la “chiave” giusta per ogni studente si abbia di fronte. L’ignoranza (nel senso più etimologico del termine) e magari un atteggiamento sospettoso rispetto alla materia vengono immediatamente percepiti dagli studenti, e il dialogo è a quel punto finito. La condizione sufficiente per diventare un buon insegnante è sapere scegliere le sequenze logiche e nozionistiche in modo tale da facilitare il compito (non facile!) agli studenti di seguire l’insegnante, di comprendere (non apprendere!) lo sviluppo e la concatenazione degli argomenti in modo da “metabolizzare” gli aspetti fondamentali della disciplina. In altre parole la condizione sufficiente è “essere un insegnante efficiente” e questo è molto difficile: serve modestia, riflessione, disponibilità culturale, ma tutto diventa inutile se non poggia su solide basi di conoscenza e padronanza disciplinare. Ricordiamo che con FISICA intendiamo la scienza che fornisce spiegazioni razionali (quindi necessariamente antropocentriche) dei fenomeni naturali. I vari capitoli in cui la FISICA viene convenzionalmente divisa hanno avuto sostanzialmente due modi diversi di origine: 1) origine sensoriale ( e ne resta chiara evidenza nella loro denominazione); 2) origine strumentale. 4 Rientrano nella prima tipologia: • Meccanica e astronomia posizionale classica (vista, tatto, udito) • Fisica dei fluidi (vista, tatto, udito) • Termologia (tatto) • Acustica (udito) • Ottica (vista) mentre appartengono al secondo gruppo • Elettrologia • Fisica atomica, molecolare, nucleare, particelle elementari • Fisica della materia • Astrofisica • Geofisica • Biofisica Daremo ampio spazio ad alcuni aspetti dei capitoli della Fisica di origine sensoriale, nella quale le sollecitazioni che possono provenire dalla vita quotidiana sono molto più numerose e maggiormente connesse con l’esperienza comune. Il nostro scopo è infatti quello di sollecitare il futuro insegnante di Fisica a crearsi un metodo, anche di autocritica conoscitiva, piuttosto che imbottirlo di nozioni, che possono poi essere acquisite in ogni momento. Ovviamente il livello di schematizzazione e di intima comprensione dei fenomeni fisici presentati alla platea dei discenti deve essere rapportato al loro livello di conoscenze e di maturità culturale (in senso lato). A esempio, se si devono illustrare i fenomeni connessi con l’attrito a ragazzi di scuole secondarie di 1◦ grado dobbiamo limitarci agli aspetti qualitativi dei fenomeni (sensazione di sforzo per far muovere un corpo, frenamento di un corpo in movimento, calore che si sviluppa fra superfici a contatto in presenza di attrito, ecc.), mentre per ragazzi di scuole secondarie di 2◦ grado si devono trattare anche gli aspetti quantitativi, introducendo la forza di attrito (statico o dinamico, radente o volvente) nelle equazioni di moto in modo da poter spiegare quantitativamente le misure che si possono effettuare in laboratorio. A studenti universitari di discipline fisico-matematiche si può anche entrare in dettagli delle interazioni microscopiche che si manifestano fra le “asperità” delle superfici a contatto, con trattazioni quantitative delle interazioni fra le strutture dipolari delle molecole che costituiscono i corpi posti a contatto. Questo diventa essenziale, poi, se si vogliono comprendere i complessi fenomeni legati alla lubrificazione, cioè ai fenomeni chimico-fisici che portano alla riduzione dell’entità quantitativa delle forze di attrito (per studenti universitari di corsi magistrali). Per molti argomenti daremo un elenco (necessariamente incompleto) di fenomeni fisici semplici, tratti anche dall’esperienza quotidiana. Ognuno di questi potrà (e dovrà) essere sviluppato quantitativamente dall’insegnante se usato come prova sperimentale per illustrare e far comprendere l’argomento fisico a cui ci si riferisce. In alcuni casi (a esempio nel paragrafo 3.7) includiamo anche riferimenti ad argomenti generali di Fisica Matematica, correlati con gli aspetti trattati di Fisica Generale, per ricordare sempre, ai futuri insegnanti, l’unitarietà del processo di schematizzazione logico-deduttiva (tipico della Matematica e della Fisica) dei fenomeni naturali. Abbiamo aggiunto, infine, una Appendice fenomenologica alla meccanica quantistica, argomento lontano “anni-luce” dalla sensitività immediata della Fisica Domestica. Questa scelta non è stata dettata da una nostra mania di grandezza, ma dalla strampalata iniziativa del nostro ineffabile MIUR, come spiegato nell’introduzione all’appendice, a cui rimandiamo per i dettagli. 5 Capitolo 2 Meccanica Per introdurre il concetto di vettore 1 si può partire dalla definizione che si usa in geometria euclidea, nella quale il vettore descrive una corrispondenza tra punti geometrici nello spazio. Se si parte da un punto fisso di riferimento O (origine) e si vuol arrivare in un qualunque punto P dello spazio si hanno infinite possibilità, ma la più semplice (e più corta) è rappresentata dal segmento di retta che unisce O con P. Questo si rappresenta formalmente con una freccia orientata da O verso P, la cui lunghezza −−−−−→ (modulo) fornisce la distanza di P da O, e si indica con (P − O). A seconda del sistema di riferimento −−−−−→ che si usa avremo che il vettore (P − O) potrà essere scomposto nella somma delle componenti lungo i versori degli assi di riferimento del sistema scelto. La cinematica inizia con la necessità di descrivere quantitativamente lo spostamento nel tempo di un punto materiale 2 . Supponiamo che il punto materiale si trovi nell’intorno di un punto P dello spazio 3 , che riferiamo a un sistema di riferimento (cartesiano ortogonale, oppure polare sferico, oppure polare cilindrico ecc.), centrato in un punto fisso O. È ovvio che il modo più semplice che conosciamo per espri−−−−−→ mere la posizione di P rispetto a O sarà quello di definire il vettore (P − O) = ~r, di componenti (x, y, z) in un sistema cartesiano ortogonale, (r, θ, φ) in un sistema polare sferico, (r, θ, z) in un sistema polare cilindrico, ecc. Se dico che P si trova a una distanza d = 10.0 cm da O, P può trovarsi su uno degli (∞)2 punti della sfera centrata in O e avente raggio 10.0 cm ; se preciso inoltre che P si trova sul piano orizzontale passante per O si può trovare su uno degli ∞ punti della circonferenza centrata in O e contenuta nel piano orizzontale passante per O. Ma se indico anche il diametro lungo il quale mi devo muovere dal centro O verso la circonferenza orizzontale suddetta (cioè avrò precisato la direzione), basta solo che precisi il verso di percorrenza del diametro per individuare univocamente la posizione di P rispetto a O. Risulta quindi evidente che la definizione operativa della posizione di un punto materiale è una grandezza fisica vettoriale. Lo stesso ragionamento può essere poi applicato alla definizione di tutte le altre grandezze vettoriali che andremo a introdurre (velocità, accelerazione, forza, ecc.). 2.1 Moti relativi Alcuni esempi concreti per illustrare la nostra familiarità coi moti relativi: • moto di un passeggero su un mobile (treno, veicolo, nave, aereo); • moto di un treno rispetto alla stazione o al treno a fianco (in assenza di scosse, quando il treno parte si ha la percezione di star fermi e che si muova il treno a fianco); 1 Notare che ha la stessa radice etimologica delle parole come veicolo, vettura, ecc., cioè il verbo latino veho, vexi, vectum, vehere → trasportare, portare 2 Un corpo avente dimensioni trascurabili, coi limiti imposti dalla precisione delle misure che effettuiamo, rispetto alle distanze che caratterizzano il nostro sistema, ma con dimensioni molto maggiori di quelle atomiche, per le quali dovremmo introdurre le modalità di rappresentazione della meccanica quantistica. 3 Usiamo la dizione intorno di un punto perché il nostro corpo, che rappresentiamo come un punto materiale, ha dimensioni fisiche finite, mentre il punto geometrico nello spazio non ha dimensioni proprie. 6 • moto di una barca (o nuotatore o pesce) in un fiume in presenza di corrente; • moto di un aereo (di un proietto, di un volatile, di un aquilone) in presenza di vento; • moto di oggetti trasportati dal vento; • moto (apparente!) degli astri in cielo.4 2.2 Moto parabolico di un corpo pesante Di seguito sono riportati alcuni esempi concreti di tali moti: • discipline atletiche (getto del peso, salto in alto, in lungo, triplo, corsa a ostacoli, lancio del disco e del giavellotto [complicati dalle interazioni con l’aria!], lancio del martello); • giochi sportivi con la palla (calcio, tennis, pallacanestro, pallavolo, ping-pong, ecc.) [complicati dalle interazioni con l’aria, v. effetto giro]; • tappo dello champagne; • fuochi artificiali (senza esplosione in volo); • salto del ballerino e degli animali che saltano mentre corrono (gazzelle, cervi, ecc.), che sollevano le gambe durante il salto per dare limpressione di essere molto più in alto mentre il loro centro di massa continua a muoversi sulla parabola impressa dalle condizioni iniziali, ovvero dalla spinta delle gambe al distacco dal suolo; • salto del salmone sulla rapida-cascata (notare la furbizia “fisica” dell’orso che cattura il salmone al vertice della sua traiettoria parabolica sulla cascata, cioè quando la sua velocità rispetto all’orso è minima); • salto del pinguino e della foca sul pack dall’acqua; • espulsione a scatto di semi maturi da involucri seminali di piante (es., le ginestre), per assicurarsi una vasta copertura territoriale di colonizzazione. 2.3 Forze e momenti di forza Questo è un argomento che deve essere chiarito con grande cura, soprattutto agli allievi di scuole medie (ma forse anche elementari), anche perché esiste una grande confusione e ignoranza nel lessico usuale (e purtroppo anche in vari libri che circolano per le scuole) sull’argomento. Quando un corpo è vincolato, è necessario sempre considerare le reazioni vincolari per stabilire le condizioni fisiche statiche o dinamiche del sistema che consideriamo. Viene spesso detto, erroneamente, che applichiamo una forza (quella applicata dalla nostra mano) per aprire una porta. Se fosse vero dovremmo cadere indietro (con la porta addosso) o in avanti (sdraiati sulla porta!); in realtà i cardini della porta esercitano un sistema di reazioni vincolari per cui si ha solo una rotazione della porta attorno all’asse individuato dai cardini e quindi il moto della porta è causato dall’applicazione di un momento di forza, applicata dalla mano alla maniglia della porta, rispetto all’asse dei cardini della porta. Infatti per facilitare l’apertura della porta (cioè per applicare la minima forza per aprirla) si mette la maniglia (punto di applicazione della forza della mano) il più lontano possibile dall’asse dei cardini, per creare quindi, a parità di forza applicata, un momento di forza elevato rispetto all’asse di rotazione della porta. Altri esempi che evidenziano l’importanza dei momenti di forza sono: • apertura e chiusura di un rubinetto; 4 È stato l’origine delle tecniche di orientamento per i viaggi dei nostri lontani progenitori, ma anche della nascita della Fisica, attraverso il percorso Tolomeo → Copernico → Galileo → Keplero → Newton. 7 • ogni tipo di leva 5 funziona, nel caso statico, in accordo con la seconda equazione cardinale della statica, considerando cioè l’esatta compensazione tra i momenti meccanici applicati rispettivamente nei punti di “forza” e di “resistenza” rispetto al fulcro della leva (che rappresenta quindi il centro di riduzione dei momenti meccanici applicati); nel caso dinamico si dovrà invece considerare la seconda equazione cardinale della dinamica per caratterizzare il moto del sistema. Sono molti gli esempi di leve che utilizziamo quotidianamente; ne citiamo alcuni: apriscatola, apribottiglia, pièdi-porco, remo, scopa, zappa, vanga, mestolo, romaiolo, cucchiaio, pinze, tenaglie, schiaccianoci, maniglia, carrucola (semplice e composta), forbici, tagliasiepi, cesoie, bilancia a bracci, bascula meccanica, sistema mascella-mandibola, sistema avambraccio-gomito, sistema omero-spalla, sistema tibia-ginocchio, sistema femore-anca, (insomma tutte le articolazioni del corpo umano) ecc.; • la vite; • sollevamento ed equilibrio di un sistema pesante. Se vogliamo sollevare una sedia possiamo, a esempio, applicare alla spalliera una forza diretta verso l’alto equivalente alla forza peso della sedia e la sedia resta ferma nella nostra mano perché rispetto al centro di massa della sedia il momento meccanico della forza applicata è nullo e l’equilibrio è stabile (cioè qualunque spostamento infinitesimo dalla condizione di equilibrio tende a riportare il sistema nelle condizioni di equilibrio). Se invece applicassimo la forza a una gamba della sedia potremmo far rimanere la sedia in equilibrio solo se il punto di applicazione della forza sarà sulla verticale passante per il baricentro della sedia e le condizioni sarebbero di equilibrio instabile (cioè qualunque spostamento infinitesimo dalla condizione di equilibrio tenderebbe ad allontanare il sistema dalle condizioni di equilibrio). Lo stesso ragionamento sta alla base di tutte le manifestazioni di “equilibrismi” (camminare su una fune sospesa, giocolieri del circo e simili) effettuati nel campo di gravità terrestre. Queste considerazioni possono essere svolte anche in termini energetici, sui quali invitiamo il lettore a cimentarsi. 2.4 Forze apparenti Questo è un argomento delicato e non facile, su cui sono scritti anche pesanti strafalcioni su vari libri. Una forza è descritta correttamente solo in un sistema di riferimento inerziale quando si è individuato correttamente l’agente (o il corpo) che applica la forza in esame al nostro sistema di cui vogliamo studiare il moto (o le condizioni di equilibrio). Nelle esperienze quotidiane utilizziamo ovviamente un sistema di riferimento di laboratorio, cioè ancorato con la Terra che sappiamo ruotare su se stessa in un giorno, muoversi attorno al Sole in un anno e ruotare attorno al centro della Galassia in circa 2.6 · 108 anni, equivalente, quindi, a una trottola errante nello spazio, lontanissima dalla definizione formale di sistema inerziale come data dal 1◦ principio della dinamica del punto materiale di Newton. Tuttavia un sistema di riferimento di laboratorio può approssimare un sistema di riferimento inerziale se consideriamo fenomeni che avvengono in tempi “trascurabili” rispetto a quelli caratteristici dei moti di rotazione e rivoluzione della Terra (la trascurabilità o meno dipende dalla precisione delle misure di tempo che effettuiamo). In altre parole, approssimiamo il moto reale della Terra, durante le nostre misure, con un moto rettilineo uniforme. Nella teoria dei moti relativi si dimostra che ~aA = ~aR + ~aT + ~aC dove ~aA indica l’accelerazione assoluta (cioè misurata nel sistema di riferimento inerziale), ~aR l’accelerazione nel sistema mobile, ~aT l’accelerazione di trascinamento (cioè del sistema mobile rispetto al sistema inerziale), e ~aC = 2 · ~ ω × ~vR l’accelerazione di Coriolis, essendo ~ω velocità angolare del sistema di riferimento mobile e ~vR la velocità nel sistema di riferimento mobile. Nel sistema mobile (come è la Terra) possiamo solo misurare ~aR = ~aA − (~aT + ~aC ) 5 La distinzione che vari testi fanno fra leve di prima, seconda e terza specie è abbastanza arbitraria e opinabile 8 (2.1) e sono proprio i termini −(~aT + ~aC ) che fanno nascere l’idea dell’introduzione di forze apparenti che, applicate sul punto materiale considerato, generino le −~aT e −~aC misurate. In realtà non si possono trovare i corpi responsabili dell’applicazione di queste forze apparenti e quindi non è valido il terzo principio della dinamica del punto materiale, a dimostrazione che la nostra descrizione dei fenomeni non è corretta. Tuttavia spesso è intuitivamente utile parlare di forze centrifughe, esempio chiaro di forze fittizie; l’esempio che viene spesso citato è quello della fionda: la mano che trattiene il filo della fionda apprezza una forza (diretta verso l’esterno), direttamente proporzionale al quadrato della velocità angolare della fionda, proporzionale alla lunghezza del filo della fionda e alla massa della fionda, e si parla quindi di forza centrifuga esercitata dalla fionda sulla mano. In realtà la mano, dovendo esercitare una forza centripeta sulla fionda per farla muovere di moto circolare uniforme sulla traiettoria circolare considerata, esperimenta una reazione centrifuga, sulla base del terzo principio della dinamica. Elenchiamo alcuni esempi nei quali sono considerate le cosidette forze centrifughe: • centrifughe per l’estrazione di succhi da verdure e frutta; • asciuga-verdure rotatorio; • lancio del disco e del martello (in atletica), durante la rotazione del lanciatore per imprimere all’attrezzo l’energia cinetica necessaria per il suo moto parabolico successivo; • curve rialzate sul bordo esterno di strade e piste dove corrono veicoli; • inclinazione (verso il centro di curvatura) di cicli e motocicli in curva; • giostra a seggiolini liberi; • regolatore di Watt (utilizzato come regolatore di velocità nelle locomotive a vapore); • separatori di liquidi (utilizzati, a es., nei frantoi per la produzione dell’olio, sfruttando la diversa densità dell’olio dall’acqua di vegetazione); • ultracentrifughe per sedimentazione differenziata. Varie esperienze indicano che la Terra è un sistema di riferimento ruotante (e quindi inerziale solo in prima approssimazione), nel quale agisce quindi l’accelerazione di Coriolis: • variazione dell’accelerazione di gravità con la latitudine del punto sulla Terra considerato. Desideriamo esplicitare questo argomento (e altri nel seguito) come suggerimento operativo (per i futuri insegnanti) per la presentazione quantitativa dei vari esempi citati nel testo agli studenti delle scuole secondarie di secondo grado. Con riferimento alla Fig.(2.1) consideriamo, per semplicità, la Terra sferica, di centro C e raggio R, e con massa MT distribuita in maniera sfericamente simmetrica, e un punto P sulla superficie terrestre individuato dalla sua latitudine geocentrica ϕ. Se la Terra non ruotasse, l’accelerazione di gravità che subirebbe ogni corpo posto in P sarebbe semplicemente ~aG = −G MT ~ versR R2 originata dall’attrazione gravitazionale della Terra sul corpo in esame e passante per il centro C della Terra. Con la rotazione terrestre, individuata dal vettore ω nella Fig.(2.1), la Terra non è più un sistema di riferimento inerziale e occorre quindi applicare la cinematica dei moti relativi per cui ~aG = ~aT +~g, dove ~aG è l’accelerazione assoluta, ~aT è l’accelerazione di trascinamento offerta dalla Terra al corpo considerato, e ~g è l’accelerazione relativa del corpo rispetto alla Terra, cioè l’accelerazione di gravità. Introducendo i versori ~ip e ~in rispettivamente parallelo e ortogonale a ~ω possiamo scrivere ~g = ~aG − ~aT = −G · 9 MT ~ + ω 2 · d ~in versR R2 (2.2) ω ω vp aT aG C P aT g ϕ ip vn N O vc aC C E in S Figura 2.1: Dipendenza dell’accelerazione di gravitá dalla latitudine geocentrica Figura 2.2: Deviazione verso Est della caduta libera di un grave. con d = R · cosϕ. Scomponendo ~g lungo ~ip e ~in , quadrando e sommando, otteniamo il modulo dell’accelerazione di gravità q p (2.3) g = (−aG · senϕ)2 + (−aG · cosϕ + ω 2 · d)2 = a2G − R · cos2 ϕ · ω 2 (2 · aG − ω 2 · R) da cui si evidenzia la dipendenza di g dalla latitudine geocentrica ϕ. Risulta anche evidente che l’accelerazione di gravità ~g (P ) non passa sempre per il centro della Terra, come talvolta erroneamente detto, anche in alcuni libri di testo. All’equatore ϕ = 0 e quindi g(0) = aG − R · ω 2 , mentre al polo ϕ = π/2 e g(π/2) = aG . In entrambi questi casi, ma solo in questi, ~g (0) e ~g (π/2) passano per il centro della Terra C. • deviazione verso Est del moto di caduta libera di un grave (e deviazione verso Ovest del moto di un grave lanciato lungo la verticale verso l’alto). Con riferimento alla Fig.(2.2), se scomponiamo la velocità di caduta ~vc nei componenti ~vp parallelo a ~ω e ~vn ortogonale a ~ω, si comprende facilmente che l’accelerazione di Coriolis misurata in un sistema di riferimento terrestre ~aC = −2 · ~ω × ~vR (v. 2.1) è diretta verso Est nel caso della caduta libera del grave lungo la verticale e verso Ovest nel caso del lancio verso l’alto. Si può dimostrare (ma i relativi calcoli non sono banali) 6 che l’entità della deviazione verso Est (caduta) o Ovest (lancio in alto), rispetto alla verticale di partenza del grave, x(h), dipende dalla quota h percorsa lungo la verticale e vale ω x(h) = √ · senϕ · (2h)3/2 3 g Per h = 100 m al polo (ϕ = 90◦ ), essendo ω = 7.25 · 10−5 rad s−1 , vale x(100 m) = 22 mm. • rotazione degli uragani (in senso orario nell’emisfero Nord e antiorario nell’emisfero Sud). Le figure 2.3 e 2.4 dovrebbero essere sufficienti per comprendere il meccanismo di formazione dei cicloni, alla luce di quanto detto nei punti precedenti sul verso dell’accelerazione di Coriolis sui moti meridiani delle correnti atmosferiche (verso l’equatore o verso il polo N), accoppiati col moto ascensionale delle correnti d’aria calda (cicloni) e fredda (anticicloni). • Moti degli alisei. Anche in questo caso, seguendo quanto detto al punto precedente e con l’aiuto della Fig.(2.5) dovrebbe essere semplice spiegare qualitativamente il moto degli alisei. 6 v. A. Bertin, M. Poli, A. Vitale, Fondamenti di Meccanica, ed. Esculapio, BO, 1997, p. 192. 10 Figura 2.3: Circolazione delle principali correnti atmosferiche Figura 2.4: Schema per la formazione dei cicloni nell’emisfero Nord terrestre. • pendolo di Foucault. La trattazione rigorosa del moto di un pendolo è sicuramente improponibile a studenti delle scuole superiori.7 Offriamo invece una trattazione molto semplificata (e ovviamente non rigorosa) ma che risulta di facile comprensione anche per studenti liceali. Con riferimento alla Fig.(2.6) consideriamo il moto di un pendolo di massa M posto in oscillazione inizialmente nel meridiano di un punto P della Terra di latitudine geocentrica ϕ, con una sospensione perfetta (cioè un filo inestendibile, di massa trascurabile rispetto a M e che non trasmetta nessuna reazione di flessione e torsione al corpo in sospensione) di lunghezza l, attaccata nel punto O, fisso rispetto a terra. Indicando con θ l’angolo di oscillazione del pendolo rispetto alla verticale passante per il punto di sospensione O, la massima distanza del pendolo dalla verticale per O risulta essere r = l senθ. Essendo tutto il sistema vincolato a ruotare insieme alla Terra con velocità angolare ω, il punto più a Nord N dell’oscillazione del pendolo avrà una velocità vN , rispetto all’asse di rotazione terrestre, minore di quella del punto più a Sud vS , e precisamente 8 vN = ω(R · cosϕ − r · senϕ) ; vS = ω(R · cosϕ + r · senϕ) La differenza ∆v fra queste due velocità e la velocità del pendolo quando passa da O′ che si trova sulla verticale passante per il punto di sospensione O è data da ∆v = kvS − vO′ k = kvO′ − vN k = ω · r · senϕ . Questa differenza indica che il sistema solidale con la Terra ruota attorno all’asse di sospensione descrivendo una circonferenza di raggio r. Essendo ∆v costante, il tempo TF impiegato da questi punti per percorrere l’intera circonferenza sarà TF = 2π T◦ 2π · r = = ω · r · senϕ ω · senϕ senϕ essendo T◦ = 2π/ω il periodo di rotazione della terra, cioè un giorno. Conseguentemente il periodo di rotazione, rispetto a un riferimento terrestre, del piano di oscillazione di un pendolo sospeso in un punto della Terra avente latitudine geocentrica ϕ è sempre maggiore (per un fattore 1/senϕ) 7 Una trattazione molto ben fatta è contenuta nella tesi di laurea (triennale) in Matematica di Carlo Cintolesi Le equazioni di moto del pendolo di Foucault, relatore prof. Paolo Maurenzig, Dipartimento di Matematica e Informatica U.Dini, Fac. di SMFN, Università di FI, a.a. 2007/2008, che può essere consultata nella biblioteca del suddetto Dipartimento, posiz. MATL-2008-91. 8 Nella realtà i punti P e O ′ praticamente coincidono, mentre nella Fig.(2.6) sono rappresentati distanti per ovvia comodità grafica. 11 O ω VN N r θ l O’ P VS R ϕ C Figura 2.5: Andamento generale degli alisei superficiali. Figura 2.6: Schema semplificato dell’oscillazione del pendolo di Foucault. di quello che misurerei ai poli geografici. Infatti mentre ai poli (senϕ = 1) TF = T◦ all’equatore (senϕ = 0) TF = ∞. Nell’esperimento originale di Foucault (Parigi, cupola del Pantheon, anno 1851) M = 21 kg, l = 70 m, T ≈ 17 s, il piano di oscillazione del pendolo ruotava con una velocità angolare apparente di ∼ 11◦ /h, per cui una rotazione completa del piano di oscillazione del pendolo si compiva in ≈ 32 h Essendo la latitudine geocentrica di Parigi ϕ(P arigi) = 48◦ 51′ , senϕ(P arigi) = 0.753, in perfetto accordo col periodo di rotazione misurato. Il raggio della circonferenza descritta dal moto di rotazione del pendolo era di ∼ 3 m e a ogni oscillazione il punto di stazionarietà del pendolo si spostava di ∼ 3 mm sulla circonferenza predetta. Un altro modo di ragionare è il seguente. In un punto P della Terra di latitudine geocentrica ϕ vedo proiettato sul raggio vettore che unisce il centro della Terra al punto P il vettore ω ~ velocità angolare ~ orientata in direzione della Terra, per cui la velocità angolare apparente in P è ω · senϕ versR, antioraria (come ω ~ ). Ho conseguentemente l’impressione di vedere ruotare il piano di oscillazione di un pendolo oscillante in P con una velocità angolare −ω · senϕ. • moto di corpi inviati nello spazio dalla Terra; • sbandamento (in direzione ortogonale al raggio della giostra) che si registra muovendosi radialmente su una giostra in movimento. 2.5 Attrito Spesso le forze di attrito sono definite come forze dissipative poiché, essendo per definizione dirette nel verso opposto ai vettori velocità dei corpi a cui sono applicate, compiono un lavoro meccanico negativo, trasformato in quantità di calore. Conseguentemente, in tutte le applicazioni pratiche e negli esercizi numerici si cerca di porsi nelle condizioni più favorevoli per poter trascurare gli effetti dell’attrito. In altre parole l’attrito è considerato un effetto negativo ai fini del moto dei sistemi meccanici (soprattutto per ragioni energetiche). Tuttavia senza la presenza dell’attrito la nostra vita sarebbe molto complicata. Infatti senza attrito non potremmo avere locomozione. Quando camminiamo applichiamo con la pianta del piede una forza al terreno; se esiste attrito sufficiente fra la pianta del piede e il terreno, il terreno costituisce un vincolo e reagisce applicando al nostro piede una reazione uguale e contraria a quella che applica al terreno il nostro piede ed è proprio questa reazione applicata dal terreno la forza che ci fa deambulare. Se non ci 12 fosse attrito (pensiamo di tentare di camminare su una superficie ghiacciata o ricoperta di grasso) sarebbe impossibile camminare, anzi, il movimento di camminare ci farebbe perdere l’equilibrio rischiando una musata a terra.9 Lo stesso vale per la locomozione di veicoli sulla strada (si pensi a cosa succede alle ruote di un’auto sul ghiaccio o meglio sulla rena: le ruote girano, si solleva rena, spinta dalla forza applicata dalle ruote, e l’auto resta ferma (o presenta movimenti inconsulti apparentemente sconnessi con la direzione che desidereremmo avere). Per far muovere correttamente l’auto sulla rena basta creare un attrito sufficiente fra le ruote e il terreno, inserendo legno, frasche, stracci o altro materiale frizionante. Inoltre la presenza dell’attrito ci consente di realizzare una vasta serie di utili applicazioni pratiche: • frenare; • fissare impalcature e tubi tipo Dalmine; • salire su una scala a pioli appoggiata sul terreno; • usare la frizione; • usare la sega (anche quella a corda per il marmo, che utilizza come materiale frizionante la polvere di marmo); • riscaldarsi le mani fregandole l’una all’altra; • usare la lima; • lisciare superfici con tela smeriglio o carta vetrata; • lucidare superfici metalliche; • usare pinze e tenaglie e simili; • stringere oggetti in una morsa; • stringere dadi di fissaggio su bulloni; • stringere una vite. L’uso di viti e bulloni ci sollecita a riflettere sul loro moto.10 Un punto si muove di moto elicoidale cilindrico quando è simultaneamente soggetto a un moto circolare (che supponiamo inizialmente uniforme) e a un moto rettilineo uniforme lungo l’asse della circonferenza (che assumiamo come asse z) su cui si svolge il moto circolare (nel cui piano mettiamo gli assi x e y in modo da formare una terna destrorsa con z). Le equazioni parametriche di moto del punto mobile saranno quindi, indicando con R il raggio e con ω la velocità angolare del moto circolare, e con p il cosidetto “passo”, cioè lo spazio percorso lungo la z mentre la proiezione del punto mobile sul piano (x, y) percorre un giro completo sulla circonferenza, x(t) = Rcos(ωt) y(t) = Rsen(ωt) p z(t) = · (ωt) 2π (2.4) che, derivate rispetto al tempo, forniscono le componenti della velocità sugli assi del sistema di riferimento ẋ = −Rωsen(ωt) ẏ = Rωcos(ωt) pω ż = 2π 9 Notare che, per camminare, premiamo sul terreno col metatarso del piede di appoggio , creando una reazione con un componente verticale, che bilancia il nostro peso, e un componente orizzontale che sposta il centro di massa del nostro corpo, situato nella zona dello stomaco, in avanti; quando il nostro centro di massa si trova oltre la verticale del punto di appoggio del metatarso (chiamato anche punto di rovesciamento) si crea un momento meccanico che ci farebbe cadere in avanti, ma il movimento in avanti dell’altra gamba porta a eseguire il passo successivo e cosı̀ via. 10 Sembra che il loro uso sia iniziato fra il XII e XIII secolo e ha rappresentato un efficientissimo elemento di progresso nello sviluppo della tecnologia meccanica all’epoca. 13 q p p2 Si ricava subito che k~vk = k ẋ2 + ẏ 2 + ż 2 k = kωk R2 + 4π 2 , cioè il modulo della velocità è costante. Differenziando le equazioni parametriche di moto (2.4) si ottiene dx = −Rωsen(ωt)dt dy = Rωcos(ωt)dt pω · dt dz = 2π (2.5) Dalle prime due equazioni delle (2.5) ricaviamo che ds2 = dx2 +dy 2 = R2 ω 2 dt2 , da cui ds = Rωdt, essendo ds lo spostamento elementare lungo la circonferenza del punto mobile, da cui si ricava dt = ds/Rω, che si può sostituire nella terza equazione delle (2.5) per ottenere infine dz = p · ds 2πR (2.6) Generalmente p/(2πR) ≪ 1 e quindi dz ≪ ds, evidenziando il fatto che a grandi spostamenti rotatori corrispondono piccoli spostamenti lineari. La trattazione sopra riportata può essere facilmente applicata al moto di una vite che viene avvitata nella sua madrevite. In questo caso, essendoci sempre un sistema di forze di attrito fra la vite e la madrevite, per ruotare di ∆φ la vite occorre applicare un momento di forza (diretto lungo z) tramite una coppia di forze di modulo F sulla circonferenza, di raggio RT normalmente > R, della testa della vite. Conseguentemente, si compie un lavoro ∆L = 2RT · F ∆φ = Iω∆ω + M vk ∆vk + Lattr (2.7) I primi due termini al secondo membro della (2.7) rappresentano l’aumento di energia cinetica di rotazione e di traslazione della vite, generalmente trascurabili rispetto al termine Lattr , legato all’avanzamento ∆z della sua punta. Si capisce, il vantaggio che offre la vite (v. 2.7): ∆L = 2F ∆s ≃ Lattr ≃ Fz;attr ∆z (2.8) Essendo ∆s ≫ ∆z abbiamo che Fz;attr ≫ F , cioè possiamo esercitare una notevole forza di penetrazione Fz con una modesto momento di forza F · RT applicato alla testa della vite. 2.6 Pressione Abbiamo visto durante il corso di Fisica Generale 1 che quando si hanno forze che si esercitano attraverso superfici, è molto utile considerare la grandezza fisica pressione, cioè la forza che si esercita (uniformemente e ortogonalmente) attraverso l’unità di superficie considerata. Vediamone alcune applicazioni. Quando infiliamo una puntina da disegno in una tavola di legno, applichiamo una forza F⊥ sul capo della F⊥ , puntina tramite il polpastrello del dito premente, esercitando sul polpastrello una pressione p = ∆S essendo ∆S la superficie del capo della puntina. Considerando la puntina da disegno come rigida, la ⊥ forza F⊥ si applicherà anche alla punta, che eserciterà quindi sul legno una pressione P = F∆s , dove ∆s è la superficie della punta a contatto col legno. Essendo ∆s ≪ ∆S, la pressione P esercitata dalla punta sul legno è molto maggiore della pressione p esercitata dal polpastrello sulla testa e può vincere la forza di adesione delle fibre di legno e conseguentemente far penetrare facilmente la puntina nel legno. Si pensi alla pressione che si dovrebbe esercitare se volessimo far penetrare nel legno un cilindro avente diametro uguale alla testa della puntina da disegno considerata. Questo effetto punta (chiamiamolo cosı̀ per ricordarlo facilmente) è frequentemente usato in una gran varietà di applicazioni quotidiane: • chiodi, bullette, spiedi, rebbi forchetta ecc.; • aghi, spilli, ecc.; • affilatura superfici da taglio (coltelli, sgorbie, forbici, falci, rasoi, bisturi, ecc.); 14 • rasaerba, decespugliatori, apparecchi per potature ecc. (in questi casi ci sono apparati ruotanti, ma che sostanzialmente svolgono lo stesso lavoro di forbici o falci molto veloci); • tacchi a spillo (penetrano nell’asfalto caldo, mentre se la persona cammina sulla pianta della scarpa può camminare normalmente); • racchette da neve (in questo caso, e nei successivi, si utilizza l’effetto punta al contrario, diciamo cosı̀, ma la Fisica che si usa è la stessa); • zoccoli larghi per gli animali che devono camminare su terreni non solidi (cammelli, dromedari, plantigradi, bovidi, equini, ecc.). 2.7 Conservazione della quantità di moto Dalla dinamica dei sistemi sappiamo che in un sistema isolato si conserva la quantità di moto totale del sistema. Nel caso di urti fra corpi (consideriamone solo due per semplicità) il sistema dei due corpi può essere considerato come isolato durante il tempo (molto breve rispetto ai tempi di evoluzione dinamica del sistema) di contatto fra i due corpi urtanti. Le forze impulsive F~imp che si manifestano fra le superfici dei due corpi urtanti sono forze interne al sistema e per il terzo principio della dinamica sono uguali in modulo, cioè F~1,2 = −F~2,1 . Si conserva la quantità di moto totale del sistema e quindi il centro di massa del sistema si muove di moto rettilineo uniforme durante l’urto, continuando a muoversi, prima e dopo l’urto, sotto l’azione del risultante delle forze esterne applicate al sistema. Ricordando la teoria degli urti (si consiglia di farlo subito!) svolta nel corso di Fisica Generale 1, se i corpi urtanti hanno massa molto diversa fra loro, in pratica il corpo di massa minore tende a “rimbalzare” sul corpo di massa maggiore. Questo significa che le forze impulsive durante l’urto hanno valori tali da non provocare praticamente nessuna variazione di moto sul corpo più massiccio, mentre causano una variazione del moto del corpo più leggero. Ricordiamo che si definiscono urti elastici quelli nei quali si conserva l’energia cinetica totale dei corpi urtanti durante l’urto e urti anelastici quelli nei quali l’energia cinetica totale dei corpi urtanti diminuisce durante l’urto (si pensi al caso limite di corpi che si “appiccicano” l’un l’altro durante l’urto, tipo pendolo balistico). Alcuni esempi di urti in cui si ha conservazione della quantità di moto del sistema dei corpi urtanti (si consiglia di riflettere su quali di questi urti possano essere considerati elastici e quali no): • biliardo, bocce, bowling, curling; • calcio al pallone, schiacciata a pallavolo, palleggio a terra e rimbalzo sul tabellone a pallacanestro; • tennis, ping-pong, pelota, baseball, hockey e tutti i giochi che prevedono l’urto di un attrezzo con una palla; • placcaggio volante nel rugby; • incidenti fra veicoli (sia a terra, che in acqua, che in aria); • “picchiata” di rapaci sulle loro prede. Ricordiamo un modo diverso di scrivere la terza legge di Newton m · ∆~v = F~ · ∆t (2.9) che definisce l’impulso ∆I~ = F~ · ∆t fornito al corpo m dall’applicazione della forza F~ , costante durante l’intervallo di tempo ∆t, associato a una variazione di quantità di moto ∆q = m · ∆~v del corpo stesso. Consideriamo l’urto di un martello di massa m che urta uno scalpello appoggiato a un muro (che avrà praticamente una massa infinita rispetto a m). Dopo l’urto il martello rimbalza sullo scalpello, ma con una velocità molto inferiore a quella con cui l’ha colpito. Si nota poi che qualche frammento di muro si è staccato e che (soprattutto dopo vari colpi ripetuti) si ha un leggero riscaldamento dello scalpello e anche della testa del martello. Durante l’urto si ha la conversione della quantità di moto m · (~viniz − ~vf in ) in una variazione di impulso 15 F~impulsiva · ∆t, dove ∆t è la durata dell’urto e F~impulsiva è la forza impulsiva (di natura elastica) che si manifesta sullo scalpello. Nell’ipotesi di uno scalpello rigido la F~impulsiva si traferisce alla punta dello scalpello, cioè viene applicata alla superficie di muro a contatto con lo scalpello. Se la F~impulsiva è maggiore o uguale della forza di adesione della porzione di muro con il restante corpo del muro, una scheggia di muro sarà staccata dal muro. Per aumentare il modulo della F~impulsiva effettivamente applicata dallo scalpello al muro si ricorre all’affilatura del bordo dello scalpello (v. effetto punta in precedenza). Il riscaldamento della testa del martello e dello scalpello indica che gli urti non sono perfettamente elastici; infatti la schematizzazione elastica è una delle tante utilissime schematizzazioni semplificatrici, di tipo processo-limite, che si usano in Fisica [a es., punto materiale, gas perfetto, corpo rigido, ecc.], a cui ci si può avvicinare quanto si vuole, ma che non sono mai vere in assoluto nella realtà quotidiana. Esse sono indispensabili per poter comprendere i meccanismi fondamentali della Fisica che stiamo esaminando e dedurne le conseguenze quantitative che ci danno la comprensione logico-quantitativa dei fenomeni studiati. Le considerazioni sopra esposte possono essere applicate anche al sistema del cuneo colpito dal maglio. Con riferimento alla Fig.2.7 consideriamo un cuneo, di sezione trasversale ABC e angolo di apertura α, supposto rigido, inserito completamente in un materiale che lo contiene lungo le facce AC e BC. Inizialmente il cuneo è in equilibrio sotto l’azione del suo peso e del sistema di forze di attrito e di pressione esercitato sul cuneo dal materiale esterno attraverso le facce AC e BC. Colpiamo il cuneo con un maglio; sulla testa AB del cuneo agirà, durante l’urto, una forza impulsiva F~imp data dalla (2.9), dovuta all’urto col maglio che Fimp si abbatte con quantità di moto finita (e rilevante!) A B sulla testa del cuneo. Consideriamo l’istante iniziale di applicazione della F~imp e supponiamo che il cuN neo rimanga in equilibrio; questo significa che tutto il sistema di forze impulsive applicate al cuneo deve H Rimp α dare un risultante nullo e quindi che nel baricentro del cuneo G debba essere applicata una forza impul~ imp , diretta lungo la direzione di F~imp , di verso G siva R ~ contrario e di modulo uguale. Questa Rimp non può FS essere originata che dal simultaneo effetto sul cuneo FD α delle reazioni vincolari F~S e F~D , originate rispettivamente sulle facce AC e BC dal sistema di reazioni vincolari agenti sulle facce laterali del cuneo. Per la simmetria del sistema kF~S k = kF~D k = F . Essendo il cuneo rigido le forze agenti possono essere C “trasportate” lungo la loro retta d’azione ai fini delle determinazione delle condizioni di equilibrio e pensia- Figura 2.7: Schema forze impulsive agenti su un mole, quindi, applicate in G. Il triangolo ABC è simile cuneo al triangolo GNH, avendo i lati ortogonali a uno a uno; all’equilibrio possiamo scrivere ~ imp k = 2F sen α (2.10) kF~imp k = kR 2 Essendo F il modulo di una reazione vincolare, cioè sostanzialmente di una serie di reazioni di tipo elastico generate dalle strutture del materiale in cui il cuneo è inserito, F non potrà mai essere maggiore di una Fmax , oltre la quale le fibre del materiale non potranno mantenere la loro struttura stabile. Se però kF~imp k ≫ 2F sen α2 si creeranno pressioni impulsive sulle facce di penetrazione AC e BC del cuneo in grado di separare le fibre del materiale in cui il cuneo è inserito. Risulta evidente il vantaggio di utilizzare cunei “stretti” (fattore sen α2 nella (2.10)). Proponiamo adesso un semplice esercizio che tuttavia offre lo spunto per importanti riflessioni sul principio di conservazione della quantità di moto. Con riferimento alla Fig. 2.8 consideriamo un piano inclinato liscio su cui è posto un sistema rigido, di massa totale M , costituito da due corpi, assimilabili a punti materiali, di massa m1 e m2 , com m1 + m2 = M , uniti da una sottile sbarretta rigida, di massa trascurabile rispetto a m1 e m2 . Fra i due corpi è posta una molla (anch’essa di massa trascurabile rispetto a m1 e m2 ), di costante elastica k, compressa di un tratto ∆l, appoggiata (ma non agganciata!) fra i due corpi. Inizialmente viene impressa al sistema rigido una velocità iniziale v◦ , diretta lungo il piano inclinato verso l’alto. 16 x = x’ y’ y M v2’ vo y’ v1’ α y M m1 α m2 x = x’ m2 m1 x*(t*) Figura 2.8: Figura 2.9: Ovviamente il sistema rigido si muove di moto uniformente accelerato lungo il piano inclinato con accelerazione ẍ = −g · senα, risale di un tratto xstop = v◦2 /(2 · g · senα) in un tempo tstop = v◦ /(g · senα) e ritorna al punto di partenza con la stessa v◦ in un tempo totale 2 · tstop 11 . La quantità di moto totale ~ tot = M · ~v (t) varierà quindi nel tempo. del sistema rigido Q(t) È semplice valutare che il sistema, al tempo t∗ , si troverà in x∗ (t∗ ) = con una velocità v ∗ (t∗ ) = v◦2 − v ∗ (t∗ )2 g · senα (2.11) p v◦2 − 2g · senα · x∗ (t∗ ) (2.12) Supponiamo adesso che al tempo t∗ , tale che 0 ≤ t∗ ≤ tstop , si possa (tramite un opportuno congegno telecomandato), rimuovere la sottile sbarretta rigida che teneva uniti i due punti materiali costituenti il sistema rigido (v. Fig.2.9). La molla, non più vincolata a rimanere compressa, si distenderà quasi istantaneamente (se k avrà un valore sufficientemente elevato) cedendo la propria energia potenziale elastica 1/2 · k · (∆l)2 ai due punti materiali sotto forma di energia cinetica. Durante questa azione la molla esercita sui due punti materiali una forza (quasi impulsiva), interna al sistema, che risulta essere uguale in modulo, lungo la stessa retta d’azione e contraria in verso sui due punti. Conseguentemente l’azione della molla durante la sua distensione non altera la quantità di moto del sistema complessivo. La conservazione della quantità di moto del sistema (durante l’intervallo di tempo quasi istantaneo della ′ distensione della molla compressa) ci permette di scrivere, considerando un sistema di riferimento S centrato nel centro di massa del sistema rigido, ′ ′ m1 · ~v1 + m2 · ~v2 = 0; ′ ′ ~v1 = −~v2 m2 m1 (2.13) La conservazione dell’energia meccanica durante la distensione della molla implica che ′ ′ m1 |~v1 |2 + m2 |~v2 |2 = k · (∆l)2 (2.14) Dalle (2.13) e (2.14) otteniamo, dopo alcuni semplici passaggi s s ′ ′ k · m1 k · m2 |~v2 | = ∆l ; |~v1 | = −∆l m2 (m1 + m2 ) m1 (m1 + m2 ) (2.15) Nel sistema fisso (x,y) potremo quindi scrivere, immediatamente dopo la distensione della molla, ~v1∗ = ~v ∗ ′ + ~v1∗ ; ~v2∗ = ~v ∗ + ~v2∗ ′ (2.16) L’energia cinetica totale del sistema delle due masse puntiformi, dopo la distensione della molla, sarà Etot = 1 1 m1 |~v1∗ |2 + m2 |~v2∗ |2 2 2 (2.17) 11 Questi risultati potevano essere ottenuti ovviamente anche utilizzando il principio di conservazione dell’energia meccanica. 17 Inserendo le (2.16) e (2.15) nella (2.17) si giunge, dopo alcuni semplici passaggi di algebra elementare (accessibili a qualunque studente di scuola media superiore minimamente preparato) a Etot = ′ ′ 1 1 1 1 (m1 + m2 )(v ∗ (t∗ ))2 + [m1 (v1 )2 + m2 (v1 )2 ] = · M (v ∗ )2 + · k(∆l)2 2 2 2 2 (2.18) Ovviamente la (2.18) esprime ancora una volta la conservazione dell’energia meccanica durante il processo di distensione della molla, o, anche, il teorema di Koenig per l’energia cinetica, separando i contributi dell’energia cinetica del centro di massa e quelli del sistema relativamente al centro di massa. ~ tot;f inale sarà La quantità di moto totale del sistema subito dopo la distensione della molla Q ~ tot;f inale = m1 · ~v1 (t∗ ) + m2 · ~v2 (t∗ ) Q (2.19) ~ tot; f inale = Q ~ tot; prima distensione , Inserendo le (2.16) e (2.13) nella (2.19) si giunge a dimostrare che Q come era ovvio essendo le forze in gioco durante la distensione forze interne al sistema e quindi non in grado di alterare la quantità di moto totale del sistema. Questo semplice esempio dimostra passo-passo e quantitavamente come agiscono i contenuti dei principi della meccanica che abbiamo utilizzato (conservazione dell’energia meccanica se non agiscono forze dissipative e conservazione della quantità di moto totale nel caso che agiscano solo forze interne). Vogliamo ricordare che gli stessi principi fisici vengono utilizzati per situazioni molto più complicate formalmente e analiticamente (es., esplosioni, urti [centrali e non, elastici e non], di vari corpi, reazioni nucleari, interazioni fra sistemi gravitanti, interazioni fra particelle elementari ecc.). Consideriamo adesso un’altra semplice applicazione del teorema dell’impulso applicata a un sistema a massa variabile. Con riferimento alla Fig.2.10 consideriamo un sistema di massa M = (M − dM ) + dM che al tempo t si muova con ~ (t); supponiamo che al tempo t + dt un si- d M dM velocità V V(t+ d t) stema di forze interne (può essere la molla di massa M− d M M− d M trascurabile dell’esempio precedente, o un’esplosione v(t+dt) V(t) interna al sistema o un motore a “reazione”) provochi il distacco della piccola massa dM dal corpo principale Figura 2.10: Schema del moto con massa variabile del sistema, imprimendogli anche una velocità ~v (t + dt) relativa a M − dM . Scriviamo la prima equazione cardinale della dinamica dei sistemi (o anche dalla (2.9)) ~ tot dQ(t) F~est = dt (2.20) e consideriamola durante l’intervallo infinitesimo di tempo dt, ottenendo ~ + dt) − Q(t) ~ ~ (t + dt) + dM · ~v (t + dt) − M V ~ Q(t (M − dM ) · V F~est ≃ = ≃ dt dt ~ dM dV ~) + · (~v − V =M dt dt ~ (t + dt) = V ~ (t) + dV ~ e ~v (t + dt) = ~v (t) + d~v e abbiamo trascurato i dove abbiamo considerato che V ~ termini dM · dV e dM · d~v rispetto agli altri termini. Passando al limite e tenendo conto che il nostro esempio è unidimensionale, otteniamo M· dV dM = Fest + · (V − v) = Fest + Ṁ · vrel dt dt (2.21) dove vrel = V − v indica la componente della velocità relativa di dM rispetto alla massa principale M − dM e considerando che Ṁ < 0 nel nostro caso. Il termine Ṁ · vrel è detto forza di reazione o, nel caso del moto di razzi, spinta e rappresenta la forza (di natura interna al sistema) che utilizzando una fonte di energia interna al sistema, fornisce il lavoro necessario per aumentare l’energia cinetica del sistema principale, che però perde massa durante il moto. Ovviamente per massimizzare la forza di reazione occorre espellere la massima quantità di materia nell’unità di tempo per massimizzare il termine Ṁ e occorre simultaneamente imprimere la massima vrel alla massa espulsa per massimizzare l’altro 18 termine della forza di reazione. Consideriamo il moto di un razzo (posto su un piano orizzontale liscio), che espelle (con continuità) una massa di gas dM nel tempo dt, con una velocità relativa al corpo principale del razzo di modulo u (in direzione opposta a quella del moto del razzo), a causa di un sistema di forze interne al razzo (motore a reazione). Avremo, in questo caso, che Fest = 0 e la conservazione della quantità di moto totale del sistema si esprime come Fest = 0 e la conservazione della quantità di moto totale del sistema si espreme come M · V (t) = dM · v(t + dt) + (M − dM )V (t + dt) = dM [v(t) + dv] + (M − dM )[V (t) + dV ] = = dM · v(t) + dM · dv + M · V (t) + M · dV − V (t)dM − dM · dV Trascurando gli infinitesimi di ordine superiore al primo otteniamo, ricordando che u = v − V , 0 = dM (v − V ) + M · dV ; −u dM = dV M che, integrata fra la situazione iniziale (Vi , Mi ) e quella finale (Mf , Vf ), fornisce Vf − Vi = u · ln Mi Mf (2.22) Essendo Mi > Mf ⇒ Vf > Vi . È evidente la soluzione adottata nella tecnica spaziale di razzi multistadio, che consente di sganciare sezioni del razzo che hanno esaurito il combustibile e che consentono di ridurre drasticamente la massa finale (e utile) del razzo (carico pagante). Applicazioni di quanto descritto finora si possono trovare in: • moto dei fuochi artificiali (moto a reazione dell’involucro dall’accensione a terra fino all’esplosione in volo, dopo la quale i frammenti si muovono secondo moti parabolici determinati dalla loro velocità al momento dell’esplosione, mentre il centro di massa dei frammenti si muoverebbe idealmente lungo la traiettoria parabolica definita dalla velocità dell’involucro prima dell’esplosione); • moto dei razzi multistadio; • moto dei frammenti delle bombe a grappolo (purtroppo molto spesso le conoscenze accumulate con passione dalla scienza vengono utilizzate in modo barbaro e disumano dalla stupidità umana, che, com’è noto, tende a non avere limiti); • moto dei razzi di segnalazione (idem c.s., solo che dopo l’esplosione si apre un piccolo paracadute (o un apparato di frenamento), che tende a ritardare il moto di discesa del razzo acceso in modo da aumentare la probabilità di essere osservato da qualcuno); • bengala illuminanti (v. razzo di segnalazione). • moto di corpi in acqua. Questo potrebbe essere un vasto capitolo di Fisica applicata, ma limitiamoci a alcuni semplici esempi. Sia i pesci in moto che i nuotatori spostano (o con le pinne laterali e con le mani e i piedi) masse d’acqua in direzione opposta a quella in cui vogliono andare; per la conservazione della quantità di moto del sistema pesce (o uomo) + acqua spostata si produce il moto relativo fra il sistema pesce (o uomo) e quello acqua spostata rispetto all’acqua in quiete, cioè l’azione che definiamo nuoto. Alcuni animali acquatici usano una forma di spostamento dell’acqua più efficiente dell’uso delle pinne laterali, utilizzando il movimento di tutta la parte posteriore del corpo (coda), spostando una quantità maggiore di acqua (ma usando quindi una maggior quantità di energia corporea) e questa tecnica è chiamata “bratto”; muovono la coda in direzione orizzontale il coccodrillo, il tonno, il pescecane, ecc., muovono in direzione verticale il delfino, la balena, il nuotatore in stile “delfino” (con le gambe!). Utilizzano la conservazione della quantità di moto (in direzione verticale ) anche i giocatori di pallanuoto per elevarsi col busto fuori dalla linea di galleggiamento naturale (assicurata dalla spinta di Archimede), eseguendo velocemente ed energicamente il moto tipo “bicicletta” delle gambe in acqua per muovere verso il basso la maggior quantità di acqua possibile con la massima velocità possibile 12 , le nuotatrici del nuoto sincronizzato e del balletto in acqua; 12 Per lo scatto finale per la parata, inoltre, i portieri della pallanuoto fanno scattare energeticamente e simultaneamente entrambe le gambe verso il basso in modo da realizzare la massima elevazione fuori dall’acqua. 19 • il moto dell’elica, che con la sua forma particolare (v. moto elicoidale descritto precedentemente), induce nell’acqua un moto circolare (attorno all’asse dell’elica, che non produce nessun effetto utile al moto dell’imbarcazione) e un simultaneo moto rettilineo lungo l’asse dell’elica di una massa di acqua cospicua. È questo moto rettilineo di acqua (spesso detto impropriamente per “reazione”) che produce il moto in avanti dell’imbarcazione in modo da conservare la quantità di moto del sistema globale, generando l’elica un sistema di forze interno al sistema. 2.8 Conservazione del momento angolare Considerando la seconda equazione cardinale della dinamica dei sistemi, se il sistema considerato è isolato (cioè il momento meccanico risultante delle forze esterne rispetto a un asse passante per il centro di massa del sistema è nullo) il momento angolare del sistema resta costante. Se il sistema può essere considerato ~ k , rispetto a quest’asse, è espresso rigido e ruotante attorno a un asse di versore ~k, il momento angolare L semplicemente da ~ k = Ik · ω · ~k L (2.23) dove ω è la componente lungo ~k della velocità angolare del sistema e Ik è il momento d’inerzia del sistema rispetto a ~k. Conservandosi il momento angolare deve quindi rimanere costante il prodotto Ik · ω. Questa relazione è la base della rotazioni rapide dei ballerini e dei pattinatori: infatti, iniziano la rotazione (attorno a un asse verticale passante per il loro centro di massa) a braccia larghe, avendo cioè un momento d’inerzia Iiniz e una velocità angolare iniziale ωiniz . Quando stringono le braccia al corpo, il loro momento d’inerzia diminuisce, divenendo If in < Iiniz , e conseguentemente la loro velocità angolare diverrà ωf in = ωiniz · Iiniz If in per cui ωf in > ωiniz e vedremo il ballerino-pattinatore ruotare molto più velocemente alla fine dell’esercizio. Altri esempi che utilizzano il principio fisico sopra descritto: • tuffi carpiati, avvitati, rovesciati ecc,; • moto di un boomerang; • moto impresso ai coltelli da un (bravo!) lanciatore di coltelli; • evoluzioni dei ginnasti nella ginnastica a corpo libero; • evoluzioni di pattinatori e ballerini. In questi casi la situazione fisica diventa più complicata perché i bravi atleti riescono ad aumentare sia la loro quantità di moto sia il loro momento angolare utilizzando il cambio di gamba (o di pattino) d’appoggio e, tramite l’attrito col suolo, ad aumentare la loro energia cinetica; • salti fuori dall’acqua di delfini, orche, pinguini, pesci volanti, balene ecc. Nei casi sopra indicati c’è anche da considerare il moto di traslazione dei diversi sistemi considerati solidalmente al moto del loro centro di massa, descritto dalla prima equazione cardinale della dinamica dei sistemi. Si tratta di moti parabolici, perché effettuati nel campo di gravità terrestre con una velocità iniziale impressa inizialmente dall’impulso della spinta applicata al sistema. Esaminiamo, in modo molto semplificato, cosa accade nell’esecuzione di un tuffo dalla piattaforma al ~ che imprime al suo corpo all’istante tuffatore, in piedi sulla piattaforma, al momento della spinta S del distacco dalla piattaforma (v. Fig.2.11). In realtà il metatarso del tuffatore imprime una pressione sull’area A della piattaforma, che, tramite l’attrito esistente fra piattaforma e piede, reagisce applicando ~ La forza S ~ agisce per un brevissimo intervallo di tempo ∆t comunicando la forza di spinta impulsiva S. ~ ~ ~ = velocità del tuffatore dopo la spinta iniziale). un impulso I = M · V al tuffatore (M = massa e V ~ nei componenti S ~⊥ perpendicolare e S ~k parallelo al corpo del tuffatore. È più istruttivo scomporre S Questo significa che il tuffatore, nel tempo ∆t, deve aver spostato il proprio centro di massa dalla verticale 20 S S S A Figura 2.11: Schema della spinta in un tuffo Figura 2.12: Evoluzione di un tuffo ~k crea un impulso I~k che, diretto verso passante per A verso l’esterno della piattaforma. Nel tempo ∆t, S il centro di massa del tuffatore, fa aumentare la sua quantità di moto, fornendogli la velocità di distacco dalla piattaforma, che poi definirà il moto del centro di massa del tuffatore. ~⊥ , invece, crea, nel tempo ∆t, una variazione di momento d’impulso rispetto al centro di massa del S corpo del tuffatore, a cui corrisponde un aumento di momento angolare del tuffatore rispetto al suo centro di massa. Al distacco dalla piattaforma il tuffatore avrà un momento angolare iniziale di modulo Iiniz · ωiniz , essendo Iiniz e ωiniz rispettivamente il momento d’inerzia e la velocità angolare iniziali del tuffatore. Durante l’esecuzione del tuffo il tuffatore varia, con rapidi movimenti, il suo Iistantaneo e, conseguentemente, la sua ωistantanea , conseguendo (se eseguite correttamente) le bellissime evoluzioni che caratterizzano questa disciplina sportiva (v. Fig.2.12). Notare che, al momento dell’ingresso in acqua, il tuffatore si distende (riassumendo Iiniz , e quindi ωiniz , che è la minima possibile), per poter entrare in acqua ortogonalmente alla superficie e non provocare eccessivi spruzzi. 21 Capitolo 3 Fisica dei fluidi Premettiamo alcune riflessioni su concetti fondamentali della Fisica dei fluidi. Si definiscono (in modo semplice) come “fluidi” quei sistemi non dotati di forma propria definita e che assumono la forma del recipiente che li contiene. I fluidi possono essere sia i “liquidi” (che occupano solo una parte del recipiente che li contiene) che i “gas” (che occupano invece tutto lo spazio a disposizione nel contenitore). Una definizione più operativa può essere: i liquidi hanno un coefficiente di comprimibilità isoterma circa nullo, mentre i gas lo hanno positivo 1 . Poiché i fluidi devono sempre essere contenuti in un contenitore, di cui è facile misurare il volume interno (purtroppo si continua a usare spesso il termine capacità, di dubbio significato e che può generare confusione quando si affronta l’elettromagnetismo), è utile definire le grandezze fisiche “densità” (o massa volumica secondo la moda recente) e “pressione” per caratterizzare le proprietà inerziali dei fluidi e di scambio di forze di superficie con l’ambiente esterno. 3.1 Idrostatica In idrostatica le leggi elementari fondamentali (che si trovano nei testi) per fluidi isotropi sono: • la legge di Pascal, che stabilisce che la pressione all’interno di un fluido in quiete è una grandezza scalare, cioè il valore della pressione misurata è indipendente dall’orientazione della superficie attraverso la quale viene misurata la forza che esercita la pressione su quella superficie. Questa legge si può dimostrare sperimentalmente tramite una sfera avente fori simmetrici sulla superficie e uno stantuffo tramite il quale applicare una forza di breve durata ma di alta intensità al liquido contenuto nella sfera. I getti di liquido escono dai vari fori con la stessa velocità e radialmente (in prossimità della superficie della sfera) per poi assumere le tipiche traiettorie paraboliche (dovute al campo di gravità). Questa legge potrebbe anche essere illustrata teoricamente dall’esame delle condizioni di equilibrio di ogni elemento di volume all’interno del liquido, soggetto all’equilibrio fra le forze di volume e di superficie agenti sull’elemento considerato; • la legge di Archimede che afferma che in un fluido pesante in quiete un corpo immerso nel fluido (e in quiete rispetto a esso) riceve dal fluido una “spinta” (cioè una forza verticale diretta verso l’alto) pari al peso del fluido spostato dal corpo e applicata nel centro di massa del volume di fluido spostato. In realtà non si tratta di una legge particolare ma semplicemente dell’espressione dell’equilibrio che deve sussistere fra le forze di volume (peso del corpo) e l’insieme delle forze di superficie applicate dal fluido pesante alla parte immersa del corpo. Una semplice dimostrazione sperimentale: si prenda una busta di plastica e la si immerga in un largo recipiente di acqua (o altro liquido pesante), allargandola in modo che si riempia di acqua ma che resti in equilibrio (il peso della busta è ovviamente trascurabile rispetto alle altre forze in gioco). Si sollevi e si estragga poi la busta ∆V 1 −1 −10 1 Il coefficiente di comprimibilità isoterma è definito come c = − ∆p · V t ; cH2 O ≃ 4.6 · 10 Pa , mentre cHg ≃ 3.5 · 10−11 Pa−1 ; per chiarire meglio il significato fisico di questi valori sperimentali, essendo 1 Pa−1 = 105 Atm−1 , cHg ≃ 3.5 · 10−6 Atm−1 , cioè 1 dm3 di Hg presenta una diminuzione di volume di 3.5 mm3 per un aumento di pressione di 1 Atm a temperatura ordinaria, che corrisponde alla contrazione isobara che avrebbe subito per una diminuzione di −0.002 ◦ C. Per un gas perfetto, dalla relazione di Boyle, si ricava che cgas perf etto = 0.5 Atm−1 . 22 piena di acqua e si misuri il peso a cui è soggetta da parte del campo di gravità. Riposizionando la busta (in modo quasi statico) nell’acqua si vede che il peso dell’acqua contenuta nella busta deve essere bilanciato dall’insieme delle forze che si esercitano da parte dell’acqua circostante attraverso la superficie della busta immersa perché il sistema “busta” resti in quiete. È ammirevole che Archimede se ne sia accorto circa 2500 anni fa ma non sembra che si possa trattare di una legge specifica della Fisica quanto di una semplice applicazione dei principi dell’equilibrio dei sistemi meccanici; • la legge di Stevino, p(z) = Pest + ρ · g · z, che stabisce che all’interno di un fluido pesante in quiete la pressione totale alla profondità z nel fluido è data dalla somma della pressione esterna al fluido Pest e della pressione idrostatica del fluido sovrastante; è una conseguenza del fatto che le pressioni nei fluidi “onesti”2 sono scalari e quindi si sommano con le semplici regole delle somme degli scalari. L’espressione per la pressione idrostatica ρ · g · z si ottiene banalmente imponendo l’equilibrio al sistema di forze di volume (gravità) e di superficie (pressione) che agiscono su ogni volumetto di fluido all’interno del fluido alla quota z nell’ipotesi che g e ρ non varino con z (altrimenti ci ritroveremmo un integrale definito da valutare). Piuttosto che scomodare leggi fisiche a hoc forse sarebbe più semplice considerarle come importanti conseguenze dei principi fisici generali (leggi dell’equilibrio di sistemi continui, proprietà di simmetria e isotropia). Lo stesso discorso si può applicare al cosidetto principio dei vasi comunicanti, che invece risulta come una conseguenza ovvia della legge di Pascal. In alcuni testi la presentazione della fondamentale esperienza di Torricelli (sulla misura indiretta della pressione atmosferica) è fatta in modo non molto preciso, soprattutto nei suoi aspetti operativi; si consiglia di vedere le dispense relative a questa misura Misura della pressione atmosferica col barometro di Fortin andando sul sito hep.fi.infn.it/fisichetta1/dispensea.html e poi cliccando su → Miscellanea dispense a.a. precedenti. Un’applicazione importante idrostatica è rappresentata dal torchio idraulico, che andrebbe sempre illustrato agli studenti; applicazioni del torchio idraulico sono tutti i tipi di presse idrauliche e il sistema di trasmissione della pressione esercitata dal piede dell’automobilista sul pedale del freno (che esercita una forza limitata) alle ganasce dei freni (che esercitano una forza molto maggiore sui dischi o sul tamburo dei freni, ovviamente in assenza di servo-freno!). Un altro argomento importante dell’idrostatica è la determinazione dell’andamento con l’altezza della pressione nell’atmosfera terrestre. L’equazione dell’equilibrio idrostatico ci dice che dP = −ρ · g · dh, dove dP è la diminuzione di pressione atmosferica P per un aumento della quota dh nell’atmosfera, che consideriamo (come semplificazione di prima approssimazione) come un gas perfetto isotermo di massa molecolare Mmol . Conseguentemente, dall’equazione di stato dei gas perfetti, otteniamo che ρ = (P · Mmol )/(R · T ), e, definendo h◦ = (R · T )/(Mmol · g) detta scala d’altezza, otteniamo che P (h) = P◦ · exp(−h/h◦ ), dove P◦ rappresenta la pressione atmosferica al suolo (h = 0). Assumendo per Mmol = 29 · 10−3 kg/mole, corrispondente alla composizione dell’aria, fatto per 3/4 di N2 e 1/4 di O2 , si ottiene che h◦ ∼ 8 km, cioè in circa 8 km la pressione atmosferica si riduce a circa il 37% (e−1 ) del suo valore al suolo. Il realtà un valor medio della scala d’altezza atmosferica è dell’ordine di 7.5 km; questo è dovuto al fatto che l’ipotesi di isotermia per l’atmosfera terrestre è un’approssimazione grossolana perché il gradiente termico medio nell’atmosfera terrestre è dell’ordine di −6.5 o C/km. Fra le molte esperienze quotidiane relative all’idrostatica ricordiamo: • vari tipi di galleggiamento in acqua; il corpo umano immobile galleggia se la persona resta “calma”, cioè col torace dilatato; se viceversa il torace è contratto dall’apprensione, il nostro “galleggiante” naturale (l’aria nel torace) si riduce di volume (il diaframma si contrae), la spinta di Archimede si riduce e il .... fifone beve; • l’iceberg, di cui circa 1/10 del volume emerge dall’acqua (e conseguentemente si deduce che la densità del ghiaccio è circa 0.9 la densità dell’acqua); • palloncini, palloni aerostatici, mongolfiere ad aria calda (il cui funzionamento necessita di alcune ulteriori considerazioni che lasciamo volentieri al lettore!). 2 Cioè con proprietà fisiche macroscopiche isotrope, in quiete, nel campo di gravità. 23 3.2 Idrodinamica Consideriamo inizialmente il moto di un fluido non viscoso, cioè che non presenta fenomeni di attrito interno fra le varie porzioni di fluido in moto. Tale fluido è detto ideale. In un fluido ideale, quindi, non si ha dissipazione di energia meccanica durante il moto. I gas approssimano molto meglio dei liquidi il comportamento di un fluido ideale; fra i liquidi l’acetone è fra quelli che presenta un attrito interno minore durante il moto. Il moto del fluido può essere: A1 rotazionale (presenta vortici durante il moto; è caratterizzato matematicamente da avere il rot ~v = ∇ × ~v 6= 0 in molti punti del fluido in moto); A2 irrotazionale (non presenta mai vortici durante il moto; è caratterizzato matematicamente da avere il rot ~v = ∇ × ~v = 0 in ogni punto del fluido in moto); B1 stazionario (la velocità di ogni porzione di fluido durante il moto dipende solo dalla posizione della porzione di fluido considerata, ma non esplicitamente dal tempo. Matematicamente ~v = f (x, y, z) ovunque nel fluido); B2 non stazionario (la velocità di porzioni di fluido o di tutto il fluido durante il moto dipende esplicitamente dal tempo, matematicamente ~v = g(x, y, z; t)). Per semplicità iniziamo a considerare il moto di un fluido ideale in moto stazionario e irrotazionale, che chiamiamo anche moto laminare. Nell’intorno di un punto P1 (x1 , y1 , z1 ) tutti gli elementi di fluido dV in moto devono transitare con la stessa velocità ~v1 (P1 ); ma il vettore velocità è sempre tangente alla traiettoria, quindi tutti i dV di fluido transitano, nell’intorno di P1 , con la stessa traiettoria. Se consideriamo un punto P2 prossimo a P1 e ripetiamo il ragionamento precedente, giungiamo alla conclusione −−−−−−→ che tutti gli elementi di fluido percorrono la stessa traiettoria nel tratto (P2 − P1 ). Iterando il ragionamento per tutto l’insieme di punti occupati successivamente dall’elemento dV , si giunge a definire una traiettoria ben definita all’interno del fluido, che deve essere percorsa da tutti gli elementi di fluido che la intercettano; infatti, se per un qualunque elemento di fluido fosse possibile, nell’intorno dello stesso punto P◦ , seguire almeno 2 diverse traiettorie, significherebbe che questo elemento di fluido potrebbe avere almeno 2 diversi vettori velocità nell’intorno di P◦ , contraddicendo all’ipotesi di stazionarietà. Questa −−−−−−→ traiettoria (inizialmente definita da (P2 − P1 )) viene detta linea di flusso. L’insieme delle linee di flusso che si appoggiano a una linea chiusa, contenuta tutta all’interno del fluido in moto stazionario, si chiama tubo di flusso. Ogni elemento di fluido che transita attraverso una sezione del tubo di flusso deve uscirne necessariamente dalla parte “finale” del tubo stesso, non potendo assolutamente attraversare le pareti laterali del tubo di flusso per l’ipotesi della stazionarietà del moto. Quindi per un tubo di flusso deve valere il principio della conservazione della massa, cioè della costanza della portata ∆M/∆t valutata attraverso qualunque sezione del tubo di flusso. Si ricava facilmente che l’espressione che esprime quanto descritto, chiamata equazione di continuità, è ρ(P ) · S(P ) · v(P ) = cost. (3.1) dove P è un qualunque punto all’interno del tubo di flusso, ρ(P ) rappresenta la densità, v(P ) il modulo della velocità del fluido nell’intorno di P e S(P ) è la sezione del tubo di flusso normale a ~v . Considerando il moto di un fluido ideale in moto stazionario in un tubo di flusso in presenza della gravità e applicando il teorema dell’energia cinetica a un elemento di fluido in moto, si arriva a dimostrare facilmente l’equazione di Bernoulli, valida in qualunque punto contenuto nel tubo di flusso considerato 1 p + ρgz + ρv 2 = cost. 2 (3.2) dove p è la pressione, z è la quota del punto considerato e gli altri simboli sono noti. Talvolta può essere utile esprimere l’equazione di Bernoulli in termini di lunghezze, v2 p +z+ = cost. ρg 2g 24 (3.3) dove il primo termine, detto quota piezometrica, rappresenta, in quiete, l’altezza di una colonna di fluido pesante esercitante una pressione p alla sua base, il secondo termine è la quota geometrica e il terzo termine, detto quota d’arresto, rappresenta l’altezza a cui arriverebbe un elemento di fluido pesante lanciato verticalmente con velocità iniziale v. La forma (3.3) è spesso utilizzata per verificare la correttezza di funzionamento degli impianti di alimentazione dell’acqua. Sono molteplici le applicazioni pratiche e gli eventi di vita quotidiana che sfruttano quanto espresso dalla combinazione simultanea dell’equazione di continuità (costanza della portata in un tubo di flusso, ma, a maggior ragione, in un condotto fisico) e dell’equazione di Bernoulli (fluido non viscoso, quindi conservazione dell’energia meccanica): Figura 3.1: Schema del venturimetro • tubo di Venturi, per misurare la portata in un condotto (ancora usato dai tecnici degli acquedotti), di cui riportiamo la semplice schematizzazione come possibile esempio di applicazione didattica. Con riferimento alla Fig. 3.1 consideriamo il moto stazionario di un fluido, con viscosità trascurabile, in un condotto cilindrico orizzontale, che presenta una strozzatura limitata della sezione del tubo, da A1 , dove la velocità del fluido sia v1 e la pressione nel fluido sia p1 , ad A2 , caratterizzata da v2 e p2 . Le due sezioni A1 e A2 sono connesse da un manometro laterale che misura la differenza di pressione ∆p = p1 − p2 tramite la differenza di quota h + ∆h del liquido presente nel manometro (solitamente Hg) 3 . Dall’equazione di Bernoulli si ricava che ∆p = p1 − p2 = 1/2 · ρ · (v22 − v12 ), essendo ρ la densità del fluido, supposta costante. Dall’equazione di continuità si ricava che v2 = v1 (A1 /A2 ), che sostituita nella relazione precedente permette di esprimere s s 2(p1 − p2 ) 2ρHg · g · (h + ∆h)Hg = v1 = 2 ρ[(A1 /A2 ) − 1] ρ[(A1 /A2 )2 − 1)] da cui si ottiene che la portata di volume nel tubo è (h + ∆h)Hg Qv = v1 · A1 = K · ρ 1/2 2ρHg con K = A1 · (A1 /A2 )2 − 1 1/2 Conoscendo la costante K di costruzione del venturimetro, misurando (h + ∆h)Hg e sapendo la densità del fluido ρ si ottiene una semplice misura indiretta della portata di volume nel tubo principale, parametro importante per il corretto funzionamento di ogni impianto idraulico. • ugello di un becco Bunsen; √ • formula di Torricelli, v = 2 · g · ∆h, che fornisce la velocità di efflusso di un fluido pesante da un piccolo foro posto a una quota ∆h dalla superficie libera di un vasto recipiente (si noti che v è la stessa che avrebbe avuto un elemento di fluido in caduta libera per un tratto ∆h); • comportamento del traffico automobilistico e delle file di persone in una strettoia (allo stadio, all’uscita delle stazioni, ecc.); • dispenser per profumo, ugelli delle spruzzatrici, spray, ecc.; • ugello dell’idrante; • portanza delle ali dell’aeroplano; 3 Si noti che h + ∆h si riferisce alle quote verticali dei limiti superiori del tubo principale e della sua strozzatura. Inoltre la strozzatura deve essere smussata per non indurre moti turbolenti nel fluido in moto, dovuti a discontinuità geometriche della sezione del tubo. 25 • sollevamento di un foglio quando ci si soffia sopra (o, peggio, di un tetto di una casa o di un capannone con temporale e forte vento); • sifone; • l’aumento del tiraggio del fumo in un caminetto (o in una ciminiera) con vento forte; • vuotamento del “collo d’oca” in un WC con violento flusso d’acqua; • il frullino a immersione, che si attacca al fondo della pentola quando è in funzione. 3.3 Gas e vapore Percorriamo rapidamente il percorso logico-sperimentale che ha condotto i fisici a ipotizzare l’esistenza di un gas-limite, il gas perfetto. Le esperienze condotte sui gas reali avevano portato a stabilire tre relazioni fenomenologiche fondamentali per trasformazioni quasi-statiche P · V = cost. (trasf. isoterme, legge di Boyle) (3.4) V (t) = V◦ · (1 + αx · t) (trasf. isobare, 1a legge di Gay − Lussac) (3.5) P (t) = P◦ · (1 + βx · t) (trasf. isocore, 2 legge di Gay − Lussac) (3.6) a dove V◦ e P◦ indicano il volume e la pressione del gas a 0 ◦ C, αx e βx rappresentano rispettivamente i coefficienti di espansione e di tensione per la sostanza chimica x mentre t indica la temperatura misurata in ◦ C. αx e βx sono dell’ordine di 3.66 − 3.67 ◦ C−1 ma, con misure molto accurate, risultano numericamente diverse fra loro e soprattutto variano da gas a gas. Tuttavia misure effettuate con concentrazione di gas sempre più ridotte, cioè per valori decrescenti della pressione P◦ (proporzionale alla densità ρ◦ del gas e quindi alla concentrazione a 0 ◦ C), mostrano chiaramente un andamento lineare di αx e βx con P◦ , ma soprattutto è illuminante l’evidenza sperimentale (v. Fig.3.2) che tutte le rette interpolanti i dati sperimentali di αx e βx convergono, per P◦ → 0 a un unico valore γ = 3.6608 ◦ C−1 . Inoltre i valori di α e β per i gas nobili sono molto vicini fra loro e il loro andamento con P◦ è grosso modo parallelo all’asse delle ascisse P◦ , cioè quasi indipendente da P◦ . Viene quindi evidente l’indicazione, dall’andamento dei dati sperimentali di tutte le sostanze gassose utilizzate (v. Fig.3.2), di pensare a utilizzare un gas, che chiameremo gas perfetto, molto rarefatto, non chimicamente reattivo (useremo He o Ne non O2 ), per il quale i coefficienti di espansione α e di tensione β coincidano e siano uguali a γ. Le leggi di Gay-Lussac si scriveranno allora P (t) = P◦ (1 + γ · t) (3.7) V (t) = V◦ (1 + γ · t) (3.8) Solo adesso possiamo impostare il noto ragionamento che ci porta a dedurre l’equazione di stato dei gas perfetti. Infatti, partendo, con trasformazioni quasi-statiche, da (P◦ , V◦ ), con una isocora, possiamo giungere all’isoterma generica t, per la quale varrà la (3.7). Figura 3.2: Andamento dei coefficienti αx e βx con la Moltiplicando ambo i membri per V◦ avremo concentrazione del gas P (t; V◦ ) · V◦ = P◦ · V◦ (1 + γ · t) (3.9) Su un qualunque punto dell’isoterma a temperatura t avremo che P (t; V◦ ) · V◦ = P (t) · V (t) e quindi, sostituendo in (3.9), 1 +t (3.10) P (t) · V (t) = P◦ · V◦ · γ γ 26 Ma V◦ = n · V◦ (mol), dove n è il numero di moli contenute in V◦ e V◦ (mol) = 22.414 dm3 è il volume di una mole di gas perfetto in condizioni normali. Ponendo R = P◦ · V◦ (mol) · γ = 8.314 J/(mole· K), costante dei gas perfetti, e T = ( γ1 + t) = (273.15 ◦ C + t), temperatura assoluta dal gas perfetto, e sostituendo nella (3.10) otteniamo la ben nota equazione dei gas perfetti P ·V =n·R·T (3.11) Avremmo potuto anche, partendo da (P◦ , V◦ ), raggiungere l’isoterma a temperatura t con una trasformazione quasi-statica isobara e ottenere V (t) = V◦ (1 + γ · t), e proseguire con il ragionamento fatto precedentemente (moltiplicando ambo i membri della relazione precedente per P◦ , e successivamente “spostarsi” sull’isoterma) e saremmo giunti ovviamente all’equazione di stato dei gas perfetti (3.11), ma questo SOLO perché troviamo lo stesso valore γ per il coefficiente di espansione e di tensione nelle relazioni di Gay-Lussac. Anche una piccola differenza nei loro valori numerici avrebbe avuto la conseguenza di non poter definire un unico valore per la costante dei gas perfetti R, che, ovviamente, non sarebbe più stata una costante fondamentale della Fisica. La definizione di T come temperatura assoluta significa che non sono possibili temperature inferiori allo zero assoluto (−273.15 ◦ C), perché, se potessero esistere, inserite nelle (3.7) e (3.8), porterebbero a valori negativi della pressione e del volume, che sono assurdi fisici 4 5 . Essendo la (3.11) valida per ogni T si giunge alla conclusione che un gas perfetto non può mai cambiare di stato, cioè un gas perfetto non è mai liquefattibile. Sappiamo invece che anche l’elio (il gas nobile più leggero che meglio approssima, in condizioni di grande rarefazione, il comportamento sperimentale di un gas perfetto) è liquefattibile (a T < 5.2 K). Quindi qualunque gas reale si discosta sperimentalmente dal comportamento previsto per un gas perfetto in condizioni standard (e detto cosı̀ sembra quasi la scoperta dell’ombrello!). Per descrivere gli scambi energetici che avvengono nei cambiamenti di stato sono stati introdotti i calori latenti (di liquefazione, di evaporazione ecc.), che rappresentano numericamente l’energia che si deve scambiare con l’unità di massa di sostanza, in condizioni standard di pressione, per fare avvenire il cambiamento di stato considerato. Se esaminiamo i valori numerici dei calori latenti per le varie sostanze 6 , si vede che lo stato di vapore è associato con la maggiore quantità di energia per unità di massa di sostanza che cambia di stato, mentre lo stato solido è quello associato con la minima quantità di energia specifica della sostanza. Il cambiamento di stato avviene a temperatura e pressione costanti, spesso con variazioni di volume non rilevanti 7 . Quindi tutta l’energia ceduta al sistema (nel caso della fusione a esempio) deve essere immagazzinata dal sistema allo stato liquido, sotto forma di energia potenziale, perché nel cambiamento di stato inverso (solidificazione) esattamente la stessa energia (sotto forma di calore latente di solidificazione) è restituita dal sistema all’esterno. Se, in questi processi, è coinvolta energia potenziale, significa che devono essere presenti forme di forze conservative. Forze conservative sono, a esempio, le forze posizionali centrali non dipendenti esplicitamente dal tempo; se sistemi di molecole presentano la capacità di immagazzinare energia potenziale possiamo dedurre che fra le molecole si debbano esercitare forze posizionali centrali attrattive, ricordando le proprietà delle forze elastiche studiate in meccanica. Una rappresentazione funzionale semplice di forza di questo tipo potrebbe essere F~ = −k · r−α vers ~r, che ammette un’energia potenziale del tipo k · r−α+1 + cost.. U = −α+1 Poiché siamo interessati a trovare un’equazione di stato che valga anche per i gas reali in condizioni 4 Con l’introduzione della temperatura assoluta T = 273.15 + t(◦ C) l’isocora di Gay-Lussac diventa P (T ) = P · γ · T , ◦ mostrando una dipendenza lineare di P (T ) da T , con termine noto nullo. Questo ci consente di costruire un termometro a gas perfetto a volume costante e di poterlo tarare su un unico punto fisso, come il punto triplo dell’acqua pura, con un valore di temperatura di riferimento T3 = 273.16 K, essendo la temperatura centigrada del punto triplo dell’acqua t3 = 0.01 o C. 5 Per una presentazione più articolata si veda quanto contenuto nel primo capitolo del libro di Bertin, Poli , Vitale, Fondamenti di Termodinamica, Progetto Leonardo, BO, 1998. 6 Per l’acqua C liq = 0.333 MJ/kg, Cevap = 2.26 MJ/kg alla pressione atmosferica standard. 7 Solo nel caso dell’acqua si ha un aumento di volume dell’ordine del 10% nella solidificazione dell’acqua, che causa la rottura di tubi, contatori, ma anche vasi sanguigni e linfatici, causando necrosi dei tessuti biologici. Anche la ghisa, bismuto e argento hanno un notevole aumento di volume nella solidificazione, e questo fenomeno è molto utilizzato nelle fusioni di strutture fatte con tali materiali perché, versati in stampi rigidi, il materiale aumenta di volume nella solidificazione andando a aderire perfettamente alla cassaforma della fusione. Invece l’oro, rame ad altre sostanze comuni presentano una leggera diminuzione di volume all’atto della solidificazione per cui le fusioni tendono a non venire perfette copie della cassaforma e in questo caso si preferisce utilizzare la tecnica dello stampaggio a forte pressione per produrre,a esempio, monete in oro o in rame senza difetti. 27 normali (per ovvie necessità pratiche e applicative) vediamo se sia possibile introdurre alcune correzioni all’equazione di stato dei gas perfetti per renderla utile a descrivere il comportamento anche dei gas reali in condizioni normali. Se il gas reale non è estremamente rarefatto, vuol dire che la concentrazione di molecole non è prossima a zero ma finita e quindi le dimensioni delle singole molecole limitano significativamente il volume a disposizione. L’insieme di tutte le molecole, pensate impacchettate le une accanto alle altre, occuperà un volume proprio b, detto covolume, esprimibile anche come b = n · bmol dove n è il numero di moli di gas contenute nel volume V e bmol è il covolume molare. Il volume realmente a disposizione del moto delle molecole sarà quindi V − b. Le forze attrattive fra le molecole del gas reale non potranno però avere una dipendenza da r del tipo k · r−α , perché, avendo le singole molecole un volume proprio, quando due molecole vengono a contatto, non potendosi compenetrare l’una con l’altra, dovranno esercitare, a quel punto, fra loro una intensa forza repulsiva. Dovrà quindi esistere un r-minimo al di sotto del quale le forze attrattive divengono intensamente repulsive. Una semplice soluzione fu proposta da van der Waals (alla fine del XIX secolo) ipotizzando l’esistenza di una forza intermolecolare del tipo (3.12) F~ (r) = A · r−13 − B · r−7 vers ~r I valori di A e B nella (3.12) (caratterizzanti la molecola considerata) sono tali per cui F~ si annulla per un determinato valore r = rm . Una forma classica e molto semplice per V(r), energia potenziale da cui poter derivare l’espressione di F~ (r), è quella proposta da Lennard-Jones 8 (3.13) V (r) = 4ǫ (d/r)12 − (d/r)6 Nella (3.13) ǫ rappresenta il valore minimo dell’energia potenziale e d è la distanza per cui V (d) = 0. In questo caso avremo che " # 6 d 24ǫ · d6 dV (r) 2 −1 (3.14) = F (r) = − dr r7 r 6 Dalla (3.14) si ricava che F (rm ) = 0 per 2d6 = rm , cioè per rm = d · 21/6 = 1.1225 · d, oppure per d = 0.89 · rm . Per i gas nobili si ottiene sperimentalmente che rm ∼ 0.3 − 0.4 nm. Un esempio di andamento dell’energia di interazione intermolecolare con la distanza è dato in Fig.3.3. Per r ≪ rm la forza di van der Waals è nettamente positiva, cioè repulsiva, e lo si spiega col fatto che a queste distanze la molecola è praticamente impenetrabile (si entrerebbe nella struttura interna dell’atomo); per r ≫ rm invece la forza di van der Waals è debolmente negativa, cioè attrattiva, ed è la forza responsabile dell’aggregazione delle molecole (a temperature non elevate) e del comportamento sperimentale delle sostanze reali (cambiamenti di stato, calori specifici, tensione superficiale, ecc.). La componente attrattiva della forza di van der Waals è praticamente attiva fino a distanze dell’ordine di rmax ∼ 300 · rm , conseguentemente ogni molecola potrà esercitare una forza di attrazione non nulla su tutte le molecole contenute in una sfera di raggio rmax , centrata sulla molecola in esame, detta sfera d’azione molecolare. Per il terzo principio di Newton tutte le molecole entro la sfera d’azione eserciteranno una forza di attrazione (uguale e contraria a quella esercitata dalla molecola in esame) su questa molecola, e la forza totale esercitata sulla molecola al centro della sfera d’azione sarà nulla. Con riferimento alla Fig.3.4 consideriamo un volume V riempito di gas con densità uniforme. Le molecole M◦ e M3 (rappresentate con un punto nella figura) non sono soggette a forze di attrazione molecolare perché le sfere d’azione (ombreggiate in figura) delle loro forze molecolari sono uniformemente riempite dalle molecole circostanti di gas. Per le molecole che si trovano in una zona di spessore rmax dalle pareti del contenitore (cioè nella zona compresa fra le pareti del contenitore e la zona trattaggiata di Fig.3.4), la forza totale esistente su di esse, da parte delle molecole contenute nello spazio definito dalla superficie della sfera d’azione e dalle pareti fisiche del contenitore, non è nulla, perché il volume della sfera non è uniformemente riempito di molecole di gas (mancano le molecole delle calotte sferiche definite dalle pareti del contenitore e dalla superficie esterna al contenitore della sfera d’azione). Conseguentemente ogni molecola di questa zona di “confine” sarà soggetta a una forza, diretta ortogonalmente alla parete verso l’interno del contenitore; 8 Una presentazione semplice ma rigorosa può essere trovata nel cap. 10 del bel testo di G. Boato, Termodinamica, casa ed. Ambrosiana, MI, 1987. 28 M1 M2 F1 F2 M0 M3 M4 Figura 3.3: Andamento dell’energia di interazione intermolecolare nel caso dell’Ar F4 Figura 3.4: Effetto della sfera d’azione (indicata con un cerchietto) delle forze intermolecolari sempre con riferimento alla Fig.3.4 si comprende anche intuitivamente che F~2 > F~1 > F~4 . Il valor medio di queste forze su una superficie ∆S creerà una extra-pressione, diretta verso l’interno del contenitore, che si aggiungerà alla pressione che si esercita da parte delle pareti del contenitore sul gas come conseguenza delle variazioni di quantità di moto nel tempo per gli urti delle molecole del gas, in movimento per agitazione termica, con le pareti del contenitore (formula di Clausius-Kroenig). Questa extra-pressione ∆Pex sarà proporzionale al prodotto del numero delle molecole attraenti nella sfera d’azione per il numero delle molecole attratte entro la sfera d’azione del gas. La concentrazione delle molecole nel gas è esprimibile tramite la densità numerica specifica delle molecole ν = NT OT /VT OT = n · NA /VT OT , quindi ∆Pex sarà proporzionale a ν 2 e si potrà esprimere come ∆Pex = a · n2 /V 2 , con n numero di moli di gas contenute nel volume V e a una costante dimensionale dipendente dal tipo di gas reale utilizzato. Possiamo apportare le correzioni all’equazione di stato dei gas perfetti per tener conto del covolume e dell’extra-pressione delle molecole del gas reale scrivendo la ben nota equazione di stato dei gas reali di van der Waals a · n2 )(V − n · b) = n · R∗ · T (3.15) (P + V2 Il valore di R∗ non coinciderà ovviamente col valore della costante dei gas perfetti (puzzerebbe di miracolo!) ed è tale che la temperatura misurata da un termometro a volume costante riempito del gas reale in esame fornisca la stessa temperatura assoluta T che misurerebbe un termometro a volume costante a gas perfetto 9 . Per gas molto rarefatti V >> n · b, il termine dell’extra-pressione (a · n2 )/V 2 ) → 0 e R∗ → R e si ottiene, ovviamente, il comportamento descritto dall’equazione dei gas perfetti. Esaminiamo adesso l’andamento, nel piano di Clapeyron, dei dati sperimentali relativi a trasformazioni quasi-statiche isoterme di una sostanza pura, il cosidetto diagramma di Andrews (v. Fig.3.5). Per T elevate gli andamenti delle isoterme sono iperboli equilatere aventi gli assi coordinati come asintoti, cioè sono sostanzialmente gli andamenti di un gas perfetto (v. andamenti T4 e T3 Fig.3.5). Diminuendo T le isoterme si scostano dall’andamento iperbolico (v. andamento T2 Fig.3.5) fino a giungere all’isoterma alla temperatuta Tc che presenta un flesso parallelo all’asse V , nel punto (VC , PC ) di Fig.3.5, che viene detta isoterma critica. Diminuendo ancora la temperatura (v. isoterme T1 e T◦ di Fig.3.5) si nota un sostanziale cambio di regime: nella regione compresa fra l’asse delle ordinate P , l’isoterma critica e la curva tratteggiata PC → P1 → A il fluido si presenta allo stato liquido, mentre nella regione compresa fra l’asse delle ascisse V , l’isoterma critica e la curva tratteggiata PC → Q → B il fluido si presenta allo stato aereiforme (e la chiamiamo regione del vapore). All’interno della regione compresa fra l’asse delle ascisse V e la curva tratteggiata (in Fig.3.5) A − P1 − PC − Q − B le isoterme divengono anche isobare e durante questo “percorso” fisico 10 si 9 Le costanti a, b e R∗ dell’equazione di van der Waals possono essere espresse tramite i valori dei parametri critici del gas in esame, v. par. 1.11 del testo di Bertin, Poli, Vitale citato precedentemente. 10 Ricordiamo che si tratta di trasformazioni quasi-statiche, cioè di una successione continua di stati di equilibrio raggiunti effettivamente dal fluido durante queste “lente” trasformazioni durante i quali sono stati misurati i parametri di stato P, V, T caratterizzanti lo stato di equilibrio. 29 Figura 3.5: Diagramma di Andrews, in cui sono rappresentate le isoterme quasi-statiche di una sostanza pura Figura 3.6: Isoterma di van der Waals e isocora di cambiamento di stato reale ha il passaggio di stato da liquido (punto P1 ) a vapore (punto Q) e viceversa, con scambio di energia fra il fluido e l’ambiente esterno misurato dal calore latente di vaporizzazione (o di liquefazione), esattamente uguali in valore ma di segno opposto (secondo le convenzioni adottate in termodinamica). Il ramo PC → A è detto curva del liquido saturo mentre il ramo PC → B è detto curva di rugiada (con ovvio significato etimologico). L’andamento descritto dall’equazione di van der Waals si adatta piuttosto bene con l’andamento delle isoterme sperimentali nel diagramma di Andrews nelle zone del liquido e del vapore, mentre differisce notevolmente durante i cambiamenti di stato (v. curve tipo a “S” orizzontale R-T-S-Q tratteggiate in Fig.3.6) 11 . L’andamento R → T descrive una situazione fisica non di equilibrio ma fisicamente esistente; si tratta di una situazione di liquido sovraespanso, che si realizza quando si lascia del liquido a riscaldare lentamente in modo che il vapore (e l’aria) contenuti nel liquido siano evaporati e il volume sia un po’ maggiore a quello a cui dovrebbe iniziare il cambiamento di stato. Basta una leggerissima azione di disturbo di questa situazione di equilibrio instabile perché il fluido passi istantaneamente (e tumultuosamente) allo stato di parziale vaporizzazione (imposto dai valori dell’isoterma sperimentale), con fuoriuscita violenta di vapore dal fluido 12 . Anche l’andamento Q → S descrive una situazione non di equilibrio fisico ma fisicamente esistente ed è detta curva di vapore sovrasaturo; si realizza facendo contrarre lentamente il vapore saturo e si arriva a un volume inferiore a quello in cui avrebbe dovuto iniziare la condensazione del vapore in liquido. Basta una minima perturbazione a questa situazione di equilibrio instabile affinché il fluido passi istantaneamente alla situazione di parziale liquefazione, indicata dall’isobara di cambiamento di stato 13 . Invece il ramo T → S non è assolutamente realizzabile sperimentalmente e non ha significato fisico (sarebbe proprio bizzarro che in un’isoterma si abbia simultaneamente aumento di volume e di pressione!). È importante notare che l’insieme dell’isoterma isobara R → Q e dell’isoterma di van der Waals R − T − S − Q realizza un ciclo isotermo e che le aree delimitate dall’isoterma isobara con il tratto R − T (area Σ1 di Fig.3.6) e con il tratto Q − S (area Σ2 di Fig.3.6) sono uguali in modulo. Questo lo potevamo supporre perché la formulazione di Kelvin-Planck del secondo principio della termodinamica 11 L’andamento a S, con tre punti di intersezione con rette parallele all’asse delle ascisse era prevedibile, essendo l’equazione di van der Waals del terzo ordine in V . 12 Spesso, lasciando l’acqua sul fornello a riscaldare lentamente si nota che, versandoci dentro o sale, o cibo, o immettendovi qualunque oggetto, inizi a bollire violentemente, fuoriuscendo dalla pentola; è una manifestazione di liquido sovraespanso. 13 Situazione che si può verificare in autunno inoltrato al mattino, dopo una fredda nottata, con un tasso di umidità vicino al 100%; uscendo di casa, o mettendo un indumento all’esterno immediatamente si bagna vistosamente. 30 impedisce che si realizzi un lavoro positivo prelevando calore da un unico termostato. Conseguentemente il lavoro ottenibile nel ciclo completo isotermo sopra descritto può al massimo essere nullo (se assumiamo tutte trasformazioni reversibili) ed essendo i segni dei lavori ottenibili attorno all’area Σ1 e all’area Σ2 opposti (il verso di percorrenza attorno alle due aree è opposto, v. Fig.3.6) non potrà che essere possibile la situazione di uguaglianza dei valori delle due aree. Dobbiamo quindi concludere che l’equazione di van der Waals è un’utilissima approssimazione per la descrizione del comportamento effettivo dei fluidi reali, vista la semplicità e l’eleganza degli argomenti che ci hanno permesso di giungere alla sua formulazione partendo dall’astrazione (di importanza concettuale enorme) del gas perfetto. Le forze di van der Waals giocano un ruolo fondamentale anche in numerosi fenomeni di interazione tra corpi solidi; tra questi fenomeni ricordiamo in particolare: • la tendenza ad “appiccicarsi” l’un l’altro di due oggetti, fatti dello stesso materiale e aventi superfici perfettamente identiche (come forma) ma opposte (in segno). La forma più semplice è ovviamente il piano e infatti due lastre di specchio piano, due piani metallici (lavorati alla macchina rettificatrice) aderiscono tenacemente fra loro. È molto difficile creare una simile aderenza reciproca fra due piani di legno. Tutto questo è intimamente collegato con la definizione operativa di piano fisico 14 , che può raggiungere precisioni dell’ordine di ≈ 10−10 m nel caso del piano ottico (specchi), di ≈ 10−5 − 10−6 m nel caso del piano metallico rettificato, ma solamente di ≈ 10−4 m nel caso del piano di legno. Ovviamente queste precisioni di lavorazione sono un’indicazione dello scarto quadratico medio delle varie fluttuazioni e asperità della superficie reale rispetto al piano ideale che quella superficie vuol rappresentare e devono essere almeno dell’ordine di grandezza di rmax affinché le mutue forze di attrazione di van der Waals siano attive fra le due superfici a contatto. La realizzazione di due superfici sferiche complementari (nel senso descritto sopra per i piani) è possibile, ma con estrema complessità di lavorazione. Si tratta di realizzare due calotte sferiche aventi lo stesso raggio di curvatura ma con segno opposto (una concava e l’altra convessa) ed è molto difficile al livello delle precisioni indicate nel caso delle superfici piane. Per superfici di forma diversa (anche se di rivoluzione, cioè con simmetria cilindrica) la loro realizzazione è estremamente ardua, possibile solo per piccole porzioni di superficie. Notiamo che non si tratta (come talvolta viene detto) del fatto che fra le superfici viene creato ...un vuoto d’aria!. Questo fenomeno si verifica invece quando una ventosa viene deformata, nella sua parte centrale, da una forza di trazione verso l’esterno, mentre il bordo della ventosa rimane a contatto della superficie su cui la ventosa è appoggiata. La forza che la ventosa esercita sulla superficie di appoggio è data dalla differenza di pressione fra l’esterno della ventosa (generalmente la pressione atmosferica esistente) e la pressione che si crea nell’intercapedine fra il centro della ventosa e la superficie di contatto, moltiplicata per la superficie di distacco della ventosa dal corpo a cui si appoggia. Questo fenomeno viene utilizzato nei dispositivi di sollevamento o di sostegno di oggetti pesanti, fragili e molto lisci, come le lastre di vetro. Ovviamente se la pressione esterna viene ridotta al valore della pressione interna all’intercapedine la ventosa si distacca. Il fenomeno dell’aderenza si verifica, invece, anche ponendo gli oggetti aderenti sotto una campana a vuoto. • le forze di van der Waals sono responsabili anche dell’adesione della polvere (di qualunque natura e dimensione) anche a pareti molto lisce, come a esempio uno specchio. Sono ben noti gli sforzi propagandistici di molte imprese che forniscono prodotti per eliminare (sarebbe più corretto dire “ridurre”) l’elettrizzazione della polvere (cosı̀ dicono negli spot pubblicitari!) e non farla attaccare a oggetti e pareti domestiche. • una straordinaria applicazione delle forze di van der Waals in natura è offerta dall’efficienza dimostrata dal geco 15 nel camminare e rimanere attaccato a pareti verticali, anche perfettamente lisce, e perfino sui soffiti (cioè rivolto col dorso verso terra). Le zampe del geco non contengono sostanze appiccicose (che impedirebbero la sua deambulazione veloce e sicura) né strutture tipo ventose. Mostrano invece 5 dita molto larghe, sotto le quali sono presenti una serie di lamelle parallele, ognuna delle quali è formata da sottili setole (setae), del diametro di circa 0.2 µm 16 , con 14 Si veda al riguardo la chiarissima esposizione contenuta nel cap. I del testo di Mario Ageno, Elementi di Fisica, ed. Boringhieri, (TO), 1960. 15 Sauro insettivoro, di abitudini notturne, dal corpo depresso, estremamente agile e veloce. 16 Per confronto il capello umano ha un diametro medio dell’ordine di 10 µm 31 una densità superficiale di circa 1.4 · 104 setole/mm2 per un totale di circa 5 105 setole/zampa. Ogni setola è a sua volta ricoperta da numerosi e sottilissimi peli, detti spatulae, con circa 103 spatulae/setola. In questo modo ogni zampa del geco offre un’elevatissima superficie di contatto con la parete con cui viene in contatto tramite il gran numero di spatulae che aderiscono alla parete. Ogni spatula è composta da tessuti biologici contenenti sostanze chimiche che possiedono un piccolo momento dipolare, in grado di polarizzare le molecole della parete con cui è in contatto. Si viene quindi a creare una distribuzione superficiale di forze di van der Waals (attrattive) fra le spatulae e la parete. È stato stimato che ogni spatula può esercitare una forza media dell’ordine di 4 10−8 N con i silicati, di cui è generalmente fatta una parete (sia naturale che artificiale). Valutiamo la forza totale FT che il sistema di forze di van der Waals esercita sul corpo del geco. FT = nr.zampe · nr.setole nr.spatulae f orza di aderenza · · ≃ 4 · 5 105 · 103 · 4 10−8 N = 80 N zampa setola spatula Essendo la massa media del geco dell’ordine di 40 − 50 g, si vede immediatamente che il valore di FT è maggiore del peso del geco, che può quindi muoversi liberamente e con agilità e velocità su qualunque superficie comunque inclinata rispetto alla verticale. Solo sul teflon 17 , materiale non polarizzabile, il geco non può camminare, mancandogli la necessaria forza di aderenza di van der Waals. Inoltre le sue spatulae hanno anche la proprietà di autopulirsi dai granelli di polvere sottile, che, se aderisse alle spatulae, produrrebbe uno strato isolante, che ridurrebbe notevolmente la polarizzabilità del materiale della parete di appoggio. Anche le mosche presentano sulla parte inferiore delle loro zampe cuscinetti pelosi che hanno la stessa funzionalità delle spatulae del geco. Molti laboratori di biomeccanica e di meccanica applicata stanno studiando la realizzazione di superfici dotate di nanotubuli di materiale altamente dipolare per tentare di imitare queste straordinarie capacità offerte dalla genialità della natura nella sua evoluzione. 3.4 Tensione superficiale e capillarità Consideriamo un liquido reale posto, in quiete, in un recipiente (es., acqua in un bicchiere). Per le molecole del liquido poste in prossimità della superficie libera, a contatto dell’aria, si possono ripetere le considerazioni che abbiamo svolto nel caso dell’introduzione dei termini correttivi all’equazione dei gas perfetti per giungere all’equazione di van der Waals. Tutte le molecole di liquido contenute in uno strato superficiale di spessore rmax , cioè contenute entro la sfera d’azione delle forze d’attrazione di van der Waals (v. Figg.3.4 e 3.3), saranno soggette a una forza risultante non nulla e diretta verso l’interno del liquido. P Un semplice esperimento ci consente di dare una definizione operativa al sistema di forze superficiali accennate precedentemente. Con riferimento alla Fig.3.7 consideriamo, in un piano verticale, un leggero telaietto rigido, vincolato in P, con due tratti verticali sui quali possa scorrere (con attrito trascurabile) una leggera asta orizzontale rigida AB di lunghezza l. All’interno del telaietto formiamo (con molta cautela e delicatezza!) una leggera pellicola di liquido (l’acqua saponata può essere un facile inizio). Per mantenere invariata la superficie verticale della pellicola di liquido in aria occorre applicare alla sbarretta AB una forza F~ diretta verso il basso. Facendo molti esl perimenti, con sbarrette di diversa lunghezza (e stesso liquido) e con B diversi liquidi (con la stessa sbarretta) si arriva a formulare una re- A lazione fenomenologica in cui il modulo di F~ è proporzionale a l, cioè F F = τ · 2 · l, che porta immediatamente a definire τ= F 2·l (3.16) Figura 3.7: Misura della tensione τ rappresenta la forza globale che il sistema di forze molecolari dello superficiale strato superficiale del liquido esercita, per unità di lunghezza, per 17 Materiale che ricopre le superfici di cottura di vasellame antiaderente, composto da polimeri di tetrafluoroetilene. 32 tenere uniti i lembi di un “taglio” superficiale lungo un metro nella superficie di separazione liquido-aria (detto anche strato interfasale). τ è detto anche tensione superficiale liquido-aria (va sempre precisato, ovviamente, quali sono le due fasi a contatto). Il fattore 2 nella (3.16) indica che sono 2 le superfici di interfase in azione sulla sbarretta AB, una davanti e l’altra dietro al telaietto. Una definizione alternativa di tensione superficiale è la seguente. Se il valore di F applicata alla sbarretta provoca un abbassamento ∆x della sbarretta (senza rompere la lamina di liquido contenuta nel telaietto), significa che la forza F ha compiuto un lavoro ∆L = F · ∆x; corrispondentemente la superficie S della lamina nel telaietto ha subito un aumento ∆S = 2 · l · ∆x per cui τ= F · ∆x ∆L = ∆S 2 · l · ∆x (3.17) Ovviamente le due definizioni operative (3.16) e (3.17) forniscono lo stesso valore di τ , che si misura, nel S.I., in N m−1 e in J m−2 . Valori tipici di τ : per l’acqua in aria (a 20 ◦ C) vale 7.27 · 10−2 J m−2 ,mentre per il mercurio in aria (a 20◦ C) vale 4.65 · 10 −1 J m−2 . τ tende a diminuire di valore con l’aumentare della temperatura (per l’acqua in aria diminuisce del 20 % nel passaggio da 20 → 80 ◦ C). Il valore di τ è fortemente influenzato dalle impurezze che si possono depositare sulla superficie d’interfase; basta uno strato monomolecolare di sapone o di detergente liquido per ridurre di un fattore 3 la τ dell’acqua pura. È notevole anche l’invecchiamento della superficie d’interfase nel ridurre il valore di τ ; τ resta costante per circa mezz’ora dal momento della formazione della superficie d’interfase, poi, fenomeni di allineamento molecolare (e le impurezze sempre presenti nell’aria) fanno ridurre sempre più il valore di τ . Talvolta τ è detta anche forza di coesione superficiale. Può essere utile definire operativamente la tensione superficiale anche in maniera “microscopica”. Per aumentare di un ∆S la superficie d’interfase liquido-fluido considerati, occorrerà “trasportare”, dall’interno del liquido dove tutte le molecole sono in equilibrio fra loro, nello strato d’interfase, di spessore rmax , un determinato numero di molecole ∆N , dato da ρ (3.18) ∆N = ∆V · n = rmax ∆S · n = rmax ∆S Mmol dove n rappresenta la densità numerica di molecole nel liquido di densità ρ, Mmol la massa di una molecola di liquido. Indicando con w il lavoro che si dovrà compiere contro le forze di coesione per portare una molecola dall’interno del liquido nello strato d’interfase, avremo che il lavoro che dovremo globalmente fare sarà w · rmax ρ w · rmax ρ ∆L = ∆N · w = · ∆S = τ ∆S, con τ = (3.19) Mmol Mmol Quindi τ rappresenta il lavoro fatto contro le forze di coesione per creare l’unità di superficie interfasale, di spessore rmax , nello strato di interfase. Sappiamo tutti per esperienza “infantile” che per formare una bolla di acqua saponata occorre soffiare delicatamente nella cannuccia intinta nell’acqua saponata o agitare in aria l’attrezzo (con un cerchietto posto al termine di un’asta), cioè occorre compiere un lavoro per formare una bolla di sapone. Formata la bolla in aria cerchiamo di capire quale possa essere il bilancio delle pressioni che si esercitano sulle superfici della bolla 18 . Chiamiamo con ∆P = Pi −Pe la differenza di pressione fra l’interno e l’esterno della bolla; se aumentiamo il volume della bolla di ∆V dobbiamo compiere un lavoro ∆L = ∆P · ∆V contro le forze di tensione superficiale delle due facce delle superfici interfasali (interna ed esterna) che tenderebbero a far rimanere la bolla nelle dimensioni imperturbate. Il lavoro della forze di tensione superficiale è ∆Lτ = 2τ · ∆S e avremo che ∆P · ∆V = 2τ · ∆S (3.20) con ∆V = 4πR2 ∆R e ∆S = 8πR∆R, che sostituiti nella relazione precedente portano alla ben nota legge di Laplace 4·τ (3.21) ∆P = Pi − Pe = R Nella (3.21) cambia solo il 4 in 2 se si considera una goccia (una sola superficie interfasale) invece di una bolla (due superfici interfasali). 18 Viene quasi automatico pensare che la pressione all’interno della bolla debba essere maggiore della pressione esterna, coincidente con la pressione atmosferica, poiché all’interno deve trovarsi anche il contenuto energetico equivalente al lavoro fatto per formare la bolla. 33 Fad r* FT F coe α Pi = P Atm F coe Fad FT R α α Pe h PAtm PAtm r* r* a) a) b) b) Figura 3.8: Composizione di forze di adesione e di coesione al bordo di fluidi reali Figura 3.9: Effetto capillare Per quanto espresso nella (3.21) se una bolla di raggio maggiore viene a contatto con una bolla di raggio minore, la bolla più grande cresce inglobando la bolla più piccola (fenomeno di coalescenza), perché la Pi della bolla più piccola è maggiore della Pi della bolla più grande e quindi l’aria della bolla minore viene spinta all’interno della bolla maggiore. Questo fenomeno è vistosissimo facendo interagire gocce di mercurio (che ha una τ molto alta) di diverso diametro. Una stima dello spessore x di una bolla di acqua saponata può essere fatta considerando che da una goccia di acqua saponata del diametro di 2 · r = 2 mm si può ottenere una bolla del diametro di 2 · R = 20 cm e conseguentemente, dalla conservazione della massa di acqua saponata fra la piccola goccia e la grande bolla, otteniamo che x ≃ (r3 /3 · R2 ) = 3 · 10−6 cm. Dobbiamo anche considerare le interazioni che il fluido reale in esame può avere col materiale di cui è composto il recipiente che lo contiene. Ovviamente queste interazioni si manifesteranno solo nelle zone di confine fra il contenitore e il fluido (cioè nelle parti a contatto con le pareti del recipiente). In queste zone di “confine” si eserciteranno sistemi di forze di van der Waals fra le molecole del contenitore e quelle del fluido; mentre le molecole del contenitore sono vincolate a un sistema rigido (e quindi non si possono muovere altro che tutte insieme!), le molecole del fluido hanno capacità di muoversi anche rispetto all’insieme di tutto il fluido, quindi saranno quelle che potranno subire effetti dinamici evidenti. Le forze che il contenitore esercita su elementi di volume del fluido si dicono “forze di adesione” del fluido al contenitore. Esaminiamo le molecole del fluido che si trovano nello strato di interfase fra il fluido e l’esterno (generalmente l’aria). Mentre abbiamo visto precedentemente che i “vuoti” presenti nelle sfere d’azione di queste molecole nello strato di interfase generano il sistema di forze di tensione superficiale, in vicinanza delle pareti del recipiente dobbiamo anche considerare le forze di adesione che le pareti (rigide) del contenitore esercitano sulle molecole del fluido. Con riferimento alla Fig.3.8, nella parte a) è rappresentata la situazione in cui la forze di adesione è molto più grande della forza di coesione (tensione superficiale), per cui la forza risultante F~T è diretta verso l’esterno del fluido e conseguentemente la superficie di interfase deve assumere un andamento con la concavità rivolta verso l’esterno (dovendo rappresentare una superficie equipotenziale all’equilibrio). Questa è la condizione in cui il fluido “bagna” le pareti del contenitore, tipico dell’acqua nel vetro (si esamini, anche con una semplice lente d’ingrandimento l’andamento della superficie di interfase dell’acqua in un bicchiere). Si definisce angolo di contatto α l’angolo formato dalla parete interna del contenitore e dalla tangente alla superficie d’interfase al punto di contatto estremo fluido-parete. Invece nella parte b) della Fig.3.8 Fcoe è molto maggiore rispetto a Fad e la F~T è diretta verso l’interno del fluido e la superficie d’interfase assume un andamento con la concavità verso l’interno del fluido, cioè il fluido “non bagna” le pareti del contenitore e questo succede mettendo mercurio nel vetro. In questo caso l’angolo di contatto α è maggiore di π/2. Nel caso a) di Fig.3.8 la forza FT , che agisce essenzialmente solo nel tratto r∗ , tende a spostare verso l’alto le parti superficiali del fluido. Immergiamo allora nel fluido un tubetto cilindrico, dello stesso materiale di cui sono fatte le pareti del contenitore, e di diametro 2 · r∗ . Vedremo che il fluido si innalza nel tubetto di un tratto h (v. Fig.3.9); in queste condizioni il tubetto si comporta da “capillare” 19 . Consideriamo 19 Non ha senso affermare che tubetti di vetro del diametro di 1 mm sono capillari, bisogna precisare con quale fluido si 34 la situazione nella parte b) di Fig.3.9: la superficie concava verso l’alto può essere considerata come la superficie limite di una goccia di liquido, in cui la pressione interna alla goccia è Pi = Patm , mentre la Pe esterna alla goccia è la pressione che si esercita immediatamente al di sotto della superficie concava (interna alla colonnina di fluido risalita nel capillare). Possiamo quindi scrivere la legge di Laplace (3.21), che in questo caso diviene r∗ 2τ , con R = (3.22) Patm − Pe = R cosα Per la legge di Stevino la colonnina di fluido di altezza h crea, a livello della superficie orizzontale di equilibrio del fluido con l’aria circostante al capillare, una pressione idrostatica che deve equilibrare la pressione atmosferica Patm , cioè Patm = Pe + ρ · g · h (ρ densità del fluido), che inserita nella (3.22) fornisce la classica formula di Jurin 2τ cosα h= (3.23) ρ · g · r∗ A es., in un capillare di un filo d’erba del diametro di 2r = 0.2 mm, l’acqua (τH2 O ≃ 75 dyne/cm) può risalire fino a un’altezza massima di ≃ 15 cm. Si possono realizzare una varietà di esperienze qualitative, ma molto istruttive, immergendo vegetali, fiori, fili di lana, in acqua colorata (con colori accesi) e misurando la quota di risalita segnalata dalla zona colorata sul vegetale dopo un pò di tempo. È estremamente utile, per una comprensione anche visiva degli effetti collegati alla tensione superficiale, andare a esaminare (con una buona lente d’ingrandimento) la formazione di una goccia (cominciando ovviamente con l’acqua, ma sarebbe molto opportuno proseguire con liquidi di differente τ ), utilizzando un contagocce o una pipetta da laboratorio. Inizialmente dall’estremità del beccuccio del contagocce si nota la formazione di un rigonfiamento di liquido, che aumenta fino a formare una goccia, che ricorda la forma di un involucro di plastica riempito di liquido pesante, cioè con una strozzatura attaccata al beccuccio che sorregge la goccia vera e propria, grosso modo sferica. La goccia si stacca e cade quando il suo peso non è più bilanciato dalle forze di tensione superficiale che agiscono sullo strato interfasale della goccia e il ciclo riprende con la goccia successiva. Analizziamo questo processo. Con riferimento alla Fig.3.10, la formazione naturale della goccia (senza cioè la pressione che si esercita tramite il finale flessibile del contagocce) è dovuta al lavoro fatto dalla forza peso contro la tensione superficiale per creare la superficie della goccia. La formazione della goccia si realizza con il passaggio di un volume di liquido contenuto nel cilindro di altezza ∆h e diametro 2r, posto alla fine del beccuccio, nel volume occupato dalla goccia, che al distacco si suppone (con ragionevole approssimazione dell’evidenza sperimentale) avere un diametro 2R, essendo 2R il diametro esterno del beccuccio. Uguagliando i volumi del cilindretto e della goccia si ottiene ∆h = (4R3 /3r2 ). Per una stima di prima approssimazione 20 possiamo porre r = R/2 e quindi ottenere che ∆h = 16R/3. Il baricentro del liquido che forma la goccia, entro il canale della pipetta, è in P1 , posto a una quota (∆h)/2 = 8R/3 dalla fine della pipetta, mentre il baricentro della goccia è in P2 , a quota −R dalla fine della pipetta. Quindi avremo che il lavoro fatto dal campo di gravità sarà 11 8 ≈ 4mgR mg · (P1 − P2 ) = mg( R + R) = mgR 3 3 (3.24) mentre il lavoro fatto contro le forze di tensione superficiale per formare la superficie della goccia è 4πR2 τ , che uguagliato al risultato della (3.24) fornisce la formula di Tate m= π·R·τ g (3.25) La massa m della goccia può essere misurata con una bilancia di precisione, eseguendo la pesata sulla massa di varie gocce (da 10 a 20; per numeri superiori il tempo di attesa per la formazione delle gocce è troppo lungo rispetto al tempo di evaporazione del liquido delle gocce formate e si avrebbe una misura sottostimata) e conseguentemente si può dedurre il valore di τ . Il valore effettivo di R della goccia non è facilmente misurabile e, se non si vuol utilizzare la nostra approssimazione (Rgoccia ≃ Rugello ), si può mette a contatto perché le forze di adesioni possono cambiare enormemente. La definizione di capillare è relativa a un ben definito materiale che contiene un ben preciso fluido. 20 La modellizzazione esatta della forma delle gocce in campo di gravità è piuttosto complicata ed è il soggetto di studi di idrostatica avanzata e di Fisica Matematica. 35 2R 2r ∆h P1 τ2,3 P2 R P τ1,2 Figura 3.10: Schema di formazione di una goccia τ1,3 aria(2) olio(3) acqua(1) Figura 3.11: Schema delle tensioni superficiali agenti su una goccia d’olio ricavare Rgoccia dalla massa della goccia tramite la relazione m = 4πR3 ρ/3, che fornisce R = (3m/4πρ)1/3 . Inserendo tale espressione nella (3.25) si arriva finalmente a τ= mg mg = · πR π 4πρ 3m 1/3 = g · π 4πρm2 3 1/3 (3.26) La misura di τ tramite la legge di Tate è molto semplice e significativa, da un punto di vista qualitativo, ma poco accurata da un punto di vista quantitativo, potendo raggiungere approssimazioni dell’ordine del 10 − 20 % rispetto al valore effettivo di τ anche a causa di tutte le ipotesi che abbiamo introdotte per semplificare la trattazione (è la vecchia storia della coperta corta!). Un altro aspetto interessante è dato dall’esame del comportamento degli strati interfasali di 3 fluidi reali a contatto, come a es. succede per una goccia di olio posta sulla superficie di acqua in aria. Con riferimento alla Fig.3.11 ci sono 3 forze agenti sul punto P, intersezione delle 3 superfici di interfase: 1. la tensione superficiale H2 O − aria τ1,2 ≈ 7.3 · 10−2 J/m2 ; 2 2. la tensione superficiale H2 O − olio τ1,3 ≈ 2.0 · 10−2 J/m ; 2 3. la tensione superficiale aria − olio τ2,3 ≈ 3.5 · 10−2 J/m ; Si vede subito che τ1,2 > τ2,3 + τ1,3 e quindi il punto P non può rimanere fermo ed è trascinato dalla forza risultante ad “allontanarsi” sempre più dalla posizione del centro della goccia, cioè la goccia di olio tende a spandersi sempre più sull’acqua e a disporsi su tutta la superficie libera dell’acqua fino a trovarsi (al limite) in uno strato quasi monomolecolare. Questo fenomeno può essere utilizzato per determinare vari parametri “microscopici” a livello molecolare. Per es., una goccia del diametro di 1 mm di benzene (C6 H6 ) si può spandere su acqua pura, formando una “macchia” del diametro di circa 102 cm, che possiamo supporre essere costituita da uno strato monomolecolare di benzene. Dati dati sopra riportati si può stimare il raggio rmol e il volume Vmol 3 molecolare del benzene. Da questi, conoscendo la densità del benzene ρ(C6 H6 ) = 0.881 g/cm , si può infine ricavare una stima della massa mmol e del numero di Avogadro NA . Lo spessore dello strato monomolecolare della “macchia” sarà infatti h= 4r3 ≃ 6.67 · 10−8 cm, 3R2 rmol ≃ h = 3.33 · 10−8 cm 2 36 Vmol ≃ 1.55 · 10−22 cm3 (3.27) Se indichiamo con Vmole il volume di una mole di C6 H6 , avremo che il numero di Avogadro NA = Vmole /Vmol . Il peso molecolare di C6 H6 è 78, la sua massa molare è µ = 78 g e quindi il volume di una mole di C6 H6 , Vmole , sarà Vmole = µ = 88.5 cm3 ; ρ NA = Vmole ≃ 5.9 · 1023 molecole/mole; Vmol µ = 1.28 · 10−22 g m(C6 H6 ) = NA D’altra parte la massa molecolare del C6 H6 si può anche esprimere come m(C6 H6 ) ≃ 78·(massa protone) ≃ 78 · 1.67 · 10−24 g ≃ 1.3 · 10−22 g in accordo col valore trovato precedentemente. Elenchiamo alcuni esempi degli effetti della tensione e della capillarità su fatti e azioni della nostra vita quotidiana: • foglie, piccoli insetti, se posati con delicatezza sulla superficie dell’acqua, galleggiano, mostrando che nelle zone di contatto creano “piccoli avvallamenti” nella superficie libera dell’acqua. Se affondati oltre il limite dello strato superficiale affondano. Anche un ago metallico (unto!), posto con delicatezza parallelamente alla superficie in quiete dell’acqua, galleggia, mentre affonda se posto ortogonalmente alla superficie; • il contorno esterno della superficie dell’acqua in un bicchiere di vetro mostra con evidenza che l’acqua tende a “bagnare” il vetro, cioè che le forze di van der Waals esistenti fra le molecole d’acqua e quelle del vetro creano una forza di adesione che tende a “tirare” verso la parete di vetro le porzioni d’acqua vicine alla parete; • l’acqua viene respinta (non bagna!) da superfici contenenti sostanze “grasse”; l’acqua non bagna vari tipi di verdure (cavolo, bietola, carciofi, ecc.) per l’alto valore della tensione superficiale dell’acqua, che tende a formare la “goccia” e a non distendersi sulle foglie delle verdure (e quindi a “lavarle”). Basta salare l’acqua, diminuendone la tensione superficiale, per lavare bene tutte le verdure; • per sfogliare facilmente le pagine di un libro o di un giornale ci umettiamo le dita della mano, cosı̀ come per raccogliere piccoli pezzetti di carta o granelli di sabbia o minuzzole di pane ecc. (servendoci delle forze di tensione superficiale del velo di umido sulla nostra pelle per applicare le forze necessarie per compiere le azioni descritte); • le molecole organiche, di elevato peso molecolare, sono efficienti tensioattivi dell’acqua, cioè ne diminuiscono molto il valore della tensione superficiale. Infatti queste molecole organiche (meno dense dell’acqua) tendono a disporsi sulla superficie libera dell’acqua e con le loro elevate dimensioni molecolari (si pensi che il peso molecolare dell’albumina, una delle proteine più leggere, è di 64500, cioè oltre 3 ordini di grandezza superiore all’acqua) separano fisicamente le catene superficiali dei legami a idrogeno delle molecole d’acqua, riducendone drasticamente il valore della tensione superficiale. La prima presenza di una sofferenza renale è data dallo spumeggiare dell’urina, cioè la presenza anche di tracce di albumina riduce drasticamente la tensione superficiale dell’urina e si formano cosı̀ bolle stabili sulla superficie, ben visibili; • lavare qualcosa significa toglierne il “sudicio” che la ricopre, che è essenzialmente composto da molecole grasse, idrorepellenti. Per ottenere tale risultato bisogna quindi cercare di diminuire la tensione superficiale dell’acqua (per “stenderla” sulla superficie da lavare), ma anche cercare di utilizzare grosse molecole che abbiano un estremo idrofilo (cioè che tenda ad attaccarsi alle molecole d’acqua) e l’altro estremo lipofilo (cioè che tenda ad attaccarsi alle molecole di sudicio). Questo è il sapone, che fino a varie decine di anni fa veniva prodotto facendo bollire acqua di cenere di legna (la cosidetta acqua di lisciva, ottenuta filtrando acqua calda in cenere di legna e contenente idrossidi di Na e K, elementi elettropositivi che tendono ad attrarre la parte negativa [O−− ] della molecola d’acqua) e grasso animale fino a creare un composto omogeneo, che, filtrato e raffreddato, formava il sapone da bucato casalingo. Adesso la preparazione dei saponi industriali è molto più elaborata e complessa, ma sicuramente meno ecologica; • alcuni prodotti alimentari (burro, maionese, gelati e simili) sono emulsioni stabili di liquidi e aria. Nei liquidi c’è sempre una notevole quantità di acqua, che, per la sua elevata tensione superficiale, 37 non può formare emulsioni stabili (mai provato a “montare” l’acqua con un frullino..!?). Solo con liquidi biologici (panna, latte, uova) si riescono a formare (manovrando con sapienza e delicatezza, senza farle “impazzire”!) le ottime emulsioni stabili che poi gustiamo come delizie del palato; • quando si chiude un rubinetto si nota che la portata del rubinetto si riduce, cioè il flusso di liquido diminuisce e il filetto di liquido che esce dal rubinetto si riduce man mano che si chiude il rubinetto. A un certo momento, però, si nota che il flusso non si riduce ulteriormente ma cambia drasticamente il regime di fuoriuscita del liquido, che incomincia a gocciolare (v. formazione delle gocce e legge di Tate illustrate precedentemente). • ci sono innumerevoli evidenze quotidiane dell’applicazione pratica della legge di Jurin, cioè degli effetti della capillarità nelle nostre azioni concrete quotidiane, e ne riportiamo alcune, stimolando gli insegnanti di Fisica a trovarne altre, magari coinvolgendo in questa ricerca gli studenti: * sia l’asciugamano che la federa sono fatte di cotone, ma per asciugarsi usiamo l’asciugamano; * sia la carta assorbente da cucina che la carta A4 da stampante sono fatte di cellulosa, ma in cucina usiamo la carta assorbente; * sia il cotone idrofilo (o le garze) che la tela dell’ombrello sono fatte di cotone, ma usiamo il cotone idrofilo (o le garze) per trattare le ferite o spandere disinfettante sulla pelle; * invece il tessuto della tela di un ombrello, di una tenda da campo, di un soprabito impermeabile, è fatto di sottile filo di cotone, ma con una trama cosı̀ serrata e fitta che è impossibile per l’acqua piovana (che tende a formare gocce) penetrarvi all’interno; * sia la stoppa che lo spago sono fatti di canapa, ma usiamo la stoppa per togliere l’olio dal fiasco del vino (e perché veniva messo un velo d’olio nel fiasco del vino?); * sia i savoiardi che i biscotti duri, tipo le “marie”, sono fatti con farina + uova + zucchero, ma usiamo i savoiardi per inzupparli bene di liquore o altre essenze liquide; * sia il pane tipo bolognese che il pane duro tipo “galletta” sono fatti di farina + acqua, ma usiamo il pane bolognese per inzupparlo (con gusto!) nel caffè-latte. La spiegazione è sempre la stessa per tutti questi casi. • la linfa risale (vincendo la gravità) nei capillari (notare l’aiuto dell’etimologia!) delle piante erbacee; lo si mette facilmente in evidenza ponendo le piantine in acqua contenente un colorante; • l’umidità (cioè l’acqua contenuta nel terreno) risale (vincendo la gravità) in strutture porose (muri esterni, cantine senza vespaio, vasi di coccio, ecc.); • al mare le “formine” si fanno utilizzando sabbia fine umida, non asciutta ma nemmeno molto bagnata. Infatti si deve formare attorno a ogni granello di sabbia (che possiamo supporre sferico di 3 raggio R, formato da silice avente una densità ρ = 2.7 g/cm ), uno strato di acqua dello spessore 21 dell’ordine di rmax ; ogni granello resta al suo posto (e non cadrà) se la forza originata dalla tensione superficiale dell’acqua (attaccata alp granello) risulta ≥ della forza peso del granello, cioè 2πRτ ≥ ρg 43 πR3 , da cui si ottiene che R = 3τ /2ρg ≤ 2 mm con τ = 70 dyne/cm, R ≤ 1.3 mm con τ = 30 dyne/cm e R ≤ 0.75 mm con τ = 10 dyne/cm. Da questi valori si deduce che sono i granelli più piccoli quelli che rimangono “attaccati” fra loro, anche se τ si riduce. Inoltre l’acqua marina, contenendo N aCl, quando evapora crea un sottile reticolato di sale che riesce a trattenere solo i granelli più piccoli (e quindi più leggeri). Questo fenomeno si osserva anche quando la sabbia si asciuga sulla nostra pelle: i granelli molti fini rimangono attaccati alla pelle in modo molto persistente, perché basta l’umidità residua della pelle a trattenerli. Notiamo che per formare formine (o castelli di sabbia) stabili dobbiamo battere e comprimere bene la sabbia umida, in modo da cercar di formare solo lo strato di acqua di spessore rmax . Tuttavia una pressione eccessiva può provocare una “asciugatura” eccessiva della sabbia, compromettendo la stabilità del manufatto. Questo effetto di pressione sulla sabbia umida si nota anche rimanendo in piedi sul bagnasciuga: l’area sotto e circostante il piede sembra più “asciutta”. Infine con la sabbia asciutta non si formano 21 Se lo strato di acqua ha uno spessore > r max si creerebbe attorno al granello di sabbia anche una pellicola di acqua nella quale le molecole risulterebbero tutte soggette a una mutua forza di attrazione nulla, quindi soggette solo al loro peso e, conseguentemente, faciliterebbero la caduta del granello a terra. 38 strutture stabili: si può solo formare una struttura conica (monte di sabbia) avente al massimo un angolo di circa 30◦ col piano orizzontale, imposto dal coefficiente di attrito statico dei singoli granelli di sabbia fra loro. Le “formine” sarebbero più stabili se fatte con sabbia d’acqua dolce, umidificata con acqua distillata (perché?); • per stendere l’intonaco sui muri i muratori (dopo secoli di esperienza) usano sabbia di fiume, molto fine, mescolata a malta “grassa” (cioè contenente circa la metà di calce spenta), e piuttosto umida. Adesso sappiamo spiegarci perché; • utilizzando le spugne (sia naturali che in materiale plastico) si vede con chiarezza l’effetto della capillarità sull’assorbimento dei liquidi da parte delle strutture spugnose; • esistono una grande varietà di giochi che si possono realizzare con le bolle di sapone che rendono evidenti i fenomeni che avvengono sulla superficie di interfase fra la pellicola del liquido (sottile parete) e l’aria interna ed esterna alla bolla. Ci sono stati notevoli sviluppi tecnologici nello studio del comportamento dei materiali soggetti a forze interfasali. Sono stati creati materiali con caratteristiche igroscopiche molto elevate quali: 1. sostanze igroscopiche per attrazione coulombiana, es. cloruro di calcio CaCl2 . Le molecole d’acqua sono efficienti dipoli elettrici (O−− + 2 · H + ); il CaCl2 si dissocia facilmente in acqua formando ioni Ca++ , che agganciano la parte negativa (O−− ) della molecola d’acqua, e 2 ioni Cl−, che agganciano la parte positiva (H + ) della molecola d’acqua. In pratica con 1 g di CaCl2 si può assorbire 0.5 g di acqua, perché il CaCl2 si forma con molte impurezze. Inoltre alla fine del processo si forma una poltiglia molto antiestetica per cui il suo uso è molto ridotto; 2. sostanze molto porose, es. gel di silice (SiO2 ), i cui granuli si formano con una struttura spaziale molto “porosa”, con reticolati di spessori dell’ordine del nm alternati a “vuoti” delle stesse dimensioni (circa 1/4 del volume del gel di silice secco è composto di aria, infatti ha una densità relativa di 0.7). Presenta quindi una efficientissima capacità capillare e può assorbire 0.35 g di acqua per ogni grammo di gel di silice secca. È fondamentale che a circa 130 o C (a pressione atmosferica standard) il gel di silice saturo d’acqua la libera in aria, sotto forma di vapore acqueo, rigenerandosi, cioè ritornando allo stato di gel di silice secco, riutilizzabile quasi all’infinito; 3. polimeri poliacrilici, sintetizzati recentemente dalla chimica e di cui sono fatti i pannolini (per bambini, donne, adulti incontinenti e della cui ossessiva sponsorizzazione siamo quotidianamente afflitti dalla reclame televisiva soprattutto nelle ore di pranzo e cena!). Sono sostanzialmente lunghe catene filiformi di molecole di acido acrilico, intrecciate le une con le altre da un numero elevatissimo di corti filamenti laterali (pensiamo a un piatto di spaghetti ai 4 formaggi, abbondantemente conditi con formaggio parmigiano, che si presenta come un insieme di spaghetti avviluppati da molti filamenti laterali di “filini” di formaggio parmigiano parzialmente fuso!), che terminano con un atomo di Na o di K. I metalli alcalini (Na, K) si legano facilmente anche ad acidi organici (come l’acido acrilico) mettendo in compartecipazione con la fine della catena acrilica l’elettrone di valenza e quindi divenendo spazialmente terminali elettropositivi (N a+ o K + ). A contatto con le molecole fortemente dipolari di H2 O la parte negativa O−− si lega tenacemente a due terminali elettropositivi N a+ o K + . Queste catene di acido acrilico con metalli alcalini hanno dimensioni lineari che vanno dai µm fino ad alcune decine di nm, con un rapporto superficie/volume molto elevato, in grado quindi di assorbire una grande quantità di acqua. Per acqua pura si può ottenere un assorbimento di MH2 O ∼ (0.5 ÷ 3.) · 103 Mac. acril. . Se in acqua ci sono sali (o peggio tensioattivi) l’assorbimento scende a MH2 O ∼ 30 · Mac. acril. . L’acqua assorbita va a diminuire l’attrazione chimica fra le strutture filiformi dell’acido acrilico, facendone aumentare il volume totale. Il sistema non perde l’acqua assorbita anche se sottoposto a una pressione esterna “ragionevole” (i legami con gli ioni alcalini sono piuttosto forti) e, nel caso dei pannoloni, il peso di una persona normale non riesce a creare una pressione sufficiente a far espellere i liquidi assorbiti dalla struttura (ottima cosa soprattutto per le persone vicine!). A es., un pannolone può assorbire tranquillamente fino a 0.5 kg di H2 O. Questi materiali si trovano anche sul fondo delle vaschette per alimenti umidi nelle confezioni dei supermercati (per carne, pesce, verdure fresche). 39 S F vo ho Figura 3.12: Definizione operativa della viscosità Figura 3.13: Moto laminare in un condotto cilindrico Se mescolato con granuli di gomma si viene a formare un materiale con proprietà praticamente impermeabili se vincolato all’interno di una struttura rigida. Infatti se c’è penetrazione di acqua la struttura poliacrilica aumenta di volume, andando a comprimere i granuli di gomma che, disposti uniformemente nella struttura spaziale del composto, vanno a sigillare ogni successiva infiltrazione di acqua nella struttura. Questa tecnica è stata utilizzata come intercapedine del tunnel ferroviario sotto la Manica. 3.5 Viscosità Consideriamo un fluido reale in quiete in un contenitore e appoggiamo sulla sua superficie, tramite opportuni sostegni, un corpo solido di area S in modo che penetri oltre la superficie di interfase (v. Fig.3.12). Applichiamo al corpo una forza F~ , il cui modulo può essere misurato tramite un dinamometro. Si nota che gli strati di fluido attaccati al corpo (ovviamente nel caso in cui sia “bagnato” dal fluido) si muovono insieme al corpo, mentre gli strati più profondi tendono ad avere velocità sempre minori, decrescenti in modulo linearmente con la profondità, rispetto alla v◦ superficiale, fino ad arrivare a una velocità nulla sul fondo del contenitore. Questa fenomenologia è valida solo se le velocità in gioco sono sufficientemente piccole, in modo da garantire che il moto dei vari strati di fluido avvenga in modo laminare, cioè senza la formazione di vortici all’interno del fluido (questo può essere messo facilmente in evidenza usando coloranti inorganici). Il fenomeno più evidente è che l’applicazione di una forza di modulo costante F non provoca accelerazione sul corpo S ma assicura solo costanza al modulo della sua velocità v◦ , evidenza che sul corpo in movimento deve agire simultaneamente una forza di attrito di modulo F . Dopo serie di misure su corpi di diversa S, con diversa v◦ , con lo stesso corpo e liquidi diversi, con diverse profondità h◦ , si arriva a una relazione fenomenologica che riassume il comportamento quantitativo delle varie misure v◦ (3.28) F =η·S h◦ L’andamento sperimentale dei moduli delle velocità dei vari strati di fluido, lineare e crescente in funzione della quota h, ci suggerisce di prendere in esame il moto del singolo strato di fluido, di spessore ∆h e situato alla generica quota h, avente velocità v(h), rispetto allo strato immediatamente superiore con velocità v(h + ∆h) = v(h) + ∆v e a quello immediatamente inferiore con velocità v(h − ∆h) = v(h) − ∆v. Questo strato si muove con v(h) costante sotto l’azione di una forza F (h + ∆h) = F (h) + ∆F , diretta come ~v (h) e operata su di esso dallo strato superiore “per attrito”, e da una forza (ma diretta in senso inverso, cioè frenante) F (h − ∆h) = F (h) − ∆F , operata dallo strato inferiore. Con un ragionamento simile a quello fatto per dedurre la (3.28) otteniamo F (h) = η · S ∆v(h) ∆h (3.29) dove η è il coefficiente di viscosità del fluido considerato, misurato nel S.I. in kg/(m· s) (unità chiamata poiseuille e talvolta decapoise, perché maggiore di un ordine di grandezza della corrispondente unità di 40 misura di η nel sistema C.G.S., detta poise), decresce fortemente con l’aumento della temperatura, ma dipende molto meno dalle variazioni di pressione a cui è sottoposto il fluido in esame. A es., per l’acqua pura η(20 ◦ C) ≃ 1.00 · 10−3 kg/(m · s) e descesce del 2.5% per l’aumento di 1◦ C di temperatura. Per i gas η è inferiore mediamente di circa 3 ordini di grandezza ma decresce al diminuire della temperatura (come spiegato dalla teoria cinetica dei gas) 22 . In effetti la (3.29) vale rigorosamente per fluidi inorganici classici, detti fluidi newtoniani; se vogliamo descrivere il comportamento viscoso di ogni tipo di fluido occorre modificare la (3.29) n ∆v(h) (3.30) F (h) = ξ · S ∆h Per n = 1, ξ = η(T, P ), cioè fluidi newtoniani. Per n 6= 1 la (3.30) può essere scritta come n−1 ∆v(h) ∆v(h) ∆v(h) F (h) = ξ · S · = ηn · S · · ∆h ∆h ∆h (3.31) con ηn = ξ(T, P ) · [∆v(h)/∆h]n−1 denominata viscosità globale. Se n < 1, ηn decresce per [∆v(h)/∆h] crescente, essendo (n − 1) < 0; i fluidi di questo tipo sono detti fluidi tixotropici, come il sangue, latte, creme base dei cosmetici ecc. In questi casi la viscosità globale ηn diminuisce man mano che la velocità del fluido aumenta; pensiamo quindi al vantaggio che ne trae il sistema circolatorio sanguigno, l’allattamento naturale, ma anche le procedure del makeup (quando le creme di bellezza delle nostre belle signore si spandono più facilmente man mano che procede il massaggio, invece di formare grumi e bacherozzi come fanno le creme di scarsa qualità) 23 . Se invece n > 1, ηn aumenta per [∆v(h)/∆h] crescente e i i fluidi di questo tipo sono detti fluidi non newtoniani dilatanti, e spesso sono i collanti (la loro viscosità globale ηn aumenta man mano che la velocità del fluido aumenta). Consideriamo adesso il moto (che supporremo laminare, cioè senza formazione di vortici) di un fluido newtoniano in un condotto cilindrico orizzontale di raggio R (v. Fig.3.13). La evidente simmetria cilindrica del sistema ci suggerisce di utilizzare un sistema di coordinate cilindriche (x,r,ϕ), nel quale la simmetria rispetto a ϕ ci permette di scomporre il sistema in cilindri infinitesimi, di spessore dr, centrati sull’asse x, di lunghezza ∆l. Analizzando le forze che agiscono sulle superfici laterali di un cilindro assiale infinitesimo generico 24 , per effetto delle forze di attrito viscoso applicate dai cilindri elementari adiacenti al cilindretto considerato, e uguagliandole alle forze di pressione esercitate dal fluido sulle basi elementari dS = 2π · r · dr, cioè ∆P · dS, con ∆P = P − P ′ , si arriva a dimostrare che in condizioni stazionarie l’andamento delle velocità del fluido viscoso nel condotto cilindrico ha un andamento parabolico R ∆P v(r) = · (R2 − r2 ) 4η · ∆l (3.32) v(r) r vo come rappresentato il Fig.3.14. Per valutare il flusso di materia che, in regime stazionario, transita nel condotto (quella che viene chiamata “portata”), basta valutare Figura 3.14: Andamento parabolico la quantità delle velocità di un fluido in moto Z R laminare in un condotto cilindrico ∆M πρ ∆P Qm = = ρ · v(r)2πr dr = · R4 (3.33) ∆t 8η ∆l 0 che rappresenta la ben nota legge di Poiseuille. La quantità η/ρ = ν viene denominata viscosità cinematica, con ovvio significato anche etimologico del termine. Vogliamo presentare anche una versione semplificata della dimostrazione della legge di Poiseuille proponibile anche a studenti liceali non a conoscenza del calcolo differenziale. Va loro detto esplicitamente che se 22 Si consiglia di esaminare le tabelle dei coefficienti di viscosità di vari liquidi per riflettere sul loro comportamento sperimentale nell’uso quotidiano che ne viene fatto. 23 L’industria dei cosmetici spende cifre cospicue per migliorare le prestazioni delle varie creme base, formate da fluidi tixotropici. 24 Rimandiamo per la dimostrazione completa al classico testo di G.Bernardini, Fisica Sperimentale, parte 1, ed. Veschi, Roma, 1954, oppure al manuale di C.Mencuccini-V.Silvetrini, Fisica 1, ed. Liguori, NA, 1996, dove la trattazione è fatta in modo chiarissimo ed esauriente. 41 rappresentiamo il fenomeno naturale con una legge semplificata otterremo risultati approssimati rispetto alle misure che poi si effettueranno realmente sui fenomeni analizzati. L’approssimazione sarà tanto migliore quanto più l’approssimazione introdotta nel modello matematico utilizzato sarà equivalente alla modellizzazione corretta del fenomeno studiato. Con riferimento alla Fig.3.15 consideriamo il solido condotto cilindrico di raggio R in cui scorre un fluido viscoso in moto stazionario di densità ρ. Supponiamo che l’andamento dei vettori velocità dei B C filetti di fluido possa essere rappresentabile con un p v(r) p2 R andamento lineare con la distanza r dal centro del 1 r vo condotto p p2 1 ∆v −v◦ r = v(r) = v◦ (1 − ) ; (3.34) A D l R ∆r R Ricordiamo che il modulo della forza di attrito viscoso Figura 3.15: Rappresentazione lineare delle veè fv = ηSl · (∆v/∆r), dove Sl = 2πR · l è la superfi- locità radiali di un fluido in moto laminare in un cie laterale dell’elemento cilindrico di fluido ABCD e, condotto cilindrico nella nostra approssimazione, (∆v/∆r) è la pendenza della retta inviluppo dei vettori velocità v(r) ed è data dalla (3.34). All’elemento di fluido ABCD è applicata dal fluido una forza di pressione data da fp = (p1 − p2 ) · S = ∆p · πR2 e la stazionarietà del moto impone che debba necessariamente essere fp = fv per cui ∆p · R2 v◦ ; v◦ = (3.35) ∆p · π · R2 = η · 2π · R · l R 2ηl Si noti che il valore di v◦ ottenuto semplicemente dalla (3.35) differisce per un fattore 2 dal quello esatto valutato dalla (3.32). La portata di massa del condotto sarà semplicemente Qm = ρS < v >= πρ ∆P · R4 4η · l l (3.36) dove < v >= v◦ /2 è la velocità media con cui avanza l’elemento ABCD di fluido considerato. Ovviamente la Qm ottenuta con la (3.36) differisce per fattore 2 dal valore ottenuto con l’uso della rappresentazione parabolica delle velocità nel condotto cilindrico (eq. 3.33). Quello che si guadagna in semplicità di trattazione analitica si perde in precisione nella descrizione corretta dei risultati ottenibili. Contentiamoci quindi della correttezza degli ordini di grandezza ottenuti. Notiamo nella (3.33) e nella (3.36) la dipendenza della portata Qm dal termine R4 ; a parità delle altre condizioni (η, ∆P/∆l) una riduzione relativa ∆R/R nel raggio del condotto provoca una riduzione relativa nella portata pari a 4∆R/R, di estrema importanza. Questo fatto è di grande rilevanza per la circolazione del sangue nei nostri vasi (si pensi a cosa possa accadere con una parziale occlusione di una arteria o di una vena, es. trombi, ischemie, placche arterosclerotiche, embolie, e simili) e in tutti i sistemi di condotte industriali in cui si debba garantire un flusso di materia stazionario (come circuiti di raffreddamento di impianti nucleari, pipelines per idrocarburi, acquedotti ecc.). Vogliamo infine trattare brevemente un argomento che spesso suscita interesse, soprattutto nella componente maschile dell’uditorio, l’effetto Magnus 25 . Consideriamo il moto di una sfera rigida e omogenea, ~ costante e orizzontale (rispetto a un fluido omogeneo, in quiete, con di raggio r, che trasla con velocità V viscosità trascurabile) e ruotante con velocità angolare ω costante, verticale, passante per il suo centro C. Rispetto a un sistema di riferimento inerziale (S) (v. Fig.3.16) questa situazione non è stazionaria, perché il moto della sfera induce profondi cambiamenti locali nella situazione dinamica del fluido, che dipenderanno ovviamente dal tempo. Possiamo però considerare una situazione “speculare” 26 pensando di vincolare l’asse di rotazione ω della sfera a una guida orizzontale G (senza attrito) disposta lungo ~j e facendola investire da un fluido con velocità 25 Ringraziamo sentitamente i colleghi proff. E. Landi-Degl’Innocenti e F. Rosso per gli utilissimi scambi di informazioni e chiarimenti avuti con loro sull’effetto Magnus. 26 La legittimazione teorica di questa procedura è data dalle proprietà delle funzioni armoniche, soluzioni dell’equazione di Laplace, ∇2 ϕ = 0, che descrive moti stazionari di fluidi incomprimibili, con velocità ottenibili da potenziali. Per approfondimenti si consiglia il cap. 7 di F. Rosso - Istituzioni di Fisica Matematica, 2004. 42 ~ , uniforme per grandi distanze d ≫ r da −V C (teoricamente d → ∞). Assumendo che il fluido a contatto con la superficie della sfera sia “trascinato” dal moto di rotazione della stessa 27 , avremo che i filetti di fluido passanti in vicinanza dei punti A e B della sfera (v. Fig.3.16) avranno velocità rispettivamente ~vA = −(V −ωr) ~i ; a) b) A V ω −V C ω C B ~vB = −(V +ωr) ~i (S) j i È evidente che kv~A k < k~[vB ]k. Ricordando l’equazione di Bernoulli (3.3) si ricava Figura 3.16: Sistema di riferimento per spiegare l’effetto che PA > PB nei filetti di fluido circostan- Magnus ti la sfera e quindi ci aspettiamo che sulla sfera agisca una forza F~ , normale all’asse di rotazione della sfera e diretta secondo −~j. Per ottenere un’espressione analitica di F~ possiamo ragionare nel moa) b) do seguente. Con riferimento alla Fig.3.17 consideriamo, per sempliciω −V A’(θ) −V tà, la semisfera superiore della palla P(−ϕ) in moto. Essendo solidali con la palla P(+ϕ+π) r sen θ r conviene adesso riferirsi a un sistema θ r C di riferimento polare (θ, ϕ) centrato −V − ϕ −V ω O C +ϕ nella palla. L’areola elementare at+ϕ torno al punto P (+ϕ), evidenziata equatore palla P(−ϕ−π) nella Fig.3.17, a), possiede una velocP(+ ϕ) ità ~ v (θ, +ϕ) = (V + ωrsenθ)~uϕ , men−V B’(θ) −V tre attorno al punto P (ϕ+π) la velocità è ~v (θ, ϕ + π) = (V − ωrsenθ)~uϕ . Essendo il filetto di fluido, aderente Figura 3.17: Sistema di riferimento per spiegare l’effetto Magnus alla corona sferica elementare considerata, in moto stazionario, applicando il teorema di Bernoulli, troviamo la differenza di pressione ∆p(θ, φ) = p(θ, ϕ + π) − p(θ, +ϕ) fra i punti P (ϕ + π) e P (+ϕ) ∆p(θ, ϕ) = 1 ρ[(V + ωrsenθ)2 − (V − ωrsenθ)2 ] = 2ρV ωrsenθ 2 ∆p(θ, ϕ) insiste su l’areola elementare d2 a = r2 senθdθdϕ, su cui crea, conseguentemente, una forza elementare, ortogonale a d2 a, d2 F (θ, ϕ) = 2ρV ωr3 sen2 θdθdϕ costante su tutta la semicorona sferica di raggio rsenθ e azimuth +ϕ. Mentre d2 F (θ, ϕ) agisce lungo la direzione ϕ → ϕ+π (verso il basso della Fig.3.17), la forza elementare d2 F (θ, −ϕ) agisce lungo la direzione −ϕ → −ϕ − π (sempre verso il basso della Fig.3.17). Le componenti d2 F (θ, ϕ)cosϕ e d2 F (θ, −ϕ)cosϕ si compensano, mentre si sommano (verso il basso) le componenti lungo la direzione A′ (θ) → B ′ (θ). Quindi la forza totale agente su tutta la sfera sarà data da 28 FT = 2ρV ωr 3 Z 0 π senϕdϕ Z π sen2 θ dθ = 2ρπr3 V ω = 2ρ r St V ω (3.37) 0 27 Per assicurare questa condizione la superficie della sfera viene generalmente coperta da piccole asperità, come a esempio leggera peluria nelle palle da tennis, piccoli fori o piccole asperità nelle palle da golf e da ping-pong, cuciture evidenti nei palloni da calcio e rugby, R π ecc.). 28 Ricordiamo che sen2 θ dθ = π/2 0 43 con St = πr2 sezione trasversale massima presentata dalla sfera 29 . Ritornando nel sistema di riferimento (S) di Fig.3.16 e ricordando che la Ft della (3.37) deve essere diretta secondo −~j, possiamo scrivere che ~ F~T = 2 ρ r St ~ω × V (3.38) Un’interessante applicazione della forza trasversale al moto che si origina nell’effetto Magnus 30 è stata la progettazione (da parte dell’ingegnere tedesco A. Flettner, 1924) di una nave (la “Buchau”) che, utilizzando il vento proveniente trasversalmente al moto e mettendo in rotazione due larghi cilindri/fumaioli, potesse ricevere una F~t nella direzione del moto della nave. I risultati (non economici) di questo esperimento e l’instabilità al rollio e beccheggio per venti molto forti (infatti è naufragata nei Caraibi nel 1931!) hanno condotto all’abbandono di questo progetto. Questi studi sono stati però ripresi negli anni 2000 in paesi scandinavi per lo sviluppo di catamarani definiti “ecologici”. L’effetto Magnus è il fondamento fisico su cui si basa il cosidetto “giro” che si imprime alla palla in vari tipi di giochi. Il bravo battitore di punizioni “a rientrare” (nel calcio) deve imprimere una forza impulsiva alla palla non solo diretta lungo la traiettoria parabolica che desidera, ma anche con un componente trasverso, in modo da creare il moto di ro- Figura 3.18: Esempio di effetto tazione rispetto a un asse passante per il centro di massa Magnus su un pallone con giro della palla, che poi creerà la differenza di velocità periferiche sulla superficie della palla, che daranno origine alla FT , spiazzando i difensori e il portiere avversari (v. Fig.3.18). 3.5.1 Moto vorticoso e numero di Reynolds Il moto laminare di un fluido in un condotto cilindrico è descritto dalle relazioni (3.32) e (3.33) solo se la velocità del fluido rimane “piccola”; aumentando il valore del termine ∆P/∆l si aumenta il valore del modulo della velocità media nel condotto e, a un certo punto, si osserva che il moto del fluido diventa improvvisamente disordinato, si creano al suo interno vortici, con complicati moti di rimescolamento fra le varie parti del fluido. Sperimentalmente si è visto che è utile, ai fini della stima della velocità limite che garantisce il moto laminare, definire una quantità adimensionale, detta numero di Reynolds, definita da v · 2R v·d·ρ = (3.39) Re = η ν con ν = η/ρ coefficiente di viscosità cinematica e d dimensione travsersale del tubo. Per Re < 103 il moto è sicuramente laminare, mentre per Re > 105 è sicuramente turbolento, cioè con vortici e rimescolamenti vari. Nella zona intermedia sono possibili varie situazioni. non completamente stabili; basta una minima perturbazione (colpo, asperità nella superficie del condotto, al limite anche un suono violento) per far passare il regime da laminare a immediatamente turbolento. Innescato il regime turbolento è più difficile ritornare al regime laminare (occorre riportarsi a valori di Re < 103 ). Una giustificazione qualitativa dell’espressione di Re , data nella (3.39), è la seguente. L’aumento del modulo della velocità media del fluido nel condotto porta, a un certo punto, che gli strati laminari di fluido non riescono più a seguire gli strati contigui e a rimanerci attaccati. Questo significa che le forze inerziali, agenti sull’elemento di volume di fluido in moto laminare, diventano molto maggiori delle forze di attrito, originate dalla viscosità, per cui questo elemento di fluido non procede più nel suo moto 29 Molte misure di F , dovuta all’effetto Magnus, presenti nella letteratuta scientifica, si riferiscono al moto di palle da T baseball e non sono particolarmente coerenti fra loro. Consigliamo al lettore interessato L.J. Briggs, Am. J. Phys. 27, 589 (1959) e R.G. Watts & R. Ferrer, Am. J. Phys. 55, 40 (1987). 30 La (3.38) è in accordo col teorema di Kutta-Zukovskij dell’aerodinamica che afferma che per moti potenziali (cioè in ~ = ∇ϕ) la portanza F ~ cui la V ~ è data H l , cioè la forza per unità di lunghezza, su un cilindro ruotante con velocità angolare ω ~ · d~s vers~ ~ attorno al cilindro in moto. ~l = ρ~ ~ , con ~ V ω , circuitazione di V da F Γ×V Γ= C 44 ordinato, insieme con gli strati contigui, ma prosegue quasi isolandosi, e una minima perturbazione (che sicuramente si origina al distacco fra gli strati) crea un momento angolare che origina il moto vorticoso. Rendiamo quantitativo il ragionamento qualitativo descritto sopra Re ≈ f orze inerziali, Fin f orze d′ attrito, Fatt (3.40) Ma possiamo anche stimare che Fin ≃ ∆m ∆p ≃ · v ≃ Q m · v ≃ ρ · S⊥ · v 2 ∆t ∆t v Fatt ≃ η · Slaterale d/2 (3.41) che, sostituite in (3.40) danno Re ≃ ρ · S⊥ · v 2 · d ρvd ≃ η · Slat · v · 2 η (3.42) ρ · R5 ∆P · k ∆l (3.43) che coincide con la definizione data nella (3.39). Per la valutazione della portata di un condotto cilindrico orizzontale in regine turbolento non vale più, ovviamente, la legge di Poiseuille. Esiste una relazione fenomenologica che si esprime come Q2m = in cui Qm = ∆m/∆t è la portata di massa e k è una costante numerica sperimentale, che in molti casi di pratica utilità è dell’ordine di ≈ 0.4. È utile fare un confronto fra la portata di un condotto in regime di moto laminare (o anche detto regime viscoso) e la portata dello stesso condotto ma in regime turbolento; possiamo stimare −1/2 Qm;turb ∆P · R−1.5 (3.44) ≈ ηρ−1/2 · Qm ; visc l Nel S.I. il termine ηρ−1/2 ≈ 10−4.5 , quindi possiamo dire che, dalla (3.44), risulta che Qm;turb ≪ Qm;visc , per cui è di grande importanza pratica (ed economica) cercare di mantenere il flusso dei liquidi nei condotti in regime di moto laminare (o viscoso) il più a lungo possibile e di non far innescare il regime turbolento. Una stima di Re nel caso di un condotto di 2 cm di diametro, in cui scorra acqua η ≈ 10−3 , ρ ≈ 103 nel S.I., a una velocità di 2 m/s, ci porta a Re ≈ 4 · 104 , al limite del regime laminare, ma in condizioni instabili. È utile anche fornire una derivazione dimensionale di Re ; sappiamo che deve essere una quantità adimensionale e che le grandezze fisiche coinvolte nella transizione dal regime laminare a quello turbolento sono ρ, v, d, η. Possiamo quindi scrivere l’equazione dimensionale per Re , nell’ipotesi (ragionevole) che l’espressione di Re (ρ, v, d, η) sia a variabili separate, [Re ] = [dα ρβ v γ η δ ] = [lα−3β+γ−δ mβ+δ t−γ−δ ] (3.45) da cui si ottiene, dopo qualche passaggio, imponendo che tutti gli esponenti delle grandezze fondamentali siano nulli per garantire l’adimensionalità di Re β = −1; δ γ = −1; δ α = −1 δ (3.46) che, sostituite nell’equazione dimensionale (3.45) per Re , forniscono la sua corretta definizione, tenendo conto che l’esperienza ci indica che Re ∝ η −1 e quindi che δ = −1. 3.5.2 Resistenza di un fluido reale al moto di un corpo Consideriamo il moto di un corpo solido in un fluido reale (v. fig.3.19); si possono avere sostanzialmente due casi: a) il moto del fluido attorno al corpo è laminare, con assenza di vortici (figura inferiore); b) il moto avviene con produzione di vortici posteriormente e lateralmente al corpo. Diciamo subito che per la 45 descrizione quantitativa dei fenomeni un parametro fondamentale è la velocità relativa del fluido rispetto al corpo, cioè sostanzialmente è lo stesso considerare il corpo vincolato e fermo e il fluido che si muove con velocità relativa ~v rispetto al corpo, oppure il fluido in quiete e il corpo in moto rispetto al fluido con velocità relativa ~v 31 . Si applichi al corpo un dinamometro per misurare il modulo della forza F~ necessaria per mantenere costante la velocità del corpo stesso durante il moto (ovviamente sarà uguale alla risultante delle forze di attrito da parte degli strati di fluido che scorrono sulla superficie del corpo e nelle vicinanze, scorrimenti dovuti al moto del corpo in studio). Anche in questo caso si definisce un numero di Reynolds (per il corpo in movimento) Re,c dato da Re,c = v·d v·d·ρ = η ν (3.47) in cui i simboli hanno lo stesso significato di quelli usati precedentemente per la definizione del numero di Reynolds per il moto in un condotto cilindrico, fatta eccezione per d, che, in questo caso, indica la dimensione trasversale del corpo in moto. Fissato il corpo, cioè d, fissato il fluido in cui il corpo si deve muovere, cioè ν, l’unico grado di libertà per variare Re,c resta v. Ogni corpo possiede un proprio valore critico per Re,c , indicato con Re,crit , per il quale se Re,c ≪ Re,crit il moto del fluido circostante Figura 3.19: Schema del moto il corpo è sicuramente laminare, mentre per Re,c ≫ Re,crit il moto è di un corpo immerso in un fluisicuramente turbolento e vorticoso. In questo caso, però, il passaggio do reale in condizioni viscose (in dal regime laminare a quello turbolento è quasi continuo: si iniziano a basso) e turbolenti (in alto) formare alcuni piccoli vortici, poi, con l’aumentare della velocità relativa, se ne formano altri, sempre in numero maggiore e con maggiori dimensioni, fino ad arrivare a un regime di turbolenza estrema (si pensi al moto di un motoscafo da corsa e al sistema di gorghi, onde, e vortici che produce in acqua). In regime laminare (o di moto viscoso) la forza che agisce sul corpo in moto può essere espressa da Fv = k · η · d · v (3.48) con k fattore di forma, che dipende dalla forma “aerodinamica” del corpo in moto. Per una sfera, k = 3π per cui la forza che agisce su un corpo sferico di raggio R in moto con velocità v risulta essere Fv = 6π · η · R · v (3.49) La (3.49) è nota come legge di Stokes. In regime turbolento la forza che agisce sul corpo in moto diventa Ft = c · S · ρ · v 2 (3.50) dove c è sempre un fattore di forma (che per la sfera vale 0.25), S è la sezione trasversale del corpo in movimento (per una sfera πd2 /4), ρ la densità del fluido e v la velocità relativa del fluido rispetto al corpo in moto. Valutiamo il rapporto Ft /Fv per una sfera c · S · ρ · v2 cπ dρ · v Ft = = · ≈ 10−2 · Re,c Fv k·η·d·v 4k η (3.51) Si comprende, quindi, che, per un corpo in moto in un fluido reale, il superamento della velocità relativa tale da far aumentare Re,c oltre il limite dell’innesco del regime turbolento causa un improvviso e violento aumento della forza frenante il suo moto nel fluido, anche di vari ordini di grandezza, secondo il valore 31 È sostanzialmente quello che succede con l’uso delle gallerie del vento, in cui si studiano gli effetti aereodinamici su un corpo fermo rispetto a un flusso di aria che si muove rispetto al corpo. I risultati sono poi utilizzati per produrre corpi che si muovono “meglio” in aria (ferma!) con la stessa velocità relativa studiata nella galleria del vento; si comprende quanto sia importante questa tecnica in tutte le applicazioni al moto di veicoli e areomobili. 46 raggiunto da Re,c . Per una sfera Re,crit ≈ 104 , quindi un corpo sferico di 2R = 1 m che si muove in acqua, ν ≃ 10−6 (S.I.), con una velocità di 10−2 m/s, è caratterizzato da un Re,c ≈ Re,crit e quindi già inizia a generare sistemi di piccoli vortici nell’acqua anche a questa piccola velocità. Invece delfini, cetacei e simili hanno Re,crit ≈ 107 e quindi con 2R ≈ 1 m possono permettersi velocità dell’ordine di 10 m/s quasi senza innescare un regime turbolento. Infatti il loro nuoto è estremamente efficiente, elegante, morbido. Questo è il motivo per cui nei decenni recenti si siano sviluppati studi approfonditi sui fattori di forma e sulla struttura “acquadinamica” di questi bellissimi abitanti del mare per migliorare le prestazioni dei natanti, ma soprattutto dei mezzi subacquei (in particolare sommergibili, che hanno assunto sempre più la conformazione simile a quella dei cetacei e capodogli). L’uomo cerca di carpire i segreti dell’efficienza evolutiva della natura (si pensi anche alle imitazioni delle tecniche di volo degli uccelli per i profili degli aerei), ma non si preoccupa quasi mai di osservarne le regole di rispetto per l’ambiente nel quale dovranno vivere i propri discendenti, a dimostrazione, ancora una volta, che la “stupidità umana → ∞”, come diceva saggiamente Einstein. 3.5.3 Sedimentazione e centrifugazione Consideriamo il moto di un corpo rigido, omogeneo di massa m, diametro trasversale d, volume V e densità ρ in un fluido di densità ρl e coefficiente di viscosità η, che parta da fermo; esso è soggetto alla propria forza peso mg, alla spinta di Archimede −mg(ρl /ρ) e alla forza di attrito viscoso −kη · d · v (abbiamo assunto come positiva la direzione di discesa verso il basso). La sua equazione di moto sarà ρl m · a = m · g · (1 − ) − kη · d · v (3.52) ρ Si vede subito che la massima a sarà all’inizio, per t = 0, con v = 0; appena v cresce in modulo a diminuisce e avremo, a un certo istante, che a = 0 e questo avverrà per una velocità limite vs , detta velocità di sedimentazione, data da (v. 3.52) vs = ρ · V · g(1 − ρl ρ) (3.53) kη · d Se il corpo è assimilabile a una sfera di raggio r avremo vs = 2 2 r ρ · g(1 − · 9 η ρl ρ) (3.54) È ovvio che vs aumenta per r che aumenta e per ρ crescente, quindi le sfere di diametro maggiore e di densità più alta hanno una velocità di sedimentazione più elevata. Infatti un fiume in piena (per l’elevato valore della velocità dell’acqua) trasporta materiale di ogni tipo e dimensione; si nota che, nella fase di “stanca” della piena, i sassi e le pietre più grandi, quindi con vs elevate, sedimentano al centro del fiume, dove la velocità di scorrimento è maggiore (v. profilo parabolico delle velocità 3.14), mentre la sabbia fine, caratterizzata da un basso valore di vs , sedimenta vicino alle rive del fiume, dove la velocità di scorrimento è piccola. A livello biologico (inserendo nella (3.54) i dati per le macromolecole biologiche) si ottengono valore di vs dell’ordine di 10−6 −10−7 m/s; poichè le distanze tipiche su cui avviene la sedimentazione sono dell’ordine della decina di cm, ne segue che i tempi di sedimentazione per gravità sarebbero dell’ordine di giorni. Si applica allora non solo la g del campo di gravità, ma si immette il materiale in una potente centrifuga, che applica un campo “centrifugo” (ricordare le forze fittizie!) ω 2 · R, che può raggiungere anche valori dell’ordine di 106 g, ottenendo cosı̀ tempi di sedimentazione centrifuga di pochi minuti. Questa tecnica è molto utile in biologia per separare molecole di diverso peso molecolare, che avranno quindi diverse vs a parità di campo centrifugo. Possiamo quindi riscrivere la (3.54) come vs,centrif = 2 2 2 r ρω R(1 − · 9 η ρl ρ) Dividendo vs,centrif per ω 2 R otteniamo il cosidetto coefficiente di sedimentazione s s= ρV (1 − kdη ρl ρ) (caso generale) 47 (3.55) s= 2 2 r ρ(1 − · 9 η ρl ρ) (sf era) L’unità di misura utilizzata per s è lo svedberg, che corrisponde a 10−13 s. s dipende fortemente dalla temperatura, soprattutto tramite η. Il valore di s è ottenibile da misure di grandezze macroscopiche (vs,centrif , ω, R) ed è legato alle proprietà della particella sedimentante (ρ, V, k, d) e del fluido in cui avviene la sedimentazione (ρl , η). Per risolvere tutte le incognite occorrono quindi altre misure (a es., la misura dei coefficienti di diffusione, stima dei pesi molecolari ecc.), ma questi aspetti esulano dal contesto in cui ci stiamo muovendo in questa sede. 3.6 Pressione osmotica Una soluzione chimica è un insieme omogeneo in cui una sostanza (generalmente solida), il soluto, viene disciolto (a livello molecolare) in un solvente (generalmente un liquido). Si pensi all’acqua salata, al caffè zuccherato ecc. Per la soluzione Si definiscono la concentrazione cs = ms /V come il rapporto fra la massa di soluto ms e il volume della soluzione, la concentrazione molare (o molarità) come cM = ns /V , dove ns è il numero di moli di soluto disciolto in soluzione, e la frazione molare x = ns /(ns + nsolv ), definita da rapporto fra il numero di moli di soluto disciolto in soluzione rispetto al numero totale di moli contenute nella soluzione. Ci occuperemo di soluzioni diluite per le quali x ≪ 1; in questo caso V coincide praticamente col volume di solvente iniziale. Per le soluzioni diluite tutte le quantità fisiche coinvolte risultano sperimentalmente esprimibili con relazioni lineari fra loro e questo semplifica enormemente la trattazione dei fenomeni. Con riferimento alla Fig.3.20 consideriamo un tubo a U riempito parzialmente con solvente, in cui sia inserita una membrana semipermeabile 32 ; nella parte destra del tubo a U mettiamo una piccola quantità di soluto, per formare una soluzione diluita. Dopo un po’ di tempo si osserva che il livello della soluzione inizia ad aumentare rispetto a quello della Figura 3.20: Schema dell’effetto della pressione osmotica in parte sinistra occupata da solvente puro presenza di una parete semipermeabile (che contemporaneamente si abbassa) fino a quando il sistema si troverà in equilibrio con un aumento totale di quota h rispetto alla parte sinistra (dove si trova ancora solvente puro). A tale differenza di livello corrisponderà una differenza di pressione idrostatica ∆p fra le due parti del tubo a U . Chiaramente la soluzione dovrà esercitare una pressione idrostatica Π = ρ·g ·h (ρ densità del solvente) sulla membrana semipermeabile. Sperimentalmente si trova che Π risulta, per soluzioni diluite, proporzionale a cM , mantenendo la soluzione a temperatura costante, mentre, mantenendo costante cM , Π risulta proporzionale alla temperatuta assoluta T della soluzione e la costante di proporzionalità ha il valore della costante R dei gas perfetti. Quantitativamente Π = cM R T (legge di van′ t Hof f ) (3.56) Ricordando la definizione di cM otteniamo che Π · V = ns · R · T (3.57) 32 Una membrana semipermeabile consente il libero passaggio del solvente attraverso la sua parete ma non al soluto. Può essere realizzata con una porzione di membrana ricavata da tessuto biologico [animale o vegetale, a es. un sottile strato di pergamena vegetale] oppure sinteticamente facendo, a es., precipitare elettroliticamente ferrocianato di rame in un setto poroso, come può essere una parete di terracotta non verniciata. 48 La pressione Π è detta pressione osmotica della soluzione diluita considerata. È notevole che la (3.57) risulti formalmente identica alla equazione di stato dei gas perfetti; significa che le condizioni fisiche che venivano descritte quantitativamente nell’equazione dei gas perfetti devono rappresentare anche le condizioni fisiche nella soluzione considerata. Le molecole del solvente sono libere di muoversi in tutto il recipiente (la membrana semipermeabile non offre ostacolo apprezzabile), mentre le molecole di soluto (che “trasportano” anche molecole di solvente a cui sono “agganciate”) urtano sulla membrana semipermeabile, venendone respinte, quindi variando la loro quantità di moto di 2 · m · v, essendo m la massa e v la velocità prima dell’urto di ogni molecola di soluto. Sappiamo che la pressione su una parete da parte di un gas è generata dal valor medio della variazione di quantità di moto totale ∆QT = 2 · m · v · NT di NT particelle di gas urtanti, divisa per l’intervallo di tempo durante il quale si valuta ∆QT e divisa per la superficie S su cui avvengono gli urti. Quindi Π sarà generata, nel nostro caso, dagli urti delle molecole di soluto sulla membrana semipermeabile, che, supposta rigida, reagisce elasticamente applicando alla soluzione una pressione in valore assoluto uguale a Π, che è proprio quella che garantisce alla colonnina di soluzione h di rimanere in equilibrio 33 . Soluzioni diverse ma aventi la stessa Π si dicono isotoniche. La pressione osmotica ha un’enorme importanza in biologia; tutti gli scambi di sali, nutrienti e prodotti di reazioni biologiche fra cellule, tessuti, ecc, sono influenzati dalla pressione osmotica; a es., se in una cellula esiste una concentrazione molare di cM ≈ 0.3 moli/dm3 a temperatura di 20 ◦ C → 293 K, la sua Π vale circa 8 Atm. Si comprende quindi l’impatto che questa grandezza fisica possa avere nei processi di scambio a livello cellulare. La pressione osmotica è anche responsabile (insieme ad altri fenomeni di natura più specificamente biologica) della salita della linfa nei vasi vegetali degli alberi; infatti le radici sono ricche di elementi nutrienti e sali minerali e con una cM ≈ 5 · 10−2 moli/dm3 si provoca una Π che (dalle (3.56) e Π = ρgh) causa la risalita della linfa fino a 12 m di altezza. È la pressione osmotica presente nelle radici delle viti (ricche di zuccheri, soprattutto a fine estate) che, alle piogge primaverili, dopo la potatura dei tralci a fine inverno, provoca il cosidetto pianto della vite, cioè la caduta di gocce di linfa dai tagli della recente potatura. 3.7 Le equazioni fenomenologiche delle leggi di trasporto Riscriviamo alcune leggi che abbiamo dedotto in vari settori della Fisica Generale e che ci porteranno a interessanti conclusioni sulla efficacia (ma forse anche sulla bellezza) delle descrizioni quantitative dei fenomeni naturali che sono tipiche della Fisica. La legge di Poiseuille descrive essenzialmente il principio della conservazione della massa in un condotto cilindrico di raggio R, lunghezza ∆x, soggetto a una differenza di pressione ∆P = Pingresso − Puscita , di un fluido viscoso di coefficiente di viscosità η e densità ρ in moto laminare nel condotto ∆M πρ ∆P ρ · R2 ∆P = · · R4 = ·S· ∆t 8η ∆x 8η ∆x (3.58) Notiamo che QM = ∆M/∆t (detto anche portata) rappresenta il flusso di massa che attraversa qualunque sezione del condotto cilindrico nel tempo ∆t. La legge di Fourier sulla conduzione del calore Q attraverso una lastra piana (indefinita), di spessore ∆x e costituita da un materiale di conducibilità termica k, soggetta a una differenza di temperatura ∆T = Tparete iniz. − Tparete f in. supposta costante tra le due pareti isoterme di superficie S, si esprime tramite la ben nota equazione della conduzione ∆T ∆Q =k·S ∆t ∆x (3.59) Combinando la prima con la seconda legge di Ohm per le correnti elettriche stazionarie possiamo scrivere ∆q ∆V 1 ·S = ∆t ρe ∆l (3.60) dove i = ∆q/∆t è l’intensità di corrente che scorre in un filo di lunghezza ∆l, sezione S, resistività elettrica ρe , sottoposto a una differenza di potenziale ∆V ai suoi estremi e ∆q è la quantità di carica 33 In altre parole, è come se la membrana semipermeabile fosse un pistone che esercita una pressione Π sulla soluzione. 49 elettrica che fluisce attraverso qualunque sezione del filo nell’intervallo di tempo ∆t. Applichiamo la legge di Fick per i processi di diffusione al caso della solubilità di un soluto, di massa ms , in un solvente. La legge (fenomenologica) si scrive in questo caso come ∆cs ∆ms =h·S· ∆t ∆x (3.61) dove h indica il coefficiente di solubilità del soluto, S la superficie totale del soluto a contatto del solvente, ∆cs /∆x il gradiente radiale della concentrazione del soluto cs 34 , e ∆ms /∆t rappresenta il flusso di massa di soluto che diffonde nella soluzione nell’unità di tempo. La (3.61) esprime chiaramente gli aspetti operativi che, spesso inconsapevolmente, si compiono quando si effettuano soluzioni nella nostra vita quotidiana (salare l’acqua, zuccherare bevande, preparare coloranti, diluire miscele, ecc.). Affinché il termine ∆ms /∆t abbia il massimo valore possibile (significa minimizzare il tempo per poter disporre della soluzione finale!), quindi occorre rendere massimi i tre termini a destra dell’uguaglianza nella (3.61). Sappiamo che h è generalmente una funzione monotona crescente della temperatura, quindi useremo solvente caldo; inoltre per aumentare S (a parità di ms che deve andare in soluzione) useremo frammentare al massimo il soluto (usare sale fine o zucchero a velo rende più veloce le operazioni relative!) e infine per assicurare che ∆cs /∆x sia massimo occorre provocare nella soluzione moti convettivi stocastici, in modo da riportare continuamente solvente fresco a contatto del soluto e quindi rendere elevato il gradiente ∆cs /∆x (infatti si usa girare il caffè, rigirare l’acqua nella quale abbiamo gettato il sale ecc.). In realtà queste operazioni sono svolte spesso in modo non razionale, perché si usa girare un attrezzo (cucchiaino nel caffè, mestolo nell’acqua, ecc.) con velocità angolare uniforme provocando moti circolari ordinati nella soluzione; la conseguenza è che al centro del recipiente la velocità della soluzione è molto bassa, quindi il gradiente della concentrazione resta a un valore basso (non arriva solvente fresco a contatto del soluto) e alla fine si nota un accumulo di soluto residuo al centro del recipiente. Il modo corretto è quello di muovere l’attrezzo (cucchiaino, mestolo, ecc.) in modo casuale, in direzione radiale rispetto al recipiente ma in tutte le direzioni angolari, assicurando moti convettivi non ordinati nella soluzione per ottenere una soluzione omogenea e uniforme in tempi rapidi. Esaminando la struttura delle 4 equazioni (3.58), (3.59), (3.60), (3.61) si vede immediatamente che presentano tutte la stessa struttura: la variazione rispetto al tempo di una quantità estensiva (M , Q, q, ms ), rappresenta il flusso della grandezza considerata attraverso la sezione S del condotto ed è uguale a un coefficiente, che dipende dalle sostanze considerate e dal fenomeno in esame, per la sezione S, per il gradiente di una grandezza intensiva (∆P/∆x, ∆T /∆x, ∆V /∆l, ∆cs /∆x). Conseguentemente le connessioni logiche e le soluzioni ai problemi che riguardano questi fenomeni saranno dello stesso tipo formale, cioè lo sforzo fatto per comprendere come si evolve uno di questi fenomeni ci fornisce facilmente gli strumenti per comprendere cosa succede anche agli altri. Le 4 equazioni (3.58), (3.59), (3.60), (3.61) possono essere scritte anche in un altro modo ∆P = ∆M 8η · ∆x 8η · ∆x ∆M · = Ri · , con Ri = 2 ρ · R · S ∆t ∆t ρ · R2 · S ∆x ∆Q ∆Q ∆x ∆T = · = Rt · , con Rt = k · S ∆t ∆t k·S ∆q ∆l ∆l ∆q · = Re · , con Re = ∆V = c · S ∆t ∆t c·S ∆ms ∆x ∆x ∆ms · = Rs · , con Rs = ∆cs = h · S ∆t ∆t h·S (3.62) (3.63) (3.64) (3.65) in cui Ri indica la resistenza idraulica, Rt la resistenza termica, Re la resistenza elettrica e Rs la resistenza alla solubilità dei vari componenti coinvolti nei fenomeni analizzati. Da quanto sappiamo sulla prima legge di Ohm sui circuiti elettrici, possiamo concludere che le leggi per le resistenze in serie (che danno luogo a una resistenza totale uguale alla somma delle varie resistenze) e le resistenze in parallelo (in cui si sommano i reciproci delle resistenze) valgono anche per le combinazioni di vari elementi dotati di resistenza negli altri fenomeni. Si pensi a connettere diversi condotti per il passaggio dell’acqua in serie o in parallelo, oppure a mettere vari materiali termicamente isolanti l’uno sull’altro (cioè in serie) per creare strati con elevata efficienza isolante ecc. Si comprende immediatamente l’utilità di saper comprendere 34 La concentrazione c di una soluzione è il rapporto fra la massa di soluto ∆m e il volume ∆V di soluzione in cui ∆m s s s è contenuta. 50 l’essenza dei collegamenti logici e funzionali fra le diverse grandezze coinvolte nei fenomeni analizzati e di saperli ricondurre a schemi di comprensione unitari: è una delle tante bellezze della Fisica. Le (3.58), (3.59), (3.60), (3.61) sono state ottenute in condizioni stazionarie, in sistemi con spiccata simmetria lineare (tipo muro) o cilindrica (tipo condotto) e con moti laminari. Possono essere scritte in modo locale, per qualunque geometria, senza le condizioni di stazionarietà, e, utilizzando gli operatori differenziali vettoriali (divergenza, gradiente, rotore) e i teoremi relativi dell’Analisi Matematica (teorema della divergenza 35 , teorema di Gauss, equazione di continuità [che esprime la conservazione di grandezze fisiche estensive] ecc.), si arriva sempre, in tutti e quattro gli argomenti fisici considerati, a una delle fondamentali equazioni alle derivate parziali del secondo ordine, di tipo parabolico 36 , ∂T D(P ) · ∇2 T = (3.66) ∂t che costituisce uno dei capitoli fondamentali della Fisica Matematica [D(P) è il cosidetto coefficiente di diffusività, e ∇2 è il quadrato simbolico dell’operatore nabla, cioè l’operatore differenziale laplaciano ∂2 ∂2 ∂2 definito, in coordinate cartesiane, da ∇2 = ∂x 2 + ∂y 2 + ∂z 2 ]. Illustriamo, come esempio, la derivazione della (3.66) nel caso della conduzione del calore. Supponiamo di considerare un mezzo omogeneo, isotropo, caratterizzato da densità ρ, calore specifico a pressione costante cp e conducibilità termica k, e prendiamo una qualunque superficie Σ, contenente un volume V , tutta interna (non deve nemmeno toccare la superficie esterna del mezzo considerato) al mezzo, in cui la temperatura T vari da punto a punto. La quantità di calore dQ scambiata da una porzione dm = ρ · dV ′ (interna a Σ) con l’esterno, nel tempo dt, per effetto di una variazione di temperatura dT = (∂T /∂t)dt, è espressa da ∂T dQ = cp ρdV ′ (3.67) dt ∂t L’incremento totale di quantità di calore, nell’unità di tempo, in tutto il volume V è dato da Z ∂T dV ′ (3.68) cp ρ ∂t V Per la conservazione dell’energia (e quindi per la conservazione delle quantità di calore scambiate tra il volume V e l’esterno) la quantità di calore data dalla (3.68) deve essere uguale a quella trasmessa per conduzione attraverso la superficie Σ, cioè, scrivendo la (3.59) in modo locale, applicata al caso che stiamo considerando, otteniamo Z Z dT ∇T · ~ndσ (3.69) k· · ~ndσ = k · Σ dn Σ Uguagliando le (3.68) e (3.69) otteniamo Z Z ∂T ′ ∇T · ~ndσ dV = k · cp ρ Σ V ∂t Applicando il teorema della divergenza al secondo membro della (3.70) otteniamo Z Z Z Z k k ∂T ∂T dV ′ = dV ′ = ∇ · (∇T )dV ′ ; ∇2 T dV ′ cp ρ V cp ρ v V ∂t V ∂t (3.70) (3.71) Essendo il volume V qualunque, ponendo D = k/(cp ρ) coefficiente di diffusività termica del mezzo, otteniamo la (3.66). Analogamente si può procedere negli altri casi illustrati. Ovviamente queste ultime considerazioni non possono essere nemmeno accennate a studenti liceali (ma anche a studenti universitari di laurea triennale!), ma le abbiamo volute menzionare per ribadire, ancora una volta, la bellezza conoscitiva e concettuale della Fisica e gli intrecci, profondi e fecondi, che esistono con la Matematica e che un buon docente di Matematica e Fisica deve cercare sempre di far apprezzare dai suoi studenti, chiaramente con esempi semplici. 35 Il teorema della divergenza corrisponde alla definizione intrinseca dell’operatore differenziale divergenza: div~ v = ∇·~ v= Φ (~ v) limV →0 ΣV , dove Σ è una superficie chiusa contenente il volume V , centrato attorno al punto P dove è definito il vettore ~ v e ΦΣ (~ v ) è il flusso del vettore ~ v attraverso Σ. 36 Si veda il cap. 11 del testo già citato di G.Boato per una presentazione piuttosto semplice, oppure il cap. VII del classico testo di E.Persico: Introduzione alla Fisica Matematica, Zanichelli, BO, 1960. 51 Capitolo 4 Termologia 4.1 Trasmissione del calore Già nel termine che si usa (trasmissione) è presente, anche etimologicamente, l’idea che la forma di scambio di energia fra sistemi, a diversa temperatura, chiamata scambio di quantità di calore (o spesso semplicemente, ma forse non molto esattamente, scambio di calore), implichi che nei sistemi reali questa trasmissione debba avvenire con una velocità finita. Esaminiamo brevemente le tre modalità classiche di trasmissione del calore. 4.1.1 Conduzione Si ha conduzione termica quando due corpi solidi, a differente temperatura, sono posti a contatto termico e quindi si ha uno scambio di quantità di calore dal corpo più caldo a quello più freddo. Il modo più semplice di descrivere il processo fisico della conduzione termica è quello di descrivere quantitativamente la situazione stazionaria di una parete omogenea piano-parallela, le cui superfici esterne siano tenute a temperature diverse e costanti che creano una differenza di temperatura costante ∆T = Tparete iniz. − Tparete f in. > 0. In tali condizioni misureremo un passaggio di quantità di calore ∆Q, attraverso un cilindro (o un parallelepipedo) di lunghezze ∆x e sezione S, (posto ortogonalmente alla parete e isolato termicamente dall’esterno), in un intervallo di tempo ∆t secondo la cosidetta legge di Fourier ∆Q ∆T =k·S (4.1) ∆t ∆x dove k è la conducibilità termica del materiale (omogeneo) di cui è formata la parete. Esaminando le tabelle dei valori misurati di k per i diversi materiali (a temperature ambiente) si vede che esistono materiali ottimi conduttori di calore (come Ag, Cu, Au), che hanno valori di k ≈ 102 J/(s m K), e materiali isolanti termici (come il sughero, lana animale, lana di vetro, terreno secco, aria secca ecc.) che hanno k ≈ 10−2 J/(s m K). La (4.1) si può scrivere anche come ∆x ∆T = =v (4.2) k·S· ∆Q ∆t La quantità ∆x ∆t = v rappresenta la stima della velocità con cui una quantità di calore ∆Q = 1 J si propaga, per ∆T = 1 K e S = 1 m2 , per conduzione nella direzione x. Per ottimi conduttori termici ∆x/∆t ≈ 4 · 102 m/s, mentre per buoni isolanti termici ∆x/∆t ≈ 4 · 10−2 m/s. Notiamo che i materiali ottimi (o buoni) conduttori termici sono anche ottimi (o buoni) conduttori elettrici; ne possiamo dedurre (intuitivamente, salvo approfondimenti ulteriori in sede di studi di elettrologia) che anche nella conduzione termica sono gli elettroni di conduzione (elettrica ma anche termica!) che giocano il ruolo fondamentale per questo trasporto di energia. Esaminiamo l’effetto della conducibilità termica sulla distribuzione della quantità di calore e della temperatura all‘interno di una sbarra conduttrice. Con riferimento√alla Fig.4.1 una sbarra√ cilindrica, di materiale termicamente conduttore, di sezione S (perimetro p = 4πS), lunghezza l ≫ S, avente infilati (in perfette condizioni di contatto termico) una serie equidistante di termometri Ti , viene scaldata all’estremo A con una TA costante, con TA ≫ TB , essendo TB la temperatura ambiente. Si tratta di 52 determinare l’andamento spaziale (a un certo T1 istante) delle temperature indicate dai variterT2 mometri Ti . 1 L’equilibrio energetico dell’eleT3 T4 T mento di sbarra di lunghezza dx, posto alla di5 stanza x dall’origine della sbarra, richiede che la quantità di calore (∆Q)CD che nel tempo TA D F TB ∆t viene condotta attraverso la superficie CD S x sia uguale alla quantità di calore (∆Q)EF che, C dx E B A nello stesso intervallo di tempo, viene condotta l attraverso EF e alla quantità di energia ∆En che viene perduta per convezione attraverso la Figura 4.1: Sbarra conduttrice scaldata a un estremo superficie laterale del cilindretto dx nello stesso intervallo di tempo. In formule ∆QEF ∆En dT dT ∆QCD = h · p · dx · (T − TB ) (4.3) − = + ; k·S ∆t ∆t ∆t dx CD dx EF dove il termine a secondo membro rappresenta il termine di trsmissione per convezione (vedi par. successivo). Notiamo che dT d2 T dT − = · dx = f racd2 (T − TB )dx2 · dx (4.4) dx CD dx EF dx2 che, sostituita nella (4.3) fornisce l’equazione differenziale lineare, omogenea, del secondo ordinea coefficienti costanti h·p d2 (T − TB ) = a · (T − TB ), con a = (4.5) 2 dx k·S L’integrale generale della (4.5) è √ √ (T − TB ) = C1 exp( a · x) + C2 exp(− a · x) (4.6) che, con le condizioni al contorno T = TA per x = 0 e T = TB per x = l, con l → ∞ (vista l’ipotesi della sbarra molto lunga), fornisce la soluzione del nostro problema √ (T − TB ) = (TA − TB )exp(− a · x) (4.7) L’andamento esponenziale della distribuzione spaziale della temperatura lungo la sbarra è verificato bene dalle misure dei termometri distribuiti lungo la sbarra (v. Fig.4.1). L’esperienza è piuttosto semplice, mentre la trattazione è difficilmente semplificabile. Alcune considerazioni tratte dalla vita quotidiana, in cui il nostro comportamento dimostrerebbe che siamo a conoscenza delle leggi della conduzione termica (purtroppo questo è vero molto raramente!): • i manici di padelle, romaioli, forchettoni da cucina, sciumarole sono molto lunghi; • i manici delle pentole sono rivestiti di materiale termicamente isolante; • le prese (o guanti da forno) per afferrare oggetti molto caldi sono riempiti di materiale tipo bambagia (in cui viene immagazzinata una quantità notevole di aria); • per scaldare il contenuto di una recipiente (pentola, padella, ecc.), posto sulla fiamma del gas domestico, NON SI DEVE MAI aprire il gas a fondo creando una fiamma (sorgente di quantità di calore) che abbia un diametro superiore al fondo del recipiente. La quantità di calore trasferita al contenuto del recipiente è proporzionale SOLO alla superficie del recipiente a contatto della fiamma (fra l’altro bisognerebbe ricordare che la parte più calda della fiamma è quella più esterna [il “mantello” della fiamma, spesso coincidente con il limite azzurro della fiamma], dove l’ossidazione del gas è completa, essendo a diretto contatto con l’ossigeno dell’aria; in caso di fiamma sovrabbondante questa parte della fiamma va SOLO a scaldare l’aria e a bruciare i manici del contenitore, oltre che ad aumentare vistosamente la bolletta del gas!); 1 L’apparato sperimentale descritto è detto di Wiedemann-Franz. 53 • durante l’inverno si deve proteggere il contatore dell’acqua (esposto generalmente in armadi a muro posti all’esterno) con materiali termicamente isolanti per evitare il congelamento dell’acqua nell’indicatore di consumo del contatore (il ghiaccio ha una densità minore dell’acqua e quindi spaccherebbe il vetro dell’indicatore con conseguente fuoriuscita di acqua allo scongelamento); • gli idraulici proteggono i tubi di rame degli impianti idraulici con stracci umidi quando devono eseguire saldature in vicinanza di apparati delicati (contatori, sensori di pressione o di temperatura ecc.); • gli indumenti di lana (o, al limite, di qualunque fibra di origine animale, peli, capelli, ecc. che hanno un canalino vuoto al loro interno) o fibre sintetiche (tipo “pile”), che riescono a immagazzinare molta aria al loro interno “tengono caldo”, mentre quelli di cotone o fibre vegetali compatte “non tengono caldo”. 4.1.2 Convezione Si ha “convezione” quando uno degli elementi posti a contatto termico è un fluido. In questo caso il riscaldamento di un elemento di fluido provoca una diminuzione di densità dell’elemento di fluido, e poiché viviamo nel campo di gravità, a causa della spinta di Archimede, questo elemento di fluido (non essendo vincolato a una struttura rigida) inizia a salire nel fluido rimanente creando un sistema di correnti, dette correnti convettive.Tali correnti si possono osservare facilmente ponendo sul fondo di una pentola con acqua un po’ di farina di semolino (o di mais) e scaldando il recipiente. Il fondo della pentola inizia a scaldarsi e si notano i primi grani di farina che tendono a muoversi verso l’alto. Aumentando la temperatura degli strati d’acqua a contatto del fondo della pentola le correnti convettive verso l’alto aumentano la loro portata e la farina tenderà a muoversi tutta verso l’alto, per poi scendere di nuovo verso il basso appena le correnti convettive si siano raffreddate alla superficie dell’acqua. Una descrizione quantitativa fenomenologica degli scambi energetici in atto è data dall’equazione di Newton ∆Q = λ · S · ∆T (4.8) ∆t dove ∆Q/∆t rappresenta il flusso di quantità di calore che attraverso la superficie S passa nel fluido a seguito della differenza di temperatura ∆T fra la parete solida e il fluido. Si raggiunge la fase di ebollizione (corrispondente a T = 100 ◦ C a pressione atmosferica standard) quando la tensione di vapor saturo nel fluido2 uguaglia la pressione atmosferica presente all’esterno del fluido. A quel punto si formano una serie tumultuosa di bolle di vapore saturo all’interno del fluido, fenomeno che viene detto ebollizione. È ovvio che se ci troviamo in ambienti con ridotta pressione atmosferica (come a es. in alta montagna) si raggiunge la fase di ebollizione dell’acqua a temperature inferiori a 100 ◦ C, cambiando il regime di cottura dei cibi. Alcune considerazioni di vita quotidiana legate a quanto detto finora: • per una cottura uniforme gli spaghetti non possono avere diametro superiore a un limite massimo (dell’ordine di 1.0 − 1.5 mm per pasta secca di grano duro); infatti la temperatura all’interno dello spaghetto cresce con velocità finita (è una propagazione per conduzione fra i vari strati concentrici a simmetria cilindrica nello spaghetto) e durante il tempo di propagazione del calore verso gli strati più interni gli strati esterni già arrivano a cottura per cui questi spaghetti giganti risulterebbero o scotti all’esterno o crudi all’interno. L’esperienza ragionata (ma a cui adesso possiamo arrivare anche con la comprensione fisica e conseguente modellizzazione matematica, argomento irrilevante dal punto di vista gastronomico!) ha portato a creare i “bucatini”, pasta di diametro maggiore di 1.5 mm a crudo, che può cuocere perfettamente avendo anche una superficie interna da cui il calore possa penetrare all’interno della pasta per provocarne le modificazioni strutturali e organolettiche che chiamiamo cottura; • per una cottura uniforme i cibi (o pezzi di cibi) devono avere grosso modo dimensioni confrontabili fra loro (v. argomentazione precedente). Mettendo a esempio a cuocere patate di diversa dimensione, otterremo che le più piccole arriveranno a essere praticamente disfatte quando le maggiori saranno ancora crude al loro interno; 2 Si riguardi il paragrafo dell’equazione di Clapeyron e argomenti correlati nella parte di Termodinamica del programma di Fisica Generale 1. 54 • per risparmiare energia (e soldi in bolletta) sarebbe bene spengere la fiamma del gas un po’ prima del termine della cottura e lasciare che il tutto rimanga per qualche minuto alla temperatura di ebollizione. Per migliorare l’efficienza di questa procedura bisognerebbe isolare termicamente il recipiente dopo lo spegnimento della fiamma; infatti le vecchie (e sagge) contadine usavano far finire di cuocere cibi a lunga cottura (lesso, fagioli, ceci, ecc.) togliendoli dal fuoco e rinvoltando la pentola (o il paiolo) in una vecchia coperta di lana e lasciar finire di cuocere lentamente e senza spesa (ma occorreva avere tempo, pazienza e attenzione, cose che purtroppo sono desuete in questi tempi frenetici e forse un po’ folli); • i liquidi raggiungono prima l’ebollizione se i recipienti hanno il coperchio. In tal modo tutta l’energia ceduta al liquido va ad aumentare l’energia interna del liquido (sostanzialmente quindi la sua temperatura), minimizzando il lavoro di espansione del vapore verso l’esterno (e questo ce lo dice il primo principio della termodinamica!); • è conveniente salare l’acqua quando si butta la pasta, perché la presenza di sale (cioè l’esistenza di una soluzione) aumenta il valore della temperatura di ebollizione a parità di pressione atmosferica esterna (v. effetto ebullioscopico); • perché si “soffia” una sostanza troppo calda (la minestra nel cucchiaio o il caffè, il thè, ecc.) per raffreddarla; • perché per raffreddare un liquido caldo conviene passarlo in diversi recipienti freddi (invece di metterlo in frigo come purtroppo spesso viene fatto in modo irrazionale); • perché non si deve MAI mettere in frigo sostanze calde, ma farle arrivare a temperatura ambiente (o metterle all’esterno se d’inverno) e poi collocarle in frigo; • perché su strade ghiacciate si spande sale (abbassamento del punto di congelamento per effetto crioscopico); • perché è irritante (per chi conosce un briciolo di Fisica) veder decongelare cibi mettendoli nel forno a microonde (consumo insipiente di energia), quando con un minimo di preveggenza si potrebbe far scongelare il cibo a temperatura ambiente togliendolo dal congelatore qualche ora prima dell’utilizzo; • per raffreddare ambienti in estate potrebbe essere conveniente nebulizzare acqua; le goccioline in sospensione evaporano e sottraggono calore all’ambiente abbassando piano piano la temperatura dell’ambiente. Questo sistema viene usato talvolta per ambienti con uscita esterna, mentre per gli interni aumenterebbe la concentrazione di umidità degli ambienti con conseguenze non desiderate; • il problema del corretto “tiraggio” di caminetti e stufe: affinché il fumo della combustione si incanali velocemente nel camino, soprattutto nella fase di accensione iniziale, (e non ristagni languendo nella stanza dove avviene la combustione, evento spesso catastrofico per la quiete familiare!) occorre che si crei il massimo ∆T possibile (v. (3.59) e (4.8)) fra la zona della prima combustione e l’esterno (cioè la sommità del camino). Poiché la stanza in cui si sta formando la fiamma si trova certamente a una temperatura intermedia fra quella esterna e quella circostante la prima fiamma, conviene (anche per evitare l’asfissia degli astanti!) aprire una finestra (o una porta) e creare cosı̀ un alto ∆T nella zona della prima fiamma, che faciliti l’inizio della salita nel camino dei gas di combustione e anche l’afflusso di aria “fresca” (ricca di ossigeno) sulla fiamma. I vecchi muratori mettevano in comunicazione il fornello della cenere dei caminetti con l’esterno tramite un piccolo tubo di ferro, rifornendo quindi continuamente di aria fresca l’ambiente della combustione, e dicevano che il caminetto doveva poter respirare, se no “soffocava anche lui”, quasi con un tocco poetico nei riguardi di un fenomeno ritenuto quasi sacro, il fuoco. Sprazzi di una cultura ormai perduta, purtroppo; • in inverno, con la scusa di “cambiare l’aria delle stanze” (cosa necessaria), si lasciano gli ambienti al freddo esterno per ore, necessitando di grandi quantità di energia per riportarsi a temperature degne di una vita civile, quando si dimostra che nell’arco di 10-20 s l’aria di qualunque stanza si rinnova varie volte (visti i gradienti termici invernali fra l’esterno e l’interno delle civili abitazioni). Il grande problema dell’isolamento termico delle abitazioni (ma, in generale, di tutti gli ambienti utilizzati per attività umane) è di estrema importanza per gli alti costi economici (e di inquinamento 55 collegato) che può produrre. Sarebbe molto istruttivo se nelle scuole si sviluppassero progetti di educazione scientifica sui temi del risparmio energetico, sull’autosufficienza energetica, ecc., basati su solide conoscenze fisiche e scientifiche (spesso si sentono dire scemenze inaudite su questi temi sui media divulgativi), facendo capire che anche gli aspetti applicativi della Fisica sono importanti, interessanti e stimolanti, nella consapevolezza che gli attuali nostri studenti diverranno molto presto “cittadini”, che vogliamo produttivi ma responsabili. 4.1.3 Irraggiamento L’irraggiamento è il processo di emissione e assorbimento di energia raggiante da parte dei corpi, cioè riguarda l’emissione e l’assorbimento delle onde elettromagnetiche, di varia lunghezza d’onda, da parte di corpi e sostanze. La sorgente di energia raggiante per eccellenza è per noi il Sole, che ci garantisce la vita. Se esponiamo qualunque oggetto alla luce del Sole questo si riscalda, manifestazione evidente che l’oggetto ha assorbito energia. Lo stesso oggetto emette energia raggiante, ma di lunghezze d’onda diverse a seconda della temperatura a cui si trova durante il processo di emissione. Inoltre il riscaldamento dell’oggetto è diverso (cioè si troverà a temperature diverse dopo lo stesso tempo di esposizione alla medesima radiazione solare) a seconda che sia verniciato oppure no, e a seconda del colore (e della composizione chimica!) della vernice (bianco → resta abbastanza fresco, nero → diventa molto caldo). Viene quindi l’idea che il colore nero caratterizzi un assorbitore (ma anche un emettitore) di energia raggiante più efficiente degli altri colori. Ma il colore è solo una sensazione fisiologica del nostro occhio; in termini fisici dobbiamo riferirci solo alla lunghezza d’onda (o alla frequenza) delle radiazioni elettromagnetiche assorbite ed emesse dal corpo in studio. Inoltre una descrizione fisica corretta delle proprietà emettitrici del corpo dovrà essere basata su grandezze fisiche ben definite operativamente. Consideriamo quindi una superficie dS di un corpo che emette energia raggiante dEν nel tempo dt nell’angolo solido dω nella direzione θ rispetto alla normale a dS e nell’intervallo di frequenze ν → ν + dν; avremo che dEν sarà proporzionale alle quantità descritte, in formule dEν dEν = Rν dS cosθ dω dt dν; Rν = (4.9) dS cosθ dω dt dν dove Rν , detta radianza (o intensità della radiazione emessa) della sorgente, rappresenta la potenza raggiante emessa dall’unità di superficie emittente, in direzione normale, nell’angolo solido unitario, per intervallo unitario di frequenze attorno a ν. Nel sistema S.I. è misurata in W/(m2 sterad Hz). Spesso la radianza viene definita in termini di emissione in funzione della lunghezza d’onda e allora la sua definizione operativa è dEλ = Rλ dS cosθ dω dt dλ; Rλ = dEλ dS cosθ dω dt dλ (4.10) Rλ ha la stessa definizione data in precedenza, con la sola variante che l’energia emessa viene valutata per intervallo unitario di lunghezza d’onda attorno a λ. Nel sistema S.I. è misurata in W/(m2 sterad m); notiamo subito che per il passaggio dalla descrizione dell’emissione in termini di frequenza a quella in lunghezza d’onda occorre esprimere kdλk = (c/ν 2 )· dν e dkνk = (c/λ2 )·dλ, altrimenti si scrivono relazioni senza senso (e non torna nemmeno il bilancio energetico!). Proseguendo il percorso culturale della Fisica (cioè di cercar di comprendere e spiegare razionalmente la più ampia varietà di fenomeni naturali), si è definito il radiatore perfetto come quel radiatore capace di assorbire perfettamente qualunque radiazione, di qualunque frequenza, e capace di emettere qualunque radiazione, di qualunque frequenza; a questa astrazione (a cui ci si può avvicinare quanto si vuole) si è dato il nome di “corpo nero” (con ottima scelta etimologica). Una possibile realizzazione sperimentale di un corpo (sarebbe più corretto dire, in questo caso, “cavità”) nero è illustrata in Fig.4.2; in un corpo solido, mantenuto a temperatura costante T , si crea una cavità che comunica con l’esterno tramite un piccolo foro, di area S, avente le pareti verniciate con nero fumo (o vernice “nera”). Dopo un tempo sufficientemente lungo (rispetto ai tempi di stabilizzazione dell’equilibrio termico) si può supporre che all’interno della cavità si sia stabilito l’equilibrio fra l’emissione raggiante delle pareti della cavità e l’assorbimento di radiazione da parte delle pareti della cavità. Supponiamo che il tutto si trovi nel vuoto. Attraverso il piccolo foro di area S, una quantità (molto piccola3 ) di energia raggiante può lasciare la 3 La piccolezza di S è fondamentale per assicurare che le perdite d’energia, ma anche il rifornimento energetico per assorbimento di radiazione proveniente dall’esterno, siano trascurabili rispetto all’energia totale contenuta nella cavità. 56 T T T Ω S T T Figura 4.2: Schema di un corpo nero Figura 4.3: Distribuzione della radianza di un corpo nero; notare l’ottimo accordo con le misure. cavità verso l’esterno, entro un angolo solido Ω; sperimentalmente si misura che questa radiazione emessa dalla cavità non dipende nè dalla sostanza di cui è fatta la cavità, nè dalla forma della cavità, ma dipende solamente dalla temperatura T a cui è mantenuto il corpo in cui è ricavata la cavità. La radiazione emessa dal “corpo nero” attraverso il piccolo foro S è detta radiazione del corpo nero e ha una distribuzione spettrale tipica e ben definita (v.Fig.4.3). La spiegazione teorica dello spettro del corpo nero fu uno dei maggiori problemi della Fisica classica della fine del XIX secolo. Infatti la spiegazione classica di Rayleigh-Jeans (basata sulla statistica di Boltzmann, sul principio dell’equipartizione dell’energia e sull’elettromagnetismo classico) 4 portava alla relazione Rν = 2 kB T ν 2 ; c2 oppure Rλ = 2ckB T λ4 (4.11) con c velocità della radiazione elettromagnetica nel vuoto, kB = R/NA costante di Boltzmann, T temperatura assoluta del corpo irraggiante. La (4.11) si accorda con la distribuzione dell’emissione di corpo nero solamente per ν → 0, ma soprattutto porta all’assurdo che il suo integrale, esteso fra 0 e ∞ diverge, portando a un assurdo fisico inaccettabile, perché l’intensità di qualunque radiatore è una quantità che deve essere finita. Questo problema fu risolto nel 1900 da Planck, che postulò (lui sostenne come ipotesi di disperazione, avendone tentate di tutte per risolvere questo problema) che l’energia raggiante si potesse scambiare (fra le pareti del corpo “nero” e il campo di radiazione elettromagnetica con cui era in equilibrio) non in modo continuo ma secondo quantità discrete, in modo che ogni scambio elementare di energia raggiante fosse multiplo della frequenza della radiazione, cioè Eν = h · ν, con h costante. Giunse a formulare per la radianza del corpo nero (e quindi anche per l’intensità del campo di radiazione emesso) le seguenti espressioni 2hν 3 /c2 2hc2 /λ5 Bν (T ) = ; Bλ (T ) = (4.12) exp(hν/kB T ) − 1 exp(hc/λkB T ) − 1 Notiamo che le espressioni delle radianze del corpo nero 5 date nella (4.12) rispettano la condizione per cui deve essere che Bν (T )dν = Bλ (T )dλ. Il valore della costante di Planck, dopo decenni di misure accuratissime su vari effetti in cui l’ipotesi quantistica di Planck era ormai entrata in maniera decisiva, è diventato una delle costanti fondamentali della Fisica, con un valore di h = (6.62606957 ± 0.00000029) · 10−34 Js. L’andamento della distribuzione di Planck dato dalle (4.12) si accorda perfettamente con le misure sperimentali per la radianza del corpo nero (v. Fig.4.3). 4 Per una presentazione accurata, ma ben comprensibile di rimanda al cap. XII del testo di C.Mencuccini - V.Silvestrini, Fisica II, ed. Liguori, NA, 1998. 5 Useremo d’ora in avanti il simbolo B per indicare la radianza data dalla distribuzione di Planck, in accordo con la simbologia generalmente usata in tutti i testi. 57 Un campo di radiazione descritto dalla distribuzione di Planck (spesso detta “planckiana”), dovendo essere in equilibrio col corpo nero che lo genera, è detto in condizioni di Equilibrio Termodinamico (ET). In Fig.4.4 sono rappresentate le planckiane di corpi neri a diverse temperature; si vedono subito due importanti proprietà : 1) il massimo della radianza monocromatica si sposta verso le lunghezze d’onda più corte (e corrispondentemente verso le frequenze maggiori) con l’aumentare della temperatura T ; 2) l’area sottesa dalla planckiana e dall’asse delle ascisse (che rappresenta quindi la radianza integrale, cioè su tutte le λ, emessa) cresce cospicuamente con l’aumentare della temperatura T . Figura 4.4: Andamento delle planckiane con la Per determinare quantitativamente la prima propri- temperatura età basta derivare la Bλ (T ) rispetto a dλ e annullarla; troviamo la condizione dBλ (T ) xex hc =0→ x = 5; con x = (4.13) dλ e −1 λkB T L’equazione trascendente xex ex −1 = 5 ha per soluzione grafica λmax T = 6 x = 4.965, quindi segue che hc = 2.898 · 10−3 m K 4.965kB (4.14) dove λmax indica la lunghezza d’onda a cui si ha il massimo della radianza del corpo nero per la temperatura T . La (4.14) è nota come la legge di spostamento di Wien (spostamento di λmax con T ). È una relazione di grande importanza pratica e sperimentale, perché rappresenta un modo molto semplice per stimare la temperatura di un radiatore dalla semplice misura di λmax .7 Si pensi al processo di riscaldamento di un pezzo di ferro: a temperatura ambiente (per semplicità circa 17◦ C, cioè circa 290 K) emette preferenzialmente a λmax ≈ 10 µm, quindi a noi sembra freddo (il nostro senso del tatto avverte soprattutto l’elevata conduzione termica del materiale, ma uno spettrografo infrarosso rivelerebbe facilmente questa radiazione); aumentando la temperatura iniziamo a sentire una leggera sensazione di caldo (mentre λmax si sta spostando verso la zona dell’infrarosso “vicino”); aumentando ancora la temperatura si inizia ad avvertire sempre maggior caldo e il ferro inizia a colorarsi di rosso cupo, per virare sempre più verso il rosso vivo fino al giallo, quando, per T = 1530 K fonde, cambiando di stato. A questa temperatura λmax ≈ 1.9 µm, ma quello che vediamo col nostro occhio è solamente la coda delle lunghezze d’onda più corte della planckiana a T = 1530 K. Se avessimo impostato la ricerca del massimo della planckiana espressa in funzione delle frequenze avremmo ottenuto dBν (T ) xex hν =0→ x = 3; con x = (4.15) dν e −1 kB T per cui (risolvendo l’equazione trascendente contenuta nella (4.15)) avremmo dedotto 2.831kB νmax = ≃ 0.5901 · 1011 (sK)−1 T h (4.16) Ovviamente la forma funzionale della (4.16) è diversa dalla (4.14), ma questo è ovvio data la differente dipendenza funzionale della distribuzione di Planck in funzione di λ o di ν. Se vogliamo determinare la radianza integrale (cioè su tutto il dominio spettrale emesso) basta che integriamo la radianza monocromatica, cioè Z ∞ Z 2k 4 T 4 ∞ x3 dx Bν (T )dν = B B(T ) = (4.17) h 3 c2 0 e x − 1 0 6 La soluzione si ottiene plottando nel primo quadrante cartesiano la funzione x/5 e la funzione ex − 1/ex e trovandone l’intersezione, che corrisponde a x = 4.965. 7 La legge di Wien è usata in astrofisica per una prima stima della temperatura superficiale delle stelle. 58 L’integrale definito R∞ 0 x3 dx ex −1 vale π 4 /15 per cui, sostituendo nella (4.17) otteniamo B(T ) = σ 4 T ; π con σ = 4 2π 5 kB = 5.670 · 10−8 W/(m2 K 4 ) 15h3 c2 (4.18) La (4.18) è la famosa legge di Stefan-Boltzmann, da cui si evince la forte dipendenza della radianza integrale di un corpo nero dalla temperatura.8 Esaminiamo il comportamento asintotico della distribuzione spettrale di una planckiana a una determinata T e prendiamo, a es., quello della Bλ (T ) (v. eq.(4.12)); per λ ≫ λmax (matematicamente si vede bene quando λ → ∞) l’esponente hc/λkB T diviene piccolo a piacere e quindi l’esponenziale può essere sviluppato in serie arrestandosi al termine lineare ottenendo Bλ (T ) ≃ 2ckB T 2hc2 /λ5 = 1 + hc/λkB T − 1 λ4 (4.19) che coincide con l’approssimazione di Rayleigh - Jeans (v. eq.(4.11)), rappresentata in Fig.4.4 dall’andamento indicato con classical theory. Si vede molto bene che l’approssimazione è migliore per λ molto grandi. Se invece λ ≪ λmax il fattore exp(hc/λkB T ) ≫ 1 e quindi si può trascurare 1 rispetto all’esponenziale ottenendo 2hc2 (4.20) Bλ (T ) ≃ 5 exp(−hc/λkB T ) λ nota come approssimazione di Wien, molto utile nella descrizione dell’emissione di un corpo nero nel dominio dei raggi UV e X, se la T non diventa troppo elevata da non rendere possibile l’approssimazione considerata, nei limiti della precisione con cui vogliamo procedere. Ovviamente le approssimazioni di Rayleigh-Jeans e Wien si possono derivare anche dall’espressione di Bν (T ), ma questo lo lasciamo al lettore. 4.1.4 L’effetto serra Abbiamo accumulato le conoscenze per spiegare quantitativamente, in modo semplice e approssimato, l’effetto serra, di cui si parla tanto sui media, talvolta affermando anche cose profondamente inesatte. La Terra è investita dalla radiazione elettromagnetica emessa dal sole, una sorgente con una Tef f = 5783 K e conseguentemente con una distribuzione spettrale della radiazione che avrà la sua λmax ≈ 0.5 µm (v. (4.14)), cioè la maggior parte dell’energia che il Sole ci manda è nella banda visibile dello spettro. La potenza specifica media della radiazione solare al di fuori dell’atmosfera terrestre (quella grandezza fisica che viene anche definita come irradianza solare media, soprattutto nel linguaggio meteorologico) (v. Fig.4.5 a) vale C̄⊙ = 1366 W m−2 .9 Riflessione e diffusione (sia sulle nubi, che sulle particelle in sospensione nell’atmosfera, che dal suolo direttamente) causano che circa il 30% della potenza specifica solare sia rinviata nello spazio (infatti la Terra possiede un albedo di circa 0.3). Quindi il 70% della potenza specifica media inviataci dal Sole verrà assorbito, in condizioni stazionarie, dalla terra (solida + acqua + aria). Tuttavia bisogna considerare che la radiazione solare deve attraversare l’atmosfera terrestre prima di giungere a terra e interagire (tramite assorbimento, riflessione, diffusione, ecc.) con i corpi e le strutture che si trovano nel nostro mondo. L’atmosfera terrestre è praticamente trasparente alla radiazione visibile, (v. Fig.4.5, b) mentre assorbe fortemente dall’ultravioletto fino al dominio dei raggi X e γ e presenta vistose ed estese bande di assorbimento nell’infrarosso, dovute essenzialmente alla presenza di molecole di anidride carbonica CO2 e metano CH4 nell’alta atmosfera. Questi assorbimenti alterano in minima parte la distribuzione spettrale della radiazione solare, che ricordiamo è concentrata nel visibile. Considerando che la Terra ruota con un periodo di un giorno, possiamo stimare che in un giorno la radiazione solare 8 Viene utilizzata in astrofisica per definire la T ef f di una sorgente, essendo la Tef f la temperatura che dovrebbe avere un corpo nero per emettere la stessa potenza specifica, cioè per unità di superficie, della sorgente considerata. Ovviamente questo parametro si collega solo alla quantità di potenza radiante emessa, ma non alla sua distribuzione spettrale, cancellata dall’integrazione, ma talvolta anche questo dato risulta molto significativo per la comprensione del fenomeno studiato. 9 Parliamo di potenza specifica media perché si possono avere piccole variazioni legate al livello dell’attività solare (dell’ordine di qualche unità in 10−4 ) e alla diversa distanza fra il Sole e la Terra nei vari periodi dell’anno. 59 SOLE PN C S C Atmosfera O R L E PS b) a) Figura 4.5: Schema dell’effetto serra atmosferico intercettata dalla sezione del cerchio di raggio R⊕ si distribuisca uniformemente sulla superficie di una sfera di raggio R⊕ , quindi con un fattore di diluizione di 1/4 (pari al rapporto tra la superficie del disco terrestre e quella dell’emisfera terrestre). La potenza specifica media assorbita dalla Terra sarebbe, in assenza di effetto serra, quindi 0.7 P⊕ = · C̄⊙ ≃ 239 W/m2 (4.21) 4 Ricordando la legge di Stefan-Boltzmann (4.18) possiamo stimare che la temperatura a cui si porterebbe la Terra (in media) in queste ipotesi sarebbe s r P 239 W/m2 4 ⊕ T⊕ = ≃ 4 ≃ 255 K(≈ −18◦ C) (4.22) σ 5.67 · 10−8 W/(m2 K 4 ) Per la legge di Wien (4.14) un corpo a 255 K emette radiazione essenzialmente nell’IR (infrarosso), con λmax ≈ 11 µm. Ricordiamo che la condizione di stazionarietà richiede che la potenza specifica assorbita deve uguagliare la potenza specifica emessa.10 Tuttavia la radiazione IR emessa dalla Terra a 255 K viene successivamente assorbita e diffusa in tutte le direzioni (quindi anche verso il basso, cioè verso terra) dalle molecole di CO2 e CH4 , per cui il rifornimento energetico sulla Terra aumenta, creando quello che viene chiamato effetto serra, per identità con l’effetto che una lastra di vetro (trasparente al visibile ma non all’IR) crea all’interno di una serra per coltivazioni. Si crea un complesso meccanismo di assorbimenti e riemissioni successive da parte della Terra e degli alti strati atmosferici, per cui alla fine possiamo stimare un aumento medio dell’ordine di ≈ 60% della potenza specifica media assorbita dalla Terra nel visibile dalla radianza primaria solare. Conseguentemente la stima della temperatura media della Terra sarà √ 4 (4.23) T⊕;f inale ≃ 255 K 1.6 ≃ 287 K (≈ 14◦ C) che fornisce una stima ragionevole della temperatuta media (su tutta la superficie terrestre!) durante un completo irraggiamento (totale assenza di nuvole!) della superficie terrestre. Si comprende quindi l’importanza che ha per l’equilibrio energetico terrestre un aumento della concentrazione dei gas “serra” (CO2 , CH4 soprattutto); infatti negli ultimi 30 anni si sono misurate cospicue variazioni climatiche, che fanno temere molto per il futuro delle condizioni ambientali globali per la vita delle future generazioni.11 10 Si considera che le condizioni stazionarie raggiunte non consentano altre perdite energetiche, come conduzione nel terreno e simili. 11 Si consiglia di consultare il sito www.noaa.gov, dove sono riportati i risultati delle misure di questi anni, misure attendibilissime e analizzate da ottimi fisici con grande professionalità. Altri siti da consultare: www.wmo.int → World Meteorological Organization, Ginevra, e www.nimbus.it. 60 4.2 Alcune semplici trasformazioni termodinamiche • La pentola a pressione. L’uso della pentola a pressione permette forti risparmi energetici. Infatti per la cottura dei cibi (non in forno) utilizziamo generalmente temperature dell’ordine di 100◦ C, corrispondente alla temperatura di ebollizione dell’acqua alla pressione di 1 Atm. Nella pentola a pressione la cessione di quantità di calore al sistema (che si sta portando dalla temperatura ambiente a quella d’ebollizione) avviene a volume costante, quindi (v. primo principio della termodinamica) tutto il calore ceduto viene immagazzinato come aumento di energia interna del sistema, sostanzialmente rappresentato da un aumento della temperatura molto rapido (non avendo da fare lavoro verso l’esterno). Inoltre la pressione all’interno della pentola (ermeticamente chiusa) aumenta per il vapore che si forma dal liquido scaldato; questo causa l’aumento della temperatura di ebollizione per cui il tempo di cottura dei cibi viene ridotto, anche di un fattore 3-4. Soprattutto per lunghe cotture (lesso, legumi secchi, patate, stufati, ecc.) il risparmio energetico è notevole, come pure il tempo impiegato in cucina. Tuttavia la pentola a pressione deve essere usata con cautela, perché un eccessivo aumento di pressione interna potrebbe causarne l’esplosione, se la struttura non dovesse più sopportare il regime della pressione interna formatasi. Per questo le pentole a pressione sono dotate di doppio sistema di valvole di sicurezza, una generalmente costituita da un cappuccio pesante (con una massa di circa 100 − 150 g), infilato su un tubetto di sostegno (del diametro di 2 mm), e l’altra da una valvola fissa, a molla o a sigillazione calibrata. Generalmente il funzionamento di regime delle pentole a pressione comporta una pressione interna di circa 2 Atm con una temperatura di ebollizione di 120◦ C. La differenza di pressione fra l’interno e l’esterno sarà quindi di 1 Atm, che, attraverso il tubetto di sostegno (avente una sezione di π mm2 ), produce una forza, diretta verso l’alto, di circa 0.314 N, corrispondente a circa 320 gpeso , ben sufficienti a espellere il cappuccio, pesante circa la metà. Quindi il sistema è in funzionamento di sicurezza. Un uso oculato della pentola a pressione suggerisce di chiudere l’afflusso di energia (il gas!) un po’ prima della metà del tempo di cottura indicato dalle istruzioni tecniche della pentola (o dai “milianta” manuali di cucina facile esistenti) e lasciare che la cottura prosegua durante il raffreddamento di tutto il sistema fino a quando l’indicatore di pressione (posto sul coperchio) non indichi il raggiungimento della pressione atmosferica esterna (per poter aprire in sicurezza il coperchio). In questo modo si aumenta ancora il risparmio energetico e si evita di invadere gli ambienti di casa di vapori e odori non sempre piacevoli. • La macchina da caffè tipo Moka. Il funzionamento di questa macchina da caffè è simile a quello della pentola a pressione, nel senso che l’acqua messa nella base della macchina (fino al livello indicato dal costruttore, troppa acqua potrebbe rendere pericoloso il funzionamento del tutto!), scaldandosi produce vapore, che va ad aumentare la pressione all’interno della base della macchina; questa spinge l’acqua calda contenuta nella base a salire nell’imbuto contenente la polvere di caffè e a fare l’infuso (il caffè!). Con una temperatura di circa 80 − 85◦ C dell’acqua nella base della macchina la pressione interna del vapore arriva a circa 1.5 Atm; conseguentemente la pressione effettiva sull’acqua calda, per salire nell’imbuto, è di circa 0.5 Atm, e questo permette all’acqua di risalire 12 attraverso la polvere di caffè e fornire il piacevole infuso nel deposito di utilizzo della macchina. Nella macchina da caffè “alla napoletana”, invece, l’acqua calda viene fatta percolare attraverso il deposito di polvere di caffè per gravità (infatti la macchina viene girata sotto-sopra!), fino al completamento del passaggio di tutta l’acqua calda. Spesso il caffè si raffredda durante questa procedura e la polvere di caffè viene sfruttata con minore efficacia rispetto alla “Moka”. Nella macchina da bar l’acqua bollente è forzata a passare attraverso la polvere di caffè (compressa!) da una pressione notevole esistente sopra il contenitore di caffè e l’infuso è molto più “forte” e lo sfruttamento della polvere di caffè più accentuato; in questo caso si ha un miglioramento (per alcuni) delle proprietà organolettiche dell’infuso, ma forse aumenta anche la presenza di sostanze non proprio utili alla salute (caffeina, e altre sostanze generalmente sconsigliate). • Aspirazione e compressione. 12 Lentamente, visto l’attrito esercitato sull’acqua calda dalla percolazione forzata nella polvere di caffè; questa fase deve essere seguita con cura, evitando di far spruzzare con violenza l’acqua calda dall’ugello posto nel deposito superiore, sia per migliorare il processo di solubilizzazione delle essenze aromatiche del caffè sia per risparmiare energia. 61 Esaminiamo cosa succede quando aspiriamo una bibita da un tetrapack con una cannuccia: il sistema costituito dall’interno del tetrapack + cannuccia + labbra + polmoni è inizialmente un sistema soggetto alla PAtm esistente e avente un volume totale iniziale Vin . Il procedimento di suzione consiste essenzialmente nel far aumentare il volume del sistema (soprattutto attraverso la dilatazione dei muscoli del torace, che aumenta di volume) fino a un valore Vf in = Vin + ∆V ; se possiamo considerare questa trasformazione come una isoterma avremo che ∆V /Vin ≈ −∆P/PAtm , dove −∆P rappresenta la diminuzione della pressione che si crea, dopo la dilatazione, all’interno del sistema considerato. La maggior pressione esterna al sistema, PAtm , crea conseguentemente un sistema di forze sul liquido contenuto nel tetrapack, che viene cosı̀ spinto nella nostra bocca e poi immediatamente deglutito.13 Anche se volessimo considerare la trasformazione di aumento di volume ∆V come un’adiabatica, la logica della spiegazione data non cambia, avremmo solo che ∆P/PAtm ≈ −γ · ∆V /Vin . Il processo invece di compressione (a es., gonfiaggio di un palloncino, di un salvagente. ecc.) si attua attraverso una compressione del volume toracico, sia tramite una contrazione dei muscoli toracici, ma soprattutto tramite una sollevazione del diaframma; le spiegazioni sul gioco delle variazioni di pressione collegate sono le stesse descritte precedentemente, solo che tutti i segni sono invertiti. Nei procedimenti per la creazione delle confezioni cosidette “sotto vuoto” una pompa toglie aria dagli involucri (isolati dall’esterno), provocando una diminuzione di pressione interna negli involucri, che, non essendo rigidi, collassano aderendo ai contenuti; segue poi la sigillazione finale degli involucri. Quando si aprono queste confezioni si sente un leggero soffio dell’aria che precipita all’interno per ristabilire la Pin = PAtm . Ovviamente il problema degli equilibri fra variazioni di pressione e di volume si sposta sul funzionamento della pompa aspirante, ma forse quest’aspetto è troppo tecnico per essere trattato in questa sede. • Il frigorifero. Il frigorifero è un sistema che preleva quantità di calore ∆Q da una sorgente a temperatura più bassa Ti per cederlo a una sorgente a temperatura superiore Test insieme al lavoro ∆L necessario per far compiere questa trasformazione ciclica in accordo con il 1◦ e con il 2◦ principio della termodinamica. Le trasformazioni non sono ovviamente reversibili. ∆L viene fatto dal motore del compressore del frigorifero, che deve comprimere il gas refrigerante per liquefarlo, farlo circolare nel circuito idraulico e farlo giungere nella zona dove compie una rapida espansione che lo porta in condizioni di evaporazione, costringendolo a sottrarre all’ambiente (cioè all’interno del frigorifero) la quantità di calore, prelevata a Ti . La cessione all’ambiente esterno dell’energia totale ∆Q + ∆L, avviene tramite scambiatore di calore, struttura a nidi d’ape, con un alto rapporto superficie/volume, di colore nero (perché?), disposta sul retro del frigorifero, che dovrà smaltire questa quantità di calore totale sia per convezione con l’aria circostante sia per irraggiamento (ecco il “nero”!). Per un funzionamento ottimale del frigorifero, quindi, bisognerebbe che lo scambiatore fosse ben pulito (il sudicio e la polvere sono isolanti termici), ben arieggiato (per facilitare la convezione), non attaccato a un muro. Queste condizioni non sono quasi mai rispettate, peggiorando la funzionalità dell’elettrodomestico (si pensi alle condizioni difficili in cui deve operare un frigorifero incassato in un mobile chiuso e attaccato a un muro!). Inoltre l’abitudine di lasciare aperta la porta del frigorifero mentre si fanno altre attività è semplicemente sciocca, facendoci consumare energia (il compressore dovrà lavorare più a lungo) e usurando più in fretta l’apparato. Al limite il frigorifero può anche funzionare da stufa, basta vuotarlo di cibi, lasciare aperta la porta e il continuo funzionamento del compressore produrrà un flusso di calore allo scambiatore posteriore, che andrà a riscaldare l’ambiente. Ovviamente una vera stufa avrebbe un’efficienza indubbiamente superiore (perché?). • Radiatore dell’auto. Il funzionamento del radiatore dell’auto è identico a quello dello scambiatore di calore del frigorifero, essendo un dispositivo che deve cedere all’ambiente esterno una notevole quantità di calore per convezione e irraggiamento. In questo caso il flusso d’aria attraverso le celle della struttura a nido 13 È infatti una complessa sequenza di azioni automatiche, suzione + aspirazione + cessazione della suzione + deglutizione + ripresa della fase successiva ecc., che purtroppo le persone con problemi neurologici non sanno coordinare, potendo anche creare seri problemi di asfissia e affogamento. 62 d’ape del radiatore è garantito dal moto relativo dell’auto rispetto all’aria circostante e anche dal ventilatore se la temperatura del liquido di raffreddamento diventa troppo elevata. • Ventilatore e impianto di condizionamento termico. Durante i periodi di caldo estivo è meglio usare un ventilatore o il condizionatore? Il ventilatore (inclusi anche i sistemi a pale ruotanti al centro stanza) produce un flusso d’aria che, passando sulla nostra pelle, trasporta via il vapor acqueo formatosi per la sudorazione. Questo induce l’epidermide a produrre altro sudore, cioè a far evaporare altra acqua dai nostri tessuti dell’epidermide, e, visto l’elevato valore del calore latente di evaporazione dell’acqua, si produce un notevole prelievo di quantità di calore dai nostri tessuti epidermici superficiali, dandoci la sensazione di raffreddamento benefico. Il condizionatore invece è un grosso frigorifero, che abbassa la temperatura di tutto l’ambiente immettendovi correnti di aria fredda. Ovviamente è molto più efficiente, ma molto più costoso, sia come installazione che come gestione, e può essere anche dannoso per la salute, se usato in modo esagerato. In questo caso i gusti e le abitudini personali polarizzano le scelte, che però dovrebbero essere sempre razionali e non dissennate. • Isolamento termico delle abitazioni Dovrebbe essere molto evidente, a questo punto, che isolare termicamente la propria abitazione rappresenta un modo estremamente efficiente di risparmio energetico e di benessere, sia in inverno, sia in estate. Le immagini di case, prese in inverno con camere a infrarossi, sono di un’evidenza plateale: zone brillanti in infrarosso corrispondono a pareti non isolate, a porte e finestre non coibentate, a soffitti non isolati, ecc. Lo stesso si vedrebbe in estate ma prendendo le immagini infrarosse dall’interno dell’abitazione. Talvolta basterebbe usare un termometro sensibile e misurare la temperatura dei vari elementi considerati (un cattivo isolamento termico li rende caldi in estate e freddi in inverno). Il nostro tatto, invece, può essere molto fallace anche per una semplice indicazione qualitativa; infatti il senso del tatto è molto sensibile alla quantità di calore che si disperde tramite la superficie di epidermide interessata e quindi, toccando superfici fredde alla stessa temperatura, una metallica e una di legno, si ha l’impressione che quella metallica sia più fredda, semplicemente perché il coefficiente di conduzione del metallo è più elevato di quello del legno. • Forno a incandescenza e forno a microonde. Nel forno a incandescenza (sia elettrico che a legna o a gas) normalmente si riscalda, con differenti meccanismi fisici e chimici, un elemento (le resistenze elettriche o le pareti di terracotta del forno) a temperature dell’ordine di 400 − 900◦ C , che fanno salire la temperatura dell’aria all’interno del forno a circa 100 − 300◦ C (la temperatura di regime all’interno del forno dipende dall’isolamento e dai materiali con cui è costruito). Conseguentemente (v. leggi di Wien dell’irraggiamento), il forno diventa un ambiente in cui esiste radiazione infrarossa distribuita, in modo quasi continuo, su intervalli di lunghezza d’onda da 0.7 µm fino alle microonde. Questo flusso di radiazione infrarossa trasporta molta energia raggiante, che provoca l’evaporazione dell’acqua contenuta negli strati superficiali dei cibi (e forma cosı̀ la crosta croccante tipica delle cotture in forno), ma può anche provocare la carbonizzazione di alcune parti meno protette dei cibi (“si è bruciato l’arrosto!!”). La vera e propria cottura (trasformazione delle strutture delle proteine e dei tessuti dei cibi) avviene soprattutto perché contengono acqua. Le molecole d’acqua non assorbono in ugual misura tutte le radiazioni, ma assorbono solo quelle che sono capaci di emettere (v. principio di Kirchhoff dell’irraggiamento). Un’importante banda rotazionale della molecola d’acqua si trova attorno alle frequenza di 2.45 GHz, corrispondente a una lunghezza d’onda di ≈ 10 cm; quindi la molecola d’acqua investita da radiazione di questa frequenza inizia a ruotare velocemente, cioè aumenta la sua energia rotazionale, in altre parole “si scalda” e scalda le sostanze con cui è in contatto (i cibi) e ne provoca la cottura. Questo è il principio di funzionamento del cosidetto forno a microonde, che quindi utilizza come veicolo di trasmissione dell’energia non uno spettro ampio di radiazioni infrarosse, ma solo una ristretta banda nel dominio delle onde centimetriche (emesse, generalmente, da un dispositivo detto magnetron). Infatti in un forno a microonde tutto rimane alla temperatura iniziale, solo i componenti contenenti molecole d’acqua si riscaldano molto efficacemente (anche alcune porcellane contenenti composti idrati si riscaldano molto!). Chi sostiene che i cibi cotti nel microonde sono dannosi alla salute, o peggio ancora inquinati, dimostra solo di essere ignorante dei principi fondamentali della Fisica. 63 Bisogna fare invece molta attenzione alla perfetta chiusura del forno a microonde. Infatti le microonde sono pericolose perché non provocano sensazione di caldo sui tessuti umani e quindi possono “cuocerli” senza che ce ne accorgiamo. La rete metallica posta sul vetro dello sportello del forno a microonde serve a intercettare le microonde e a non farle uscire. Occorre quindi adoprare il forno a microonde con cura e consapevolezza, curandone la manutenzione, come d’altronde dovrebbe essere per qualunque apparato domestico, sempre potenzialmente dannoso se utilizzato con irresponsabile leggerezza. • Propagazione del calore nel suolo. La trattazione rigorosa di questo problema rappresenta uno dei capitoli fondamentali della FisicaMatematica, irto di difficoltà matematiche che vanno ben oltre i limiti di queste riflessioni. Cerchiamo di riassumerne i risultati. Consideriamo un terreno solido, omogeneo, isotropo, di densità ρs , calore specifico a pressione costante cp,s e conducibilità termica ks , con struttura piano-parallela.14 Definiamo la profondità verticale nel suolo z, positiva verso il basso e chiamiamo con S la superficie terrestre, su cui supponiamo che la temperatura possa variare in modo sinusoidale secondo una legge 2π ·t (4.24) TS = T̄S + ∆TS · cos P dove T̄S è il valor medio della temperatura superficiale durante il periodo P considerato e ∆TS = (TS;max − TS;min )/2 rappresenta la metà dell’escursione massima della temperatura superficiale. Il periodo P sarà di 24h nel caso delle variazioni diurne o di 12 mesi nel caso delle variazioni annuali di temperatura superficiale. Come abbiamo visto nel paragrafo 3.7 il trasporto di calore è un caso di fenomeni più generali indicati come fenomeni di trasporto; per riportarsi alle equazioni generali del trasporto definiamo il coefficiente di diffusione termica del suolo come ds = ks /(ρs · cp,s ). Dalla trattazione teorica risulta che alla profondità z e al tempo t la temperatura varia secondo la seguente legge z 2π = T (z, t) = T̄S + ∆TS · exp(−z/L) · cos ·t+ P L zP 2π t+ (4.25) = T̄S + ∆TS · exp(−z/L) · cos P 2π · L p con L = ds P/π, definita come profondità di smorzamento termico.15 Pergiustificare il fattore di smorzamento exp(−z/L) basta ricordarsi della (4.7), relativa all’andamento esponenziale della temperatura in una sbarra conduttrice.16 Anche il ritardo di tempo δt(z) = zP/2π · L nell’andamento di T (z) è ragionevole, perché quando si verifica il massimo T̄S + ∆TS della temperatura superficiale lo strato a profondità z si trova a una temperatura inferiore, in quanto che il calore si propaga nei mezzi fisici con p velocità finita. Possiamo stimare la velocità di propagazione dell’onda termicavT = z/δt(z) = 2π ds /π · P . 17 Scrivendo il flusso di calore che transita alla profondità z nel suolo si vede che il ritardo di fase nella distribuzione di temperatura (v. (4.25)) modula il flusso di calore che viene condotto alle varie profondità (se la temperatura raggiunge il suo massimo con un determinato ritardo ∆t, la quantità di calore che riesce a essere condotta a quella quota sarà minima a quel ∆t). Pertanto il minimo flusso di quantità di calore che dalla superficie terrestre si propaga negli strati più profondi del terreno avverrà con un ritardo rispetto al massimo della temperatura al contorno (4.24). Come conseguenza di questo ritardo nel flusso di calore anche la temperatura del terreno, ovvero per z → 0, varierà con un ritardo di fase ∆φ rispetto all’andamento indicato dalla (4.24). La teoria indica che questo ritardo di fase è di ∆φ = π/4, corrispondente a P/8. Quindi nel caso diurno P/8 = 3ore e infatti il massimo di temperatura del suolo si ha verso le 15, mentre il minimo verso 14 Lo spessore del suolo interessato è al massimo di pochi metri, ovviamente trascurabilissimi rispetto al raggio terrestre e quindi possiamo trascurare la curvatura della superficie terrestre. 15 Alcuni valori sperimentali per informazione: sabbia e argilla secca → L giorno ≃ 7 cm, Lanno ≃ 1.5 m, sabbia e argilla √ √ umida → Lgiorno ≃ 10 cm, Lanno ≃ 2 m. Si noti che L ∝ P e infatti Lanno /Lgiorno = 365 ≈ 19, come dai dati. 16 Per z = 3L il fattore exp(−z/L) ≃ 0.05 e quindi già a queste profondità si può considerare che le fluttuazioni superficiali di temperature non abbiano più influenza. 17 v è, per normale terreno umido, dicirca 3 cm/ora per le fluttuazioni diurne e di circa 4 cm/giorno per quelle annuali. T 64 le 3 di notte, mentre nel caso annuo il gran caldo si ha circa 1.5 mesi dopo il solstizio d’estate (ai primi d’agosto, il cosidetto “solleone”; ma perché si chiama cosı̀?) e il gran freddo circa 1.5 mesi dopo il solstizio d’inverno (ai primi di febbraio). Ovviamente queste stime rappresentano solo ordini di grandezza, essendo la situazione reale (disomogeneità del terreno, fluttuazioni di temperatura non sinusoidali, non omogenee, presenza di vento, pioggia ecc. in superficie) molto diversa dalla schematizzazione ideale che abbiamo usato. Tuttavia sono considerazioni molto interessanti, che dimostrano, ancora una volta, la validità del metodo fisico per la descrizione quantitativa dei fenomeni naturali. • Dilatazione termica. Il fenomeno della dilatazione termica, fondamentale per la scelta della proprietà termometrica necessaria per la definizione operativa della grandezza fisica “temperatura”, è utilizzato in molte applicazioni pratiche. Pensiamo agli interruttori termici, che chiudono (o aprono) contatti elettrici in vari circuiti di apparati di controllo in funzione della temperatura (e quindi della lunghezza di un elemento metallico) esistente nell’ambiente che si vuole sorvegliare termicamente. Richiamiamo le relazioni funzionali principali. Per un solido filiforme (cioè con una lunghezza l(t) ≫ V 1/3 ), essendo V il volume del solido, abbiamo l(t) = l◦ (1 + αt), con t temperatura misurata in ◦ C e α = coefficiente di dilatazione lineare (misurato in ◦ C−1 , mentre per un solido di forma cubica, ma il risultato varrà per una forma qualunque, abbiamo V (t) = l(t)3 = l◦3 (1 + αt)3 ≃ V◦ (1 + γt) (4.26) con V◦ = l◦3 , γ = 3α, arrestandosi al primo ordine nello sviluppo del cubo nella (4.26). A causa degli effetti della dilatazione termica le strutture meccaniche e edili di grandi dimensioni, esposte alle variazioni di temperatura ambientali, devono possedere adeguate cerniere per permettere le variazioni di volume (o di lunghezza) causate dalle variazioni di temperatura ambientale: i binari dei treni e dei tram presentano interruzioni che causano il ben noto “dum-dum—dum-dum” al passaggio delle ruote sulle interruzioni, i ponti hanno sezionature metalliche nella struttura del cemento armato, che permettono le variazioni di lunghezza dei vari segmenti senza causarne deformazioni, ecc. Un’utilizzazione domestica è rappresentata dai termometri a colonna, detti talvolta di tipo “Galileo”, contenenti un liquido e alcune palline colorate che salgono (o scendono) nella colonna a seconda della temperatura dell’ambiente in cui si trovano. Le singole palline portano appese indicazioni sulla temperatura a cui si “muovono” in alto-basso nel liquido. Quando si è raggiunto l’equilibrio termico con l’ambiente circostante, si vengono solitamente a creare due gruppi di palline, uno più in basso nella colonna e l’altro in alto. La temperatura segnata sulla pallina più in basso tra quelle del gruppo in alto segnala l’attuale temperatura ambiente. Analizziamone il funzionamento. Se V è il volume di una pallina e w è il suo peso, la pallina sarà in equilibrio indifferente nel liquido se w = V ρl (t)g, essendo ρl (t) = ml /Vl (t) la densità del liquido e ml la massa di liquido racchiusa nel volume Vl (t). Se si produce una variazione di temperatura dt avremo una corrispondente variazione di densità del liquido data da ρl (t) = m ; Vl (t) dρl (t) dVl (t) =− ; ρl (t) Vl (t) dρl (t) γdt =− ρl (t) 1 + γt (4.27) La spinta di Archimede agente sulla pallina varierà quindi di dSA = V · g · dρl , con dρl dedotto dalla (4.27). La pallina non potrà più rimanere in equilibrio indifferente e quindi tenderà a galleggiare se dρl > 0, cioè se dt < 0, (raffreddamento dell’ambiente), mentre tenderà ad affondare nel caso opposto (dρl < 0 con dt > 0). Come liquido si sceglie l’alcool, perché ha (nell’intorno di t ≈ 20 ◦ C) un γ ≃ 1.012 · 10−3 ◦ C−1 , molto maggiore di quello dell’acqua −0.064 · 10−3 ◦ C−1 , mentre il suo calore specifico è minore di quello dell’acqua, quindi è più “pronto” nel mettersi in equilibrio con le variazioni di temperatura ambientale, dovendo scambiare una minor quantità di calore con l’ambiente. Valutiamo dSA per un dt = 2 ◦ C, generalmente corrispondente alla risoluzione offerta da questo genere di termometri domestici. Con un valor medio di densità di 0.79 g/cm3 per l’alcool e con palline sferiche aventi un diametro di 2 cm, abbiamo dSA = −V g ρl γdt ≃ −6.8 mg 1 + γt 65 (4.28) sufficiente a far galleggiare (o affondare) la pallina tarata per rimanere in equilibrio alla temperatura t segnata nella sua targhetta. 4.3 Le straordinarie proprietà fisiche dell’acqua Riassumiamo brevemente le caratteristiche fisiche e strutturali dell’acqua: • la struttura spaziale della singola molecola è piana, con gli atomi di H disposti a V rispetto all’atomo di O con un angolo relativo di 104.5◦ , a una distanza di circa 10−1 nm; • le singole molecole tendono a creare strutture spaziali di tipo tetraedrico, con l’atomo di O−− al centro, i due atomi di H + collegati da un legame covalente, e altri due atomi di H + di un’altra molecola d’acqua attratti elettrostaticamente, per dar luogo a una struttura spaziale molto stabile detta di legame a idrogeno; • poiché una mole di acqua ha una massa di circa 18 g e la densità dell’acqua è di circa 1 g/cm3 , il volume molare dell’acqua è di circa 18 cm3 ; il volume medio di una molecola d’acqua sarà dell’ordine di (18 cm3 )/NA cioè di ≈ 3 · 10−23 cm3 , da cui possiamo ricavare che una stima della dimensione media spaziale totale della molecola d’acqua di ≈ 0.3 nm, in ottimo accordo con la misura del diametro medio di van der Waals per la molecola d’acqua di 0.282 nm; • il momento dipolare p della molecola d’acqua è di circa 6 · 10−30 C m, il maggiore fra quelli delle molecole dei liquidi naturali più diffusi. Essendo p = 2ed, con e carica dell’elettrone, si può facilmente ricavare che d, distanza media fra gli elettroni del due atomi di H dall’atomo di O, proiettata sulla bisettrice dell’angolo di 105◦ fra i due atomi di H, sarà di circa 0.019 nm, da cui si ricava che la distanza l fra gli atomi di O e di H sarà dell’ordine di l = d/cos(52.5◦ ) ≈ 0.03 nm, circa un ordine di grandezza inferiore del diametro medio della molecola d’acqua. Ricordiamo che la definizione di d corrisponde, grosso modo, alla distanza fra i baricentri elettrici degli atomi di H e quello dell’atomo di O, ed è ragionevole che risulti minore del diametro spaziale dell’intera molecola; • il ghiaccio ha una struttura cristallina a simmetria esagonale, ma con strutture che possono variare in funzione delle condizioni fisiche a cui è stato sottoposto al momento del cambiamento di stato e anche a possibili successive modifiche (forti variazioni di pressione, a esempio). Comunque il volume specifico del ghiaccio è maggiore di circa il 10% quello dell’acqua prima della solidificazione. Da queste proprietà derivano le seguenti caratteristiche uniche dell’acqua come sorgente primaria e indispensabile per lo sviluppo della vita nella forma evolutasi nelle condizioni fisico-chimiche della Terra: 1. la dipendenza della densità dell’acqua dalla temperatura (v. Fig.4.6) è tale per cui la massima densità si ha per una temperatura di 3.98 ◦ C. Avendo densità minore dell’acqua, il ghiacciosi forma sulla superficie di una distribuzione d’acqua (stagno, lago o mare) e la porzione d’acqua a circa 4◦ C scende negli strati più profondi (avendo massima densità). Il ghiaccio superficiale protegge (per distanze di alcuni metri) l’acqua sottostante dalla propagazione di temperature inferiori a 0◦ C, per cui negli strati più profondi dei bacini d’acqua non si arriva mai alla formazione di ghiaccio e non si può produrre il congelamento (cioè rottura) dei vasi e dei tessuti biologici e la vita può continuare; 2. per il suo elevato momento dipolare l’acqua è un solvente efficientissimo sia per i sali che per le sostanze organiche (a es., zuccheri, amidi, proteine, ecc.), quindi un ottimo trasportatore di elementi nutrienti e costitutivi della vita, basata sul C (molecole organiche); 3. l’estrema efficienza dei legami a idrogeno garantiscono che l’acqua possegga il calore specifico a pressione costante cp ≃ 1 cal/(g ◦ C) più elevato fra le molecole naturali allo stato liquido e quindi funzioni da efficiente termostato (i forti cambiamenti di temperatura non aiutano la vita, e, modernamente, vengono utilizzati nella “pastorizzazione” che ha lo scopo di sterilizzare, cioè di inibire i processi vitali). Anche i calori latenti dell’acqua sono i massimi fra i liquidi naturali (cf us ≃ 2.26 MJ/kg; cevap ≃ 0.333 MJ/kg), garantendo all’acqua la proprietà di immagazzinare una grande quantità di energia nella fase liquida. Infine il valore della tensione superficiale dell’acqua è elevato (τ ≃ 75 dyne/cm), e la costante dielettrica dell’acqua pura è la massima fra i liquidi naturali (ǫr ≃ 80). 66 Figura 4.6: Andamento della densità dell’acqua con la temperatura Dobbiamo all’insieme di tutte queste eccellenti proprietà fisiche dell’acqua se la vita sulla Terra ha potuto raggiungere questo stadio evolutivo, con una ricchezza e varietà di forme di vita straordinarie e affascinanti.18 18 L’acqua, con le sue meravigliose proprietà fisiche e chimiche, ha anche permesso che per circa 1.5-2.0 milioni di anni una scimmia antropomorfa abbia potuto evolversi in modo tale da riuscire a scrivere La Divina Commedia, dipingere La Gioconda, scolpire La Nike di Samotracia, comporre La nona sinfonia di Beethoven, ecc.. Negli ultimi tempi, tuttavia, vien da dubitare sul reale livello di “evoluzione” raggiunto stabilmente dalla razza umana, ma questo non dipende dall’acqua! 67 Capitolo 5 Ottica Per un’introduzione all’ottica geometrica si rimanda alle dispense di Introduzione all’ottica geometrica e La formazione delle immagini nell’ottica geometrica, che si trovano sul sito http://e-l.unifi.it/file.php/3891/Dispense old/Dispense Lab Fis I.htm. 5.1 Lenti Dopo aver introdotto l’astrazione fisica di “raggio luminoso” (come un sottile pennello di luce, tanto sottile da essere confuso con l’asse del pennello, a cui ci si può avvicinare nella pratica realizzazione fino a quando i limiti tecnologici a disposizione lo concedono e non si vanno a creare fenomeni di diffrazione), ricordiamo che le proprietà rifrattive del vetro erano note fin dall’antichità e che già nei secoli XIII e XIV si conosceva il modo di costruire una struttura piano-convessa in vetro, nella quale la parte convessa aveva la forma di una calotta sferica, a cui fu dato il nome di “lente”.1 Già allora era noto che una lente aveva la proprietà di convogliare i raggi luminosi che si propagavano parallelamente all’asse ottico (la retta ortogonale al piano della lente e passante per il suo centro ) in un unico punto del suo asse ottico detto “fuoco”.2 Inoltre accoppiando (sulla parte piana) due lenti piano-convesse si creava una lente biconvessa avente una capacità di convergenza (quella che poi definiremo potere diottrico) doppia rispetto alla lente piano-convessa. Chiamiamo distanza focale di una lente 3 la distanza del fuoco dal piano meridiano di simmetria della lente; in una lente esistono due fuochi (a seconda che i fasci di raggi luminosi incidano sulla lente da sinistra o da destra della lente), F1 e F2 , posti simmetricamente rispetto al piano meridiano della lente se questa è immersa in un unico mezzo (generalmente è in aria, v. Fig.5.1 a)). Inoltre se la lente è sottile (cioè lo spessore della lente sull’asse ottico è trascurabile rispetto alla distanza focale f ), il raggio luminoso che si propaga per il centro della lente praticamente non viene deviato dalla lente e prosegue il suo percorso rettilineo. Con riferimento alla Fig.5.1 b), consideriamo una lente biconvessa sottile, di distanza focale f , e poniamo un oggetto luminoso AB sull’asse ottico a distanza p > f dalla lente. Ogni punto di AB può essere considerato una sorgente puntiforme di luce; se a es. prendiamo in esame il punto B, questo emette nello spazio un’infinità di raggi luminosi, per 3 dei quali sappiamo seguire il percorso dopo l’interazione con la lente: il raggio BB ∗ si propaga parallelamente all’asse ottico, quindi la lente lo rifrange in F2 ; il raggio BV prosegue indisturbato e si incontra col precedente raggio luminoso in B ′ ; infine il raggio BF1 viene visto dalla lente come proveniente dal primo fuoco F1 e quindi viene rifratto parallelamente all’asse ottico e incontra in B ′ con altri due raggi luminosi. Conseguentemente i punti B e B ′ sono in corrispondenza biunivoca e si dicono otticamente coniugati. Ripetendo il ragionamento per tutti i punti luminosi della sorgente AB si trova che A′ B ′ è otticamente coniugata con AB ed è detta immagine “reale” di AB, e si presenta capovolta rispetto ad AB. Chiamiamo q la distanza dell’immagineA′ B ′ dalla lente e dalla Fig.5.1 b) ricaviamo che i triangoli ABV e A’B’V sono simili, quindi AB/p = A′ B ′ /q. Inoltre sono simili 1 Ricordava la forma di una lenticchia, che in latino si chiama lenticula, ae, ma anche lens, lentis. spiega tutto! Basta ricordare che con una lente convergente si riesce a dar fuoco a oggetti di carta, legno e materiali facilmente infiammabili, cioè con temperature d’innesco della combustione autoalimentata non elevate. 3 Da ora in poi definiremo lente un sistema diottrico bi-convesso e bi-concavo, salvo avvertenze contrarie. 2 L’etimologia 68 f A F B* B f f F1 f F2 A’ V F p lente q a) B’ b) Figura 5.1: Lente convergente e schema della formazione delle immagini reali i triangoli B ∗ V F2 e F2 A′ B ′ e quindi B ∗ V /f = AB/f = A′ B ′ /(q − f ). Sostituendo in questa relazione l’espressione di A′ B ′ ricavata da quella precedente otteniamo AB AB q = ; f p(q − f ) quindi pq − pf = qf (5.1) Dividendo per pqf ambo i membri della (5.1) si perviene a 1 1 1 + = =P p q f (5.2) La (5.2) è la ben nota formula dei punti coniugati e P è il potere diottrico della lente che si misura in diottrie nel S.I. Ricordiamo che la distanza focale di una lente semplice è affetta da aberrazione cromatica, cioè dipende dalla lunghezza d’onda λ della radiazione incidente e quindi f (λ) e P (λ) dipenderanno da λ. È utile ricordare la formula dei costruttori di lenti (valida per lenti biconvesse di ugual curvatura) P (λ) = 1 2 = (nλ − 1) fλ R (5.3) dove nλ è l’indice di rifrazione relativo al passaggio dall’aria al vetro di cui è fatta la lente e R è il raggio di curvatura delle superfici convesse (se le superfici fossero concave il segno di R sarebbe negativo). Si definisce ingrandimento lineare operato dalla lente il rapporto g = A′ B ′ /AB. Con riferimento alla Fig.5.2 , se l’oggetto AB è posto fra il primo fuoco F1 e la lente, la costruzione ottica dell’immagine fatta in precedenza mostra che i raggi luminosi B ∗ F2 e BV non si incontrano nel semipiano delle immagini, ma si incontrano i loro prolungamenti nel semipiano degli oggetti, dando l’impressione, a un occhio che veda i due raggi B ∗ F2 e BV divergere dalla lente, che provengano da un’immagine “virtuale”, dritta, A′′ B ′′ che si trovi oltre il primo fuoco F1 . Alla stessa conclusione si giunge operando analiticamente tramite la relazione dei punti coniugati (5.2), ottenendo un valore negativo per q. Questo è il principio su cui si basa il funzionamento della lente d’ingrandimento. Lenti divergenti sono quelle che hanno superfici sferiche concave (cioè con R < 0 e quindi con distanze focali negative). Investite da un fascio di raggi luminosi paralleli all’asse ottico lo rifrangono, dopo il passaggio dalla lente, in modo che i raggi si “aprano” in un cono divergente come se provenissero da un fuoco virtuale situato dalla parte di arrivo dei raggi luminosi sulla lente. Ovviamente (si controlli sia con la costruzione geometrica che con la formula dei punti coniugati (5.2)) le lenti divergenti non possono mai fornire immagini reali ma virtuali; il loro utilizzo è sempre in combinazione con lenti convergenti con lo scopo di realizzare sistemi composti convergenti. Una proprietà molto utile dei sistemi composti da due o più lenti, poste a contatto (cioè con distanze fra loro trascurabili rispetto alle distanze focali delle lenti componenti) è che il sistema composto possiede un potere diottrico che è la somma dei poteri diottrici (ognuno preso con segno) delle singole lenti componenti Ptotale = N X k=1 Pk ; (nel caso di due lenti) → PT = P1 + P2 , 1 1 1 = + fT f1 f2 (5.4) L’ultima relazione delle (5.4) è molto utile per misurare facilmente la distanza focale di una lente divergente; infatti abbinandola a una lente convergente di distanza focale nota e misurando la fT totale 69 B" q B B* B y A" A θ A V d0 F2 F1 d’ p B’ y’ B θ’ y A’ A f Figura 5.2: Lente convergente usata come lente d’ingrandimento Figura 5.3: Schema di un oculare si ricava facilmente il valore di fdiverg , anche se con un’incertezza notevole nella misura. Per metodi più precisi si rimanda all’esperienza della misura della distanze focali di lenti (descritta nel sito indicato all’inizio del capitolo). Nell’uso di sistemi ottici (binocoli, canocchiali, telescopi, microscopi, ecc.) nei quali è l’occhio umano l’elemento che acquisisce l’immagine finale, poichè l’occhio umano possiede un potere risolutivo angolare limitato (in media dell’ordine di 1′ , solo in condizioni d’illuminazione ottimale e di riposo si può arrivare a un limite di 0.5′ ), si utilizzano particolari lenti d’ingrandimento (dette oculari) che permettono una visione molto ingrandita angolarmente dell’immagine finale fornita dal sistema ottico. Gi oculari Sono caratterizzati dal loro ingrandimento angolare Gθ , che, con riferimento alla Fig.5.3, si esprime come Gθ = y ′ d◦ θ′ = ′· , θ d y con θ ≃ y ; d◦ θ′ ≃ y′ d′ (5.5) dove d◦ = 25 cm è la distanza della visione distinta per l’occhio umano (cioè la distanza minima a cui, esercitando al massimo l’accomodazione del cristallino, si riesce ad avere ancora una visione nitida), d′ è la distanza dall’occhio a cui si forma l’immagine virtuale A′ B ′ fornita dall’oculare L, avente distanza focale f . Dalle relazioni che hanno portato a ricavare la formula dei punti coniugati (5.2), ricaviamo che y ′ /y = (q − f )/f . Ponendo l’oggetto (o l’immagine da ingrandire angolarmente) circa nel primo fuoco di L, avremo che q ≫ f , d′ ≫ f e infine q ≃ d′ . Inserendo queste conclusioni nella (5.5) otteniamo Gθ ≃ d◦ 0.25 q d◦ ≃ · = = 0.25 · PL f d′ f f (5.6) Essendo PL il potere diottrico dell’oculare (spesso inciso sulla ghiera stessa dell’oculare) si usa misurare Gθ in diottrie (oppure direttamente in ingrandimenti; un oculare di 10X significa che possiede un PL = 40 diottrie, cioè una focale equivalente di 2.5 cm). Si apre la possibilità di una grande varietà di esperienze. con diverse lenti convergenti e divergenti, raccomandate caldamente a ogni livello di studenti. Si possono eseguire con varie lenti da occhiali (acquistabili di seconda mano da negozi di ottico, che generalmente ne hanno in gran quantità dopo il cambio degli occhiali) e con varie lenti d’ingrandimento, presenti in ogni casa. Alcune possibilità: • misura della distanza focale di varie lenti, iniziando con la misura diretta, formando cioè l’immagine reale di una sorgente posta a grande distanza dalla lente convergente e misurandone la distanza dal piano di simmetria della lente (anche con un semplice metro a nastro). Si può usare anche il sole (infatti il cerchietto luminosissimo che si forma nel piano focale della lente non è altro che l’immagine del sole fornita dalla lente, che ha un diametro di fc · 10−2 rad, essendo 10−2 l’angolo sotteso in media dal disco del sole in cielo); • utilizzando la (5.4) si possono misurare successivamente le distanze focali di lenti divergenti; 70 • per misure più accurate si possono porre le varie lenti su un tavolo e costruire una sequenza fissa di oggetti (sorgente + lente + schermo nel piano immagine) e tramite la formula dei punti coniugati si misura la distanza focale della lente. La precisione di questa misura è migliore di quella ottenibile con il metodo del punto precedente (si consiglia di stimare sempre l’incertezza delle misure ottenute); • avendo a disposizione un banco ottico (anche se non professionale) si possono usare metodi di misura ancora più precisi (v. le dispense sulla misura delle distanze focali nel sito indicato all’inizio del capitolo); • con una lente convergente a lunga focale (P ≈ 0.5−1 diottria) e una a corta focale (P ≈ 20 diottrie), come oculare, si può realizzare (con un tubo di cartone o di plastica, da disegni) un canocchiale; • la lente convergente a corta focale può essere sostituita con una lente divergente a corta focale, come oculare negativo da porre prima del fuoco principale della convergente a lunga focale, per avere un canocchiale galileiano; • con una lente convergente ad alto potere diottrico (P ≈ 40 − 50 diottrie) come lente primaria e un buon oculare si può costruire un microscopio composto galileiano;4 5.2 Lastra a facce piano-parallele e prisma Una lastra a facce piano-parallele sposta lateralmente il raggio luminoso che l’attraversa senza cambiarne la direzione di propagazione. Il vetro di una finestra rappresenta un semplice esempio di lastra a facce piano-parallele; aprendo la finestra (a circa 45◦ dal piano di chiusura) e osservando da sotto il bordo della finestra un oggetto verticale (lo spigolo di una casa, un albero, un palo dell’illuminazione, ecc.), per metà visto direttamente da sotto il bordo e per metà attraverso il vetro della finestra, si vede nettamente che l’oggetto sembra “spezzato” in corrispondenza del bordo vetro della finestra. È la manifestazione della deviazione laterale del fascio luminoso creata dal passaggio entro il vetro della finestra. È interessante anche esaminare il comportamento di una finestra con i vetri termici (doppi); ogni superficie di separazione aria-vetro riflette, per propria natura, circa il 5% della radiazione incidente (il rimanente viene trasmesso e rifratto, eventualmente assorbito a seconda della lunghezza d’onda della radiazione utilizzata). Ponendo la finestra sempre con un angolo di circa 45◦ rispetto al piano di battuta e osservando una sorgente di luce esterna (questa osservazione è più facile di sera, ovviamente) si vedono le diverse immagini riflesse mutuamente fra le superfici dei due vetri costituenti la finestra; si vede anche la notevole diminuzione di intensità delle immagini che si originano da riflessioni multiple (ognuna è il 5% della precedente e cosı̀ via). Anche la deviazione laterale di strutture verticali subisce un doppio effetto di spostamento laterale al passaggio del primo e poi del secondo vetro. È facile procurarsi un prisma, anche se di qualità ottiche non eccelse (sempre in un negozio di ottico) e di limitate dimensioni. Si può vedere la dispersione della radiazione continua, prodotta da una lampada a incandescenza, interponendo fra la lampada e il prisma un cartone dove si è praticata una sottile fessura, da porre parallela allo spigolo del prisma. In questo modo un sottile fascio di luce investe una faccia del prisma; dall’altra faccia del prisma uscirà un fascio di luce “dispersa”, che, fatto incidere su uno schermo opaco, mostrerà lo spettro della radiazione che ha attraversato il prisma. Questa semplicissima esperienza è sempre molto interessante, soprattutto le prime volte che si mostra a un uditorio studentesco. Si può sostituire la lampada a incandescenza con una lampada alogena e si potrà riflettere e commentare sulle differenze spettrali che si osservano. Ancora più interessante è alimentare il prisma con la luce del sole, ottenendo lo spettro della radiazione solare. Potendo disporre di un piccolo spettroscopio si può anche fare uno spettro di emissione di alcune sostanze: basta prendere come sorgente una fiamma (basta anche quella di una candela) e gettarci sopra alcuni grani di sale da cucina (NaCl) per vedere l’intensa emissione gialla caratteristica del sodio (si pensi all’illuminazione di alcune periferie cittadine ottenuta con lampade al sodio per avere miglior visione in caso di nebbia). Con altre sostanze (K, Ca, ecc.) si ottengono “colori” diversi, ognuno caratteristico della sostanza utilizzata. È un modo semplice per introdurre, volendo, il metodo spettroscopico a una platea studentesca. 4 Galileo lo descrisse ufficialmente nel 1624, e un esemplare è al Museo “Galileo” di Firenze, P.za dei Giudici; con questo strumento Galileo aprı̀ una nuova strada alla medicina, permettendo innumerevoli e fondamentali scoperte nel campo dell’anatomia e fisiologia umana. 71 Si può anche utilizzare il prisma tenendolo in mano con lo spigolo parallelo a un tubo fluorescente dell’illuminazione domestica e ponendo il braccio, steso, lungo la direzione di visuale diretta verso il tubo fluorescente: ruotando lentamente il prisma intorno allo spigolo, vedremo, per un ben determinato angolo d’incidenza dei raggi luminosi proveniente dal tubo fluorescente, emergere dal prisma varie immagini colorate del tubo, ognuna delle quali caratteristica della sostanza posta nel tubo. Molto spesso questi colori corrispondono alle righe spettrali tipiche del mercurio e sono di sicura attrazione e interesse. 5.3 Specchi Sono innumerevoli le applicazioni che si fanno quotidianamente del funzionamento degli specchi, soprattutto degli specchi piani. Ognuno ha le sue esperienze, che però andrebbero analizzate alla luce delle leggi fisiche della riflessione. È interessante anche l’utilizzo di diversi specchi piani in serie per rendersi conto praticamente delle proprietà di inversione destra-sinistra (e in alcune configurazioni anche alto-basso) operate dagli specchi. Ricordiamo solo che quando ci “guardiamo allo specchio” vediamo un’immagine virtuale di una persona identica a noi, che sembra stare dietro lo specchio, con lo scambio destra-sinistra. Questo effetto è evidente se si fa osservare un’immagine ottenuta con uno specchio piano a un essere non “educato” (può essere un infante che inizia ad andare a “gattoni” ma anche un giovane cane o gatto): la loro reazione è identica, cercano subito di girare dietro allo specchio per andare a vedere “chi c’è dall’altra parte” (e il gattino spesso accompagna il tutto con una soffiata intimidatoria all’ipotetico rivale che lo guarda minaccioso!). Il comportamento degli specchi concavi (spesso sono sferici) è identico a quello di una lente convergente, fatto salvo il fatto che per lo specchio il semipiano delle immagini si trova dalla stessa parte di quello degli oggetti; vale la stessa legge dei punti coniugati e per fasci assiali e di piccola apertura angolare la distanza focale di uno specchio sferico concavo è pari a R/2, essendo R il raggio di curvatura della superficie sferica dello specchio. Specchi sferici concavi sono utilizzati negli impianti di produzione energetica solare per concentrare nel fuoco un’elevata densità di flusso d’energia, che permette di riscaldare l’acqua, di produrre anche vapore, ecc. Specchi concavi parabolici sono utilizzati (sfruttando le ben note proprietà dei luoghi geometrici e delle parabole) per produrre fasci luminosi che si propagano parallelamente all’asse della parabola se si pone una sorgente “puntiforme” (generalmente una piccola ma intensa lampadina) nel fuoco della parabola (anzi, del paraboloide di rivoluzione, per essere corretti). Questo fenomeno è utilizzato nei fanali dei veicoli, nei fari marittimi, nei proiettori, ecc. Il comportamento degli specchi convessi (spesso sono sferici) è analogo a quello delle lenti divergenti; danno solo immagini virtuali, rimpiccolite, e le leggi del loro comportamento sono le stesse delle lenti divergenti (con i cambiamenti dovuti al fatto che si tratta di riflessioni, cioè di un cambio di verso di propagazione della luce). Sono quasi sempre utilizzati in combinazione con elementi convergenti (si pensi, a es., al telescopio in montatura Cassegrain). Un modo molto semplice (anche se grossolano) per presentare il funzionamento degli specchi convergenti (concavi) e divergenti (convessi) è quello di usare un cucchiaio, con la coppetta sferica (cioè quelli di tipo “svedese”). Guardandosi riflessi dalla parte concava la nostra immagine è reale e capovolta, mentre dalla parte convessa l’immagine è virtuale e dritta. Per convincersi che l’immagine fornita dalla parte concava è reale, basta prendere una sorgente puntiforme (la fiamma di una candela, una piccola lampadina a filamento e simili) e formarne l’immagine su uno schermo opaco, posto a fianco della sorgente, simmetricamente rispetto all’asse di simmetria della sfera della parte concava del cucchiaio; vedremo l’immagine capovolta della sorgente sullo schermo, con diverso ingrandimento lineare in accordo con la relazione dei punti coniugati. Un uso molto “moderno” delle proprietà degli specchi concavi è rappresentato da superfici di plastica (o cartone) rivestite di carta di alluminio, con una forma concava (anche se irregolare), utilizzate per far convergere il fascio di luce solare per aumentare l’efficienza “abbronzante” della radiazione solare. Si corre però il rischio di provocare anche ustioni epidermiche, che rappresenterebbero tuttavia una corretta punizione per l’uso . . . sconsiderato delle proprietà fisiche della riflessione. Utili applicazioni dei concetti fondamentali dell’ottica possono essere sviluppate avendo una vecchia macchina fotografica (quelle a pellicola si trovano di recupero a prezzi irrisori) e mostrandone le caratteristiche e il funzionamento agli studenti. Si possono anche smontare per illustrarne i dettagli costruttivi. Molto istruttivo è la dimostrazione del concetto di profondità di campo, del funzionamento dell’otturatore, del diaframma, la scelta del tempo di posa corretto, della necessità di porla su un cavalletto per 72 pose lunghe, e cosı̀ via. Avendone una con sistema reflex è molto facile illustrare le possibilità offerte dall’inserimento di specchi mobili nel percorso ottico, come di miniprismi a riflessione totale per il “ripiegamento” di un fascio luminoso verso l’oculare centrale. Si può impostare un minicorso di ottica applicata sull’uso delle macchine fotografiche e, successivamente, delle telecamere (otticamente hanno lo stesso tipo di funzionamento). 5.4 Altre osservazioni e considerazioni Si raccomanda di consultare il sito hep.fi.infn.it/ol/samuele/schede.php, dove si possono trovare interessantissime ma semplici esperienze sviluppate dal dr. Samuele Straulino nell’ambito delle attività del progetto OPENLAB del Polo Scientifico e Tecnologico dell’Università di Firenze, settore FISICA. Nel capitolo dedicato all’Ottica è particolarmente utile il kit messo a punto per la dimostrazione e lo studio delle proprietà della riflessione e rifrazione, delle proprietà delle lenti ecc. Un’esperienza banale ma affascinante: in estate (col sole alto sull’orizzonte), sdraiati a prendere la tintarella, portate un braccio sulla fronte, di fronte agli occhi per difendervi dall’intensa luce solare. Cercate di porre il bordo del braccio proprio davanti ai vostri occhi , in modo che la peluria dell’avambraccio si trovi davanti alla vostra pupilla, avendo il sole alto sull’orizzonte. Mettendo l’altra mano oltre il braccio (per creare uno schermo alla luminosità del cielo sullo sfondo), e guardando la peluria dell’avambraccio, si possono osservare moltissime figure di vari colori e sfumature, che rappresentano le figure di diffrazione della radiazione solare sulle micro-asperità presenti su ogni pelo presente sulla nostra linea di vista. È uno spettacolo affascinante, mutevole e vario (come quello offerto dalle varie forme e moti delle nuvole in cielo), che può suscitare molte fantasie, ma può anche far riflettere sul perché si osservano quelle strutture, iniziando cioè a ragionare di Fisica. È facile anche procurarsi due fogli di lamina polaroid, sostanza che trasmette la radiazione con un ben determinato piano di oscillazione.5 Ci si può divertire a fare molte prove avendo una lampadina (come sorgente di radiazione non polarizzata) e inserendo nel percorso ottico i due fogli di polaroid, mettendoli paralleli, incrociandoli (per avere estinzione della luce), disponendoli con angoli differenti fra i loro piani di oscillazione, ecc. Avendo a disposizione anche occhiali da sole con lenti polarizzanti, si può capire come funzionano, perché il piano di oscillazione delle lenti polarizzanti è disposto grosso modo in un piano verticale, e infine ...ricordandosi dell’angolo di Brewster!6 In estate, col sole alto sull’orizzonte, si osserva talvolta che, con persiane o tapzenith parelle chiuse (per difendersi dal calSOLE do), si vedono cerchietti luminosi che z SOLE si muovono lentamente sul pavimento. Sono immagini stenopeiche 7 del Sole, originate da piccoli fori posti nella strutP0 P1 tura delle persiane o delle tapparelle. Basta prendere un foglio di carta bianca e “risalire” dal cerchietto luminoso sul pavimento fino al forellino da cui l’immagine stenopeica si origina per capirne orizzonte l’origine. Ovviamente si muovono sul pavimento con la velocità angolare ap- Figura 5.4: Schema della diffusione multipla della radiazione parente con cui si muove il Sole in cielo. solare nell’atmosfera terrestre. A questo proposito è interessante ricordare che una delle più grandi immagini stenopeiche del Sole (ma sicuramente la più bella per il luogo dove si forma) che si possa osservare è quella prodotta dalla bronzina situata sulla sommità della cupola (a livello della lanterna) del Duomo di Firenze. L’immagine stenopeica del Sole (di circa 90 cm di diametro) 5 Si raccomanda di riguardare il capitolo della polarizzazione della luce! qui si aprirebbe un grande ma complesso capitolo dell’ottica fisica, che è sicuramente oltre gli scopi di queste semplici considerazioni. 7 Si vedano le nostre dispense, indicate all’inizio del capitolo, su questo semplice ma interessante fenomeno. 6E 73 si forma nella cappella della Croce (lato nord del Duomo), (dove si trova anche uno splendido esempio di scala ticonica, incisa nel marmo e ricoperta normalmente da una lastra di ottone) attorno al sostizio d’estate (infatti il sistema fu creato all’atto della costruzione del Duomo di Firenze come uno gnomone solstiziale).8 Una frequente domanda: perché la luce del Sole è bianca e il colore del cielo diurno è azzurro? Risposta: perché fra noi e il Sole c’è l’atmosfera terrestre, che contiene una gran quantità di molecole e particelle solide di piccolissime dimensioni. Con riferimento alla Fig.5.4 quando il fascio di radiazione proveniente dal sole incontra l’atmosfera terrestre, la radiazione viene diffusa dai componenti (molecole e micropolveri) presenti negli strati più alti dell’atmosfera. Questa diffusione è cromatica, nel senso che il coefficiente di diffusione dipende da λ−4 , essendo λ la lunghezza d’onda della radiazione diffusa (diffusione alla Rayleigh). Il processo di diffusione è multiplo, vista la densità del materiale atmosferico, cioè la radiazione diffusa inizialmente in P◦ viene successivamente diffusa nuovamente in un punto vicino P1 e poi in P2 e cosı̀ via. Poiché i fotoni violetti e azzurri sono quelli che sono diffusi preferenzialmente (vista la dipendenza cromatica sopra detta), la radiazione diffusa verso il basso globalmente dal “cielo” avrà una colorazione azzurra per il nostro occhio (che non vede bene il violetto e per nulla le lunghezze d’onda più corte). Il colore bianco che apprezziamo al suolo risulta dal filtraggio che per diffusione (ma anche per assorbimento vero) viene compiuto dall’atmosfera terrestre sulla radiazione solare. 9 Quando il Sole è invece basso sull’orizzonte (alba o tramonto), cioè si trova a un’elevata angolazione zenitale z in Fig.5.4, poiché il percorso geometrico nell’atmosfera è molto più lungo di quello quando il Sole è a piccoli valori di z (alto sull’orizzonte), quasi tutti i fotoni violetti e azzurri del fascio proveniente dal Sole vengono diffusi attraverso multiple diffusioni e conseguentemente nel fascio luminoso che arriva al nostro occhio restano solo i fotoni gialli ma soprattutto rossi e il colore del Sole è per noi “rosso”. Si tratta quindi di un’altra dimostrazione qualitativa del cromatismo alla Rayleigh della diffusione atmosferica, che manifestano anche gli altri corpi celesti con l’arrossamento del loro colore apparente quando sono osservati ad alte angolazioni zenitali z. Una ben nota manifestazione della rifrazione che avviene nelle gocce d’acqua presenti in atmosfera è data dall’arcobaleno. Ricordiamo che l’arcobaleno si osserva subito dopo una pioggia (cioè quando ci sono ancora in sospensione in atmosfera gocce d’acqua) e col Sole abbastanza basso sull’orizzonte (non in culminazione), dando le spalle al sole e osservando in direzione antisolare. Si può osservare anche in vicinanza di una grossa cascata d’acqua, quando ci sono in sospensione una gran quantità di gocce d’acqua. Con riferimento alla Fig.5.5, in genere si osserva solo l’arcobaleno primario, piuttosto brillante, in cui il rosso è l’arco più esterno (e a maggior altezza sull’orizzonte), mentre l’azzurro è il più interno e più basso sull’orizzonte. Come vedremo, l’arcobaleno primario si origina da una sola riflessione della luce solare all’interno delle gocce d’acqua. In condizioni di particolare tranquillità atmosferica e con cielo molto pulito (e non “lattiginoso” per inquinamento o nebbia) si può talvolta osservare anche l’arcobaleno secondario, originato da due riflessioni all’interno delle gocce d’acqua, molto più debole del primario e in cui l’ordine dei colori degli archi è invertito (cioè l’arco più esterno ha il colore azzurro e quello più interno è il rosso). Figura 5.5: Struttura dell’arcobaleno primario Esaminiamo il percorso di un raggio luminoso, proveniente dal sole, all’interno di una goccia in sospensione in aria. Con riferimento alla Fig.5.6 il raggio SA, che incide in A con un angolo i, viene rifratto con un angolo di rifrazione r in accordo con la relazione 8 Nei due mesi attorno al sostizio d’estate vengono organizzate lezioni ed esposizioni interessanti di questo fenomeno, a cui partecipano varie scolaresche e gruppi di turisti. 9 Fuori atmosfera il colore della radiazione del sole è leggermente più azzurro del bianco perfetto che apprezziamo a terra, il cielo appare perfettamente nero (mancando l’effetto di diffusione dell’atmosfera) e si possono osservare le stelle accanto al disco intenso del Sole. Si vedano le molte immagini prese dallo spazio in cui vedono le stelle col Sole in vicinanza. Andando sui siti dell’ESA e della NASA se ne trovano a centinaia. 74 S i A M ∆ r r B O ∆ C Figura 5.6: Schema delle riflessioni interne alla goccia per la formazione dell’arcobaleno Figura 5.7: Schema della formazione dell’arcobaleno secondario fondamentale della rifrazione n = sen(i)/sen(r), dove n è l’indice di rifrazione relativo al passaggio ariaacqua alla lunghezza d’onda del raggio luminoso considerato. Ricordiamo che una piccola parte del fascio incidente sulla superficie di separazione fra i due mezzi (dell’ordine di grandezza del 5%) viene riflessa nel mezzo di arrivo del fascio, mentre il rimanente dell’energia raggiante incidente viene rifratta nel secondo mezzo secondo la legge di Cartesio-Snell prima ricordata. Per la reversibilità del cammino ottico questo fenomeno (la riflessione di circa il 5% dell’intensità del fascio incidente sulla superficie di separazione) avviene anche quando si ha rifrazione da un mezzo più rifrangente (nel nostro caso la goccia) a un mezzo meno rifrangente (nel nostro caso l’aria), a meno che l’angolo d’incidenza non superi l’angolo limite, nel qual caso si avrà riflessione totale e tutto il fascio viene riflesso nel mezzo più rifrangente. Dopo la rifrazione in A il raggio prosegue nella goccia fino a incontrare la superficie della goccia in B, dove la maggior parte dell’energia incidente in B viene rifratta all’esterno della goccia; circa il 5% viene invece riflesso all’interno della goccia e giunge in C, dove il fascio emerge dalla goccia con un’intensità dell’ordine del 4.5% dell’intensità incidente sulla goccia e nella direzione MC, cioè con un angolo di deviazione ∆ rispetto alla direzione originaria del fascio prima dell’incontro con la goccia. Dal triangolo ABM è facile ricavare (MB è la bisettrice di ∆) che ∆ = 2(2r − i). Ricavando r dalla relazione di Snell abbiano che ∆ = 4 sen−1 (seni/n) − 2i; quindi ∆ è una funzione di i. Ma l’osservatore a terra guarda lungo la direzione CM, quindi potrà vedere solo i raggi luminosi che incidono con un ben definito i su gocce che si trovano proprio all’altezza nell’atmosfera tale da definire gli angoli in accordo con la relazione determinata precedentemente. Una distribuzione casuale di gocce in atmosfera e di angoli di incidenza i darebbe origine a una distribuzione casuale di raggi rifratti uscenti dalle gocce, quindi una distribuzione angolare casuale di raggi di debole intensità, dando origine a una luminosità diffusa ma non a un arcobaleno, che è una distribuzione ben organizzata. Se tuttavia la funzione ∆(i) avesse un punto di stazionarietà la situazione sarebbe diversa perché i raggi luminosi che incidessero sulle gocce con angoli prossimi a istaz sarebbero tutti deviati praticamente dello stesso angolo ∆staz , aumentando l’intensità del fascio deviato e divenendo conseguentemente ben visibili sullo sfondo del cielo luminoso per aumento del contrasto. Vediamo quindi se la funzione ∆(i) presenta almeno un punto di stazionarietà. " # 4 4cosi 2cosi cosi d∆ =q (5.7) 2 · n − 2 = pn2 − (seni)2 − 2 = 2 pn2 − 1 + (cosi)2 − 1 di 1 − seni n Avremo stazionarietà se p d∆ = 0 ⇒ 2cos(i) = n2 − 1 + cos(i)2 ⇒ cos(i) = di r n2 − 1 3 (5.8) Assumendo n = 4/3 abbiamo, dalla (5.8), che istaz ≃ 59.4◦ e corrispondentemente ∆staz ≃ 42◦ , esattamente l’angolo che si misura fra il centro di simmetria dell’arcobaleno e la mediana degli archi colorati. Con riferimento alla Fig.5.7 un raggio luminoso che incida su una goccia d’acqua presente in atmosfera nel modo illustrato può essere rifratto anche dopo due incidenze sulla superficie della goccia. Ripetendo il ragionamento fatto precedentemente si trova che, in questo caso, si forma l’arcobaleno secondario, in condizioni stazionarie, per ∆staz;secondario ≃ 51◦ . Tuttavia bisogna notare che l’intensità di questo 75 arcobaleno secondario sarà circa il 2.3 · 10−3 dell’intensità del fascio incidente sulla goccia e, quindi, difficilmente osservabile (solo in condizioni quasi perfette di trasparenza e limpidezza del cielo, non facile dopo una pioggia). Inoltre la distribuzione dei colori negli archi dell’arcobaleno secondario sarà invertita rispetto a quella del primario (cioè l’arco azzurro sarà quello più alto, mentre quello rosso sarà il più basso sull’orizzonte), come era prevedibile avendo subito il fascio cromatico un’ulteriore riflessione sulla parete della goccia. 76 Capitolo 6 Elettrologia La nostra vita è attualmente invasa da dispositivi che utilizzano l’energia elettrica, che rappresenta la modalità più efficiente e semplice di distribuzione d’energia. Utilizziamo quotidianamente un numero sempre crescente di ordigni nei quali l’elettricità rappresenta il fulcro centrale del funzionamento. Tuttavia è sempre più difficile riuscire a comprenderne 1 veramente il funzionamento perché la complessità tecnologica aumenta sempre, includendo discipline che si sono originate come settori dell’elettromagnetismo classico, ma che, successivamente, si sono sviluppate in branche specialistiche molto sofisticate (a es., elettrotecnica, elettronica, fisica dello stato solido, ecc.). Impossibile quindi proporle a studenti liceali soprattutto facendo riferimento agli argomenti di Fisica classica di base, che sono impartiti necessariamente nelle scuole. Tuttavia desideriamo offrire alcune riflessioni su alcuni argomenti di elettromagnetismo classico, che possono essere estratti (con una certa difficoltà) dall’esperienza di vita quotidiana. 6.1 Elettrostatica Non è difficile avere esperienze concrete di fenomeni legati all’elettrizzazione per strofinio (triboelettricità), cioè separazione di cariche elettriche dovuta a dissipazione di energia meccanica per attrito fra materiali aventi diverse proprietà triboelettriche 2 • elettrizzazione dei capelli (ben asciutti, perché?) pettinati o spazzolati energicamente con pettine d’osso o di plastica, che poi tendono a formare una chioma di capelli dritti, che vengono spostati avvicinando loro il pettine o la spazzola. Funzionano meglio i capelli lunghi e fini (perché?); • una sbarretta di vetro, elettrizzata tramite strofinio con un panno di lana, è capace di attrarre (per induzione) piccoli pezzetti di carta o capelli o altri piccoli corpi isolanti, ma di peso molto modesto; • panni di materiale facilmente elettrizzabile per strofinio, utilizzati come stracci per pulire per terra, che raccolgono facilmente polvere e piccoli residui di sporco; • indumenti di materiale sintetico, che si elettrizzano facilmente per strofinio (basta stare a sedere su un divano per un po’ di tempo, muovendosi), e che generano una lieve scossa quando si tolgono. Talvolta, se si tolgono velocemente in una stanza al buio, si vede anche una leggera luminescenza attorno all’indumento. Ci si chieda perché; • quando siamo seduti in auto, per un certo tempo, con indumenti di materiale sintetico o di lana, e si scende dall’auto indossando scarpe isolanti (con la gomma, per esempio) si prende una lieve scossa toccando l’auto o infilando la chiave nella serratura. Il fenomeno non si verifica se si ha l’avvertenza di tenere una mano a contatto della parte metallica della carrozzeria mentre si scende dall’auto 1 Un buon insegnante deve sempre ricordare ai suoi allievi la profonda differenza che esiste fra comprendere, che deriva dal latino cum + prehendere → prendere insieme, far proprio, e apprendere, che deriva da ad + prehendere → prendere vicino. Bisogna che gli argomenti trattati vengano metabolizzati, diventino parte di noi, cioè vengano compresi. 2 La serie triboelettrica è sostanzialmente un elenco di materiali, disposti in modo da rappresentare qualitativamente la loro abilità a cedere elettroni per strofinio; i primi sono elettropositivi (ottimi datori di elettroni e troviamo la pelle umana asciutta, vetro, lana, ecc.), gli ultimi elettronegativi (ottimi accettori di elettroni e troviamo polietilene, PVC, teflon). 77 (cioè mentre si separano le cariche accumulate sull’indumento e sulla carrozzeria dell’auto), o se siamo scalzi, oppure se piove, oppure se l’auto è dotata di una catenella metallica che tocca terra. Perché? • i fulmini, che si originano sostanzialmente quando cumulonembi (nubi temporalesche ad alto contenuto di vapor d’acqua) si muovono ad alta velocità rispetto al suolo, per cui si caricano negativamente (nella parte inferiore del cumulonembo) e positivamente (nella parte superiore). Per induzione le parti emergenti del terreno (alberi, case, ecc.) si caricano positivamente mentre il terreno si carica negativamente. In questo modo si viene a stabilire un’elevata differenza di potenziale fra la parte inferiore del cumulonembo e la Terra, che accelera gli ioni presenti in atmosfera. Questi ionizzano per urto altri gas atmosferici, creando miniscariche locali che si propagano stocasticamente instaurando un processo a valanga che, con un percorso talvolta bizzarro, si propaga fino a Terra, dando luogo al fenomeno che chiamiamo fulmine. Si potrebbe dire che il fulmine è una specie di percolazione veloce di cariche elettriche, che si amplifica nel corso del suo cammino, come succede nella formazione di alluvioni, frane e smottamenti a seguito di violente e improvvise piogge. In realtà la conoscenza attuale dei fulmini è molto più complessa della semplicistica spiegazione data precedentemente 3 ; si tratta di correnti improvvise di plasma ad alta energia, con differenze di potenziale ≈ 1 − 10 GV , correnti ≈ 10 − 200 kA, temperature elettroniche ≈ 5 · 104 K, quantità di carica trasportata ≈ 5−10 C, velocità di propagazione media ≈ 100−300 km/s. La loro trattazione quantitativa richiede quindi profonde conoscenze di Fisica del plasma, impresentabili nel contesto scolastico (ma anche universitario, almeno per i primi anni di corso). I valori sopra esposti ci dicono chiaramente che i fulmini sono estremamente pericolosi 4 ; non solo se si viene investiti direttamente, ma anche se cadono nelle vicinanze perché le correnti indotte dagli intensissimi campi elettrici impulsivi possono provocare seri danni sia biologici sia alle apparecchiature elettriche ed elettroniche a noi vicine. Bisognerebbe dotare gli edifici di apparecchiature per l’eliminazione delle sovratensioni impulsive, che però sono costose. A proposito di fulmini sono da ricordare l’utilità e le proprietà su cui è basato il parafulmine: essenzialmente il cosidetto potere delle punte. Si consiglia di riguardare criticamente la struttura di un parafulmine e di come debba essere collegato a terra per risultare efficiente 5 . Altro fenomeno collegato all’elettricità atmosferica è quello dei fuochi di S. Elmo, cioè la leggera luminescenza che si origina nelle parti superiori degli alberi di imbarcazioni che stanno navigando in mare aperto, ma anche sulla sommità di ciminiere e di alte guglie di chiese durante violente tempeste con nubi basse. Perché? 6.1.1 Condensatori I condensatori possono essere pensati come spugne per le cariche elettriche e risultano utili quando si verificano nei circuiti interruzioni improvvise di correnti elettriche, che provocano le cosidette extracorrenti di apertura (o di chiusura), legate alla legge di Faraday-Neumann. Condensatori sono posti in parallelo alle porte degli elettrodomestici, per evitare che durante il loro funzionamento, magari sotto carico di correnti elettriche notevoli (resistenze di riscaldamento o motori), l’apertura (improvvida) della porta crei una violenta scintilla sul blocco della porta con conseguenze anche spiacevoli per l’incauto operatore. Sono messi in parallelo ai terminali di apertura/chiusura dei relais e negli starter dei tubi fluorescenti (unitamente a induttanze e interruttori termici). Sono ampiamente utilizzati per rifasare le correnti e le tensioni nei circuiti a c.a. (sia a costanti concentrate che nei circuiti integrati), ma queste utilizzazioni appartengono a specialisti e non sono trasferibili nell’ambito scolastico. 3 Sono state recentemente scoperte, con misure dallo spazio, anche emissioni di raggi γ associate a fulmini molto violenti e questo complica notevolmente la spiegazione fisica di questi fenomeni. 4 Una corrente di ∼ 20 mA può già produrre folgorazione. 5 È altamente consigliabile ribadire agli studenti le norme prudenziali da seguire durante i temporali con associate emissioni di fulmini: non stare in piedi vicino ad alberi o pali soprattutto metallici, non toccare aste metalliche, possibilmente restare in luogo chiuso e isolato (la casa, l’auto isolata da terra, sono ottimi rifugi in caso di fulmini, funzionano da eccellenti gabbie di Faraday), non rimanere su tetti e spioventi elevati, cime di montagne, ecc. 78 6.1.2 Multimetri I multimetri (chiamati anche tester) dovrebbero essere usati ampiamente in laboratorio per misure di intensità di corrente e differenze di potenziale (sia in c.c. che c.a.), resistenza elettrica (c.c.) e impedenza (c.a.), in vari circuiti per verificare le leggi di Ohm e di Kirchhoff (almeno!). Tuttavia è utile sottolineare la loro utilità anche nella vita quotidiana per controllare il funzionamento (o meglio il malfunzionamento) di apparecchi ed elettrodomestici. Spesso di tratta di interruzioni di contatti, di prese o spine in cui qualche filo si è allentato (anche per la pessima abitudine [forse meglio definibile come barbarie!] di alcuni sprovveduti di togliere le spine dalle prese afferrandole per il filo di trasmissione); in questi casi l’intervento di ripristino è semplicissimo e può essere eseguito da chiunque. È bene ribadire che le misure in c.a. sulla rete domestica (220 V) sono pericolose e vanno eseguite solo da esperti; il rischio di folgorazione è elevato. Se proprio si devono eseguire misure di tensione sotto carico è consigliabile di mettersi guanti isolanti, porre sotto i piedi un’asse di legno e stare molto attenti a non essere in contatto, con altre parti del corpo, di oggetti conduttori verso terra. Per le misure di resistenza l’oggetto va sempre tolto dall’alimentazione (qualunque essa sia) e va fatta molta attenzione affinché i puntali del multimetro non vedano chiusure di circuito all’esterno dei puntali. In altre parole, se si desidera misurare la resistenza elettrica di un componente bisogna che non sia in contatto elettrico con tutto quanto di trova a monte e a valle del componente, altrimenti si misurerà la resistenza efficace di quanto è presente all’esterno del componente 6 . Didatticamente sono da preferire i multimetri analogici (ormai rari anche nei laboratori) perché danno la possibilità allo studente di seguire la procedura di funzionamento della misura (si vede spostare la bobina mobile, l’ago sulla scala graduata, si deve imparare ad apprezzare il corretto posizionamento dell’ago mobile sulla scala, magari con l’aiuto di uno specchietto, ecc.). I multimetri digitali forniscono solo un numero sul display (oppure lo inviano direttamente a un calcolatore che effettua poi il trattamento dei dati) e l’operatore è una specie di servo-muto passivo 7 . Non vogliamo essere retrogradi e antistorici, vogliamo solo dire che, inizialmente, i processi di apprendimento, anche nell’esecuzione di misure fisiche, devono essere interiorizzati dallo studente e per questo è necessario condividerne al massimo tutti i passaggi operativi. Successivamente, nell’applicazione pratica, ci si deve avvalere di tutte le risorse tecnologiche a disposizione, che però devono essere sempre calibrate e tenute sotto controllo. L’operatore uomo non deve mai abiurare alla sua capacità di decisione e di critica. 6.1.3 Bilance piezoelettriche Le moderne bilance elettroniche funzionano sfruttando l’effetto piezoelettrico 8 . In cristalli, che non presentano un centro di simmetria nella loro struttura cristallina, tagliati in modo che le facce superiore e inferiore (fra loro parallele) risultino ortogonali alle direttrici di simmetria della struttura cristallina, se viene applicata una forza di compressione, normale a queste facce, si crea una differenza di potenziale elettrico fra di esse,che inverte il segno se la compressione viene modificata in estensione (piezoelettricità diretta). Se invece applichiamo una differenza di potenziale alle suddette facce, si nota una contrazione (o estensione a seconda del segno) meccanica del cristallo (piezoelettricità inversa). Misurando la differenza di potenziale ∆Vm creata dal posizionamento di un corpo pesante sul piattello della bilancia, dopo aver tarato ∆Vm in termini della forza di compressione applicata al cristallo piezoelettrico della bilancia (operazione fatta dal costruttore), si legge sul display digitale il valore attribuito alla massa del corpo. Poiché queste bilance misurano la forza peso (che sappiamo varia sia con l’altezza sul livello del mare sia con la latitudine del luogo), per misure accurate di massa devono essere tarate, al momento della misura, con masse campione corrispondenti al limite della loro portata, a cui verrà assegnato il valore di fondo scala e quindi tutte le successive misure indicheranno correttamente il valore delle masse dei corpi posti sulla bilancia. 6 Ricordarsi sempre i teoremi fondamentali delle reti lineari, Kirchhoff, Thevenin, Miller, ma anche Norton! stessa osservazione vale nel caso dei calibri a corsoio classici, analogici, e quelli digitali, che sparano un numero a cui si deve credere ciecamente. 8 L’effetto piezoelettrico fu scoperto nel 1880 sul quarzo, SiO , che possiede un reticolo cristallino trigonale, con tetraedri 2 Si − O uniti fra loro per i 4 vertici a formare spirali spaziali ad andamento destro o sinistro. 7 La 79 6.1.4 Fotocopiatrice Un’interessante applicazione dell’elettrostatica è fornita dal funzionamento della fotocopiatrice. Una cinghia metallica (messa a terra) è ricoperta da un sottile strato di materiale fotoconduttore (spesso è usato selenio 9 ). La superficie libera del fotoconduttore viene elettrizzata negativamente tramite un opportuno elettrodo metallico e quindi, per induzione, si forma una distribuzione di cariche posifusione toner su carta cilindro di pressione tive sulla superficie superiore del- vassoio carta bianca la cinghia di supporto [fase 1, v. 4) raccolta fotocopie Fig.(6.1)]. Successivamente l’immagine del documento da fotocopiare viene proiettata, tramite polarizzazione Se un opportuno sistema ottico e 1) d’illuminazione, sul fotocondutelettroni cinghia metallica tore [fase 2]. Le aree illuminate 3) divengono conduttrici e quindi gli 2) elettroni depositati sul fotocontoner duttore vengono in contatto con la immagine documento strato di Se superficie (carica positivamente) della cinghia metallica e scaricati Figura 6.1: Schema di una fotocopiatrice tradizionale a terra. Invece le aree dove si sono formate le lettere, disegni, grafici dell’immagine originale, nere, rimangono non conduttrici e conservano la loro elettronegatività. Successivamente [fase 3], tramite una specie di spazzola viene depositato il toner 10 , caricato positivamente, che quindi si attacca alle zone scure del fotoconduttore. Il fotoconduttore viene poi illuminato uniformemente di nuovo, affinché possa essere cancellata del tutto l’immagine di carica dal fotoconduttore e quindi le particelle di toner si possano poi staccare facilmente dal fotoconduttore e aderire al foglio di carta bianca (leggermente caricata negativamente in modo da tenere aderenti le particelle di toner). Alla fine [fase 4] il foglio viene pressato e riscaldato in modo che le particelle di toner fondano e s’incorporino nella struttura della cellulosa del foglio, che uscirà alla fine nel vassoio di raccolta delle fotocopie. Riportiamo, per maggior chiarezza, in Fig.6.2 lo schema delle quattro fasi principali per il funzionamento di una fotocopiatrice tradizionale. Le fotocopiatrice moderne utilizzano sistemi con rivelatori digitali d’immagini e con un opportuno processore la macchina può inviare l’immagine digitale via telefono (FAX), oppure inviarla a una memoria di calcolatore (SCANNER), oppure in- Figura 6.2: Le quattro fasi principali di una viarla a un sistema di stampante laser, interno fotocopiatrice tradizionale alla macchina, riprocessando il tutto come prima descritto (FOTOCOPIATRICE). 6.2 Fornitura dell’energia elettrica Come è noto l’energia elettrica viene fornita nelle nostre abitazioni sotto forma di c.a. monofase, a 50 Hz, 220 V (valore efficace)11 . Dalle centrali di produzione di energia elettrica partono le linee ad alta tensione (AT), trifase, con 9 Il 79 Se è un metalloide, chimicamente affine allo zolfo, isolante al buio, che presenta, nella sua forma cristallina, bande 34 di valenza separate da ≃ 2 eV dalla banda di conduzione, per cui se viene investito da un fascio di radiazione visibile la sua conducibilità elettrica aumenta di un fattore ∼ 103 e diventa conduttore. 10 Polvere plastica isolante che può contenere anche pigmenti colorati. 11 In realtà dovrebbe essere fornita a 230 V, con una tolleranza del 10%, ma normalmente le misure delle tensioni di rete domestica si aggirano attorno ai 220 V di valore efficace. 80 Vef f ≈ 60 − 400 kV (nel caso italiano la Vef f tipica è dell’ordine di 380 kV) 12 , e potenze trasportate ≈ 100 − 400 MVA. Tramite cabine primarie di trasformazione (operazione semplice con c.a., almeno in linea di principio,) si passa alla rete locale di media tensione (MT) ≈ 10 − 30 kV, per poi arrivare, tramite cabine di trasformazione secondaria (le cabine ENEL che vediamo comunemente in giro) alla bassa tensione (BT), con Vef f < 400 V, che viene fornita ai comuni utilizzatori sotto forma di tensione trifase oppure monofase (quella per il normale uso domestico). Grandi utilizzatori di energia elettrica (officine, grandi aziende, centri commerciali ecc.) hanno le proprie centrali secondarie di trasformazione MT/BT. Il vantaggio di usare la c.a. è di facilitare le procedure di trasformazione di tensione in modo da trasportare elevate potenze senza immettere eccessive intensità di corrente nelle linee primarie, che produrrebero (effetto Joule) un’alta dissipazione di energia sulle linee di trasmissione fino anche alla fusione dei cavi. Facciamo un semplice esempio: si voglia trasportare per un tratto di 10 km una potenza di 100 kW usando un cavo di rame di 1.5 cm di raggio. Il cavo avrà quindi una resistenza elettrica totale RT = ρCu · l/S ∼ 0.24 Ω , con ρCu ≃ 1.7 · 10−8 Ωm, resistività del rame e S ∼ 7.1 cm2 , sezione del cavo. Se usassimo BT (220 V ) dovremmo immettere nel cavo una corrente i1 = P/Vef f ∼ 0.45 kA, che produrrebbe una dissipazione Joule sul cavo di PJoule,1 = RT · i21 ∼ 0.5 · 105 W, corrispondente al 50% di quanto si vorrebbe utilizzare, quindi inaccettabile (con alti rischi anche della fusione del cavo!). Se invece utilizziamo la MT (∼ 2.2 · 104 V), la corrente sul cavo si ridurrebbe a i2 ∼ 4.5 A e conseguentemente la dissipazione Joule sarebbe in questo caso di PJoule,2 ∼ 5 W, praticamente nulla rispetto a quella trasportata. Si può quindi anche pensare a ridurre la sezione del cavo fino a limiti di dissipazione accettabili ma con evidente semplicità ed economicità costruttiva. Si lascia al lettore la valutazione della convenienza nell’uso dell’AT. Ovviamente il trasporto in AT comporta grossi problemi d’isolamento 13 , ampiamente compensati dai vantaggi di efficienza nel trasporto dell’energia. La BT monofase normalmente utilizzata per usi domestici ha una Vef f ∼ 220 V e può essere molto pericolosa. Infatti una corrente iM ∼ 17 mA a 50 Hz che attraversa il nostro corpo può risultare mortale (per soggetti deboli). Il corpo umano presenta una resistenza elettrica totale RT data dalla somma della resistenza della pelle Rpelle ≈ 3 kΩ (pelle asciutta) e Rpelle ≈ 102 Ω (pelle bagnata), e dalla resistenza interna degli organi stimabile in Rinterna ≈ 100−500 Ω. Convenzionalmente viene assunta una RT ≈ 3 kΩ 14 . Conseguentemente la tensione minima pericolosa a 50 Hz sarà im · RT ∼ 50 V. L’impianto domestico deve prevedere quindi non solo l’alimentazione (con 2 fili, uno per la fase [colore marrone] e l’altro per il neutro [colore blu]), ma anche un terzo cavo [colore giallo/verde], collegato a terra, tramite un opportuno dispersore, che dovrà sempre essere presente in tutte le prese di tensione, spine ed elettrodomestici. Tuttavia si può sempre verificare un incidente e creare un contatto della fase con qualche elemento metallico; in questo caso si potrebbe creare un serio pericolo per chi entrasse in contatto con l’elemento sotto tensione (soprattutto se non adeguatamente isolato da terra). Per questo sono stati imposti gli interruttori differenziali (chiamati anche salvavita), che sconnettono (entro alcuni ms dall’incidente eventuale) l’alimentazione generale dell’impianto monofase dell’abitazione. Con riferimento alla Fig.(6.3) la linea di fase dell’alimentazione è avvolta, in forma di bobina, (P1 nella figura), su un toro di materiale ferromagnetico per poi andare al circuito di utilizzazione, Figura 6.3: Schema di un interruttore rappresentato nella figura da Ru , dove dovrebbe scorrere differenziale 12 Sono i grandi e alti tralicci metallici che sostengono 4 grossi cavi, di cui il centrale è il neutro e i tre laterali, disposti a 120◦ , trasportano le 3 fasi della c.a. 13 Esistono prescrizioni severe nelle distanze minime da rispettare per costruzioni, coltivazioni, attività di ogni tipo, dalle linee ad AT per evitare scariche elettriche mortali ma anche fonti d’incendi. 14 Gli effetti prodotti dal passaggio della corrente elettrica sono molteplici, vanno dalla semplice scossa muscolare alla tetanizzazione [contrazione permanente dei muscoli] all’arresto respiratorio e alla fibrillazione ventricolare fino alla folgorazione. Si consiglia di consultare un testo di fisiologia al riguardo per poi illustrare, magari con la collaborazione dell’insegnante di Scienze, ai ragazzi i pericoli collegati con l’uso non consapevole dell’energia elettrica. 81 una corrente I. Se in Ru si ha una dispersione Id verso terra, nel percorso di ritorno verso il neutro la corrente diminuirà a I − Id e nella bobina P2 , avvolta in senso contrario a P1 sul toro, il flusso magnetico nel toro non sarà più nullo, ma diverso da zero. Conseguentemente, per la legge di Faraday-Neumann, nella bobina S si genera una tensione indotta che alimenta un relais SW che stacca (quasi immediatamente, entro alcuni ms) l’alimentazione generale all’impianto permettendo il controllo del malfunzionamento e il ripristino delle condizioni di sicurezza. Al fine di operare in regime di massima sicurezza, è sempre consigliabile di toccare un elemento metallico, su cui si sospetta possa esistere una dispersione di tensione d’alimentazione, col dorso della mano e delle dita, per evitare che l’eventuale scossa possa indurre la tetanizzazione permanente dei muscoli della mano e rimanere conseguentemente attaccati al conduttore sotto tensione. Alcune considerazioni (che dovrebbero essere ovvie ma, come spesso si sente, non lo sono) sulla bolletta relativa alla fornitura dell’energia elettrica: • il costo della fornitura dell’energia elettrica è per kWh d’energia fornita, essendo 1 kWh = 3.6 MJ l’unità di misura dell’energia consumata; • il costo dipende dalla fascia di potenza massima utilizzabile, imposta dal cosidetto contatore, che non è altro che un wattmetro con limitazione di potenza erogabile. Questa limitazione serve al gestore dell’energia per sapere la potenza massima che deve erogare, per contratto, in una determinata zona, cioè per sapere quale dovrà essere la massima intensità di corrente che le sue linee dovranno sopportare (la tensione di fornitura è fissa!); • il costo della fornitura dipende dall’orario in cui si utilizza l’energia elettrica, è minore nella fascia notturna e festiva (quando prevedibilmente officine e aziende sono chiuse), è maggiore nella fascia diurna. Per limitare errori e incidenti con l’energia elettrica esiste (dal 1990) una normativa europea (CEI 164/EN60446) che impone l’uso di colori ben definiti per i fili utilizzati per realizzare impianti elettrici: • c.a. trifase: blu → neutro, nero → fase Linea1, grigio → fase Linea2, marrone → fase Linea3, altri colori → usi generali di circuito; • c.a. monofase: blu → neutro, marrone → fase, giallo/verde → terra; • c.c.: rosso → conduttore +, nero → conduttore - . Riportiamo nella Fig.(6.4), per sollecitare la curiosità dei futuri insegnanti anche su aspetti tecnici (ma spesso di DEV 2 1111111 1111 0000 0 1 0 1 grande interesse pratico), uno schema di un impianto di ali- 0000000 0 1 0 1 0 1 DEV 1 0 1 0 1 mentazione di un punto-luce con due deviatori, che permette 0 1 0 1 0 1 0 1 0 1 di accendere e spengere da due punti diversi della stanza il 0 1 0 1 0 1 0 1 0 1 punto-luce considerato. 0 1 0 1 0 1 111111111111111 000000000000000 111111111 000000000 Ovviamente per schemi molto più complessi di accenPL sione/spegnimento (di diversi punti-luce ecc.) la situazione 220 V sarà molto più elaborata e rimandiamo ai testi specifici al riguardo. Figura 6.4: Schema di un impianto di illuminazione con due punti di accensione/spegnimento. 82 Appendice A Introduzione fenomenologica alla meccanica quantistica I nuovi programmi della scuola secondaria superiore (licei) prevedono che all’ultimo anno del corso di Fisica siano impartiti anche cenni introduttivi alla Meccanica Quantistica. L’argomentazione usata dalla propaganda ministeriale è che bisogna iniziare a insegnare ai giovani scienziati del futuro la Fisica del XX secolo e non limitarsi a quella sviluppata fino alla fine del XIX secolo. Potrebbe sembrare un argomento ragionevole ma invece rivela la solita logica superficiale (e sostanzialmente miope) dei nostri ministeri, fra cui eccelle (in questo atteggiamento dannoso) il MIUR. Infatti la Fisica (come la Matematica, la Chimica ecc.) è una scienza logico-deduttiva, che procede per passi di conoscenze e acquisizioni successive. Occorre aver ben chiare tutte le conoscenze logicamente e cognitivamente precedenti, non solo e non tanto temporalmente, ma soprattutto dal punto di vista formativo. Poiché l’ignoranza (in senso strettamente etimologico del termine) della popolazione scolastica media aumenta a ritmo vertiginoso 1 , le conoscenze realmente acquisite (forse sarebbe meglio dire metabolizzate) dagli studenti liceali in Fisica non sono, in media, sufficienti a coprire nemmeno una parte della Fisica cosidetta classica. Sembra quindi “ardito” (per non dire insensato) proporre loro un percorso difficile e impegnativo come quello di iniziare i prodromi della Meccanica Quantistica. Tuttavia la disposizione esiste e i colleghi che insegnano Fisica nei licei si trovano conseguentemente in grande difficoltà. Abbiamo pensato di preparare alcuni appunti basati soprattutto sulle evidenze sperimentali che hanno portato, nel primo quarto del XX secolo, grandi fisici (ma spesso anche grandi Uomini) a creare questo edificio culturale bellissimo, ma molto difficile, che è la Meccanica Quantistica, come la conosciamo e usiamo adesso. Va subito detto che la sua applicazione riguarda principalmente il microcosmo 2 , cioè i fenomeni che avvengono dalle scale molecolari ≈ 10−9 m fino a quelle subnucleari < 10−15 m. La Fisica classica newtoniana conserva tutta la sua validità e bellezza per tutti i fenomeni che avvengono nella scala antropocentrica e con velocità trascurabili rispetto alla velocità di propagazione della radiazione elettromagnetica nel vuoto; nel caso opposto occorre far ricorso, come ben noto, alla correzione relativistica, come sviluppata da Einstein. Risulterà subito evidente che per seguire proficuamente gli argomenti proposti è necessario che i principali capitoli di Fisica Generale (soprattutto l’Elettrologia) siano stati ben compresi e assimilati. Questo obbiettivo è estremamente ambizioso e solo pochi studenti (ma purtroppo anche non tutti i docenti) lo raggiungono e senza questo prerequisito, assolutamente necessario, sarà inutile qualunque sforzo per avvicinarsi alla comprensione del mondo della microfisica. La concatenazione logica e conoscitiva delle varie esperienze e spiegazioni fisiche che hanno portato alla formalizzazione della meccanica quantistica alla fine degli anni ’30 del secolo scorso è piuttosto articolata 1 Basta leggere una qualunque relazione scritta da studenti universitari dei primi anni per rendersene conto, in cui si trovano errori di ortografia clamorosi, consecutio temporum strampalate, frasi mozze, vuoti drammatici nelle fondamentali conoscenze di matematica elementare, tipo impossibilità di risolvere una proporzione, oppure attonita meraviglia alla domanda di scrivere il volume di una sfera di dato raggio e simili beatitudini! 2 In realtà questo è vero solo parzialmente perché esistono fenomeni quantistici che si verificano anche su scale macroscopiche. come la superfluidità e la superconducibilità, nei quali entra in gioco pesantemente anche la temperatura 83 Onde Esp. classiche diffrazione e interferenza: comportamento ondulatorio Corpo nero → ∆E discreti e quantizzati Corpuscoli Teoria cinetica gas, chimica → atomi, molecole Eff. Hall → portatori cariche negative nei conduttori Raggi X → alta penetrazione Radioattività naturale → α, β, γ Esp. Thomson → elettroni, misura di −(e/me ) Esp. Millikan → e− (valore minimo) → me Effetto fotoelettrico → fotoni → dualismo onda/corpuscolo Esp. Rutherford → atomi ≡ strutture localizzate (nucleo + con e− periferici) Teoria Bohr Spettri atomici → strutture discrete dei livelli energetici dell’atomo Esp. Franck-Hertz → quantizzazione orbite e− nell’atomo Esp. Compton → fotoni trasportano Esp. Davisson-Germer → particelle mostrano ~ e p~, come corpuscoli E comportamenti “ondosi” (diffrazione) Particelle atomiche → dualismo onda/corpuscolo De Broglie, Heisenberg, Schroedinger, Dirac, .... → Meccanica Quantistica, necessaria per trattare fenomeni atomici, nucleari, subnucleari. Tabella A.1: Quadro sinottico delle connessioni fisiche e conoscitive che hanno portato alla meccanica quantistica. e non “lineare”. Abbiano tentato di riassumerla nella tabella A.1 che speriamo risulti chiara e autoesplicativa. Nella nostra esposizione del testo seguiremo invece un percorso storico-cronologico per evidenziare anche come le diverse nuove acquisizioni si siano mutuamente influenzate, in modo cosı̀ efficiente e, tutto sommato, affascinante. A.1 Lo spettro della radiazione di corpo nero Abbiamo già trattato (v. paragr. 4.1.3) il corpo nero e le leggi che descrivono l’andamento spettrale della radiazione emessa da un corpo nero, che rappresenta una della innumerevoli astrazioni-limite (punto materiale, sistema rigido, sistema di riferimento inerziale, gas perfetto, trasformazione quasi-statica ecc.) tipiche della Fisica, situazioni a cui ci possiamo avvicinare quanto si vuole nei limiti delle precisioni sperimentali richieste dall’analisi fisica dei fenomeni studiati. Ci riferiamo all’ottima trattazione quantitativa sviluppata su questo argomento nel volume C.Mencuccini - V.Silvestrini, FISICA II, ed. Liguori, NA, 1998, paragr. XII.1 e XII.2, a cui rimandiamo senza ripeterne qui i dettagli. Ricordiamo solo che un corpo nero è realizzabile tramite una cavità, praticata in un corpo termicamente conduttore mantenuto a temperatura costante T . La cavità è in comunicazione con l’esterno (dove c’è il vuoto) tramite una piccola apertura ∆S, le cui dimensioni lineari sono trascurabili rispetto alle dimensioni della cavità, in modo da garantire che eventuali scambi di energia sotto forma di radiazione elettromagnetica fra l’interno e l’esterno della cavità non possano alterare la stazionarietà dell’equilibrio esistente fra i processi di emissione e assorbimento della radiazione da parte delle pareti della cavità e, conseguentemente, si possa assegnare al campo di radiazione esistente nella cavità ( e analizzabile tramite il pennello di radiazione che può fuoriuscire da ∆S) la temperatura T . La radiazione elettromagnetica presente nella cavità dovrà essere uniforme e isotropa. Infatti se non fosse uniforme si potrebbero individuare almeno due punti P1 e P2 all’interno della cavità fra cui si potrebbe stabilire un flusso di energia raggiante; ma questo è proibito dal secondo principio della termodinamica, essendo il sistema stazionario e isotermo. L’isotropia è garantita dal fatto che se, nell’intorno di un punto P , interno alla cavità, esistessero almeno due direzioni spaziali per cui la radiazione elettromagnetica presentasse intensità diverse, queste potrebbero essere messe in equilibrio fra loro (tramite una serie di opportune 84 superfici riflettenti, anch’esse alla temperatura T ) e realizzare quindi uno scambio di energia partendo solo da due situazioni isoterme e violando cosı̀ ancora il secondo principio della termodinamica. Con un ragionamento analogo si può adesso dimostrare che la radiazione elettromagnetica contenuta in due cavità di corpo nero isoterme non può dipendere né dalla forma né dalla dimensione della cavità. Se cosı̀ fosse, si potrebbero collegare otticamente (tramite una lente e un filtro interferenziale a banda stretta, in modo da poter considerare la radiazione che fuoriesce come praticamente monocromatica) le due aperture verso l’esterno delle due cavità nere e realizzare un trasferimento di energia raggiante da quella a contenuto energetico superiore a quella a contenuto minore. Ma essendo le due cavità isoterme questo è proibito sempre dal secondo principio della termodinamica e quindi l’assunto è dimostrato. In conclusione possiamo dire che la densità di energia monocromatica della radiazione di corpo nero contenuta nella cavità considerata non può dipendere che dalla temperatura T della cavità e dalla frequenza (o dalla lunghezza d’onda) a cui si considera. Si può allora scegliere, per semplicità, una cavità quadrata di spigolo a e volume V = a3 . Rimandando al paragrafo XII.1 del citato testo di C.Mencuccini - V.Silvestrini per i dettagli dei calcoli sviluppati, si può dimostrare 3 che la densità numerica di onde monocromatiche elementari nν presenti nell’unità di volume della cavità quadrata nell’intervallo di frequenze fra ν e ν + dν è nν dν = 8π 2 · ν dν c3 (A.1) La statistica classica di Boltzmann, sviluppata nella seconda metà del XIX secolo, assegnava, a ogni grado di libertà di un sistema termodinamico caratterizzato da una temperatura termodinamica T , un’energia kB T , essendo kB = R/NA = 1.38066 10−23 J/K la costante di Boltzmann, definita dal rapporto fra la costante dei gas perfetti R e il numero di Avogadro NA . Si otteneva conseguentemente che, moltiplicando la nν della (A.1) per kB T , la densità di energia monocromatica risultava (formula di Rayleigh-Jeans 4 ), espressa sia in funzione della frequenza ν che della lunghezza d’onda λ della radiazione considerata 5 , fν (T ) = 8π · kB T · ν 2 c3 ; fλ = 8π · kB T λ4 (A.2) La formula di Rayleigh-Jeans approssima abbastanza bene l’andamento dello spettro della radiazione di corpo nero per alte λ (o basse ν), ma si discosta brutalmente dall’andamento dello spettro misurato della radiazione di corpo nero nelle altre zone spettrali. Soprattutto è inaccettabile perché prevede la cosidetta catastrofe dell’UV, cioè che andando a integrare l’emissione su tutto lo spettro si troverebbe l’assurdo di un’emissione integrata che → ∞. Il problema fu risolto da Planck (nel 1900), che suppose (lui stesso dice ...per disperazione!) che gli scambi energetici fra le pareti della cavità e il campo di radiazione interno avvenissero SOLO per multipli interi di una quantità elementare di energia, proporzionale alle frequenza della radiazione considerata, secondo la relazione E = h · ν ; h = costante di P lanck = 6.6263 10−34 Js (A.3) In altre parole, per ogni valore di ν, gli scambi energetici fra il campo elettromagnetico interno alla cavità e le pareti della cavità stessa possono assumere, in condizioni stazionarie, solo i valori discreti E = hν, 2hν, 3hν, 4hν, ... nhν.. con n → intero (A.4) Formalmente, mentre nella trattazione classica si determina l’energia media corrispondente alla frequenza ν considerata tramite un integrale, nella trattazione di Planck, essendo non più nel continuo ma nel discreto, si usano sommatorie. Nel nostro caso non è difficile mostrare 6 che il limite di questa serie, corrispondente all’energia media degli scambi energetici prima detti per la frequenza ν, vale E= hν exp(hν/kB T ) − 1 3 Sostanzialmente si usa il teorema di Fourier per esprimere il campo elettromagnetico in serie di onde monocromatiche stazionarie, aventi nodi sulle pareti conduttrici della cavità. 4 L’evoluzione storica delle leggi fisiche sulla radiazione di corpo nero: legge di Stefan (sperimentale), 1879, giustificata classicamente da Boltzmann, 1884; legge di Wien (ma con argomentazioni non molto convincenti), 1886; legge di RayleighJeans, 1990 e 1905. 5 Ricordiamo che nella trasformazione delle quantità energetiche radiative si deve imporre che g(ν) · dν = g(λ) · dλ, mediante le sostituzioni ν = c/λ e dν = c · dλ/λ2 . 6 Vedere esempio E.XII.1 del paragrafo XII.2 del testo citato di C.Mencuccini - V.Silvestrini. 85 che, con la (A.1), fornisce l’esatto andamento dello spettro della radiazione del corpo nero, e cioè fν (T ) = hν 8π · ν 2 · c3 exp(hν/kB T ) − 1 (A.5) che è esattamente quanto avevamo presentato nel paragrafo 4.1.3. Si noti che l’ipotesi di Planck riguarda gli scambi energetici che avvengono a livello microscopico, atomico e molecolare, della materia, per il valore molto piccolo della costante di Planck h. Solo con radiazioni di frequenza elevata (si pensi al range dello spettro visibile, con ν ≈ 1014 Hz) e con un numero elevatissimo di scambi energetici si possono raggiungere livelli d’intensità misurabili in termini macroscopici tipici del nostro livello di uso comune. A.2 Lo spettro dell’atomo di idrogeno Lo spettro di emissione dell’atomo d’idrogeno presenta solo 4 righe nel visibile, di cui riportiamo le lunghezze d’onda (in µm) Hα 0.656280 [rosso] Hβ 0.486136 [celeste] Hγ 0.434049 [blu] Hδ 0.410167 [violetto] La posizione in lunghezza d’onda di queste righe tende ad avvicinarsi e Balmer (1885), fotografando anche le righe successive (vedi Fig.A.1), nell’UV vicino, mostrò che realmente tendono ad affittirsi fino a un limite attorno a λ = 0.3645979 µm. Misurò tutte le lunghezze d’onda delle righe che riuscı̀ a registrate e trovò (dopo affannosi tentativi) che la regolarità nell’apparente posizione in lunghezza d’onda delle varie righe della serie (che poi da lui prese il nome) poteva essere espressa dalla relazione Figura A.1: Serie di Balmer dell’idrogeno n2 B = 0.36450682 µm, n > 2 intero (A.6) λn (Balmer) = B · n2 − 4 Era più semplice esprimere matematicamente la regolarità di posizione delle varie righe della serie di Balmer tramite il loro numero d’onde ν = 1/λ per cui la (A.6) diviene conseguentemente 1 4 1 ν(Balmer) = Ry · con Ry = − , n > 2 intero (A.7) 22 n2 B La costante Ry = 1.0973731568 · 10 µm−1 è detta costante di Rydberg (per l’atomo di Idrogeno) 7 . Nel 1908 Paschen scoprı̀ che nel vicino IR l’idrogeno emetteva una serie di righe (che da lui prese in nome) con lo stesso andamento regolare in lunghezza d’onda della serie di Balmer, esprimibile come 1 1 ν(P aschen) = Ry · − 2 n > 3 intero (A.8) 32 n Nel 1914 Lyman scoprı̀ nell’UV lontano una serie simile alle precedenti (serie di Lyman), le cui posizioni dei numeri d’onda erano esprimibili come 1 ν(Lyman) = Ry · 1 − 2 n > 1 intero (A.9) n Furono in seguito scoperte le serie spettrali successive di Brackett (IR medio) e di Pfund (FIR); i numeri d’onda di tutte le righe (indicate dalla lettera n) di queste serie spettrali (indicate dalla lettera m) dell’Idrogeno potevano essere espresse nella stessa forma come 8 1 Ry 1 Ry ν n (m) = Ry · − 2 = 2− 2 n > m entrambi interi (A.10) 2 m n m n 7 Valore 8m attuale da physics.nist.gov. = 1 → Lyman, m = 2 → Balmer, m = 3 → Paschen, m = 4 → Brackett, m = 5 → Pfund. 86 Lyman (m=1) Lα 10.20 eV Lβ 12.09 eV Lγ 12.76 eV Lδ 13.06 eV Lǫ 13.23 eV L7 13.33 eV L8 13.39 eV Balmer (m=2) Paschen (m=3) Hα 1.89 eV Hβ 2.55 eV Hγ 2.86 eV Hδ 3.02 eV Hǫ 3.12 eV H8 3.19 eV Pα 0.66 eV Pβ 0.97 eV Pγ 1.13 eV Pδ 1.23 eV Pǫ 1.30 eV n 2 3 4 5 6 7 8 Tabella A.2: Livelli energetici dell’atomo di H. Per inciso, la (A.10) suggerisce un utilissimo esercizio da proporre agli studenti. Sul sito web del National Institute of Standard and Technology www.nist.gov, alla sezione Physics, sottosezione Atomic Spectra Database Lines, si trovano le lunghezze d’onda di tutte le righe misurate dello spettro di emissione dell’H 9 . Ricavando le νn (m) (in numeri d’onda per µm) per le prime 8-10 righe delle serie di Lyman, Balmer e Paschen (ma si può anche continuare!), riportandole in grafico in funzione di 1/n2 , si vede che si ottiene un grafico lineare di cui si può facilmente stimare il coefficiente angolare (che deve dare il valore della costante di Rydberg, espresso in µm), mentre il termine noto fornisce al quantità Ry /m2 , controprova della corretta determinazione di Ry . La (A.10) esprime analiticamente il principio di combinazione di Rydberg-Ritz della spettroscopia classica. Fu quindi evidente che la regolarità delle serie di righe spettrali dell’H era una proprietà intrinseca dell’atomo di idrogeno. Il principio di Kirchhoff della spettroscopia classica afferma che qualunque sostanza è capace di assorbire solamente le radiazioni che è capace di emettere, cioè lo spettro di assorbimento di una sostanza è come il “negativo” del suo spettro di emissione. L’ipotesi quantistica di Planck suggerisce che, a livello microscopico, gli scambi energetici col campo elettromagnetico possano avvenire, in situazioni stazionarie, per quantità discrete proporzionali alla frequenza ν della radiazione. Si può quindi scrivere il principio di Ritz in funzione di termini energetici semplicemente moltiplicando la (A.10) per h c 10 . A livello atomico è conveniente (e vedremo presto perché) esprimere gli scambi energetici usando, come unità di misura l’eV , cioè l’energia acquistata dall’unità di carica sottoposta alla differenza di potenziale di 1 V . Essendo h c = 1.9864685 10−25 Jm ed essendo 1 eV = 1.60218 10−19 J, esprimendo le lunghezze d’onda delle diverse righe spettrali considerate in µm, otterremo i valori delle energie trasportate da ciascun quanto d’energia raggiante nella riga considerata ∆En (m) = 1.24 eV ·µm/λn (µm) e questi valori sono riportati nella tabella A.2 per le prime righe delle prime 3 serie spettrali dell’H. È evidente dai dati della tabella A.2 che l’energia trasportata dalla Hα è esattamente la differenza fra Lβ − Lα , l’energia della Pα = Hβ − Hα = Lγ − Lα e cosı̀ via. Quindi l’atomo di idrogeno è strutturato per livelli energetici stazionari e discreti, contraddistinti dal numero d’ordine n, a cui corrispondono livelli energetici ben definiti e indicati dai livelli della serie di Lyman. Il livello n = 1 Figura A.2: Diagramma di è detto livello fondamentale, cioè a energia minima, mentre il primo Grotrian per i livelli energetici livello eccitato si trova a 10.21 eV ed è il livello energetico di partenza principali dell’idrogeno 9 Questo sito offre ottime sollecitazioni a uno studente attento: allena all’uso della lingua e dei termini scientifici inglesi, presenta lo stato dell’arte per la misura delle costanti fisiche fondamentali, fornisce dati attendibilissimi e specifiche su alcuni esperimenti (anche di Fisica attuale) interessanti, elenca tutti i convegni più importanti in corso di organizzazione, suggerisce e fornisce (spesso gratuitamente) le pubblicazioni scientifiche del nist, può solleticare la curiosità del lettore attento anche su altri argomenti di Fisica. 10 ∆E (m) = h ν (m) = h c ν (m) = h c/λ (m) n n n n 87 della transizione Lα in emissione, mentre la Hα si origina in emissione per la transizione dal livello n = 3 a n = 2 e cosı̀ via per tutte le righe delle altre serie. Una chiara rappresentazione visiva di questa struttura è fornita dal diagramma di Grotrian per i livelli energetici principali dell’H, mostrato in Fig.A.2. A.3 Effetto Hall Richiamiamo brevemente l’effetto Hall (1879) solo per ricordare che anche classicamente si era riusciti a dimostrare che le correnti di conduzione erano dovute a moti di cariche negative. L’effetto Hall consiste nel fatto che in una sbarretta conduttrice a forma di parallelepipedo rettangolare, di sezione s · d e lunghezza l, percorsa da una corrente continua di intensità I, sottoposta a un ~ ortogonale al vetcampo magnetico di induzione B, ~ tore densità di corrente J e allo spigolo d, si genera una d.d.p. ∆VH fra punti della striscia conduttrice A d B a) VH posti in vicinanza dei bordi esterni della striscia ma J C s allineati al lato d (v. Fig.A.3, a), punti A e C, per l esempio). + + + + − − − − I portatori di cariche, in moto con una velocità di deri− d + va ~v per effetto di una d.d.p. applicata all’esterno del- d b) v+ ES v− ES − − − − la sbarretta da un opportuno generatore di tensione, + + + + ~ per B sono soggetti alla forza di Lorentz F~L = n q ~v × B l l 11 ~ la presenza del campo B . Tale forza produce un accumulo di cariche sulle superfici laterali che genera un Figura A.3: Schema illustrante l’effetto Hall ~ S , diretto lungo d e con i versi campo elettrostatico E indicati nella Fig.A.3, b), che si oppone al campo elettrico (non conservativo), indotto dall’effetto Hall, vB. In situazione stazionaria avremo che ES = v B e questo ES crea una VH = ES d = v B d = V (C)− V (A), che si può misurare fra le facce laterali della sbarretta (v. punti A e C in Fig.A.3, a)) con un opportuno microvoltmetro 12 . Ricordando che I = J s d = n q v s d, con q carica elettrica dei portatori e n il numero di portatori di carica per unità di volume, otteniamo v= I nqsd ; VH = RH · I B s RH = 1 nq (A.11) RH viene detta la costante di Hall, il cui valore risulta mediamente dell’ordine di ∼ 10−11 m3 /C. Per i conduttori metallici RH assume valore negativo, indicando che in questo tipo di conduttori i portatori di carica sono negativi, cioè elettroni 13 . A.4 La scoperta della radiazione X e della radioattività naturale Nel 1895 Roentgen scoprı̀ i raggi X studiando la conduzione di correnti elettriche in tubi contenenti gas rarefatti 14 . Queste radiazioni avevano la capacità di attraversare spessi strati di materia e venivano rilevati inizialmente dalla loro capacità di impressionare lastre fotografiche poste al riparo in contenitori 11 È bene ricordare che il verso della forza di Lorentz è indipendente dal segno dei portatori di cariche, perché se i portatori sono negativi si inverte anche il segno di v, cioè quello che conta è il verso di J~ = q · ~ v, densità di corrente, per cui, fissato il ~ le cariche si separeranno sempre nello stesso modo, accumulandosi cioè dalla stessa parte laterale della sbarretta, verso di B, per cui il segno della VH misurata evidenzia inequivocabilmente il segno dei portatori di carica. Nella Fig.A.3, con il campo ~ uscente dal foglio, se i portatori di carica sono positivi le cariche positive si accumulano nel lato C della sbarretta, e B quindi quelle negative vanno verso il lato A, inversamente se i portatori di carica sono negativi. 12 Il valore di V H è dell’ordine di alcuni µV , per cui è fondamentale eseguire la misura minimizzando possibili errori sistematici e quindi i puntali del microvoltmetro vanno posizionati in punti A e C piazzati ortogonalmente alla direzione di ~ È comunque consigliabile controllare l’azzeramento della lettura del microvoltmetro con B ~ nullo. J. 13 A seguito dell’esperienza di Millikan è stato evidenziato che q assume, in media, un valore per atomo dell’ordine di 1 − 2 cariche elementari (1.3 → Cu, 1.4 → Ag, 1.8 → Au). 14 Sappiamo adesso che raggi X si originano per radiazione di frenamento di elettroni a energia elevata, dell’ordine del keV , che vengono frenati nell’urto contro l’anodo metallico positivo. 88 schermati. Non erano influenzati né da campi elettrici né da campi magnetici, per cui non trasportavano cariche elettriche. Fu dimostrato da Laue (1912)15 che venivano diffratti da un reticolo cristallino, per cui si dedusse che fossero onde elettromagnetiche di corta lunghezza d’onda (≈ 10−10 m). Nel 1896 Becquerel, studiando la fosforescenza indotta da raggi X su vari materiali, mentre stava analizzando il comportamento del solfato di 92 U , scoprı̀ che questa sostanza era capace di annerire una lastra fotografica anche se tenuta lontana dalle sorgenti di raggi X e completamente al buio. Questo significava che l’92 U emetteva radiazioni molto penetranti, che riuscivano a passare anche attraverso schermi apparentemente impenetrabili. Mettendo sali di 88 Ra entro un contenitore di Pb (materiale che dimostrava un effetto schermante molto efficiente per queste radiazioni allora sconosciute), con spesse pareti ma con un piccolo forellino su una parete, riusciva in tal modo a produrre un sottile pennello di queste radiazioni, che venivano fatte passare in una zona di spazio in cui era presente un campo ~ costante e uniforme, che Figura A.4: Schema illustrante l’esperimento di di induzione magnetica B supporremo entrante nel piano dell’esperimento, in Becquerel accordo con la Fig.A.4. Sulla lastra fotografica antistante si rivelavano 3 distinte zone impressionate: 1. prima zona allineata col foro di uscita del fornetto e ortogonale al piano della lastra fotografica; ~ non aveva avuto nessun effetto deviante sulla traiettoria questo significava che il campo magnetico B di questo raggio, che fu chiamato raggio γ. Successivamente fu determinato essere costituito da radiazione elettromagnetica di lunghezza d’onda molto inferiore ai raggi X (≈ 10−13 m). 2. una seconda zona, a destra della precedente, e questo raggio fu chiamato raggio β, successivamente identificato come un elettrone ad alta velocità. 3. una terza zona, a sinistra dell’immagine centrale del raggio γ, meno deviata di quella del raggio β, chiamata raggio α, successivamente identificato come un nucleo di 4 He, composto da due protoni e due neutroni (uno dei nuclei più stabili che si conoscano). Nel 1898 Pierre Curie e sua moglie Marie Sklodowska studiarono più in dettaglio le radiazioni α, β e γ emesse dall’ 92 U e scoprirono nella pechblenda (un minerale di uranite, U O2 , con giacimenti in Boemia) due nuovi elementi chimici naturali, il 90 T h e il 84 P o, che mostravano attività radioattive anche superiori a quelle dell’92 U , dando cosı̀ origine allo studio sistematico della radioattività naturale. A.5 Esperienza di Thomson per la misura della carica specifica dell’elettrone L’esistenza dell’elettrone era già stata ipotizzata nella seconda metà del XIX secolo per spiegare alcuni fenomeni chimici (elettrolisi, bilanciamento delle reazioni di ossido-riduzione, ecc.). Solo nel 1897 J.J. Thomson, nello studio della conduzione elettrica nei gas rarefatti, riuscı̀ a misurare la carica specifica, ovvero il rapporto e/me , dell’elettrone. Con riferimento alla Fig.A.5, in un tubo a vuoto vengono prodotte cariche elettriche negative per effetto termoelettrico in R, che poi vengono accelerate da una griglia A, posta a un conveniente potenziale positivo. Il fascetto di cariche negative va a colpire uno schermo fluorescente S, creando una piccola macchia luminosa, allineata con l’asse centrale del tubo. Fra le due placche Py1 e Py2 viene applicata una differenza di potenziale tale 16 da deflettere il fascetto di cariche negative verso ordinate positive 15 La famosa esperienza di von Laue, Friedrich e Knipping (1912) dimostrò non solo che i raggi X erano radiazioni elettromagnetiche, ma anche che gli atomi, nei cristalli, erano strutture reticolari regolari. 16 Elettrodo P y1 positivo ed elettrodo Py2 negativo. 89 Figura A.5: Schema illustrante l’esperimento di J.J. Thomson per la misura della carica specifica dell’elettrone Figura A.6: Sistema di riferimento per la deflessione degli elettroni nella esperienza di J.J. Thomson (lo schermo è riferito a un sistema cartesiano ortogonale con origine nel centro di simmetria del tubo e ordinata positiva verso l’alto). L’entità della deflessione ys vale 17 1 e E l2 (A.12) ys = · 2 me v◦2 dove E è il modulo del campo elettrico esistente fra le placche Py1 e Py2 e v◦ è il modulo della velocità delle cariche nel punto A (vedi Fig.A.6). Fra le placche Px1 e Px2 si applica (mediante bobine esterne al tubo) un campo magnetico di vettore d’in~ avente direzione perpendicolare al piano della Fig.A.6, tale da riportare il fascetto nell’origine duzione B, del sistema di coordinate (cioè nel punto in cui si trovava prima dell’applicazione del campo elettrico E). Conoscendo B e ricordando la relazione che lega la forza di Lorentz al moto di una carica in un campo magnetico 18 si ricava v◦ F~tot ~ + ~v◦ × B ~ = 0 → v◦ = E =E (A.13) e B Combinando la (A.12) e la (A.13) si ottiene per la carica specifica dell’elettrone la relazione 2 ys E e = 2 2 me B l (A.14) Dalla misura sperimentale delle grandezze a secondo membro della (A.14) si ottiene un valore per la carica specifica dell’elettrone di −1.7588192 1011 C/kg. Thomson 19 propose un modello di atomo costituito da una sfera contenente cariche positive uniformemente distribuite, in cui si trovavano gli elettroni negativi, distribuiti isotropicamente. In altre parole una specie di panettone sferico, carico positivamente, in cui l’“uvetta” era rappresentata dagli elettroni. Un’interessante evoluzione dell’esperienza di Thomson per la misura della carica specifica dell’elettrone è costituita da un tubo a raggi catodici, contenente idrogeno a bassa pressione (∼ 10−5 bar), immerso in bobine di Helmholtz 20 . Il percorso del pennello di elettroni nell’ampolla è visualizzato da una traccia luminosa dovuta all’eccitazione collisionale delle molecole di H2 , che si diseccitano emettendo radiazione elettromagnetica a ∼ 450 nm. Con una semplice calamita è quindi possibile alterare facilmente il percorso degli elettroni, avvicinandolo a noi, allontanandolo, distorcendolo, a seconda della posizione della calamita e del suo orientamento nello spazio. Si tratta di una possibile esperienza tattile sul moto degli elettroni che gli studenti (più attenti) non dimenticheranno facilmente. 17 Rivedere su un testo di elettromagnetismo il paragrafo sugli effetti dinamici dei campi elettrici su cariche in moto. ~ (A.13) è anche un modo di definizione operativa del campo d’induzione magnetica B. 19 Il termine elettroni per indicare cariche negative elementari fu usato per la prima volta dal fisico irlandese G. Stoney nel 1874 e lo derivò dal greco ηλǫκτ ρoν, che significa “ambra”, la resina naturale fossile facilmente elettrizzabile per strofinio. 20 Si consiglia di esaminarla sul sito hep.fi.infn.it/ol/samuele/ → Schede esperimenti di laboratorio. 18 La 90 A.6 Esperienza di Millikan Nel 1913 Millikan pubblicò i risultati della sua esperienza per la misura della carica elementare di un elettrone. Con riferimento alla Fig.A.7 in un contenitore di vetro (per evitare correnti d’aria e contaminazioni di varia natura) sono poste due placche metalliche orizzontali, separate da una distanza d, che costituiscono sostanzialmente un condensatore; mentre l’armatura inferiore è posta a massa, quella superiore può essere tenuta a una differenza di potenziale positiva e costante, (variabile con un opportuno dispositivo esterno) rispetto a massa e presenta un foro centrale. Al di sopra di essa si trova un nebulizzatore in grado di produrre piccole gocce di olio; alcune di queste riescono a passare dal foro e scendono, per gravità, verso la placca inferiore. Alla stessa quota delle armature si trova, all’esterno del contenitore di vetro, un canocchiale, avente nell’oFigura A.7: Schema dell’esperienza di Millikan culare una scala graduata verticale, per seguire il moto di una singola gocciolina d’olio. Quando la d.d.p. fra le armature è nulla, le goccioline hanno un moto uniformemente accelerato in regime viscoso, la cui equazione di moto è, indicando con M la massa della gocciolina e assumendo come verso positivo quello della verticale discendente, M a = M g − FArchimede − Fviscosa . Esplicitandola otteniamo M a= 4 π r3 g (ρ − ρA ) − 6π r η v 3 (A.15) in cui r è il raggio della gocciolina, ρ la densità dell’olio, ρA la densità dell’aria, η il coefficiente di viscosità dell’aria e v la velocità di discesa della gocciolina. All’aumentare di v durante la discesa si ha una costante diminuzione di a fino al momento in cui questa si annulla per un valore limite vG (raggiunto rapidamente considerate le dimensioni ridottissime delle goccioline), che si ottiene dalla (A.15) ponendo a = 0 vG = 2 r2 g (ρ − ρA ) · 9 η → r2 = 9 η vG 2 g (ρ − ρA ) (A.16) Mediante una sorgente di radiazione ionizzante, posta lateralmente all’ampolla di vetro ma schermata alla visuale dell’osservatore, si generano ioni e cariche negative nello spazio fra le armature, alcune delle quali possono depositarsi su una gocciolina d’olio. Se adesso applichiamo una d.d.p +V , rispetto a massa, all’armatura superiore, si genera sulla carica − q della gocciolina una forza elettrostatica − q V /d. Conseguentemente il regime stazionario di discesa della gocciolina si raggiungerà quando 0= 4 V π r3 g (ρ − ρA ) − q − 6π η r vE 3 d (A.17) Tenendo conto del valore di r dato dalla (A.16) e con un paio di semplici passaggi algebrici si ottiene q = 6π η r d (vG − vE ) V (A.18) Ricordiamo che nella (A.18) q rappresenta il valore assoluto della carica depositata sulla gocciolina 21 . Facendo una serie di misure indipendenti si vede che i vari valori di q sono sempre multipli interi di una quantità minima elementare, che rappresenta quindi la carica posseduta da un elettrone e che vale qe = − 1.60217653 10−19 C 22 . Ricordando che la carica specifica dell’elettrone vale − 1.7588192 1011 C/kg, si deduce immediatamente che la massa dell’elettrone risulta me = 0.91093873 10−30 kg. 21 Riportiamo per curiosità alcuni dati originali di Millikan: ρ −4 g/(cm s), olio = 0.896 ρH2 O , η(aria) = 1.836 10 m(gocciolina) ≃ 3.2 10−11 g, tempo di caduta libera su un tratto di 1.01 cm = 22.28 s; ottenne un valore di e che si discostava dai valori attuali per circa 1%. 22 Si consiglia vivamente di esaminare la presentazione dell’esperienza di Millikan fornita da OPENLAB, struttura didattica 91 A.7 Effetto fotoelettrico Nel 1902 Lenard scoprı̀ l’effetto fotoelettrico, mettendo in evidenza un comportamento corpuscolare della radiazione elettromagnetica. In un’ampolla di vetro, in cui è praticato il vuoto, (v. Fig.A.8) sono inseriti un catodo e un anodo, mantenuti a una differenza di potenziale continua (ma variabile sia in segno che in modulo tramite un opportuno sistema potenziometrico esterno), posti in serie a un circuito elettrico, in cui ovviamente non passa corrente essendo catodo e anodo separati dal vuoto. Tramite una finestra laterale in quarzo (necessaria per trasmettere anche radiazione UV) è possibile inviare sul catodo un flusso di radiazione elettromagnetica di frequenza data (tramite un opportuno monocromatore). Si misura che per radiazioni di frequenza superiore a un valore di soglia nel circuito passa una corrente elettrica che non è proporzionale alla tensione V applicata agli elettrodi ma è invece proporzionale all’intensità della radiazione incidente sul catodo (v.Fig.A.9 dove I1 , I2 e I3 sono le correnti massime ottenibili con flussi di radiazione di intensità crescente). Inoltre, applicando una tensione −V agli elettrodi, la corrente nel circuito si azzera per un ben determinato valore di −Varresto , detto potenziale d’arresto, indipendente dall’intensità della radiazione incidente e dipendente solo dalla natura del metallo che costituisce il catodo. Dalla Fig.A.10 si deduce che il lavoro di estrazione, dato da Figura A.8: Schema dell’esperienza −e · Varresto , per un dato metallo, è funzione solo della frequendi Lenard per lo studio dell’effetto za di soglia della radiazione incidente sul catodo e che, in generale, fotoelettrico esiste una evidente relazione di proporzionalità fra il potenziale d’arresto e la frequenza di soglia. Questo quadro sperimentale era incompatibile con la teoria classica dell’elettromagnetismo, che prevedeva per la densità superficiale di potenza di un’onda elettromagnetica P = 1/2 ǫ◦ c E◦2 e, conseguentemente, per l’energia totale ET OT = P · S · t raccolta da una superficie S in un tempo t. Qualunque fosse la frequenza dell’onda elettromagnetica considerata, bastava aspettare un tempo t sufficientemente lungo per cui (ovviamente in assenza di dissipazioni) si poteva accumulare qualunque energia e quindi liberare qualunque numero di elettroni dal catodo. L’intensità di corrente nel circuito considerato doveva dipendere dal tempo e dalla superficie illuminata del catodo, ma non dalla frequenza della radiazione incidente, ma questo non era congruo coi risultati sperimentali. Einstein (1905) spiegò la fenomenologia dell’effetto fotoelettrico supponendo che la radiazione elettromagnetica fosse composta da un flusso di quanti elementari d’energia, i fotoni (riprendendo cosı̀ l’idea di Planck degli scambi energetici elementari della radiazione di corpo nero), ognuno dotato di un’energia E = h ν = h c/λ, con h costante di Planck e ν frequenza della radiazione considerata. In questo modo l’intensità del fascio di radiazione, almeno al momento della sua incidenza sul catodo, sarà espressa da If = n h ν = n h c/λ, con n numero intero ma dal valore grandissimo. È la stessa situazione che si crea quando consideriamo il flusso di una corrente d’acqua, che, nella nostra percezione (per definizione!) antropocentrica, viene rappresentata come una quantità continua, ma in realtà è composta da un enorme corteo di piccolissime molecole d’acqua 23 . Indicando con We = −e · Varresto il lavoro di estrazione di un elettrone dal metallo costituente il catodo, (cioè l’energia che occorre fornire a un elettrone della banda di conduzione del metallo per estrarlo dalla struttura policristallina del metallo), si otterrà l’estrazione di un elettrone a opera dell’assorbimento dell’energia di un fotone solo se h ν ≥ We , cioè se la frequenza della radiazione incidente sul catodo è del Polo Scientifico dell’Università di Firenze, nel sito hep.fi.infn.it/ol/samuele/didactics/millikan.pdf molto precisa sugli aspetti sperimentali e che include anche la correzione di Cunningham, necessaria quando le goccioline hanno dimensioni confrontabili col libero cammino medio in aria delle molecole per raggiungere elevate precisioni nella misura di q. 23 Ricordiamo il valore enorme, per una scala numerica umana, del numero di Avogadro! Per i fotoni, non avendo massa, è impossibile una definizione simile. 92 Figura A.9: Dipendenza dell’intensità di corrente dalla tensione applicata tra anodo e catodo per diverse intensità della radiazione nell’effetto fotoelettrico Figura A.10: Dipendenza del lavoro di estrazione dalla frequenza della radiazione nell’effetto fotoelettrico ν ≥ We /h (in perfetto accordo con quanto riportato in Fig.A.10). L’energia cinetica dell’elettrone che fuoriesce dal catodo è, per il principio di conservazione dell’energia, Kmax = h ν − We , quindi Kmax , per un dato metallo, dipende solo dalla ν della radiazione assorbita, non dalla sua intensità, che abbiamo visto essere If = n h ν, che creerà conseguentemente n fotoelettroni e quindi una corrente elettrica nel circuito di intensità IMAX ∝ n (come riportato in Fig.A.9). Questo spiegava mirabilmente i risultati sperimentali di Lenard, ma apriva un dilemma di importanza enorme per la Fisica, il cosidetto dualismo onda-corpuscolo per la rappresentazione della radiazione elettromagnetica, di cui tratteremo in dettaglio successivamente. A.8 Esperienza di Rutherford Nel 1911 Rutherford (insieme a Geiger e Marsden) ideò un’esperienza per verificare la correttezza del modello proposto da J.J. Thomson (modello a “panettone”) per l’atomo 24 . Con riferimento alla Fig.A.11 un sottile pennello di particelle α, originate da materiale radioattivo contenuto in un contenitore di Pb avente un piccolo foro, andava a colpire una sottile lamina di oro (scelto per la sua duttilità e per il suo elevato peso atomico). Il rivelatore di particelle α a scintillazione (solfuro di zinco) veniva posizionato, attorno alla lamina di Au, a vari angoli rispetto alla direzione del pennello delle particelle α. Se fosse stato valido il modello di Thomson, gli atomi di Au dovevano avere una distribuzione di carica positiva nucleare uniforme come quella delle particelle α e conseguentemente queste dovevano essere diffuse debolmente, ma isotropicamente, attorno alla direzione di provenienza delle α incidenti. Invece la maggior parte delle α incidenti passano indisturbate attraverso la lamina di Au, mentre ≈ 10−4 di loro vengono diffuse con angoli di diffusione > 90◦ . Alcune erano addirittura rimbalzate indietro con la stessa energia, segno che si trattava di urti elastici centrali con particelle simili. Tale risultato sperimentale, incompatibile con il modello atomico di Thomson, poteva essere spiegato con nuclei di Au carichi positivamente, come le α, ma che dovevano avere dimensione dell’ordine di ≈ 10−4 il volume dell’atomo di Au. Essendo le dimensioni lineari dell’atomo di Au dell’ordine di 10−10 m, risultava che le dimensioni del suo nucleo dovevano essere Figura A.11: Schema dell’esperienza di Rutherdell’ordine di 10−14 m. ford 24 Rutherford fu il primo che chiamò protone il nucleo dell’atomo d’idrogeno, e lo dedusse dal greco πρωτ oν che significava primo. 93 Questo comportamento fu successivamente confermato anche per molte altre specie atomiche. Quindi il modello dell’atomo doveva essere drasticamente cambiato: un nucleo, carico positivamente e di dimensioni ≤ 10−14 m, circondato da un numero di elettroni pari alla carica del nucleo (in modo da assicurare la neutralità elettrica dell’elemento), posti a una distanza dell’ordine di 10−10 m. Per non far precipitare gli elettroni sul nucleo per attrazione elettrostatica bisognava supporre che questi fossero in moto circolare attorno al nucleo, con una velocità tale da bilanciare la forza di attrazione elettrostatica del nucleo. Ma, in questo modo, gli elettroni avrebbero dovuto irradiare (secondo l’elettrodinamica classica), perdendo energia, quindi diminuendo la loro velocità, e conseguentemente essendo sempre più attratti verso il nucleo, sul quale avrebbero dovuto precipitare rapidamente. Era necessario trovare una soluzione a questa grave discrepanza nella descrizione dell’intima struttura della materia. A.9 Il modello di Bohr per l’atomo d’idrogeno Nel 1913 Niels Bohr propose un modello rivoluzionario per l’atomo di idrogeno. Con riferimento alla Fig.A.12 un protone (particella trasportante la carica elementare positiva + e) è posto, nel vuoto, a riposo 25 . Un elettrone, di massa me e carica − e si trova a percorrere con velocità ~v una circonferenza di raggio r attorno al protone; affinché il suo moto sia stazionario v (circolare uniforme) dovrà obbedire all’ equazione di moto − me v 2 e2 = r 4π ǫ◦ r2 e (A.19) L’ipotesi fondamentale di Bohr fu quella di ipotizzare che la quantità di moto dell’elettrone dovesse essere un multiplo intero della costante di Planck ridotta, cioè h = n · h̄ n = 1, 2, 3, 4, .... (A.20) 2π Dalla (A.20) si ottiene v = nh/2πme r e sostituendo nella (A.19) si giunge a r + p me v r = n · v= h ·n 2π me r ; rn = a◦ · n2 con a◦ = ǫ ◦ h2 (A.21) π me e 2 a◦ rappresenta il raggio dell’orbita più interna, per n = 1, Figura A.12: Schema dell’atomo di Bohr e sostituendo i valori delle costanti fisiche che lo definiscono otteniamo il valore di a◦ = 0.529 10−10 m, detto raggio di Bohr e rappresenta una stima delle dimensioni dell’atomo d’idrogeno. L’energia totale dell’elettrone sarà quindi ET = e2 e2 1 1 1 · · me v 2 − =− 2 4π ǫ◦ r 8π ǫ◦ r (A.22) Saranno quindi “disponibili” all’elettrone n = 1, 2, 3, 4, ...∞ orbite circolari, ognuna caratterizzata da un’energia totale 1 me e 4 1 En = − 2 · · 2 (A.23) 8ǫ◦ h2 n Se l’elettrone “passa” da un’orbita n → m (n > m), per la conservazione dell’energia dovrà emettere un fotone di energia 1 1 me e 4 − 2 h ν = En − Em = 2 2 · 8ǫ◦ h m2 n me e 4 1 1 ν = Ry · R = − (A.24) y m2 n2 8ǫ2◦ h3 25 Questa ipotesi è suffragata dal fatto che il rapporto m protone /me = 1836.645, che si determina con misure effetuate con lo spettrometro di massa. Ricordiamo che l’unità di massa atomica unificata, detta Dalton, è definita cone la dodicesima parte di un atomo di 12 C e vale 1.660538921 10−27 kg. 94 Figura A.13: Schema dell’esperienza di Frank e Hertz con atomi di Hg Figura A.14: Andamento della corrente anodica nell’esperienza di Frank e Hertz per il Hg Sostituendo i valori delle costanti fisiche indicate in Ry nella (A.24) si ottiene Ry = 3.27177 1015 s−1 , che rappresenta il valore della costante di Rydberg, in unità di frequenza, e coincide (fatte le dovute sostituzioni) col valore determinato dall’analisi delle righe spettrali emesse dall’idrogeno (v. A.7). Inoltre l’espressione della (A.24) coincide con la (A.10) e possiamo quindi dire che la semplice teoria di Bohr (anche se basata su ipotesi che potevano sembrare arbitrarie) spiegava bene i livelli energetici fondamentali dell’atomo d’idrogeno e degli ioni idrogenoidi. Rafforzava enormemente l’ipotesi quantistica della descrizione dei fenomeni a livello microscopico 26 . A.10 Esperienza di Franck e Hertz Nel 1914 Franck e Hertz 27 eseguirono una famosa esperienza per verificare, tramite urti anelastici di elettroni opportunamente accelerati, l’esistenza di stati energetici discreti (quantizzati) per gli elettroni di un atomo. Con riferimento alla Fig.A.13 in un’ampolla di vetro (con una finestra di quarzo per far passare eventuali fotoni UV prodotti nell’interno) viene creato il vuoto e poi vengono immessi atomi (originariamente di Hg) a bassa pressione. Un filamento emette elettroni (per effetto termoelettrico), che vengono accelerati da una griglia, mantenuta a un potenziale positivo (ma variabile a piacere) rispetto al filamento da cui si originano gli elettroni. Successivamente una placca, tenuta a un potenziale positivo, ma leggermente inferiore a quello della griglia (in modo da raccogliere solo gli elettroni che possiedono un’energia cinetica superiore a un’energia di soglia predefinita), raccoglie gli elettroni incidenti dando luogo da una debole corrente elettrica, che può essere misurata da un opportuno microamperometro. Gli atomi di Hg si trovano sicuramente nello stato energetico fondamentale (non emettono né assorbono radiazione elettromagnetica). Gli elettroni, accelerati dal potenziale V della griglia, acquisteranno un’energia cinetica K = 1/2 · me v 2 = e V ; se questa energia e V è minore di (E2 − E1 ), essendo E1 l’energia di un elettrone nello stato fondamentale e E2 la corrispondente energia del primo livello eccitato del Hg, allora l’urto degli elettroni di conduzione con gli atomi di Hg è essenzialmente elastico, l’energia cinetica degli elettroni di conduzione rimane sostanzialmente costante e si misura che la corrente anodica aumenta 26 Dobbiamo dire che sembra adesso incomprensibile che, circa un secolo or sono, destasse meraviglia che la Fisica classica, sviluppata e costruita antropologicamente [ricordare quanto sono “umane” le definizioni di metro, chilogrammo, secondo] da un essere insignificante [homo], su un pianeta microscopico [Terra], ruotante attorno a una stella debole [Sole], posta in posizione periferica in una dei miliardi di galassie dell’universo, dovesse anche poter spiegare i fenomeni che avvenivano su scala microscopica ≪ 10−10 m, in tempi brevissimi ≤ 10−8 s. Viene in mente una delle famose frasi di Einstein: “È incomprensibile quanto l’uomo riesca a comprendere dell’Universo.” 27 Gustav L. Hertz, nipote di Heinrich R. Hertz, che scoprı̀ sperimentalmente la propagazione e l’esistenza delle onde elettromagnetiche nel 1885 a cui è dedicata l’unità di misura della frequenza. 95 all’aumentare della tensione V (v. Fig.A.14). Se, invece, e V = (E2 − E1 ), gli urti degli elettroni di conduzione con gli atomi di Hg divengono anelastici, gli elettroni di conduzione cedono la loro energia cinetica all’atomo di Hg (che ha una massa ≈ 3.6 105 volte me ), che la trasmette a un elettrone di valenza dell’atomo di Hg, il quale si porta nel primo stato energetico eccitato E2 . Conseguentemente gli elettroni di conduzione non riescono più a raggiungere l’anodo (per la debole controtensione applicata far griglia e anodo) e si misura una notevole diminuzione della corrente anodica (v. primo picco in Fig.A.14 a ≈ 4.9 e V ). L’elettrone eccitato del Hg, però, dopo un tempo brevissimo (dell’ordine di ≈ 10−8 s) si riporta nel livello fondamentale E1 emettendo un fotone di lunghezza d’onda λ= hc = 253.54 nm E2 − E1 corrispondente esattamente alla lunghezza d’onda della transizione di risonanza dell’atomo di Hg e che è facilmente rivelabile grazie alla finestra a quarzo presente nell’ampolla di vetro dell’esperienza. Aumentando ancora il potenziale V , gli elettroni di conduzione saranno nuovamente accelerati e arriveranno all’anodo; si misurerà un nuovo aumento della corrente anodica fino a quando l’energia fornita agli elettroni di conduzione sarà sufficiente per un nuovo urto elastico (v. secondo picco in Fig.A.14 a ≈ 9.8 e V ). Si osserveranno picchi di caduta della corrente anodica misurata ogni volta che e V = n (E2 − E1 ), con n = 1, 2, 3, .... e ogni volta misureremo l’emissione di fotoni di 253.54 nm di lunghezza d’onda. L’esperienza può essere ripetuta con atomi di elementi chimici diversi e si otterranno sempre le stesse situazioni sperimentali (ovviamente cambieranno i valori E1 e E2 e, conseguentemente, λ). Questa esperienza conferma in modo molto convincente l’esistenza di stati energetici stazionari atomici. A.11 Dualismo onda-corpuscolo per la radiazione elettromagnetica Ricordiamo che il comportamento ondulatorio per la propagazione della radiazione elettromagnetica era, alla fine del XIX secolo, un principio saldamente stabilito, sia sperimentalmente (esperienze sulla diffrazione e interferenza in ottica) sia teoricamente (teoria di Maxwell) 28 . Il fenomeno della diffrazione era ben noto nella propagazione di onde meccaniche nei fluidi (si pensi al sistema di onde concentriche che si generano quando le onde del mare incontrano un ostacolo di dimensioni dell’ordine della lunghezza d’onda dell’onda stessa, a esempio un pilone di un ponte). Per l’ottica il principio di Huygens-Fresnel (enunciato alla fine del XVII secolo) affermava che nella propagazione della luce ogni punto di un fronte d’onda diveniva sorgente di un sistema di onde sferiche centrate nel punto considerato. Si spiegava quindi il fenomeno per cui, se un fascio di luce parallela (cioè proveniente da una sorgente posta a grande distanza dal punto in cui si eseguiva l’esperienza) investiva una fenditura di larghezza a confrontabile con la lunghezza d’onda λ della radiazione considerata, si formava, su uno schermo posto a grande distanza, una figura di diffrazione come mostrato nella Fig.A.15. La trattazione rigorosa del fenomeno mostra che la distribuzione d’intensità del profilo di diffrazione sullo schermo (v. Fig.A.16) è data da π a senθ sen2 α con α= (A.25) I(α) = I◦ α2 λ essendo θ l’angolo formato dalla direzione che unisce il centro della fenditura col punto dello schermo considerato e la direzione di incidenza sulla fenditura del fascio parallelo, λ la lunghezza d’onda della radiazione utilizzata e I◦ l’intensità centrale della distribuzione d’intensità, corrispondente alla direzione del punto centrale della fenditura e parallela al versore di propagazione della radiazione (cioè tutte le onde che arrivano in quel punto sono in fase fra loro). I minimi d’intensità si hanno per α = ±n π, cioè per a senθ = ±n λ, con n intero. Nel 1801 Young fece una celeberrima esperienza in cui faceva diffrangere un fascio di luce monocromatica, di lunghezza d’onda λ, parallelo (cioè proveniente da una sorgente praticamente a distanza infinita) su due fenditure rettangolari identiche, di larghezza a, poste alla distanza d. Sullo schermo si formava una figura di diffrazione e simultanea interferenza come mostrato nella Fig.A.17. La trattazione rigorosa del 28 Per un ripasso serio di questi aspetti si consiglia il classico testo F.A. Jenkins - H.E. White: Fundamentals of Optics, McGraw Hill Book Co., New York, 1957, oppure G. Toraldo di Francia, La diffrazione della luce, Einaudi, TO, 1958. 96 Figura A.16: Figura di diffrazione, formata su uno schermo, da un fronte d’onda piano incidente su una fenditura Figura A.15: Diffrazione di Fraunhofer su una fenditura rettangolare fenomeno mostra che la distribuzione d’intensità del profilo sullo schermo (v. Fig.A.17) è data da I = 4 · I◦ sen2 α cos2 γ α2 (A.26) dove i simboli sono quelli definiti nell’eq.(A.25) e γ = π d senθ/λ è un parametro che rappresenta il fenomeno dell’interferenza dei fasci di radiazione provenienti dalle due fenditure considerate. Nella Fig.A.18 è riportato in dettaglio la successione dei profili di diffrazione su ogni singola fenditura, il profilo d’interferenza originato da 3 fenditure identiche equidistanti e il profilo d’intensità risultante. È inequivocabile dedurne che la propagazione della radiazione elettromagnetica ha un comportamento tipicamente “ondoso”. Al momento di attraversare due o più fenditure, su cui si produce la diffrazione, la radiazione sembra che non decida di passare da una sola fenditura, ma dimostra di comportarsi come se passasse simultaneamente da ogni fenditura presente sul suo cammino. Infatti, se si copre una fenditura (nell’esperienza con due fenditure) sullo schermo si forma immediatamente la distribuzione d’intensità di Fig.A.16, mentre nel caso delle 3 fenditure l’ostruzione di una qualunque delle tre provoca che la distribuzione d’intensità sullo schermo risulti quella di Fig.A.17. Ma la fenomenologia sperimentale e le relative spiegazioni quantitative riguardo ai processi fisici di emissione (corpo nero, spettroscopia atomica) e di assorbimento (corpo nero, spettroscopia atomica, effetto fotoelettrico) della radiazione elettromagnetica dimostrano che tali fenomeni avvengono in modo “corpuscolare”, cioè per quantità discrete di energia, i fotoni 29 . Si delinea, quindi, il cosidetto dualismo onda-corpuscolo per la descrizione quantitativa della radiazione elettromagnetica, che attraversa la Fisica per il primo quarto del XX secolo. Vedremo come l’intuizione geniale di de Broglie e l’abilità e profondità culturale di grandi fisici (Schroedinger, Heisenberg, Dirac, Pauli, Fermi ecc.) portò rapidamente alla creazione del formalismo (molto complesso) della meccanica quantistica, che riuscı̀ a spiegare questo apparente dualismo e a sviluppare metodi adeguati per l’interpretazione del mondo della microfisica, cioè dei fenomeni che avvengono su scale spaziali dell’ordine di ≤ 10−10 m e temporali ≤ 10−7 s, cioè la Fisica atomica, nucleare e subnucleare. A.12 Esperienza di Compton Nel 1923 Compton pubblicò i risultati della sua celebre esperienza, in cui ribadiva inequivocabilmente il comportamento corpuscolare dei fotoni, mostrando che essi, oltre a trasportare un’energia h ν, possedevano anche un impulso p~ avente modulo (h ν/c). 29 Un fascio laser He-Ne, di lunghezza d’onda λ = 0.6328 µm, di 1 mW di potenza, è formato da una “corrente” di h c/λ · NT fotoni, quindi NT = 10−3 J/s 3.14007 10−19 J/f otone ≃ 3 1015 f otoni/s. 97 Figura A.17: Figura di diffrazione prodotta nell’esperienza di Young su due fenditure Figura A.18: Figura di diffrazione prodotta nell’esperienza di Young su tre fenditure Con riferimento alla Fig.A.19 a) un fascio collimato di raggi X monocromatici 30 investiva un bersaglio costituito da grafite. L’energia dei raggi X era > 10 keV , quindi molto maggiore dell’energia di legame degli elettroni negli atomi di carbonio del reticolo cristallino della grafite. Conseguentemente gli elettroni del carbonio potevano essere considerati come elettroni liberi fermi nello spazio, dove venivano investiti dal flusso di raggi X incidenti. Sperimentalmente si osservava che una parte dei raggi X incidenti veniva diffusa in tutte le direzioni con un angolo φ rispetto alla di- Figura A.19: Schema dell’esperimento di Compton e sistema di riferimento relativo rezione di provenienza dei raggi X incidenti e con una lunghezza d’onda λ′ maggiore della lunghezza d’onda λ◦ dei raggi incidenti. Contemporaneamente si osservava anche una emissione di elettroni dalla lastra di della grafite irradiata, secondo un angolo θ, rispetto alla direzione d’incidenza dei raggi X, e una velocità ~v 31 . La schematizzazione della fenomenologia descritta (v. Fig.A.19b)) necessita del trattamento relativistico 30 Inizialmente furono utilizzati raggi X di 70 pm di lunghezza d’onda; successivamente furono utilizzati raggi X sempre più energetici, fino ad arrivare a 2.5 pm di lunghezza d’onda. 31 L’elettrone diffuso poteva essere rivelato facilmente facendo avvenire l’esperienza in camera di Wilson. 98 delle grandezze considerate, poiché i raggi X, essendo fotoni, si muovono con velocità c. Si poteva quindi trattare il processo di diffusione dei raggi X come un urto elastico fra la particella fotone X e l’elettrone, inizialmente fermo e di massa a riposo m◦ . Le equazioni relative ad un particolare urto in cui il fotone è diffuso di un angolo φ e l’elettrone esce ad un angolo θ sono quindi hν h ν′ = cosφ + p cosθ; conservazione impulso lungo direzione f otoni incidenti c c h ν′ senφ − p senθ; conservazione impulso lungo direzione normale f otoni incidenti 0= c 1 h ν + m◦ c2 = h ν ′ + m◦ c2 γ; γ = p ; conservazione energia 1 − (v/c)2 Moltiplicando per c ambo i membri delle prime due equazioni, quadrando e sommando, si ottiene p2 c2 = (h ν)2 − 2h2 ν ν ′ cosφ + (h ν ′ )2 (A.27) Separando il termine mc2 nell’equazione della conservazione dell’energia, elevando al quadrato ambo i membri, ricordando che p2 c2 = (m2 − m2◦ ) c4 e sostituendo nella (A.27), dopo alcune semplificazioni si giunge a (ν − ν ′ )m◦ c2 = hν ν ′ (1 − cosφ) (A.28) che può essere riscritta come (λ′ − λ) = λc (e− ) · (1 − cosφ) ; λc (e− ) = h m◦ c (A.29) λc (e− ) = 2.42631 · 10−12 m è la lunghezza d’onda Compton per l’elettrone. I risultati sperimentali (v. Fig.A.20 32 ) confermano le previsioni teoriche espresse da (A.29) sia per i valori numerici ottenuti per la dipendenza angolare della radiazione X diffusa, che per l’indipendenza di questi risultati dalla sostanza su cui sono fatti interagire i raggi X diffusi. Sono verificati inoltre i valori dell’energia e dell’impulso ceduti all’elettrone diffuso. È una dimostrazione ulteriore e assolutamente convincente che i fotoni hanno un Figura A.20: Alcomportamento di tipo corpuscolare (cioè propagazione di quanti energetici dotati cuni risultati sperimentali dell’effetto anche di impulso), almeno nelle interazioni con le particelle atomiche. di Compton A.13 Ipotesi di de Broglie Nel 1924 Louis de Broglie, nella sua tesi di dottorato, formulò l’ipotesi che i fenomeni che avvengono su scale atomiche e subatomiche debbano essere pensati e rappresentati in modo diverso dalla Fisica classica, deterministica e fondata su principi che derivano da esperienze condotte su scale sostanzialmente antropocentriche 33 . A ogni particella in moto con impulso di modulo p si “associava” una lunghezza d’onda definita dalla relazione λb = h p con h costante di P lanck (A.30) Veniva cioè assegnato un comportamento ondulatorio a particelle materiali in moto. Il valore molto piccolo di h significa che questa schematizzazione è importante solo per particelle di dimensioni atomiche 32 Nella figura sono riportate le distribuzioni in funzione della lunghezza d’onda degli X del Molibdeno diffusi a diversi angoli da un bersaglio di carbonio (per maggiori dettagli si consiglia la lettura degli articoli originali, Phys. Rev. 21 (1923) 483 e Phys. Rev. 22 (1923) 411, che fruttarono il premio Nobel a Compton nel 1927) 33 Le leggi di Newton valgono quando le velocità coinvolte sono trascurabili rispetto alla velocità della radiazione elettromagnetica nel vuoto, le unità di misura fondamentali della meccanica sono congrue con le dimensioni umane [il m è dell’ordine di grandezza di una gamba umana media, il kg dell’ordine della massa d’acqua minima per la sopravvivenza, il s dell’intervallo fra due battiti del cuore umano a riposo], il punto materiale deve avere dimensioni trascurabili rispetto alle dimensioni in cui si svolge il moto, ma deve essere molto maggiore delle dimensioni atomiche, altrimenti l’equazione di ~ = m ~a e cosı̀ via. moto non può essere semplicemente F 99 e subatomiche. Infatti, se consideriamo una particella di massa m = 1 g che si muove con una velocità v = 1 m/s, cioè con impulso p = 10−3 kg m/s, a questa viene associata una lunghezza de Broglie λb = 6.6262 10−34 Js/10−3 kg m s−1 = 6.6262 10−31 m, assolutamente insignificante e priva di conseguenze osservabili. Vediamone alcune conseguenze importanti: 1. nella descrizione dell’effetto fotoelettrico i fotoni possiedono un’energia E = h ν, ma (dalla relatività ristretta) anche un impulso p = E/c = h ν/c = h/λ e si ritrova quindi la (A.30); 2. nell’ipotesi di quantizzazione di Bohr per l’atomo d’idrogeno il momento angolare l = me v r = p r dell’elettrone sull’orbita circolare doveva essere un multiplo intero di h̄, cioè p r = n h/2π; se teniamo conto della (A.30) λb = 2π r/n, cioè λb n = 2π r. Le orbite stazionarie permesse all’elettrone in moto attorno al protone erano solo quelle per cui la λb associata al moto dell’elettrone si “adatta” perfettamente all’orbita descritta, cioè il sistema di onde λb si chiude perfettamente in fase sull’orbita considerata, senza provocare fenomeni di interferenza distruttiva per l’onda di de Broglie Figura A.21: Onda associata di de Broglie sull’orbita di Bohr per l’elettrone nell’atomo d’idrogeno che si propaga sull’orbita (v. Fig.A.21). La relazione (A.30) spiegava bene il comportamento duale (corpuscolare e ondulatorio) dei fotoni, ma richiedeva anche che particelle atomiche in moto con impulso p presentassero simultaneamente comportamenti ondulatori, che non erano ancora misurati. A.14 Esperienza di Davisson e Germer Nel 1927 Davisson e Germer eseguirono un famoso esperimento per dimostrare che si ottenevano figure di diffrazione identiche facendo incidere sulla stessa struttura 34 sia raggi X che fasci monoenergetici di elettroni aventi velocità corrispondenti, secondo la relazione di de Broglie (A.30). Con riferimento alla Fig.A.22 un opportuno cannone elettronico produce un fascio √ collimato di elettroni monoenergetici di energia E = p2 /2 me , che possiedono quindi un impulso p = 2 me E, che vien fatto incidere su un cristallo di N i, avente una distanza interreticolare d, che funziona da “passo del reticolo”. La lunghezza d’onda di de Broglie associata al fascio di elettroni sarà λb = √ h 2me E (A.31) Per una tensione di accelerazione di 102 V si ottiene λb ≃ 0.12 nm e per avere diffrazione-interferenza costruttiva nella direzione θ occorre che sia verificata la relazione h ; d senθ = n λb = n √ 2me E n → intero (A.32) Come si può facilmente vedere dalla Fig.A.23, il pattern di diffrazione che si ottiene utilizzando raggi X con λ ≃ 0.12 nm (a SX nella figura) è praticamente identico a quello ottenuto col fascio di elettroni aventi la stessa λb (a parte il nucleo centrale “brillante” nell’immagine elettronica dovuto alla rivelazione della componente non diffratta del fascio elettronico incidente). Entrambe le distribuzioni d’intensità sono in perfetto accordo con la (A.32). Altri importanti esperimenti a sostegno del comportamento duale (corpuscolare e ondulatorio) delle particelle atomiche e subatomiche sono stati eseguiti in epoche più recenti. Vogliamo citare quello di Tonomura 34 Utilizzarono cristalli di N i per avere reticoli con “passo” d dell’ordine di grandezza delle lunghezze d’onda delle radiazioni utilizzate per produrre le figure di diffrazione registrate. 100 Figura A.23: Figure di diffrazione prodotte raggi X (SX) e da elettroni (DX) nell’esperienza di Davisson e Germer Figura A.22: Schema dell’esperienza di Davisson e Germer et al. 35 in cui hanno riprodotto l’esperienza della diffrazione e interferenza alla Young usando elettroni, che potevano inviare uno per volta sul cristallo diffrattore. Nella Fig.A.24 sono riportati i risultati dell’esperimento dell’interferenza di elettroni “alla Young” (interferenza su doppia fenditura) con diverso flusso totale di elettroni (indicati nel seguito): a) → 10, b) → 200, c) → 6000, d) → 40000, e) → 140000. È evidente come l’aumento della statistica delinei in modo migliore la localizzazione delle frange dovute all’interferenza delle onde di de Broglie associate all’impulso degli elettroni inviati sulle fenditure. Sono stati utilizzati anche neutroni (diffratti da cristalli di Si) per dimostrare che il dualismo onda-corpuscolo si realizzava anche con queste particelle (H.Rauch et al., Phys. Lett. A 47, 369, 1974). Riassumendo, si è verificato sperimentalmente che si possono creare fenomeni di diffrazione/interferenza anche con fasci di particelle sempre più “pesanti”: • fasci di atomi (Carnal e Mlynek, Phys. Rev. Lett. 66, 2689, 1991); • fasci di piccole molecole e dimeri e trimeri di gas nobili (Schoellkopt e Toennis, Science 266, 1345, 1994); • fasci di molecole di fullerene 319, 2003); 36 (Naizz, Arndt, Zeilinger, Am. J. Phys. 71, • il gruppo del Vienna Center for Quantum Science and Technology, vcq.quantum.at sembra aver ottenuto comportamenti ondulatori anche per Figura A.24: Fimolecole di 514 e 1298 a.m.u. (2012). gure di diffrazione prodotte da eletL’intuizione di de Broglie è sperimentalmente ben provata. troni nell’esperienza di Tonomura et al. (1989) A.15 Principio d’indeterminazione di Heisenberg Nel 1927 Heisenberg introdusse, nella descrizione dei fenomeni atomici e subatomici, oltre a un formalismo matriciale (molto complesso) per la descrizione del loro stato energetico, il cosidetto principio di 35 A.Tonomura et al., Am. J. Phys. 57, 117, 1989. Non per campanilismo, ma per correttezza, dobbiamo dire che i primi a effettuare una misura di diffrazione alla Young con singoli elettroni sono stati italiani, Merli-Missiroli-Pozzi, J. Phys E: Sc. Instrum. 7, 729, 1974, ma non sembra che la letteratura internazionale abbia dato loro il credito dovuto. 36 60 atomi di C, disposti in strutture di anelli pentagonali, esagonali, ottagonali (simili alla struttura della grafite), disposti su una superficie sferica, simile a un pallone. 101 indeterminazione secondo il quale per alcune variabili 37 esiste una semplice relazione che lega limiti naturali invalicabili nelle precisioni (indicate nelle formule seguenti col simbolo ∆) a cui si può arrivare in qualunque misura si possa realizzare su quelle grandezze ∆x ∆px ∆y ∆py ∆z ∆pz ∆E ∆t ∆φ ∆Jz > > > > > h 4π h 4π h 4π h 4π h 4π = = = = = h̄ 2 h̄ 2 h̄ 2 h̄ 2 h̄ 2 x, px → posizione e impulso lungo x y, py → posizione e impulso lungo y z, pz → posizione e impulso lungo z E, t → energia e tempo φ, Jz → posiz. angolare e momento angolare lungo z (A.33) Ribadiamo con forza che non si tratta di errori di misura; anche misure accuratissime e molto precise possono solo raggiungere i limiti imposti dalle (A.33), ma mai superarli. Per effettuare qualunque misura occorre interagire con la particella su cui si esegue la misura e qualunque interazione altera lo stato in cui si trova la particella, causando le incertezze nelle misure descritte dalle disuguaglianze (A.33). Visto il valore numerico molto piccolo di h̄/2, le (A.33) riguardano solamente misure che si effettuano su particelle atomiche e subatomiche. Supponiamo infatti di considerare il moto di un cubetto di lato l = 1 cm , di densità ρ = 5 g/cm3 , che trasla con una velocità v = 1 m/s; avrà un impulso p = 5 10−3 kg m s−1 . Il prodotto p · l assume il valore 5 10−5 Js, che risulta maggiore di h̄/2 per almeno 29 ordini di grandezza, assolutamente ininfluente rispetto a qualunque errore di misura si possa considerare sulle misure effettuabili sulla posizione e impulso del cubetto; nella definizione che diamo in Meccanica classica, il cubetto è assimilabile a un punto materiale, ma la Meccanica classica, ribadiamo ancora una volta, è stata elaborata per spiegare quantitativamente i fenomeni che avvengono su scale finite e congrue con le nostre esperienze di vita quotidiana. Sostanzialmente le (A.33), che formalizzano il principio d’indeterminazione di Heisenberg, dicono che la misura (con grande precisione) di alcune grandezze fisiche relative a stati energetici e dinamici di particelle atomiche e subatomiche provoca alterazioni dello stato fisico della particella, che causano necessariamente incertezze nella simultanea misura di grandezze fisiche associate secondo le relazioni riportate dalle (A.33). Riportiamo alcune esperienze concettuali importanti collegate al principio d’indeterminazione. 1) localizzazione di una particella subatomica tramite la diffusione di radiazione elettromagnetica. Con riferimento alla Fig.A.25 vogliamo determinare la posizione x S e l’impulso px di una particella, che si trova nel punto P con velocità ~v , tramite la diffusione di almeno un fotone su di essa, rivelato da un microscopio perfetto su uno schermo S preceduto da una lente perfetta L. Dall’ottica fisica sappiamo che ogni lente produce L un’immagine affetta da diffrazione 38 , per cui la migliore localizzazione possibile della posizione x della particella sarà dell’ordine 2ϕ y di ∆x ∼ λ/senϕ, dove λ è la lunghezza d’onda della radiazione impiegata. Se pensiamo alla diffusione di un singolo fotone, questo F P v x x possiede un impulso p ∼ h/λ per la relazione di de Broglie. Ma la relazione che fornisce ∆x ci dice che questo fotone è “partito” dall’intorno del punto P (NON da P !) con un’indeterminazione ∆x; Figura A.25: Schema dell’esperienza l’indeterminazione della componente px dell’impulso del fotone dif- ideale per localizzare una particella fuso sarà dell’ordine di ∆ px ∼ (h/λ)·senϕ 39 . Non essendo presenti tramite diffusione di luce forze esterne durante la diffusione sul sistema composto da [particella + fotone diffuso + microscopio], 37 Le variabili sono quelle canonicamente coniugate nel senso espresso dalla meccanica analitica hamiltoniana, ma la complessità formale e concettuale di questi argomenti, ostici anche a livello di corsi universitari del terzo anno dei CdL in Fisica, consiglia di non affrontarli assolutamente per corsi a livello liceale e anche a livello del primo biennio universitario. Meglio tacere che rischiare di proprorre idee rozze o, peggio, incomplete e foriere di interpretazioni sbagliate. 38 Un fascio di radiazione elettromagnetica di lunghezza d’onda λ perfettamente parallela, cioè proveniente da una sorgente posta a distanza infinita dalle lente, produce una centrica di diffrazione di semilarghezza 1.22λ f /D, essendo f la distanza focale e D il diametro della lente. 39 Il fotone diffuso è contenuto nell’angolo solido di semiampiezza ϕ, quindi il suo impulso p potrà, al massimo, essere diretto lungo la direzione P → bordo − lente, per cui la sua proiezione lungo x sarà px = p · senϕ. Notiamo inoltre che le componenti secondo x degli impulsi della particella e del fotone possono essere misurate con assoluta precisione prima della diffusione perché non si ha interesse a misurare simultaneamente anche la loro posizione lungo x. 102 si deve dedurre che l’indeterminazione nella componente px della particella non può che essere uguale all’indeterminazione ∆px del fotone lungo la stessa direzione, per cui abbiamo che, per la particella, ∆x · ∆px ∼ h sostanzialmente quanto previsto dal principio di Heisenberg (a parte un fattore numerico 4π, che non altera il profondo significato fisico della validità del principio). 2) localizzazione di una particella in direzione ortogonale alla sua direzione di propagazione. Supponiamo di creare un fascio di elettroni monoenergetici che si propagano tutti con velocità parallela alla direzione x. Per localizzare la posizione di ogni elettrone lungo la direzione ortogonale a x (che chiameremo y) facciamo incidere il fascio su una fenditura, di larghezza d, molto piccola, posta su una parete (non trasparente agli elettroni) che si trovi lungo y. Nella regione di spazio attorno alla fenditura la posizione di ogni singolo elettrone è indeterminata per un ∆y = d. Attraversando la fenditura ogni singolo elettrone sarà affetto da diffrazione, quindi la sua propagazione dopo l’attraversamento della fenditura avverrà in un angolo di diffrazione α ∼ λ/d, con λ = h/pe , essendo pe = me v l’impulso di ogni singolo elettrone. Quindi α ∼ h/(pe d). Ma ∆py = 2 sen h α ·p∼ p α ∼ 2 d da cui, per l’elettrone lungo y, ∆y · ∆py ≃= h ·d= h d come sostanzialmente previsto dal principio di Heisenberg. Volendo migliorare la precisione di una grandezza si danneggia inevitabilmente. come limite imposto dalla natura, la precisione con cui si può, al limite, misurare la grandezza associata alla prima da relazioni di coniugazione canonica (v. relazioni (A.33)). 3) esperienza di Young con elettroni. Nella Fig.A.24 abbiamo visto come si possa riprodurre, con elettroni di opportuna velocità, la distribuzione di diffrazione-interferenza (Fig. A.17) identica a quella dell’esperienza di Young con i fotoni. Si può inviare un elettrone per volta sulle due fenditure e, dopo il tempo necessario per accumulare una statistica dei conteggi sufficiente sullo schermo di collezione degli elettroni diffratti, si delineano le frange di interferenza tipiche (v. Fig. A.17). Se volessimo tentare di identificare la posizione dell’elettrone in volo, a esempio tappando una delle due fenditure, otterremmo la distribuzione di diffrazione su una singola fenditura (v. Fig. A.16). Ribadiamo quindi che (a livello atomico e subatomico) la distribuzione d’intensità I(f end1 + f end2 ) 6= I(f end1 ) + I(f end2 ), avendo indicato con I(f end1 + f end2 ) la distribuzione di diffrazione-interferenza su due fenditure (Fig. A.17), mentre con I(f end1 ) e I(f end2 ) indichiamo la distribuzione di diffrazione su singola fenditura (Fig. A.16). I(f end1 ) è ovviamente identica a I(f end2 ), solo che è spostata sullo schermo di d, interdistanza delle due fenditure. Cercando di determinare da quale fenditura passa il singolo elettrone, si distrugge la figura d’interferenza. Per descrivere il comportamento fisico di sistemi per i quali si applica il principio d’indeterminazione di Heisenberg si deve, quindi, abbandonare il determinismo della Fisica newtoniana classica (stretta relazione causa-effetto) e sostituirlo con un approccio di determinismo “statistico” (o probabilistico). Riportiamo di seguito alcuni esempi schematici, molto semplici, che possono aiutare a comprendere questo nuovo modo di descrivere i fenomeni (a scale spaziali e temporali tipiche della fenomenologia atomica e subatomica). 1) energia di una particella in una buca di potenziale nullo, limitato spazialmente. Con riferimento alla Fig.A.26 consideriamo una particella posta in una buca di potenziale tale che V (x) = 0 per a ≤ x ≤ b e V (x) → ∞ per x < a e per x > b. Classicamente la particella può stare in qualunque 103 punto dell’intervallo a ≤ x ≤ b con velocità nulla. Questo non è possibile quantisticamente perché in tale stato la particella potrebbe essere localizzata con precisione → ∞, quindi ∆x = 0, e con impulso nullo, quindi ∆px = 0; conseguentemente avremmo che ∆x · ∆px = 0 < h̄/2, in violazione del principio d’indeterminazione di Heisenberg. In realtà la particella, trovandosi in qualunque punto dell’intervallo b − a, sarà caratterizzata da un’incertezza massima (lungo x) ∆xMAX = (b − a)/2. Conseguentemente l’incertezza minima su px sarà V(x) 0 a b x Figura A.26: Schema di una particella in una buca di potenziale nullo, limitato spazialmente h̄ h̄ ∆px (min) ≃ = 2 ∆xMAX b−a e l’energia minima che potrà assumere sarà Emin ≃ h̄2 1 · (pmin )2 = 2m 2 m (b − a)2 Quantisticamente lo stato di energia minima per una particella vincolata entro una buca di potenziale nullo, limitato da potenziale → ∞ all’esterno, non può essere 0, come avremmo detto in base alla Fisica classica, ma finita (anche se di valore molto piccolo). 2) buca di potenziale quadratico. Ricordiamo che una particella di massa m che si muove di moto armonico attorno all’origine di un sistema 2 di assi cartesiani ortogonali lungo la direzione x, è soggetta p a un potenziale V = 1/2 k x e che la sua equazione oraria è x(t) = Acos(ω t + ϕ), essendo ω = k/m la pulsazione del moto armonico e A l’ampiezza degli spostamenti rispetto all’origine degli assi coordinati. La sua energia totale sarà ET (x) = m ω 2 x2 p2 + 2m 2 Supponiamo di poter localizzare la particella in un intervallo di ampiezza a attorno all’origine (cioè compresa in un intorno dell’origine fra −a/2 e +a/2). Quindi possiamo porre che ∆x ∼ a e conseguentemente, per il principio di Heisenberg, ∆px = ∆p ≃ h̄/2 a. Avremo quindi che ET (a) = h̄2 m ω 2 a2 + 2 8ma 2 Vogliamo trovare la condizione per cui ET (a) sia minima. Ma ET (a) è una funzione definita positiva e → ∞ sia per a → 0 che per a → ∞. Quindi la condizione di minimo è assicurata da d ET (a) a h̄2 = [− 4 + m2 ω 2 ] = 0 da m 4a Si ricava facilmente che la condizione sopraesposta si realizza per r h̄ h̄2 4 ; a◦ = a◦ = 4 m2 ω 2 2mω e otteniamo infine, dopo le opportune sostituzioni, che ET (a◦ ) = h̄ω 2 Anche in questo caso lo stato di energia minima per l’oscillatore armonico quantistico non è quello di energia nulla. 104 3) buca di potenziale coulombiana. Supponiamo di mettere, nel vuoto, un elettrone in una buca di potenziale coulombiana, la cui espressione, rispetto a un sistema di riferimento in cui nell’origine sia posta una carica +e, ferma, è V (r) = − 1 e2 · 4πǫ◦ r Con un ragionamento analogo a quello fatto nel caso precedente, cioè pensando di poter localizzare l’elettrone con un’incertezza totale a attorno all’origine, si ottiene per la sua energia totale ET (a) = h̄2 1 e2 − · 2 8m a 4πǫ◦ a e, col solito ragionamento sulla determinazione del minimo per ET (a) si ottiene h̄2 1 e2 d ET ]=0 = 2 · [− + da 4a ma πǫ◦ che è risolto per h̄2 πǫ◦ m e2 valore molto prossimo al raggio della prima orbita di Bohr dell’atomo d’idrogeno. a◦ = A.16 Necessità di un nuovo approccio per la Fisica dell’infinitamente piccolo: la meccanica quantistica Tutte le esperienze effettuate sul comportamento dinamico ed energetico di entità fisiche dell’ordine atomico e subatomico, unitamente a principi (sostenuti da una larga varietà di verifiche sperimentali) fondamentali, come quelli di de Broglie e Heisenberg, dimostrano che è necessario sviluppare un modo diverso dalla Fisica newtoniana classica di descrizione della realtà microscopica della natura. Ovviamente principi che troviamo sempre verificati nelle nostre esperienze (conservazione dell’energia, conservazione della quantità di moto in sistemi isolati) devono continuare a valere anche a livello microscopico 40 . Sostanzialmente particelle e fotoni devono essere descritti come entità che presentano un comportamento sia corpuscolare (soprattutto in fase di creazione e cattura) che ondulatorio (soprattutto in fase di propagazione), impossibili a misurare simultaneamente con precisione infinita (almeno per le grandezze coniugate nel senso definito dalle (A.33)). Si assume che essi possano essere descritti come pacchetti d’onde, localizzati, come rappresentato in Fig.A.27. Seguendo l’interpretazione data da M.Born (1926), la funzione d’onda a essi associata ψ(P, t) deve essere considerata una funzione di densità di probabilità, in modo che kψ(P, t∗ )k2 dV (P ), cioè il modulo quadro di ψ(P, t∗ ) al tempo t∗ moltiplicato per il volume infinitesimo dV (P ) centrato attorno a P , rappresenti la probabilità di trovare la particella, associata alla funzione ψ(P, t), nel volume dV (P ) al tempo t∗ . R Ovviamente la ψ(P, t) dovrà essere normalizzata, cioè ∞ ψ(P, t∗ ) dV = 1 41 . Il famoso teorema di Fourier 42 offre un potente metodo per esprimere qualunque funzione periodica “onesta” come serie di opportune funzioni circolari (seni e coseni). Riportiamo nella Fig.A.28 l’esempio di 40 Questi sono ritenuti validi in ogni parte del nostro Universo, per cui anche nella descrizione della macrofisica [dimensioni dell’ordine di ≃ 1024 − 1026 m e tempi ≃ 106 − 109 anni] e durante tutta l’evoluzione dell’universo sono ritenuti, almeno fino a prova contraria, validi. 41 Questa interpretazione probabilistica fu confutata da molti fisici dell’epoca, fra cui Einstein che disse il famoso aforisma Dio non gioca ai dadi!. Tutta la Fisica del microcosmo sviluppata successivamente ha invece dimostrato che l’interpretazione di Born e di tutta la scuola di Fisica Teorica di Copenhagen, guidata da N.Bohr, era corretta e offriva un modo abbastanza semplice per spiegare la complessità dei fenomeni che si misurano sulle scale tipiche del microcosmo. 42 Una funzione f (x) periodica, con periodo 2π, limitata (insieme alla sua derivata prima) nel periodo salvo un numero finito di punti, in cui però esista il limite destro e sinistro sia per la f (x) che per la sua derivata prima, è sviluppabile in serie di funzioni circolari ∞ f (x) = ∞ X X 1 bn sen(n x) an cos(n x) + a◦ + 2 n=1 n=1 ; an = 1 n 105 Z +π −π f (x) cos(n x) dx ; bn = 1 n Z +π −π f (x) sen(n x) dx Figura A.27: Schema di un pacchetto d’onde, spazialmente e temporalmente localizzato Figura A.28: Schema della sovrapposizione delle prime 7 armoniche di Fourier per riprodurre un’onda quadra come si possa riprodurre l’andamento di un’onda quadra (con approssimazione grossolana) con la somma delle prime 7 armoniche di Fourier. Anche nel caso della ψ(P, t) possiamo pensare di esprimerla come inviluppo di opportune funzioni circolari, cioè di rappresentazione di serie di onde sinusoidali, come mostrato in Fig.A.29. Per studiare sia le condizioni di stazionarietà che la propagazione e interferenza connesse con le funzioni ψ(P, t) bisogna quindi utilizzare equazioni che trattano e descrivono la propagazione ondosa. Anche nel caso più semplice di onde meccaniche trasversali (vibrazione di una corda elastica) si arriva a un’equazione differenziale lineare omogenea, a coefficienti costanti, con derivate parziali del secondo ordine in x, y, z e in t, la cosidetta equazione di Figura A.29: Schema di rappresentazione di un d’Alembert, che però è affrontabile solo al terpacchetto d’onde tramite sovrapposizione di onde mine del secondo anno (meglio al terzo anno) di sinusoidali CdL universitari in Matematica, Fisica o CdL classici di Ingegneria. Quindi non è assolutamente possibile proporre simili formalizzazioni a studenti liceali e bisogna quindi fermarsi a questo punto, invitandoli a una paziente attesa per formarsi i bagagli culturali e tecnici necessari per affrontare le difficoltà matematiche collegate con questi argomenti. A.17 Conclusioni Siamo arrivati al punto in cui le evidenze sperimentali e le intuizioni geniali di alcuni grandi fisici dimostravano la necessità di sviluppare un modo nuovo per descrivere il comportamento delle grandezze fisiche della microfisica, cioè lo sviluppo della meccanica quantistica. Questo fu realizzato quando, nel 1926, Schroedinger propose la sua equazione alle derivate parziali per valutare la funzione di densità di probabilità ψ(P, t), che dimostrò subito tutta la sua utilità. Successivamente l’algebra matriciale di Heisenberg, ma soprattutto l’estensione all’elettrodinamica relativistica di Dirac, portarono a compimento il processo della formulazione della meccanica quantistica. 106 Da quel momento una valanga di scoperte, di miglioramenti e di nuove teorie (soprattutto nel campo delle fisica delle particelle elementari) hanno portato al quadro soddisfacente delle conoscenze attuali. È stato un percorso difficile e per comprenderlo in pieno sono necessari anni di formazione universitaria specialistica. Quindi Ad maiora!! Un’ultima considerazione: si legge, ogni tanto, su articoli di divulgazione (non proprio attendibile) ma anche su libri non specialistici (e talvolta anche si sente proclamare con sussiego da conferenzieri molto superficiali) che la Fisica classica è ormai superata 43 , che Einstein (uno dei bersagli preferiti di questi cialtroneschi dulcamara) è stato smentito, che le leggi fondamentali della natura sono tutte cambiate e cosı̀ via. Tutte queste scemenze rivelano solo l’ignoranza profonda di chi le propina. La Fisica (come ogni altra Scienza razionale) è un edificio costruito tramite il contributo di tantissimi ricercatori, molti modesti (ma onesti), tanti brillanti, pochi geniali, ma tutti rispettosi e grati per il contributo dato da altri colleghi ma soprattutto dai predecessori, senza i quali non si potrebbe MAI andare avanti. Ovviamente ci possono essere state interpretazioni errate 44 , sviste, percorsi contorti nelle spiegazioni, ma le conoscenze consolidate non possono che essere rispettate. Ovviamente non si tratta di Verità ma di conoscenze attuali (quindi modificabili), ma il nostro profondo rispetto e la nostra sincera gratitudine verso tutti coloro che ci hanno donato questa valanga di conoscenze non devono mai mancare. Soprattutto quando si sentono i nomi dei cosidetti giganti (Galileo, Newton, Maxwell, Planck, Einstein ecc.) si dovrebbe stare un attimo in silenzio per esprimere loro la nostra sincera gratitudine ma soprattutto per pensare a non pronunciare (solo noi!) qualche grullata. 43 È con la meccanica classica di Newton e successori che si riesce a inviare sonde spaziali fuori dal sistema solare, che si costruiscono tutte la macchine che utilizziamo, è con l’elettromagnetismo classico che si realizzano gli apparati elettrici che ci rendono la vita più comoda, è la termodinamica classica che ci aiuta a capire tantissimi fenomeni della nostra vita quotidiana e cosı̀ via. 44 Galileo sosteneva che le comete non erano un fenomeno celeste ma una perturbazione della nostra atmosfera, affermazione, in questo caso, sbagliata; questo non inficia minimamente la sua grandezza e profonda importanza nello sviluppo della conoscenza umana, perché è stato una pietra miliare nella costruzione della Fisica come la conosciamo oggi. 107