Energie su misura - Consorzio Interuniversitario Nazionale "La

Transcript

Energie su misura - Consorzio Interuniversitario Nazionale "La
Intervista a Sir
Harold Kroto,
premio Nobel
per la
Chimica 1996
La Scienza
al servizio
dell’Uomo
e
dell’Ambiente
8
Settembre 2007
Alla ricerca
Foto di Ornella Erminio
dei solventi
verdi
Largamente impiegati
per diluire o sciogliere altre
sostanze, per esempio
nel settore delle vernici,
dei metalli o nella pulitura
a secco, questi liquidi hanno
spesso comportato rischi
per la salute e per l’ambiente.
PRIMA PUNTATA
“
”
Radiografia
di un
territorio
con l’aiuto
dei licheni
Con il web
aiuto
gli insegnanti
a insegnare
meglio
le scienze
Energie su misura
Calcoliamo
insieme
quanta
energia
ci serve
a livello
globale
nella vita
di ogni giorno
Una copia euro 3,00 - Periodico mensile d’informazione edito dal Consorzio Interuniversitario Nazionale “La Chimica per l’Ambiente“ (INCA) - Anno II, N. 8, Settembre 2007
Il giornale per gli studenti,
degli studenti e dei professori
Parola di Prof
Scambio di idee
con Piero Tundo
Una “palestra” per la diffusione
della cultura scientifica
Cari ragazzi, cari professori,
I
nizia un nuovo anno scolastico e Green, dopo la positiva
esperienza dei primi otto numeri, si accinge ad
accompagnarvi per la seconda volta nel vostro lavoro di
apprendimento e di insegnamento. Alcuni hanno già
concluso il secondo ciclo di studi e si sono iscritti
all’Università: ci auguriamo che qualcuno abbia scelto una
facoltà scientifica, perché la società contemporanea ha
sempre più bisogno di bravi chimici, fisici, matematici,
biologi. Sarebbe per noi un risultato eccezionale ed
incoraggiante se anche un solo studente, uno soltanto,
avesse intrapreso il percorso scientifico perché stimolato
dalle pagine della rivista.
I
l giornale per gli studenti, degli studenti e dei professori
– così lo abbiamo definito nello “strillo” di copertina –
intende proseguire con rinnovato impegno la sfida
lanciata nel novembre 2006 con l’uscita del primo numero.
All’insegna della Scienza al servizio dell’uomo e
dell’ambiente, continueremo a dare corrette informazioni di
fronte al dilagare della spettacolarizzazione mediatica; a far
emergere con chiarezza la corrispondenza tra le scienze e le
richieste della società sia in ambito sociale che economico
ed etico; a diffondere una solida cultura scientifica, senza la
quale oggi i cittadini non sono in grado di esercitare i loro
diritti nelle scelte che sempre più sono chiamati a fare.
Cercheremo cioè di sollecitare nei lettori la spontanea
curiosità verso i problemi che la scienza pone; curiosità e
interesse che dovrebbero essere l’unico valido motivo che
porta a scegliere la ricerca o una qualsivoglia carriera
scientifica per il proprio futuro lavoro.
Infatti la vita pone problemi che si possono risolvere se li si
affronta direttamente: questo impegno interiore produce
risultati solo quando ciascuno di noi si sente personalmente
coinvolto, cioè quando ha scelto liberamente il proprio
futuro.
L
a rivista in particolare continuerà ad essere efficace
strumento didattico per gli insegnanti e insieme
occasione di approfondimento e di stimolo per gli
studenti, non soltanto delle scuole secondarie di secondo
grado, ma anche di quelle di primo grado. E questo grazie
alla collaborazione di ricercatori, esperti e docenti
universitari che in uno stile chiaro e al tempo stesso rigoroso
illustreranno i risultati delle loro ricerche o forniranno,
attraverso dossier tematici, approfondimenti
su argomenti che direttamente ci toccano nella vita di ogni
giorno: l’energia, l’ambiente, la salute.
Proprio in quanto strumento didattico Green, edita – è utile
ricordarlo – dal Consorzio interuniversitario nazionale “La
chimica per l’ambiente” Inca che raccoglie 33 università
italiane che credono nella green chemistry, intende
affiancarsi ad alcune iniziative delle istituzioni, in
particolare del Ministero della Pubblica Istruzione, quali
per esempio il Progetto lauree scientifiche e soprattutto
quello relativo alla realizzazione di laboratori di scienze
nelle scuole.
P
roprio in questi giorni infatti prende l’avvio, per il
Programma nazionale Scuole aperte, una iniziativa
grazie alla quale circa mille istituti potranno dotarsi
entro breve di laboratori scientifici per favorire
l’apprendimento delle scienze “dal vivo”, attraverso
l’esperienza diretta dei ragazzi chiamati ad essere parte
attiva negli esperimenti. E’ questo un primo concreto
risultato dell’azione svolta dal Gruppo di lavoro
interministeriale per lo sviluppo della cultura scientifica e
tecnologica coordinato dal professor Luigi Berlinguer.
I
n quanto strumento didattico la rivista si è inoltre fatta
promotrice, in ambito universitario, di un master di
primo livello sulla diffusione della cultura scientifica,
che formerà nell’anno accademico 2007-2008 esperti ed
operatori della comunicazione scientifica in grado di
rispondere alle domande di una società che richiede di
essere correttamente informata. Il master, istituito
dall’Università Cà Foscari di Venezia, prenderà il via il 5
novembre prossimo e le lezioni si terranno di venerdì e
sabato, in modo da favorire la frequenza da parte di chi è
impegnato in attività di lavoro o di ricerca.
Ci auguriamo che tra gli iscritti ci siano anche insegnanti
desiderosi di acquisire nuove competenze
in un settore fondamentale della società della conoscenza.
Nelle pagine seguenti troverete tutte le informazioni
necessarie e le istruzioni per l’iscrizione (scadenza preiscrizioni 24 ottobre, iscrizioni 2 novembre 2007).
M
a Green vuole essere sempre di più anche
strumento di incontro e di confronto tra studenti e
ricercatori, tra scuola e università. Nei mesi scorsi
sono arrivate in redazione centinaia di lettere ed e-mail: dal
mondo istituzionale e scientifico (e qui voglio ringraziare
in modo particolare, tra i tanti, il Capo dello Stato
e il Presidente del Consiglio) e dalle scuole.
Ci hanno scritto davvero in molti, insegnanti e ragazzi.
Proprio dal mondo della scuola, dell’università e della
ricerca ci attendiamo ora interventi che aprano un dibattito
sui tanti aspetti che riguardano le scienze oggi: la didattica,
l’etica, il lavoro degli studiosi, i risultati della ricerca
scientifica, le applicazioni dei risultati, l’informazione.
Nel pieno rispetto delle opinioni di ciascuno
pubblicheremo testimonianze,
esperienze, suggerimenti. Scriveteci.
Scrivete a: [email protected]
2
Ritorno al futuro
sommario
Green
La Scienza
al servizio
dell’Uomo
e dell’Ambiente
8
Settembre
2007
Periodico mensile
d’informazione
del Consorzio
Interuniversitario
Nazionale
La Chimica
per l’Ambiente
(INCA)
Direttore
Piero Tundo
Comitato scientifico
Angelo Albini,
Università di Pavia
Sergio Auricchio,
Politecnico di Milano
Attilio Citterio,
Politecnico di Milano
Lucio Previtera,
Università di Napoli Federico II
Direttore responsabile
Gino Banterla
Coordinatore di redazione
Fulvio Zecchini
Una pietra preziosa si mimetizza in una pannocchia di granoturco. La foto di Ornella Erminio è come un
simbolo per una chimica verde soprattutto in agricoltura. I nostri campi sono preziosi, la nostra salute di più.
Comitato redazionale
Antonella Americo
Chiara Palmieri
Elisabetta Tolomeo
Progetto grafico e impaginazione
Graficatorri - Franco Malaguti
Sommario
L’intervista
Dalle scuole
Il Nobel Harold Kroto: “Con il web aiuto
gli insegnanti a insegnare meglio le scienze”
Radiografia di un territorio
con l’aiuto dei licheni
pag. 6
pag. 10
DOSSIER
Energie su misura. Calcoliamo insieme quanta energia
ci serve a livello globale nella vita di ogni giorno.
E quanta ne servirà in futuro
pag. 16
Nuove frontiere
Alla ricerca dei solventi verdi
pag. 36
Futuro & Futuribile
Notizie dal mondo
pag. 48
Progetti & Invenzioni
Notizie dall’Italia
pag. 50
Direzione e redazione: Viale Luigi Pasteur, 33 - 00144 Roma, tel. 06 54 22 07 10, tel./fax 06 59 26 10 3
e-mail: [email protected] Sito Internet: www.green.incaweb.org
Amministrazione: Consorzio Interuniversitario Nazionale “La Chimica per l’Ambiente” (INCA)
Via delle Industrie, 21/8 - 30175 Marghera (VE)
Registrazione al Tribunale di Venezia n. 20 del 15 luglio 2006
Stampa: Grafiche Seregni, Paderno Dugnano (Milano)
La rivista mette a disposizione
di istituzioni, università, enti,
imprese del settore i suoi spazi
per inserzioni che intendano
promuovere iniziative per gli
studenti e per gli insegnanti
e diffondere messaggi istituzionali
e comunicazioni aziendali.
Per informazioni rivolgersi
al Consorzio Interuniversitario
Nazionale
“La Chimica per l’Ambiente”
INCA, proprietario
ed editore della rivista:
Via delle Industrie 21/8
30175 Marghera (VE)
telefono 041 23 46 611
fax 041 23 46 602
e-mail:[email protected]
© Consorzio INCA, 2007.
Tutti i diritti sono riservati. La presente
pubblicazione, tutta o in parte, non può
essere riprodotta o trasmessa in nessuna
forma e con nessun mezzo, elettronico,
meccanico, fotocopia, registrazione o altro,
senza l’autorizzazione scritta dell’editore.
3
Luigi Berlinguer: la terza missione
Master
in diffusione della
cultura
scientifica
“Il master in diffusione della
cultura scientifica di Cà
Foscari è un esempio concreto di come si stia affermando
la terza missione dell’Università: accanto alla ricerca e
all’insegnamento, far conoscere i risultati della ricerca ai
cittadini”. Così Luigi Berlinguer, presidente del Gruppo
di lavoro interministeriale per
lo sviluppo della cultura
scientifica e tecnologica, ha
presentato il 17 luglio a Venezia il nuovo master di primo
livello, nato su iniziativa del
Consorzio Interuniversitario
Nazionale “La Chimica per
l’Ambiente” INCA in partnership con VEGA, Parco
Scientifico e Tecnologico di
Venezia. La presentazione si è
svolta nella splendida cornice
dell’aula Scarpa dell’Università Cà Foscari, affacciata sul
Canal Grande.
Sono intervenuti il rettore dell’ateneo Pier Francesco Ghetti; Piero Tundo, presidente
INCA e responsabile della
organizzazione didattica e
scientifica del master; Gianpietro Marchiori, amministratore delegato di VEGA, e
Carmela Palumbo, direttore
generale dell’Ufficio scolastico regionale per il Veneto.
Nelle foto, il tavolo dei relatori e un momento della
visita di Berlinguer ai laboratori INCA di Marghera.
La Scienza al servizio dell’ Uomo e dell’
Obiettivo del master
Prende il via nell’anno accademico 2007/2008 all’Università degli Studi di Venezia “Ca’ Foscari” il master di primo
livello in
“Diffusione della cultura scientifica.
La scienza al servizio dell’uomo e dell’ambiente”.
Si tratta di una iniziativa innovativa nel panorama dei master universitari italiani, che si caratterizza per il peculiare
percorso formativo.
Di fronte alla complessità del vivere quotidiano e alle
emergenze sociali di un mondo globalizzato, la moderna
società della conoscenza, impone una nuova strategia nelle proposte didattiche del settore dell’informazione scientifica.
Oggi più che mai sono necessari operatori della comunicazione, qualificati e responsabili, in possesso di una formazione multi e interdisciplinare che risponda anche ad irrinunciabili principi etici, permettendo così di fornire
un’informazione nuova e corretta, interessante di per sé,
senza bisogno della spettacolarizzazione della notizia e del
sensazionalismo che talvolta troviamo nel sistema media4
tico odierno. Il master dell’Università Cà Foscari intende
pertanto preparare esperti e operatori della comunicazione
scientifica, intesa come trasferimento della conoscenza in
maniera rigorosa e comprensibile, capaci di favorire la
comprensione degli aspetti scientifici che stanno alla base
dei fenomeni, contribuendo in tal modo alla crescita culturale e tecnologica di una società che sempre di più necessita di essere correttamente informata in settori fondamentali della vita di ogni giorno quali l’energia, l’ambiente, la salute, l’inquinamento atmosferico, i cambiamenti
climatici.
Il master forma figure professionali flessibili che rispondono alle varie esigenze di comunicazione scientifica di
aziende, musei, testate giornalistiche, uffici stampa e uffici relazioni con il pubblico (Urp), enti pubblici, enti locali, parchi scientifici e naturalistici.
Al termine del corso l’allievo sarà in grado di redigere testi scritti secondo le regole della chiarezza e del rigore
scientifico, produrre comunicazioni multimediali ed elaborare progettazioni info-grafiche. Soggetti di diversa
estrazione culturale e scientifica potranno acquisire, attraverso lezioni, seminari, laboratori, preparazione on line,
tirocini in sistemi editoriali e una serie di stage in aziende,
l’esperienza necessaria per porsi nel nuovo mercato della
Università Cà Foscari di Venezia
dell’Università
Insegnamenti e stage
Area insegnamenti fondamentali
1. Diritto dell’informazione in Italia e nell’Unione
Europea
2. Etica della comunicazione e dell’informazione
3. Teorie e tecniche della comunicazione
4. Percorsi dei nuovi media e della comunicazione
multimediale
5. Trasferimento delle conoscenze e diffusione
della cultura scientifica
6. Sociologia dei processi comunicativi e formazione
delle opinioni pubbliche
Area insegnamenti caratterizzanti
1. Evoluzione della Chimica
2. Le nuove frontiere della Fisica
3. Biologia ed Ecologia nella vita quotidiana
4. Scienze delle trasformazioni della Terra
5. Storia della Scienza e della Tecnica
6. Percorsi storici del giornalismo e della comunicazione
Area insegnamenti professionalizzanti
1. Analisi delle fonti di informazione
2. La comunicazione istituzionale
3. Marketing e comunicazione aziendale
4. I modelli di scrittura
5. Strutture tecniche e strutture espressive
6. L’infografica: fusione tra parola e figura
Oltre alle sopraelencate lezioni frontali e/o on-line (200
ore), caratterizzano il master un laboratorio di scrittura articolato in 200 ore e stage in aziende operanti nel settore
scientifico, tecnologico o editoriale (200 ore).
Le lezioni frontali si terranno di
venerdì e sabato presso il complesso
VEGA (Marghera, Venezia)
e avranno inizio il 5 novembre 2007.
Informazioni didattiche e organizzative
Consorzio Interuniversitario Nazionale
“La Chimica per l’Ambiente”
INCA
Via delle Industrie 21/8
Marghera Venezia
signora Katiuscia Grandi tel. 041 2346611
fax 041 2346602
e-mail: [email protected]
Centro Interateneo di Eccellenza per la Ricerca Didattica e
la Formazione Avanzata – laboratorio
Univirtual, E-Learning Technologies,
Via delle Industrie 17/A
Marghera Venezia
dott. ssa Roberta D’Argenio tel. 041 5094384 –
fax 041 5094410
e-mail: [email protected]
Università
Informazioni amministrative
Cà Foscari
Sezione Formazione Postlauream
di Venezia
e Permanente
Università Cà Foscari,
Dorsoduro 3249 - Venezia tel. 041 2347575
fax. 041 2347547
e-mail: [email protected]
Ambiente
mediazione culturale-scientifica.
Il master nasce dalla consolidata esperienza del Consorzio
Interuniversitario Nazionale “La Chimica per l’Ambiente”
(INCA; www.incaweb.org), che raggruppa 34 atenei italiani, e ha come testata-laboratorio la rivista “Green. La
scienza al servizio dell’uomo e dell’ambiente” edita dallo
stesso Consorzio e diffusa gratuitamente in tutte le scuole
secondarie di secondo grado d’Italia (www.green.incaweb.org). Partner nella realizzazione del master è il Parco Scientifico e Tecnologico Vega di Venezia (www.vegapark.ve.it).
Tenendo conto anche delle specifiche esigenze della piccola e media impresa, il master tenterà un originale approccio di studio e conoscenza specifica unendo le conoscenze delle discipline scientifiche universitarie con le
competenze proprie dell’imprenditoria. Parte integrante e
fondamentale del percorso formativo, che prevede lezioni
teoriche frontali e pratica di laboratorio, saranno le esperienze di stage in aziende, enti pubblici e privati, uffici
stampa, giornali. Infatti uno degli obiettivi principali del
master è far sì che al termine del corso si ottengano figure
professionali in grado di produrre comunicazione multimediale ed elaborare progetti di divulgazione scientifica
ed aziendale specifica.
A chi è rivolto
Sono ammessi al master allievi in possesso di una laurea in
qualsiasi disciplina conseguita ai sensi del D.M. 509/99 o
secondo l’ordinamento precedente. Sono ammessi anche i
giornalisti professionisti e pubblicisti in possesso di diploma di scuola secondaria superiore, iscritti all’Ordine dei
giornalisti da almeno cinque anni.
Al fine di permettere ai vari partecipanti di partire da basi il
più possibile paritarie, saranno effettuati corsi propedeutici
integrativi differenziati a seconda dell’estrazione scientifica
o umanistica degli allievi.
Durata e frequenza
Durata:
12 mesi
Inizio:
5 novembre 2007
Modalità didattiche: blended (frontale e on line)
Il master riconosce 60 crediti formativi universitari; rilascia
un diploma che ha valore legale, e assicura uno stage finale
in preparazione della tesi di diploma.
Costo
Il costo del master è di euro 2.000 in due rate.
Sono previste 5 borse di studio che copriranno il 100% del
costo d’iscrizione.
Per ogni altra informazione o per consultare il piano didattico si rimanda al sito
http://www.cenec.org/ita/master2007/dcs/presenta.htm
5
Intervista a
Sir Harold Kroto,
premio Nobel
per la Chimica 1996
“Con il web
a insegnare
di Fabio Aricò
Il professor Harold Kroto, nominato “Sir” nel 1996, ha ricevuto
nello stesso anno il Nobel per la
Chimica insieme ai professori Curl e
Smalley grazie alla scoperta dei fullereni, avvenuta studiando le catene carboniche nello spazio interstellare.
I fullereni o buckyballs, così chiamati in
onore di Richard Buckminster Fuller (un famoso poeta, inventore e architetto americano) sono nanostrutture costituite interamente da atomi di carbonio che possono disporsi nello spazio a formare diverse geometrie:
sferiche, come vediamo qui sopra a sinistra,
ellissoidali (a destra) o cilindriche (in bas-
so). I fullereni hanno, a livello molecolare,
una struttura simile alla grafite, che è costituita da esagoni organizzati in lamine composti da atomi di carbonio uniti tra di loro.
Nella struttura dei fullereni invece gli atomi
di carbonio possono formare anche delle
geometrie pentagonali (o a volte eptagonali) che sfavoriscono la formazione di lamine
a favore di strutture cilindriche o sferiche.
In particolare, i fullereni cilindrici, chiamati
nanotubi, sono fonte di grande interesse e
vengono considerati, per le loro straordinarie proprietà, uno dei materiali del futuro.
Il prof Kroto è stato inoltre il co-fondatore,
nel 1995, del Vega Science Trust, nato con
l’intento di promuovere lezioni e film di
scienze di facile comprensione per il pubblico. Il website relativo a questo progetto è
Dalle nanotecnologie e dalla scoperta dei “fullereni” ai programmi televisi
6
aiuto gli insegnanti
meglio le scienze”
accessibile da più di 165 paesi ed è totalmente disegnato da Kroto che ha una vera
passione per l’arte grafica, anche se il suo
maggiore interesse restano comunque le nanotecnologie. A dimostrazione del suo contributo in questo settore, l’Università di
Sheffield (dove Kroto si è laureato nel
1961), ha fondato nel 2005 il Kroto Research Campus che comprende il Kroto Research Institute, il Nanoscience ed il Technology Centre.
Kroto ha tenuto recentemente una conferenza a Venezia sull’importanza della diffusione della cultura scientifica.
Alla fine della conferenza ha rilasciato
questa intervista a “Green”.
ntri
o
c
n
gli ii green
d
Professore Kroto, lei è uno dei
pionieri delle nanotecnologie: come pensa che esse siano cambiate negli ultimi dieci anni? Quale
sarà il futuro delle nanotecnologie e in particolare della scienza
dei materiali?
“Le nanotecnologie non sono una scienza
nuova, ma piuttosto un ramo della chimica
vecchio di 200 anni, o meglio, il cui inizio si
perde all’alba dell’Universo temperato. Recentemente è accaduto che le aree scientifiche più importanti del XXI secolo, come la
fisica, la biologia e l’ingegneria, hanno cominciato a gravitare intorno all’universo
della chimica. Fondamentalmente le nanotecnologie sono basate sull’assemblaggio di
strutture complesse partendo da elementi
vi di divulgazione scientifica per la Bbc. E ora su Internet www.geoSet.info
7
Intervista a Sir Harold Kroto, premio Nobel
maths). Questo progetto è una via di mezzo
tra You Tube e Wikipedia e spero che le università vorranno dare la loro collaborazione. Lo scopo di Geo è molto flessibile, ma
il fine ultimo è aiutare gli insegnanti ad insegnare meglio”.
molto più piccoli; dopo tutto gli uomini
stessi sono fatti in questo modo. Per cui le
nanotecnologie sono vecchie quanto la vita
stessa. Esse hanno aperto la possibilità a
nuovi sviluppi in medicina (nuovi nano-sistemi che possono cercare, riconoscere e distruggere parti malate del corpo umano); in
elettronica (supercomputer grandi come un
orologio da polso ed elettronica stampabile)
e in ingegneria civile (materiali più leggeri
di un sesto e insieme più forti 100 volte rispetto al ferro)”.
Lei è molto attivo nella divulgazione della scienza, specialmente tramite il progetto Vega Science Trust che ha portato alla produzione di più di 80 programmi televisivi, molti dei quali andati in
onda sulla Bbc. Come le è venuta
questa idea?
“L’idea del Vega è nata con il progetto di registrare un ciclo di lezioni di scienze per la
Bbc. Abbiamo così creato diversi filoni: dai
programmi orientativi per la carriera ai laboratori per bambini. Fino ad oggi abbiamo
realizzato più di 110 programmi, 55 dei
quali sono stati mandati in onda dalla Bbc.
Nel frattempo l’avvento di Internet ha rivoluzionato l’idea della messa in onda e adesso sono concentrato su questo metodo di
diffusione del materiale educativo scientifico. Inoltre ultimamente sto lavorando a un
progetto molto stimolante chiamato Global
Education Outreach (Geo) che è incluso nel
mio nuovo sito www.geoSET.info (Set Science Engineering and Technology incl
8
Gli studenti continuano ad essere poco interessati alla scienza e
in particolare alla chimica. Perché?
“Ci sono molte ragioni, che sintetizzo
schematicamente per punti. Anzitutto:
studiare le scienze è più difficile che
non sfilare in passerella o agire come uno
sciocco in un reality show. I ragazzi che vivono nel mondo tecnologicamente sviluppato pensano che la celebrità sia la cosa più
importante a cui aspirare: i punti di riferimento sono le supermodelle, le rockstar, le
trasmissioni televisive di successo... Ma
questo è totalmente irragionevole, i giovani
devono capire che solo uno su mille può fare della fama una carriera, nella maggior
parte saranno destinati a una vita di fallimenti.
In secondo luogo, la tecnologia moderna è
complessa, imperscrutabile, non riparabile
e progettata per essere buttata via in quanto
obsoleta prima ancora di essere venduta: accade così per i telefoni cellulari, per le macchine fotografiche digitali, per i computer.
Come si può avere rispetto per le cose che
si possono buttare via quando smettono di
“I ragazzi che vivono
nel mondo tecnologicamente
ri sviluppato pensano
ontn che la celebrità sia la cosa
c
n
i
gli i gree
più importante a cui aspirare”
d
funzionare? Come possono i giovani essere
affascinati da un tipo di tecnologia che non
stuzzica la loro curiosità anche se ne sono
interessati? Io da ragazzo ero in grado di aggiustare quasi ogni cosa avessi comprato ed
è così che ho imparato come funzionava il
mondo intorno a me. Ho costruito la mia
prima radio e ho aggiustato quella della mia
famiglia svitandone il retro e cambiando i
fusibili che non funzionavano più. Sapevo
saldare resistenze. Scattavo foto con la mia
macchina, preparavo in bagno le soluzioni
per lo sviluppo dei negativi e di notte stampavo le foto. Ho così sviluppato le mie capacità analitiche per risolvere problemi e ho
imparato come funzionavano le cose tramite un lavoro investigativo sugli oggetti che
smettevano di funzionare.
per la Chimica 1996
Il sito web di
sir Harold
Kroto,
innovativo
strumento di
didattica per
gli insegnanti.
E ancora: una volta non avevamo l’automobile, il telefono, il frigorifero, la televisione,
il forno elettrico o il riscaldamento centralizzato. C’era un bagno esterno e d’inverno
accendevamo il fuoco ogni giorno con il
carbone. Oggi i bambini vengono accompagnati a scuola in macchina invece di camminare, hanno una seconda televisione nella
loro stanza da letto, hanno immediatamente
la terza o quarta macchina di famiglia senza
doversela sudare e passano gran parte del
loro tempo con il telefono cellulare, sono
assuefatti ad Internet… Dobbiamo ancora
vedere che impatto avrà tutto questo sulla
società.
Terzo punto: gli scienziati più preparati fanno scienza o sono impegnati in lavori ben
remunerati che richiedono forti capacità
analitiche e matematiche. Gli insegnanti, al
contrario, non sono equamente remunerati,
e d’altra parte pochissimi scienziati hanno
un lavoro come insegnante, e se lo hanno
non insegnano ai bambini sotto i dieci anni,
l’età in cui l’abilità scientifica deve essere
nutrita e sostenuta. Dopo i dieci anni comincia ad essere troppo tardi. Inoltre i bambini
si trovano di fronte ad insegnanti preparatissimi in materie umanistiche, non in quelle
scientifiche. Un laureato appassionato di
storia e che vuole continuare a lavorare nel
settore ha come unica soluzione l’insegnamento e probabilmente la scrittura come
sbocco secondario.
Ultimo punto: sono stati istituiti numerosi
corsi di studio, per esempio scienze della
comunicazione o psicologia, stimolanti ma
“leggeri”, e i giovani vi si iscrivono in massa. A volte essi sono dieci volte più numerosi del necessario”.
Uno dei programmi messi in onda
dal Vega Science s’intitola “The
next big thing” (La prossima grande idea). In questa trasmissione
gli scienziati sono invitati a parlare di diversi argomenti quali le nanotecnologie, la valutazione del
rischio ambientale, l’intelligenza artificiale. Un episodio in particolare trattava dell’energia sostenibile. Quale
pensa sia “la prossima grande idea”
per quel che riguarda la chimica sostenibile?
“Io sospetto che, se non impareremo a operare la fotolisi dell’acqua in idrogeno e ossigeno, la nostra vita, così saldamente basata
sulle tecnologie e così dipendente dal vorace consumo energetico derivante principalmente dai carburanti fossili, sarà destinata
alla fine. Non so valutare se sarà in cinque,
50 o 500 anni ma non possiamo continuare
in questa direzione. In un anno consumiamo
una quantità di carburanti fossili che ha richiesto milioni di anni per formarsi. L’energia nucleare sarà probabilmente una tecnologia temporanea e ci aiuterà a guadagnare
tempo, forse anche l’energia eolica o simili
energie potrebbero aiutare, ma alla fine l’unica soluzione plausibile sarebbe – paradossalmente – che diminuisse la popolazione
mondiale di un fattore di dieci…”.
“Sicuramente l’etica,
ntri come l’umanità, è un concetto
o
c
n
gli ii green creato dall’uomo
ed è la nostra
d
più grande creazione”
Pensa che i valori etici debbano
essere considerati dalla scienza?
“Sicuramente l’etica, come l’umanità,
è un concetto creato dall’uomo ed è la
nostra più grande creazione. Dio non
ne è stato il creatore, ma l’abbiamo
creata noi. Fino a quando non riconosceremo questa idea di fondo saremo portati
a prendere sempre decisioni irrazionali e
stupide. L’umanità (etica secolare) deve essere studiata se vogliamo essere sicuri che
le scienze siano usate a beneficio dell’uomo.
Purtroppo i più estremisti, ma anche alcuni
non estremisti esponenti del dogma sia religioso che politico, hanno sempre messo il
potere davanti al benessere delle persone e
utilizzato la tecnologia a questo scopo. La
tecnologia, oggi, è così potente che potrebbe distruggere l’intera razza umana. Cerchiamo di essere ottimisti… speriamo che il
riscaldamento globale della terra ci finisca
prima!”.
Intervista di Fabio Aricò
9
DALLE SCUOLE /Una ricerca sull’inquinamento atmos
e
Ecco i risultati
del
biomonitoraggio
della qualità
dell’aria effettuato
dagli studenti
del Liceo della
comunicazione
opzione
ambientale
dell’Istituto
Maria
Immacolata
di Gorgonzola
(Milano)
Le classi 4 del liceo della comunicazione opzione ambientale
dell’Istituto M. Immacolata, in
collaborazione con l’amministrazione comunale di Gorgonzola
(Mi) e la Società Ecosfera, effettuano da cinque anni il monitoraggio
della qualità dell’aria attraverso l’osservazione dei licheni epifiti, utilizzati
come bioindicatori.
Il modulo si inserisce in un progetto più ampio denominato IQA (IMI Qualità Ambiente)
che prevede l’approfondimento delle tematiche ambientali svolte in classe e applicate direttamente sul campo per rendere gli studenti
consapevoli anche delle condizioni ambientali del proprio territorio.
Il progetto pluriennale IQA vuole affrontare il
problema dell’inquinamento atmosferico e
acquatico utilizzando diversi metodi di ricerca, che permettano allo studente di apprendere metodologie di indagine ambientale con le
quali effettuare una stima oggettiva dello stato ecologico del territorio.
In particolare, la valutazione della qualità dell’aria è oggigiorno di primaria importanza,
dal momento che l’inquinamento atmosferico
è uno dei principali problemi ambientali di rilevanza mondiale.
Il modulo prevede inizialmente uno studio
della planimetria del territorio comunale di
Gorgonzola, individuando le stazioni di rilevamento. La scelta delle stazioni non è casuale, poiché si considerano zone diversamente
esposte agli effetti negativi dell’inquinamento
causato dal traffico o da antiparassitari e fertilizzanti che influiscono sulla quantità e la biodiversità delle specie licheniche.
Le uscite sul territorio vengono precedute,
poi, da un laboratorio per il riconoscimento
dei caratteri morfologici dei licheni e per le
tecniche utilizzate per distinguere le differenti
specie, nonché per l’introduzione al metodo
per il calcolo dell’indice di biodiversità lichenica (IBL) che fornisce un’indicazione quantitativa relativa alla qualità dell’aria.
In seguito, si procede alla classificazione dei
licheni sul campo in diverse stazioni di rilevamento, riportando i risultati su apposite schede. Infine, si passa alla fase di analisi e rielaborazione, durante la quale sono costruite tabelle in cui vengono inseriti i dati finali.
Si passa quindi all’elaborazione dei risultati,
calcolando per ciascuna stazione l’indice IBL.
Storia del biomonitoraggio: uno studio che viene dal freddo
Le prime osservazioni sul
deperimento dei licheni in aree
soggette a inquinamento
atmosferico risalgono alla metà
del secolo scorso (Nylander,
1867). Verso la fine degli anni
’20, studi condotti nel Nord
Europa evidenziarono la
graduale scomparsa di licheni
epifiti nel centro di molte città
(Sernander, 1926). Agli inizi
degli anni ’70, vennero trovate
correlazioni tra le
concentrazioni di SO2 e la
presenza di determinate specie
licheniche (Hawksworth &
Rose). Importanti passi avanti
nello sviluppo di una metodica
riproducibile sono stati avviati
a partire dalla fine degli anni
'80, quando un'equipe di
lichenologi svizzeri mise a
punto un metodo che
permetteva di associare la
biodiversità dei licheni epifiti
alla qualità dell'aria con una
predittività molto elevata. Il
metodo permetteva di ottenere
un indice di purezza
atmosferica e pertanto era
denominato metodo I.A.P.
(Index of Atmospheric Purity).
All’inizio degli anni ’90, Nimis
testò l’applicabilità del metodo
I.A.P. in Italia, conducendo
alcuni studi di applicazione a
La Spezia, Schio, Savona e
apportando alcune modifiche
metodologiche.
La principale variazione
rispetto al metodo svizzero
consiste nell’utilizzo di un
reticolo a maglie di dimensioni
fisse (50x30 cm; 10 maglie),
mentre precedentemente le
dimensioni del reticolo
variavano con il diametro del
tronco. Il metodo così
modificato si basa su una
misura dell’indice di
biodiversità lichenica su
substrati arborei (Biodiversità
Lichenica, BL), definita come
la somma delle frequenze delle
specie presenti entro un
reticolo a dieci maglie di area
costante (Nimis, 1999). L’IBL
misurato è in funzione della
concentrazione delle principali
sostanze inquinanti presenti in
atmosfera: la predittività,
misurata sperimentalmente in
diversi lavori (Nimis et al.,
1990), è circa del 98%.
Radiografia di un territor
Morfologia e caratteristiche
dei licheni, una simbiosi
tra fungo e alga
di M. Crispiatico, A. Ricco, L. Ronciglia
10
I licheni sono organismi eterospecifici, costituiti dall’aggregazione di un fungo e di un’alga.
L’alga, fotobionte, e il fungo, micobionte, sono in simbiosi mutualistica. Questa relazione realizza un reciproco vantaggio tra i due organismi: l’alga fornisce al fungo il glucosio dalla fotosintesi, il
fungo procura all’alga sostanze minerali e soprattutto acqua per il processo fotosintetico.
I licheni sono gli esseri viventi che hanno la
più ampia distribuzione geografica, sopportano le condizioni di vita più difficili e possono resistere a lunghi periodi di siccità.
La temperatura che permette lo svolgimento
ottimale della fotosintesi si aggira intorno a +
ferico (con bioindicatori) in provincia di Milano
Licheni crostosi:
formano patine
aderenti al substrato.
Licheni fogliosi:
hanno un aspetto
fogliaceo e sono
formati da lamine
con sviluppo
parallelo al substrato;
il bordo può
essere inciso.
Licheni fruticosi:
hanno struttura
tridimensionale,
crescono come
cespugli perché
si staccano
dal substrato
e si sviluppano
verso l’alto
con un tallo
più o meno
ramificato.
io con l’aiuto dei licheni
10°C, ma questi organismi possono vivere in
condizioni tra i –20°C e i + 70°C. Per questa
loro caratteristica, i licheni sono in grado di
colonizzare gli ambienti più diversi, ad ogni
latitudine e altitudine della superficie terrestre, anche quelli caratterizzati da condizioni
estreme, dove da soli fungo e alga non potrebbero sopravvivere.
Alcuni di essi sono chiamati organismi pionieri, perché sono stati i
primi a “colonizzare” determinati
ambienti.
Generalmente i licheni necessitano di
molta luce: è per questo che sono rari
nei substrati delle foreste fitte, mentre
sono presenti sui rami più alti delle piante.
Si possono riscontrare anche su pietre, scorze
degli alberi, vecchie vetrate e fili arrugginiti.
Alcune specie crescono di 1 mm all’anno, altre, invece, possono arrivare ad aumentare di
1 cm all’anno: questa frequenza è in relazione
con la combinazione di alcune sostanze inquinanti (anidride solforosa, ossidi di azoto, cloro, piombo, rame e cadmio).
In vita latente, questi organismi possono resistere anche per mesi interi, sfruttando la poca
acqua per la fotosintesi che permetterà loro di
sopravvivere per tutta la giornata.
Il corpo vegetativo del lichene è il tallo, costituito da ife intrecciate tra di loro, dove si trovano le cellule algali.
11
DALLE SCUOLE /Una ricerca sull’inquinamento atmosf
Inquinamento atmosferico, danni e pericoli
L’inquinamento atmosferico può essere definito come
“l’emissione nell’atmosfera di sostanze che possono avere
un’azione nociva per ecosistemi terrestri ed acquatici,
la salute umana, i beni materiali e le opere d’arte”.
Tra gli inquinanti più diffusi e pericolosi troviamo:
Monossido di carbonio
L’apporto di CO nell’atmosfera è connesso a vari processi di
combustione: una delle principali sorgenti sono i motori a
scoppio, ma può essere liberato anche da alcune industrie,
come le acciaierie, e dalle centrali termoelettriche.
Gli effetti indotti sulla vegetazione sono trascurabili, mentre
sull’uomo appaiono particolarmente gravi perché influiscono
sul trasporto dell’ossigeno ai tessuti.
Ossidi di azoto
Il problema dell’inquinamento da NOx generato dalle attività
umane è prevalentemente legato alla loro distribuzione: le
sorgenti naturali li rilasciano uniformemente nell’atmosfera,
mentre le sorgenti alimentate dall’uomo provocano concentrazioni in aree ristrette.
I NOx sono prodotti dagli autoveicoli, dalle industrie
e dal riscaldamento domestico. Gli effetti tossici riguardano
soprattutto l’apparato respiratorio.
Per il metodo biologico si possono
I rilevatori di
inquinamento:
vantaggi del
biomonitoraggio
Fotografia del
professore
Franco Maria
Boschetto.
BIOACCUMULATORI: organismi resistenti all’inquinamento, i quali assorbono
alcune sostanze che possono essere analizzate.
I licheni epifiti sono in grado di bioaccumulare elementi in traccia, soprattutto metalli
pesanti diffusi in atmosfera sotto forma di
particolato. Per questo motivo sono ampiamente utilizzati per il biomonitoraggio dei
patterns di deposizione atmosferica di metalli in traccia. Le caratteristiche che rendono i
licheni degli ottimi bioaccumulatori sono:
- la capacità di accumulare metalli pesanti;
- la dipendenza del loro metabolismo dagli
scambi gassosi con l’atmosfera;
- l’impossibilità di eliminare le parti danneggiate del tallo.
Quest’ultima caratteristica fa sì che il tallo
mantenga informazioni relative a periodi di
tempo piuttosto lunghi, con la possibilità di
indagare esposizioni agli inquinanti di tipo
cronico.
Per rilevare l’inquinamento atmosferico possono essere utilizzati due metodi
METODO CHIMICO STRUMENTALE: attraverso centraline automatiche si misurano direttamente le sostanze nocive
prelevando campioni d’aria dall’atmosfera
METODO BIOLOGICO o BIOMONITORAGGIO: si basa sull’analisi di alterazioni ambientali mediante parametri
biologici, procedendo nello studio e nell’interpretazione degli effetti prodotti dall’inquinamento sugli organismi.
Un buon indicatore biologico deve:
- essere ubiquitariamente presente, facilmente reperibile ed individuabile;
- essere capace di reagire all’alterazione ambientale nel suo complesso;
- avere un lungo ciclo vitale e resistenza agli stress ambientali naturali
I vantaggi offerti dal biomonitoraggio
• costi contenuti e tempi di ricerca brevi;
• possibilità di realizzare reti di monitoraggio su vasta scala, basate su un’elevata densità di
punti di campionamento;
• ottimizzare il dislocamento delle centraline automatiche.
12
ferico (con bioindicatori) in provincia di Milano
Ossidi di zolfo
La natura produce circa i due terzi della quantità complessiva di ossidi di zolfo, principalmente tramite processi dovuti
ad attività vulcaniche, mentre le sorgenti legate all’azione
dell’uomo risultano concentrate in aree urbane ristrette dove
si concentrano le attività industriali. Sono gas con un alto
grado di tossicità per gli organismi viventi e responsabili di
tumori nell’uomo.
Particolati
Si tratta di goccioline liquide e particelle solide volatili con
dimensioni comprese tra 0,0002 e 500 µm. I particolati,
oltre a essere prodotti da processi naturali come le eruzioni
vulcaniche, possono avere origine da lavorazioni industriali
(cantieri edili, fonderie, cementifici), da lavorazioni agricole, dall’usura dell’asfalto, dei pneumatici, dei freni, nonché
dagli scarichi degli autoveicoli. Le particelle sospese posso-
utilizzare due sistemi
BIOINDICATORI: organismi sensibili,
che subiscono danni facilmente osservabili,
qualificabili, correlabili alle diverse intensità
di inquinamento, in modo che, quando sia
maggiore l’inquinamento ci sia un maggior
danno. I licheni, data la loro stretta dipendenza dall’atmosfera, per l’apporto idrico,
per la nutrizione minerale, per l’apporto di
gas (CO2 per la fotosintesi algale), sono
estremamente esposti e reattivi alla presenza
di sostanze tossiche che alterino la composizione atmosferica.
Le seguenti peculiarità fisiologiche ed ecologiche contribuiscono a rendere questi organismi degli ottimi bioindicatori degli effetti dell’inquinamento atmosferico.
Le sostanze inquinanti possono provocare
danni individuali di diverso tipo ai talli e, di
conseguenza, modificazioni e impoverimenti delle comunità licheniche. I licheni sono
perciò utilizzabili nel controllo biologico
dell’ambiente: il biomonitoraggio.
no causare irritazioni e allergia alle mucose dell’uomo.
Tra i residui della combustione, molto pericolose per la
salute risultano le ceneri costituite da ossidi di metalli
pesanti, quali cadmio, rame e piombo; infatti, molti metalli
pesanti, oltre a poter penetrare direttamente negli organismi
tramite la respirazione, possono essere assunti anche attraverso l’alimentazione.
Idrocarburi
La maggior parte degli idrocarburi viene prodotta dalla
decomposizione di materia organica (fermentazione batterica), ma le alte concentrazioni nelle aree urbane sono dovute
prevalentemente al traffico veicolare. Per quanto riguarda i
danni diretti sulla salute dell’uomo, si segnalano diversi
idrocarburi aromatici; lo xilene può avere effetti neurotossici, mentre il benzene produce anemie, aberrazioni cromosomiche e diversi tipi di tumore.
Metodo di
rilevamento:
scelta degli alberi e
delle zone di corteccia
Giunti nelle apposite stazioni di rilevamento,
vengono individuati gli alberi da monitorare,
analizzati anche gli anni precedenti. Le specie arboree
prese in considerazione sono: tigli (Tilia spp.), pioppi
(Populus nigra), querce (Quercus spp.). Gli alberi si trovano disposti a filare e ogni singola stazione deve comprendere tre o quattro piante.
In seguito sono fissati ai tronchi degli alberi i reticoli per mezzo delle puntine; dopodiché si rileva l’intensità di traffico nella zona, la circonferenza del tronco, l’altezza da terra e l’esposizione del reticolo.
Successivamente si passa al riconoscimento dei diversi tipi di
licheni nei 10 riquadri del reticolo per mezzo delle lenti di ingrandimento, delle chiavi dicotomiche e dei reagenti chimici
(idrossido di potassio KOH e ipoclorito di sodio NaClO).
I licheni
• hanno un metabolismo basato sugli scambi gassosi e di nutrienti direttamente con l’atmosfera,
grazie alla mancanza di una cuticola superficiale e di un apparato radicale;
• presentano una buona resistenza agli stress ambientali, che è una conseguenza del loro metabolismo particolarmente lento;
• hanno un’ampia distribuzione;
• a differenza delle piante superiori, non sono in grado di eliminare le parti intossicate del tallo;
• sono longevi e quindi forniscono informazioni relative a periodi lunghi;
• sono fissi al substrato e testimoniano le condizioni dell’area in cui si trovano;
• presentano un’attività metabolica ininterrotta, anche nel periodo invernale, quando la concentrazione di inquinanti atmosferici raggiunge, nelle aree urbane, i suoi massimi livelli.
13
DALLE SCUOLE /Una ricerca sull’inquinamento atmosf
Reticolo utilizzato
Esempio di conteggio su reticolo
Per effettuare l’analisi che ci ha
condotto a monitorare il territorio,
utilizziamo i seguenti strumenti:
• un reticolo, costituito da dieci riquadri della
grandezza di 10x15 cm l’uno;
• una bussola, utilizzata per determinare l’orientamento, secondo i punti cardinali, della posizione
del reticolo posto sugli alberi;
• un metro, utilizzato per misurare la circonferenza dell’albero e l’altezza di rilevamento dal suolo;
• il reagente K , ovvero idrossido di potassio, e il
reagente C (ipoclorito di sodio) utilizzati per la
classificazione delle diverse varietà licheniche;
• stereomicroscopio, per il riconoscimento delle
specie dubbie.
+
L’indice di biodiversità lichenica
Indice
Colore
Qualità dell’aria
0 < IBL < 10
Pessima
11 < IBL < 20
Scadente
21 < IBL < 30
Accettabile
31 < IBL < 40
Discreta
41 < IBL < 50
Buona
IBL > 50
Ottima
14
1
2
3
4
5
6
7
8
9
10
Per il conteggio dell’IBL si utilizza
questo metodo:
• si individua la specie di lichene attraverso le chiavi dicotomiche;
• si osserva dove questa specie lichenica è
presente all’interno dei dieci rettangoli
del reticolo. Per conteggiare quanti organismi sono presenti nel reticolo si devono
seguire delle regole particolari: non bisogna contare due volte la stessa specie
nello stesso quadrante; la specie che si
trova sulla linea di confine deve essere
contata due volte (cioè come se fosse presente in tutti e due i quadranti); possono
Le rilevazioni anno per anno nelle aree esaminate
ferico (con bioindicatori) in provincia di Milano
Conteggio della frequenza e della tipologia
è stato conteggiato 5 volte, poiché presente per intero nel quadrante 9 e presente in parte nei quadranti 3, 4, 5, 6.
è stato conteggiato 3 volte, poiché è presente per
intero soltanto nei quadranti 2, 5, 10.
è stato conteggiato 4 volte, poiché presente per intero nei quadranti 1, 8 e presente in parte nei quadranti 3, 4.
è stato conteggiato 4 volte, poiché presente per intero nel quadrante 10, presente in parte nei quadranti 8, 9 e presente nel quadrante 6.
è stato conteggiato 5 volte, poiché presente per intero nel quadrante 6 e presente in parte nei quadranti 1, 3, 9, 10.
è stato conteggiato 2 volte, poiché presente per intero nei quadranti 2, 3.
è stato conteggiato 2 volte, poiché presente per intero nei quadranti 1, 8.
essere rilevati al massimo 10 licheni di
una stessa specie, poiché dieci sono i
riquadri della griglia.
L’IBL calcolato è la somma totale di tutte
le varietà di licheni riscontrate e in questo
caso è pari a 25.
• Per determinare l’IBL totale di una stazione è necessario prendere in considerazione gli IBL di tre o quattro alberi e farne
la media.
Infine si confronta l’indice di biodiversità
ottenuto attraverso la tabella relativa alla
qualità dell’aria e si ottiene così una classificazione della zona monitorata.
Cascina Cascina Via
Mirabello Antonietta Argentia
1
Via
Argentia
2
P.zza
Giovanni
XXIII
Piazza
Sola
Cabiati
Conclusioni
Considerato che il nostro studio si propone di analizzare la
qualità dell’aria nel Comune di Gorgonzola, si è ritenuto opportuno monitorare un’area più vasta possibile del territorio
comunale, posizionando così le stazioni di campionamento
nel centro cittadino, in periferia ed in area di campagna, per
un totale di 13 punti. Ognuna delle stazioni è stata confrontata con le altre e il risultato è stato espresso attraverso: una tabella conclusiva con i valori di IBL e il relativo indice di qualità dell’aria, un grafico contenente i valori IBL dei 5 anni di
rilevamenti, una cartina rappresentante la distribuzione delle
stazioni di rilevamento sul Comune di Gorgonzola, e indicante l’indice di qualità dell’aria (dati riportati in basso).
A conclusione del lavoro svolto durante l’anno 2007, si è potuto constatare che la qualità dell’aria varia sensibilmente a
seconda delle aree prese in analisi: l’indice oscilla da un minimo di 6,3 ad un massimo di 33,6. Tali diversità sono causate
dalla presenza e dalla concentrazione di differenti fonti inquinanti nelle zone monitorate. Infatti, prendendo in considerazione l’area più inquinata (classificata come pessima), si può
notare come essa sia ubicata presso un incrocio semaforico,
dove le automobili sostano spesso a motore acceso per periodi prolungati. Proseguendo nell’analisi del grafico, si nota la
qualità dell’aria scadente (da 12,3 a 16,8) anche in altre tre
stazioni, ancora per la presenza di un elevato traffico veicolare. Mentre nelle rimanenti otto stazioni, ubicate in aree periferiche e meno trafficate, l’indice di qualità dell’aria risulta essere discreto (fra 26,3 e 33,6). Considerando l’arco di tempo
fra il 2005 e il 2007, si può constatare che l’IBL si è mantenuto pressoché costante nella maggior parte delle stazioni, a parte poche aree che hanno visto peggiorata o migliorata in maniera più consistente la qualità.
Prendendo in considerazione le specie licheniche rilevate quest’anno, si possono notare tra le più comuni: Phaephyscia Orbicularis, Physcia Adscendens, Candelariella, Xanthoria Parietina, Lecanora e Candelaria Concolor. Va evidenziato che
i licheni esaminati sono tutti di struttura fogliosa e crostosa;
non sono stati rilevate strutture di tipo fruticoso.
Dal lavoro svolto sul campo e dai dati elaborati è possibile
trarre che l’inquinamento è un problema che interessa non solo le grandi città, ma anche quelle di piccole e medie dimensioni, anche se certamente a livelli meno elevati e localizzati
in postazioni precise.
Via
Milano
Via Buo- Via Buo- Via
Viale
narroti 1 narroti 2 Del Parco Kennedy
Via
Via
Trieste 1 Trieste 2
Via
Trento 2
15
CALCOLIAMO INSIEME QUANTA ENERGIA CI SERVE
Energie
ER
I
S
DOS
La richiesta
energetica aumenta
rapidamente
con l’incremento
demografico
e con lo sviluppo
socioeconomico,
soprattutto dei Paesi
emergenti quali
la Cina e l’India.
Per capire le
necessità
del futuro occorre
essere
in grado di “misurare”
l’energia disponibile
e quanta ne sarà
necessaria
nei prossimi anni.
di Fulvio Zecchini
A completamento del nostro
dossier dedicato all’energia
abbiamo voluto pubblicare,
insieme ai profili degli scienziati
che hanno elaborato le leggi
fondamentali della fisica, anche
qualche fotografia relativa
all’energia degli “umili”, di coloro
che il lavoro, soprattutto nel secolo
scorso, lo hanno svolto con fatica,
abnegazione e sacrificio. E spesso...
con lo sfruttamento.
Scena di aratura in Val Padana.
Anni Quaranta del secolo scorso.
Un bambino sta davanti
per tracciare la via più dritta
al tiro dei quattro bovini
che tirano l’aratro.
16
Energia uguale vita, è lapalissiano ricordarlo, ma forse
sarà meno ovvio dire che energia può
essere anche uguale a morte. Non è
detto infatti che se un dato
elemento è necessario alla
vita, averne in quantità enormi sia meglio.
Un semplice esempio è quello dell’effetto serra, necessario al mantenimento di una
temperatura media compatibile con la vita sulla Terra,
ma oggi responsabile del riscaldamento globale del pianeta. Se a causa di emissioni
E A LIVELLO GLOBALE NELLA VITA DI OGNI GIORNO
su misura
antropiche sempre maggiori
di gas serra l’atmosfera trattenesse una quantità molto
maggiore di energia radiativa solare sulla Terra, le temperature salirebbero fino a
valori incompatibili con la
vita come noi la conosciamo.
L’enorme surplus di energia
in atmosfera permetterebbe
fenomeni estremi, quali tifoni ed uragani, di proporzioni
realmente catastrofiche.
Dobbiamo quindi poter misurare l’energia, per sapere
quanta ce ne serve, per dosare e non sprecare quella disponibile: la questione ener-
getica è oggi una delle maggiori emergenze planetarie.
Difatti la richiesta energetica
del pianeta cresce sempre
più.
È necessario perciò prevedere quanta ne servirà in un
prossimo futuro, ma per poter fare questi calcoli ci occorrono delle misurazioni e
dei modelli predittivi computerizzati che utilizzino
questi dati e producano gli
scenari del futuro sulla base
di fattori quali la popolazione mondiale e lo sviluppo industriale, come vediamo nel
planisfero e nell’istogramma
delle pagine seguenti.
Un villaggio vacanze sul canale di
Suez, Egitto, fotografato di notte (a
sinistra). Effettuando foto notturne
mentre si muove rapidamente la
fotocamera, si ottengono effetti
“artistici” con le luci che rivelano la
presenza di corrente alternata nei
lampioni (a destra). Infatti il nostro
occhio non riesce a cogliere
l’intermittenza della corrente, ma il
sensore della fotocamera sì (ne
parliamo a pagina 28). Ciò è
visibile in molte delle scie luminose
che risultano tratteggiate anziché
continue, come sarebbe se facessimo
una foto in una stanza buia ad una
torcia a batteria (corrente continua)
mossa rapidamente.
(Foto Fulvio Zecchini)
17
L’ENERGIA È LA CAPACITÀ DI UN CORPO O DI UN
ER
I
S
DOS
all’OECD, dati in bilioni di
BTU (1012 BTU; vedi testo).
Si veda come in questi ultimi,
in generale meno industrializzati,
la richiesta di energia aumenterà
molto più rapidamente, grazie
anche alla presenza di nazioni in
forte sviluppo quali Cina e India.
Mercato energetico mondiale:
consumi di energia al 2004 e
scenario dei consumi fino al 2030
nei paesi appartenenti e non
(Fonte: dati al 2004, Energy
Information Administration EIA,
Department of Energy, DoE,
USA; proiezioni EIA System for
the Analysis, 2007).
Parleremo quindi
di unità di misura
dell’energia in maniera rigorosa e –
per quanto possibile – comprensibile,
rifacendoci al sistema
internazionale di unità di misura, ufficialmente noto col
nome francese di Système International d’Unités (SI).
Utilizzeremo le definizioni e
convenzioni di scrittura che
abbiamo imparato a conoscere in Green numero 2.
Per parlare di energia prima
di tutto dobbiamo rispondere
alla domanda: cos’è l’energia? Ecco la definizione che
ne dà la fisica: l’energia è la
capacità di un corpo o di un
sistema di compiere un lavoro.
Quest’ultimo in fisica ha definizioni non semplici e diverse a seconda della branca
della fisica considerata. Siamo quindi costretti a fare delle semplificazioni estreme e
a descrivere solo gli esempi
più semplici.
In meccanica il lavoro è il
prodotto della forza moltiplicata per la distanza lungo la
quale questa forza è stata applicata. Per semplicità tratteremo la forza come un valore
scalare, cioè una quantità descritta da un solo numero,
non sensibile alle dimensioni
dello spazio, né al particolare
sistema di riferimento o di
coordinate utilizzato. In
realtà però la forza non è una
grandezza meramente numerica, ma vettoriale, dotata
cioè di quantità assoluta (modulo), direzione nello spazio
(in cui viene applicata) e ver-
so (cioè il senso in cui viene
applicata lungo la direzione).
In fisica la forza è una grandezza che si manifesta nell’interazione tra corpi (due o
più), sia a livello macroscopico, che atomico e molecolare. L’applicazione di una
forza (o più) causa quindi il
movimento dei corpi, cambiandone lo stato di quiete o
alterando il movimento già
in essere.
Va considerato che sulla Terra un corpo, anche se in quiete, è in realtà comunque sempre soggetto all’azione di alcune forze (ad esempio la
gravità); quando un corpo è
fermo rispetto ad un dato sistema di riferimento, significa che tutte le forze su di esso applicate si controbilanciano. La forza in meccanica
si esprime come il prodotto
della massa (la quantità di
materia presente in un corpo)
per l’accelerazione (cioè la
variazione della velocità nel
tempo). Nell’ambito della
meccanica, l’energia è quindi necessaria per spostare un
corpo e la sua misurazione
corrisponde al lavoro effettuato, infatti sia il lavoro che
l’energia nel SI vengono
espressi in joule (si veda il riquadro qui a lato).
Un esempio: supponiamo
che lo scooter sia rimasto a
secco e il prossimo distributore si trovi a mille metri. Il
lavoro che dovremo compiere lungo questo chilometro
sarà uguale alla forza applicata per la distanza; in piano
la spinta controbilancia l’attrito (motore, ruote, resistenza dell’aria), il quale rimane
18
Joule: come misurare l’energia
necessaria a qualunque “lavoro”
Il joule è un’unità di misura eponima dedicata a James
Prescott Joule (vedi box nelle pagine seguenti). Questa unità
rappresenta il lavoro fatto, o l’energia utilizzata, nell’esercitare
la forza di un newton (simbolo: N) per muovere un oggetto di
un metro lungo la direzione della forza (abbiamo già detto che
è una quantità vettoriale).
In unità di base del SI avremo che:
1 J = 1 kg m2 s-2 che possiamo scrivere anche come
1 J = 1 N m essendo 1 N = 1 kg m s-2.
Cioè il joule è misurato in termini di una massa per il
quadrato di una distanza, diviso il quadrato di un tempo. Ma
quanta energia rappresenta un joule all’atto pratico? È una
quantità piuttosto piccola. Qualche esempio: equivale circa
all’energia richiesta per sollevare di un metro un telefonino di
102 g contro la forza di gravità; all’energia richiesta per
riscaldare 1 g di aria fresca e secca di 1 °C; oppure ancora a
circa un duecentomillesimo dell’energia fornita da una piccola
mela (100 g).
Viste le equivalenze matematiche e la definizione di joule,
quest’ultimo nel SI può anche essere misurato in newton per
metro, e viene anche definito come newton-metro (N m).
Ma il newton-metro però in fisica definisce anche la coppia di
torsione, che ha le stesse dimensioni dell’energia in unità di
base, ma deriva da un concetto fisico differente.
Per non creare confusione oggi il newton-metro è quasi
esclusivamente usato per misurare la coppia di torsione. Infatti
avrete probabilmente sentito nominare il newton-metro sui
mass-media per quantificare il valore della coppia del motore
delle automobili o dei motocicli, una quantità proporzionale
alle loro prestazioni.
Più avanti parleremo di campi di forze conservativi, qui ci
Lavoro dell’uomo e lavoro animale per produrre legna anche a scopi
energetici: nei monti del Trentino si accumula legname per la città
di Venezia che necessitava di ben 350.000 tronchi ogni anno.
SISTEMA DI COMPIERE UN LAVORO
Mappa dei paesi che partecipano
all’OCSE (Organizzazione per la
Cooperazione e lo Sviluppo
Economico; in inglese OECD,
Organization for Economic
Cooperation and Development).
L’Organizzazione Europea per la
Cooperazione Economica (OECE)
nasce dopo la seconda guerra
mondiale per attuare il Piano
Marshall.
Diventa il moderno OCSE nel
1961, un’organizzazione a
vocazione transatlantica e,
successivamente, mondiale.
Comprende oggi
30 paesi. Oltre 70 paesi con
economie in via di sviluppo
e in transizione collaborano
con l’OCSE.
Esso rappresenta un forum che
consente ai governi di rispondere
insieme alle sfide economiche,
sociali e ambientali derivate
dall’interdipendenza e dalla
mondializzazione.
Inoltre è una fonte di dati
comparativi, di analisi e di
previsioni per sostenere la
cooperazione multilaterale.
limiteremo a dire che se al posto del campo gravitazionale
consideriamo il campo elettrico, possiamo definire il joule
come il lavoro richiesto (o l’energia utilizzata) per muovere la
carica elettrica di un coulomb (C, vedi più avanti) attraverso
una differenza di potenziale di un volt (V); avremo in questo
caso:
1J=1CV
Nei circuiti elettrici un joule rappresenta inoltre il lavoro
richiesto (o l’energia utilizzata) per produrre la potenza di un
watt (W) per un secondo (s):
1 J = 1 W s con 1 W = 1 J s-1
Come accennato nel testo, il lavoro dei sistemi termodinamici
dipende dalla pressione (misurata in pascal, Pa) e dal volume
del sistema considerato avremo quindi anche quest’altra
equivalenza:
1 J = 1 Pa m3 dove 1 Pa = 1 N m-2, ovvero 1 Pa = 1 kg m-1 s-2
Se nelle equivalenze sopra riportate utilizziamo le unità di
base del SI, anziché quelle derivate, torniamo sempre alle
stesse dimensioni del joule (kg m2 s-2). Infatti, quando
scriviamo delle equazioni per risolvere un problema di fisica,
è buona norma controllare che le dimensioni del termine a
sinistra e di quello a destra siano le stesse, se tali non sono
l’equazione è errata.
Un joule può inoltre essere convertito nelle seguenti unità di
misura (vedi anche alle pagine 30-31):
❑1J
❑1J
❑1J
❑1J
❑1J
= 6,241 509 75 x 1018 eV
= 107 erg
= 0,239 cal
= 9,48 x 10-4 BTU
= 2,78 x 10-7 kWh
(elettronvolt)
(erg)
(calorie)
(British Thermal Unit)
(kilowattora)
In una zolfatara alcune donne preparano pani di zolfo.
A quei tempi serviva un duro lavoro per disporre di questo composto
dai molteplici usi industriali. (Sicilia 1930)
costante a velocità costante.
In questo caso, l’energia usata si potrebbe anche misurare
in calorie degli alimenti necessari ad alimentare i nostri
muscoli. Se fossimo stati più
fortunati e la riserva di carburante del motorino fosse durata fino al benzinaio, al posto nostro il lavoro l’avrebbe
fatto il motore sfruttando l’energia chimica contenuta
nella benzina.
Se vogliamo avere un controllo sull’energia che stiamo
consumando quando andiamo in motorino o in auto, basta regolare la velocità. Se
vogliamo mantenere una velocità costante sulla strada,
sappiamo di dover continuare a dare gas in modo costante. Ciò vale a dire che dobbiamo sempre applicare una
forza costante per compiere
lavoro contro gli attriti sfruttando l’energia chimica del
carburante. Bisogna sapere
tuttavia che gli attriti dipendono dal quadrato della velocità e quindi in proporzione
cresce il consumo di carburante. Più velocemente si va,
più tutte le forze contrarie al
moto sono elevate, più si deve dare gas e più energia, e
quindi carburante, si usa.
Pensiamoci quando corriamo troppo
col motorino o in
auto. Non solo si
infrange il codice
della strada, ma si sprecano risorse non rinnovabili del nostro pianeta.
In termodinamica (vedi alle
pagine seguenti) il lavoro
viene descritto in termini di
pressione e volume: un gas
può effettuare lavoro grazie
alla sua pressione (cioè una
forza applicata ad una superficie) per variare il volume
del contenitore entro cui è
chiuso. Ad esempio in un cilindro con pistone che si
muove idealmente senza attriti e che contiene un gas, se
il gas all’interno ha pressione
superiore rispetto a quella atmosferica, a meno di altri fattori, compirà del lavoro e farà
sollevare il pistone contro la
forza di gravità fino a quando la pressione del gas (che
diminuisce all’aumentare del
volume a temperatura costante) sarà controbilanciato
da quella atmosferica ed andrà all’equilibrio.
Se invece è maggiore la pressione atmosferica, sarà questa che lavorerà e spingerà il
pistone diminuendo il volumedel gas fino all’equilibrio.
Se forniamo energia ulteriore
al gas scaldandolo (energia
termica), esso tenderà ad
espandersi, la pressione nel
cilindro aumenterà e il gas
potrà nuovamente compiere
del lavoro facendo sollevare
il pistone fino ad un nuovo
equilibrio.
Anche in termodinamica il
lavoro e l’energia sono oggi
espressi in joule (vedi riquadro qui accanto). Come vedremo ci sono varie equivalenze tra le unità di misura
dell’energia, alcune delle
quali tipicamente utilizzate
in riferimento al tipo di energia che si vuole misurare e/o
a particolari campi della
scienza e della tecnica.
19
SEBBENE POSSA ESSERE TRASFORMATA O CONVERTITA, LA
James Prescott Joule.
James Prescott Joule, il fisico
inglese che “misurò” il lavoro
20
Il fisico inglese James Prescott
Joule (Salford, Manchester,
1818 – Sale, Cheshire, 1889) è
stato uno dei padri della
moderna termodinamica.
Secondo di cinque figli, nacque
alla vigilia di Natale del 1818 a
Salford, da un ricco produttore
di birra, Benjamin. Era un
ragazzino timido e gracile, con
problemi alla spina dorsale,
che preferì gli studi all’attività
fisica. Inizialmente educato in
casa, venne inviato sedicenne,
assieme ad un fratello, a
studiare chimica, fisica,
matematica e metodo
scientifico presso la Società
Letteraria e Filosofica di
Manchester, dove ebbe tra i
suoi insegnanti il noto chimico
e fisico inglese John Dalton
(1766-1844). I due fratelli
erano affascinati dall’elettricità,
sulla quale – curiosamente –
fecero i primi esperimenti
dandosi la scossa a vicenda o
dandola ai servitori di casa.
Dopo soli tre anni entrambi
dovettero abbandonare gli studi
a causa della malattia del padre
ed occuparsi della birreria di
famiglia. Così, fino al 1854, la
scienza rimase solo un hobby.
Joule era un fervente cristiano,
riteneva Dio sommo creatore
dell’universo, non riscontrando
– al pari di molti scienziati di
oggi – alcuna contrapposizione
tra Fede e Scienza, tanto che
scrisse: “È evidente che la
conoscenza delle leggi della
natura altro non è che la
conoscenza della mente di Dio
che è in esse espressa”. E
ancora: “Dopo aver
conosciuto e obbedito alla
volontà di Dio, il mio prossimo
scopo è quello di conoscere
qualcosa delle sue qualità di
saggezza, potenza e bontà
evidenziate dal suo operato”.
Sebbene la sua produzione di
scritti cominci nel 1838, la
società scientifica continuò a
ritenerlo un dilettante di
provincia anche dopo il 1841,
anno in cui inviò alla Royal
Society un contributo su quello
che oggi viene chiamato
“effetto Joule”: indagando
sugli aspetti della produzione
di calore a partire
dall’elettricità, scoprì che un
conduttore attraversato da
corrente elettrica produce
calore in quantità
proporzionale alla resistenza
del conduttore e al quadrato
della corrente stessa.
Convinto sostenitore del
principio della conservazione
dell’energia, Joule si interessò
inizialmente alla conversione
dell’energia elettrica in energia
termica (calore) e viceversa.
Andando contro le teorie
prevalenti del tempo, che
indicavano che il calore fosse
una sostanza fluida (il
“calorico”) che non si poteva né
creare né distruggere e poteva
muoversi e trasferirsi da un
corpo all’altro (la cosiddetta
“teoria del calorico”), nel 1843
pubblicò uno studio dove scrisse
che la potenza meccanica
ottenuta facendo ruotare una
macchina magneto-elettrica a
batteria era convertita in calore a
livello delle resistenze, a seguito
del passaggio delle correnti di
induzione attraverso le spire, e
non perché del calore veniva
trasferito da parti calde sotto
forma di calorico. Inoltre,
secondo Joule, avveniva anche la
trasformazione opposta: in un
qualche modo, la potenza
motrice del motore magnetoelettrico era ottenuta a spese del
calore prodotto dalla reazione
chimica all’interno della batteria
che alimentava il dispositivo.
Studiò in seguito la conversione
del lavoro meccanico in calore,
cosa che cercò di dimostrare
attraverso varie metodologie
sperimentali, ma inizialmente le
sue conclusioni furono accolte
con freddezza dagli scienziati
del tempo. Era cominciato il suo
cammino alla ricerca
dell’“equivalente meccanico del
calore”. Riuscì a misurare il
piccolo riscaldamento che si
otteneva per “attrito” dovuto alla
viscosità (la proprietà dei fluidi
che indica la resistenza allo
scorrimento) dell’acqua che
veniva forzata attraverso un
cilindro forato; ottenne così un
valore del rapporto tra lavoro
meccanico e calore. Nei suoi
esperimenti utilizzò le unità
Esperimento ideato da Joule nel
1845 per ottenere l’equivalente
meccanico del calore, mediante
un sistema con pesi, carrucole e
una sorta di “calorimetro”.
Quest’ultimo altro non è che un
contenitore termico chiuso, dotato
di un agitatore a palette, che
permette di misurare la
temperatura dell’acqua in esso
contenuta grazie a un
termometro.
Il lavoro del campo di gravità
(energia meccanica) viene così
convertito in calore (energia
termica) per attrito con l’acqua
all’interno del calorimetro; il
calore prodotto viene valutato
attraverso l’aumento di
temperatura dell’acqua.
A sinistra, lo schema dell’intero
esperimento con la sezione
orizzontale e verticale del
calorimetro.
A destra, lo schema dettagliato del
calorimetro che vediamo nella foto
a destra del Museo delle Scienze
di Londra.
QUANTITÀ DI ENERGIA È UNA COSTANTE
anglosassoni a quel tempo usate
per misurare il lavoro
meccanico (e la relativa energia
impiegata) e il calore, nelle
nostre unità attuali questo
rapporto è pari a 4,14 J cal-1,
che possiamo scrivere come
1 cal = 4,14 J. Decisamente
vicino al valore oggi
determinato in 4,1855. La
caloria è definita come la
quantità di calore necessaria ad
elevare da 14,5 a 15,5 °C la
temperatura della massa di un
grammo di acqua distillata a
livello del mare alla pressione
di 1 013,25 hPa (un’atmosfera).
Ottenne un’ulteriore
dimostrazione della conversione
del lavoro meccanico in calore,
calcolando il riscaldamento che
si ottiene compiendo un lavoro
meccanico per comprimere un
gas contenuto in un cilindro con
pistone. Dai risultati di questo
esperimento ottenne un rapporto
di 4,43 J cal-1.
Nel 1845 Joule presenta
all’Associazione Britannica di
Cambridge il suo lavoro
intitolato Sull’equivalente
meccanico del calore. Qui
riporta il più rigoroso dei suoi
esperimenti in cui fa uso della
caduta di un peso, controllata da
un contrappeso cui è unito da
una fune mediante due
carrucole, per ottenere lavoro
meccanico. Questo viene
convertito in energia termica
perché nel tratto tra le due
carrucole la fune è avvolta
attorno all’asse di un agitatore
a palette che ruotando, a
seguito della caduta del peso,
fa scaldare per “attrito”
dell’acqua, contenuta in un
contenitore termico dotato di
termometro, una sorta di
calorimetro (foto e schema qui
sotto). In tal modo ottenne un
rapporto di 4,41 J cal-1, ma
nel 1850 affinò l’esperimento
ottenendo un valore di 4,159
sorprendentemente vicino al
valore attuale. In pratica, con
questi suoi studi, Joule dimostrò
il principio di conservazione
dell’energia per i sistemi
termodinamici, verificando che
a livello molecolare il calore è
una forma di energia meccanica
dovuta all’energia cinetica delle
molecole.
Da questo momento la
comunità scientifica iniziò ad
apprezzare grandemente il
lavoro di Joule, come indicano i
vari riconoscimenti ricevuti
successivamente tra cui la
Royal Medal e la Copley Medal
attribuitegli dalla Royal Society.
A 54 anni la sua salute
cominciò a deteriorarsi e da
quel momento Joule
lavorò ben poco.
Morì a Sale nel Cheshire
(Inghilterra) nel 1889 a 71 anni.
ER
I
S
DOS
Energia
meccanica
Energia
elettrica
Energia delle
radiazioni
elettromagnetiche
Energia
termica
Energia
nucleare
In un sistema
complesso come
quello del nostro
pianeta, esistono
più forme concomitanti di energia. Di
seguito proviamo a descrivere in maniera semplice alcune delle più comuni e a
vedere quali sono le unità
più corrette per misurarle.
Prima però sarà utile ricordare che in via generale l’energia non si crea e non si
distrugge: la conservazione
dell’energia è la legge fondamentale di conservazione
della fisica. Essa afferma
che, sebbene possa essere
trasformata e convertita da
una forma ad un’altra, la
quantità totale di energia è
una costante, ovvero il suo
valore si mantiene immutato
al passare del tempo. Questa
legge fu inizialmente enunciata nella meccanica, sulla
base dei concetti di energia
cinetica ed energia potenziale. Formalmente, in meccanica, esiste la possibilità di
avere forze dissipative, come l’attrito, che comportano
la non conservazione dell’energia. Non terremo qui
conto di questi complessi
aspetti di fisica, considerando che in generale l’interazione tra forze e attrito dà
origine a forme di energia
solitamente non utilizzabili
(calore a bassa temperatura),
portando così alla degradazione dell’energia, ma mantenendo costante l’energia
totale del sistema.
Lo studio della termodinamica come meccanica statistica di atomi e molecole e
la dimostrazione dell’equivalenza tra calore (energia
termica) ed energia meccanica, enunciato originariamente da Joule, estende il
principio di conservazione
dell’energia anche ad altri
settori della fisica, ma ciò
vale solo se si considerano
tutte le forme in cui l’energia si presenta.
Ciò fa sì che la legge di conservazione dell’energia ed il
primo principio della termodinamica siano strettamente
legati.
21
IN UN CAMPO CONSERVATIVO LA FORZA NON
R
E
I
S
S
O
D
I principi fondamentali della termodinamica
La termodinamica è la branca della fisica che studia gli
effetti esercitati dal calore (energia termica) sulla materia,
nonché la sua trasformazione in energia meccanica e
viceversa. Descrive le trasformazioni subite da un sistema
in seguito a un processo di scambio di energia con altri
sistemi o con l’ambiente esterno. In termini classici la
termodinamica si occupa di sistemi ideali macroscopici in
cui una porzione della materia viene considerata come un
sistema separato dall’ambiente esterno.
Lo stato di un sistema macroscopico che si trova
all’equilibrio è specificato da grandezze dette variabili
“termodinamiche” o “di stato”, come la temperatura.
Una funzione di stato è una proprietà di un sistema che
dipende solamente dallo stato iniziale e finale, e non dal
particolare cammino seguito per arrivarvi. Una funzione di
stato descrive perciò lo stato di equilibrio di un sistema.
La temperatura rappresenta la proprietà di un sistema
correlata alla quantità di energia cinetica media degli atomi
e/o delle molecole in esso presenti.
successiva enunciazione formale dei principi della
termodinamica (XIX secolo).
Il primo principio della termodinamica definisce il calore
come una forma di energia che può essere convertita in
lavoro meccanico ed essere immagazzinata, ma che non è
una sostanza materiale. Fu dimostrato sperimentalmente,
inizialmente proprio da Joule, che l’energia termica (il
calore) e l’energia meccanica sono equivalenti, pertanto il
calore è una forma di energia e non un fluido.
Il primo principio della termodinamica enuncia quindi anche
la conservazione dell’energia. In ogni macchina termica una
certa quantità di calore viene trasformata in lavoro: non può
esistere nessuna macchina che produca lavoro senza
consumare energia. Una simile macchina, se esistesse,
produrrebbe infatti il cosiddetto “moto perpetuo di prima
specie”, cioè quello creato da una macchina che produca in
uscita una quantità di energia maggiore di quella che
consuma, autoalimentandosi per un tempo indefinito.
In termini matematici il primo principio viene così enunciato:
Principio zero della termodinamica
∆U = ∆Q – ∆L (in un sistema chiuso)
Il principio zero della termodinamica recita che, se un
corpo A è in equilibrio termico con un corpo B e,
quest’ultimo, è in equilibrio termico con un corpo C, allora
anche A e C sono in equilibrio tra loro. Quando due sistemi
interagenti si trovano all’equilibrio termico condividono
alcune proprietà misurabili (la temperatura) e, se si trovano
in equilibrio con un terzo, le condividono anche con questo
ultimo.
Anche se non espressamente indicato nel principio, questo
spiega perché due sistemi che si scambiano calore
raggiungono infine la stessa temperatura. Infatti a livello di
cinetica delle molecole gli urti delle particelle del corpo più
caldo, mediamente più veloci, con le particelle del corpo
più freddo, mediamente più lente, porteranno ad un
passaggio di energia cinetica dalle prime alle seconde, fino
a quando la temperatura diverrà uguale. Infatti quelle più
veloci tenderanno a rallentare al seguito dell’urto, le altre
ad accelerare. Lo stesso fenomeno avviene quando
giocando a biliardo all’americana si tira il primo colpo e si
spacca la formazione triangolare iniziale delle palle, queste
si muoveranno inizialmente a velocità differenti tra loro,
ma a seguito degli urti reciproci la velocità tenderà ad
uniformarsi, prima che tutte le palle si fermino a causa
degli attriti.
Cioè la variazione (espressa matematicamente dalla lettera
greca delta maiuscola: ∆) dell’energia interna U del sistema,
è pari alla differenza tra il calore scambiato con l’ambiente
(∆Q) e il lavoro compiuto (∆L). Per convenzione ∆Q è
positivo se il calore è fornito al sistema, negativo se è invece
ceduto e ∆L è positivo se il lavoro è compiuto dal sistema
sull’ambiente, al contrario è negativo se è subito dal sistema.
Semplificando al massimo, questa equazione ci dice che in
una macchina termica parte del calore viene convertito in
lavoro meccanico.
Secondo principio della termodinamica
Vari studiosi enunciarono in modi differenti, ma equivalenti,
il secondo principio della termodinamica. Il fisico e
Primo principio della termodinamica
Un corpo a contatto con uno più freddo gli trasferisce
energia termica fino a che non viene raggiunto uno stato di
equilibrio, in cui sono uguali le temperature dei due corpi.
Nel ‘700 gli studiosi supposero che fosse una sostanza,
maggiormente concentrata nel corpo più caldo, a passare
nel corpo più freddo: il “calorico”, un fluido capace di
attraversare la materia e di trasferirsi quindi da un corpo ad
un altro. È questa la già citata “teoria del calorico”, che gli
studi di Joule contribuirono a smentire, anticipando la
22
Il fisico e matematico tedesco
Rudolf Julius Emanuel Clausius
(Köslin, 1822 - Bonn, 1888).
Sir William Thomson (Belfast,
1824 - Netherall, Scozia, 1907),
più noto come Lord Kelvin.
VARIA IN TERMINI DI DIREZIONE E DI VERSO
Energia meccanica
matematico tedesco Rudolf Julius Emanuel Clausius (Köslin,
1822 – Bonn, 1888) riportò che è impossibile realizzare una
macchina termica ciclica (ad esempio un motore di
automobile, che però non rappresenta affatto una macchina
ideale), che abbia come unico risultato il trasferimento di
calore da un corpo freddo a uno caldo. Ciò equivale a quanto
affermò Sir William Thomson (Belfast, Irlanda, 1824 –
Netherall, Largs, Scozia, 1907), più noto come Lord Kelvin,
il quale indicò che è impossibile costruire una macchina
ciclica che funzioni producendo lavoro a spese del calore
sottratto a una sola sorgente. Questo implica che è
impossibile realizzare il cosiddetto “moto perpetuo di
seconda specie”. Tali macchine dovrebbero essere in grado di
convertire interamente il calore estratto da una sola sorgente
a temperatura costante in lavoro. Ciò è impossibile in quanto
l’entropia totale di un sistema isolato rimane invariata solo
quando si svolge una trasformazione reversibile ed aumenta
quando si svolge una trasformazione irreversibile. L’entropia
è una funzione di stato, introdotta proprio col secondo
principio della termodinamica, che rappresenta una misura
del disordine di un sistema fisico, ripresa dal terzo principio
(qui di seguito).
Nel SI l’entropia si misura in joule diviso kelvin (J K-1).
Terzo principio della termodinamica:
per poter parzialmente trasformare
Risulta intimamente connesso al secondo principio, di cui in
pratica rappresenta una conseguenza. Il terzo principio della
termodinamica recita che è impossibile raggiungere una
temperatura pari allo zero assoluto (0 K) con un numero
finito di trasformazioni e definisce meglio l’entropia.
I principi della termodinamica verranno meglio spiegati in un
prossimo articolo di “Green”¸dove parleremo della
trasformazione di energia e quindi spiegheremo anche perché
in una macchina termica servono delle parti più fredde cui si
possa cedere calore, per poter parzialmente trasformare
quest’ultimo in lavoro.
Minatori
al lavoro nello
scavo del
carbone.
Proprio ai
tempi di
maggior
sviluppo
dell’estrazione
del “minerale
energetico”
risalgono studi
e leggi sulla
termodinamica.
La rivoluzione
industriale
mostrava tutta
la sua “fame”
di energia.
L’energia meccanica di un sistema in fisica è definita come la
somma dell’energia cinetica
(grandezza indicata dal simbolo
corsivo: K) e dell’energia potenziale (simbolo: U) di un corpo.
In un campo conservativo la forza è conservativa, cioè non varia in termini di direzione
e verso, mentre la sua intensità (modulo), varia in dipendenza dalla distanza del centro
del campo di forza. In un campo conservativo il lavoro che compie la forza che genera il
campo da un punto ad un altro dello spazio
non dipende dal percorso, ma solo dal punto
di partenza e dal punto di arrivo. Questo
campo ammette l’esistenza di una funzione
scalare detta “potenziale” dalla cui variazione dipende il lavoro compiuto dalla forza.
Un campo di forze conservativo ammette
quindi l’esistenza di un’energia potenziale.
L’energia potenziale di un corpo è una funzione scalare delle coordinate nello spazio e
rappresenta il livello di energia che il corpo
possiede a causa della sua posizione all’interno di un campo di forze conservative che
tende ad attrarlo o a respingerlo.
Nel campo (conservativo) gravitazionale,
l’energia potenziale può trasformasi in cinetica e viceversa, ma la loro somma, l’energia
meccanica, si conserva. Matematicamente
ciò si esprime con la formula:
∆K = -∆U
cioè la variazione (indicata in fisica e matematica con la lettera greca delta maiuscolo,
∆) di energia cinetica (∆K) è uguale a quella
potenziale (∆U), variata di segno: se una aumenta l’altra diminuisce, a indicare che una
si trasforma nell’altra.
Facciamo un esempio concreto,
dove vedremo però che l’energia
meccanica in realtà non si conserva.
Pensiamo di lasciare cadere una pallina
senza applicarle noi alcuna forza.
Quando è ferma nella nostra mano, la pallina
ha energia cinetica nulla, ma ha un’energia
potenziale iniziale che le deriva dal fatto di
essere immersa nel campo gravitazionale.
Per cui essa è attratta verso il centro della
Terra e, quindi, tenderà a muoversi verso il
suolo se la lasciamo. Infatti, mentre la teniamo sollevata, la forza dei nostri muscoli, unita alla solidità della nostra mano, sta controbilanciando la forza gravitazionale.
23
NELLE ARMI DA FUOCO L’ENERGIA CHIMICA
R
E
I
S
S
O
D
Primi anni del
secolo scorso:
in un reparto
delle officine
Breda di Sesto
San Giovanni
vengono
fabbricati
i grandi
alternatori
delle centrali
elettriche.
Una gigantesca
condotta porta
l’acqua dai
ghiacciai in
quota alla
centrale
elettrica a valle.
Già dai primi
del secolo scorso
il nostro paese
era all’avanguardia nello
sfruttamento
idroelettrico.
24
L’energia potenziale gravitazionale (U) della
pallina dipende dall’accelerazione di gravità
(g), dalla sua massa (m) e dall’altezza a cui
si trova (h) rispetto al centro del campo. Ad
una certa quota avremo che U = m g h, quindi maggiore la quota, maggiore l’energia potenziale essendo g e la massa della pallina
costanti.
Appena lasciata, l’energia potenziale della
pallina tende a diminuire trasformandosi in
energia cinetica durante la caduta; questa aumenta fino ad un massimo che la pallina possiede immediatamente prima di toccare il
suolo, essendosi trasformata completamente
l’energia potenziale dovuta alla sua altezza
dal suolo. Infatti l’energia cinetica è quella
che un corpo possiede in virtù del movimento, dipende dalla massa e dalla velocità
1
K = – m v2
2
e visto che la pallina è sottoposta all’accelerazione costante di gravità, g (pari a 9,81
m s-2), aumenterà sempre più la sua velocità
durante il tragitto dalla nostra mano al suolo.
Esistono a questo punto due casi
limite. In un urto ideale perfettamente elastico, dove non esistano attriti né interni né esterni alla pallina, questa rimbalzerà fino al
punto di partenza. Nel secondo caso limite,
in cui l’urto sia perfettamente anelastico, la
pallina non rimbalza e si ferma immediatamente, come fosse una pallina di pongo che
si appiccica immediatamente al pavimento.
A questo punto l’energia cinetica sarà nuovamente nulla e l’energia potenziale sarà diminuita, essendo diminuita l’altezza a cui si
trova la pallina (h) rispetto al centro gravitazionale. L’energia cinetica si è trasformata in
qualcosa di diverso dall’energia potenziale.
Vigendo il principio della conservazione dell’energia totale, nel nostro esempio essa si è
trasformata completamente in energia termica all’atto dell’impatto col suolo. Quindi tutta l’energia potenziale dovuta al dislivello tra
la nostra mano e il suolo si è trasformata in
energia cinetica e all’impatto si è degradata
in calore, energia non utile dispersa nell’ambiente. Infatti, se riuscissimo a misurare la
temperatura del sistema “pallina al punto
d’impatto” osserveremmo un aumento di
temperatura.
Proviamo a battere forte le mani, le sentiremo scaldarsi: è lo stesso fenomeno.
Verifichiamo infine come si misurano K e U.
L’energia
chimica della
polvere da sparo
si trasforma in
velocità per il
proiettile.
Fin qui le
regole
energetiche
illustrate
nell’articolo.
A ben altre
energie pensava
questo gruppo
di cacciatori
che proprio
dall’attività
venatoria
ricavava
selvaggina da
mettere in
tavola,
un’antica
passione oggi
in via di
esaurimento.
1
Abbiamo che K = – m v2, dove m si misura in
2
chilogrammi, v in metri al secondo (m s-1),
per cui K si misura in kg m2 s-2, cioè proprio
la definizione di joule in unità SI di base. Ragionamento simile per U = m g h, dove avremo g misurata in m s-2, m e h ovviamente rispettivamente in chilogrammi e metri, per cui
U si misurerà nuovamente in kg m2 s-2, cioè
in joule.
Oltre al campo gravitazionale terrestre, altri campi di forza sono
conservativi, quindi un corpo con
determinate caratteristiche immerso in questi campi avrà un’energia potenziale che potrà trasformarsi in energia cinetica. Nel campo
elettrico, la forza di Coulomb, che descrive
l’attrazione o la repulsione rispettivamente
tra cariche elettriche di segno opposto o
uguale, determina l’esistenza di un’energia
potenziale elettrica.
Anche la forza elastica ammette un’energia
potenziale elastica. Pensate ad una molla fissata per un’estremità e libera dall’altra dove
troviamo un’impugnatura. Per allungare
questa molla dobbiamo esercitare una forza
di trazione lungo un certo tratto e quindi
spendere un lavoro; una volta allungata di un
certo tratto, se ci fermiamo dovremo comunque esercitare una certa forza per contrastare
la forza elastica che tende a riportare la molla in posizione di riposo. In questo caso però
il lavoro è nullo non essendoci spostamento.
Proprio su questo principio sono ideati gli
strumenti ginnici che usano le molle; essi sono allenanti perché ci costringono a produrre
lavoro e spendere energia mentre tiriamo/comprimiamo/pieghiamo e rilasciamo le
molle, irrobustendo i muscoli e facendo loro
consumare l’energia chimica dei cibi, aiutando a smaltire l’eventuale surplus di calorie introdotto con l’alimentazione.
Vari sono gli utilizzi dell’energia
meccanica. Per esempio può essere
convertita in energia elettrica; anzi, la
produzione di quest’ultima passa spesso attraverso la conversione di energia
cinetica. Quella posseduta da un fluido in
movimento (liquido o gas) viene trasformata
facendolo passare forzatamente attraverso le
pale di una turbina, generando così elettricità. Classicamente l’energia meccanica dei
fiumi e dei bacini idrici viene convertita così; si sfrutta il dislivello creato da cascate naturali o, più spesso, da dighe artificiali, per
VIENE LIBERATA IN MANIERA ESPLOSIVA
Energia elettrica
Il getto di
petrolio
“schizza” dalla
sommità di uno
dei primi pozzi
per l’estrazione
dell’oro nero.
L’industria
dell’acciaio ebbe
un clamoroso
sviluppo
dall’Ottocento
al Novecento
con una
richiesta
di energia e
lavoro cui la
scienza dette
un contributo
determinante.
convertire l’energia potenziale dell’acqua in
quota in energia cinetica e quindi in elettricità. Anche l’energia cinetica delle onde può
essere convertita in energia elettrica, mentre
l’energia potenziale delle masse d’acqua durante l’alta marea può essere convertita in
energia cinetica e quindi in energia elettrica
nelle centrali mareomotrici (Green n. 1).
Sono centinaia gli esempi nella vita quotidiana in cui l’energia chimica viene convertita in energia meccanica.
Quella degli alimenti può essere convertita
ad uso ludico in tutti gli sport in cui si prevede l’utilizzo di un attrezzo e di una pallina, o
anche solo di una palla. In questi casi si converte l’energia chimica dei cibi in energia
meccanica nei muscoli e si trasferisce il movimento alla palla (energia cinetica) che deve essere dotata di adeguata velocità ed eseguire particolari traiettorie. Un eccesso di
energia cinetica di corpi che interagiscono
può avere effetti rovinosi, in quanto può infrangere la loro integrità strutturale. Le armi
da fuoco sfruttano proprio l’energia cinetica
per sortire i loro malevoli effetti.
In un fucile l’energia chimica della polvere da sparo contenuta nel
bossolo della pallottola viene liberata in maniera esplosiva,
espellendo il proietto vero e proprio ad alta velocità. La forma di quest’ultimo è affusolata e aerodinamica per
permettere una migliore penetrazione nell’aria e nel bersaglio, per tale motivo le dimensioni devono essere limitate.
Per massimizzare l’impatto, che dipende dalla massa e dalla velocità, si utilizza il miglior
compromesso massa/dimensioni/forma del
proietto utilizzando materiali ad alta densità.
Oggi, per realizzare i proiettili si usano comunemente il piombo (che ha densità media pari
a 11,35 g cm-3) ed altri metalli o leghe. Come
purtroppo abbiamo appreso dalle cronache di
recenti conflitti, in guerra è stato usato uranio
impoverito, che è molto più denso del piombo
(densità media dell’uranio: 19,0 g cm-3) e permette una maggior capacità di penetrazione ai
proiettili, ma è purtroppo dotato di radioattività residua, nociva anche per chi usa l’arma.
La massa del proietto combinata alla sua velocità, che in un fucile moderno arriva a circa
1 000 m s-1, cioè 3 600 km h-1, è tale da rompere l’integrità strutturale dei tessuti di un uomo o di un animale, anche da distanze dell’ordine del chilometro.
Solitamente anche la pallottola si “rompe”, rimanendo deformata dall’urto.
Parlare approfonditamente di
elettricità e campo elettrico implica affrontare complesse tematiche fisiche. Il cammino temporale
per arrivare dai primi studi del fisico
francese Charles Augustin de Coulomb (Angoulême, 1736 - Parigi, 1806) sulle cariche
elettriche e il loro moto e sul campo elettrico
della metà del ‘700, alla creazione della prima centrale elettrica commerciale di fine
‘800 è relativamente breve. Qui però si preferisce saltare ai giorni nostri e parlare di una
delle forme di energia più utili alla nostra
iper-tecnologica vita quotidiana: l’energia
elettrica.
L’energia elettrica si ottiene nelle centrali
elettriche che possono usare fonti energetiche fossili o rinnovabili o energia nucleare,
permettendo agli utenti di disporre di energia elettrica sotto forma di corrente elettrica.
In generale questa rappresenta un qualsiasi
flusso di carica elettrica attraverso un materiale conduttore. Storicamente, la corrente
convenzionale è stata definita come lo spostamento di cariche positive, ma nel caso
della conduzione metallica – quale è il caso
della corrente delle nostre case che passa nei
cavi elettrici – essa è dovuta ad un flusso di
elettroni, con carica negativa, che si muovono in direzione opposta a quella della corrente classicamente definita. Ad ogni modo la
definizione non influisce sulla nostra discussione.
La quantità di carica che scorre
nell’unità di tempo attraverso un
conduttore è detta intensità di
corrente, simboleggiata dalla lettera I
(“i” maiuscola in corsivo); la sua unità
di misura è l’ampere (simbolo: A), una delle
sette unità SI di base.
L’ampere è definito come la corrente costante che, se mantenuta in due conduttori dritti
e paralleli di lunghezza infinita, di sezione
circolare trascurabile, e disposti ad 1 metro
di distanza nel vuoto, produrrebbe tra questi
due conduttori una forza pari a 2 x 10-7 newton al metro (N m-1). La forza che si crea è
quella del campo magnetico indotto dal passaggio di corrente nei due conduttori. Se la
corrente ha lo stesso verso, il campo magnetico avrà lo stesso segno ed i due conduttori
si respingeranno, al contrario si attrarranno
se la corrente viaggia in direzioni opposte al
loro interno.
Tra due punti nel campo elettrico si può definire una differenza di potenziale elettrico
25
LA RESISTENZA INDICA LA TENDENZA DI UN MATE
R
E
I
S
S
O
D
(simbolo V), la cui unità di misura è il volt
(V), così chiamato in onore del grande fisico
ed inventore italiano Alessandro Giuseppe
Antonio Anastasio Volta (Camnago, Como,
1745 – Como, 1827), che nel 1800 inventò
la pila voltaica, la prima batteria chimica. Si
dice che tra due punti A e B di un campo
elettrico c’è una differenza di potenziale di
1 V se la forza elettrica compie il lavoro di
1 J (joule) per portare una carica di 1 C (coulomb) da A a B.
Quindi dalla sua definizione avremo che:
1 V = 1 J C-1, in unità fondamentali
1 V = 1 m2 kg s-3 A-1
A sua volta il coulomb (simbolo: C), è l’unità di misura della carica elettrica (grandezza indicata col simbolo Q o q), definita in
termini di ampere: 1 coulomb è la quantità
di carica elettrica trasportata da una corrente
di 1 ampere che scorre per 1 secondo, nel SI
avremo quindi che:
ta acqua passa per l’area della sezione della
cascata nell’unità di tempo. La differenza di
potenziale moltiplicata per l’intensità della
corrente (misurata in ampere) rappresenta la
potenza (in questo caso elettrica).
La potenza esprime la capacità di
convertire e fornire energia nel
tempo. Si tratta di un concetto più facile perché più vicino alla vita di tutti i
giorni in quanto è uno dei parametri
che caratterizza le nostre macchine, tra cui i
comunissimi scooter e le automobili e gli
utensili a motore. Nel SI la potenza viene
misurata dall’unità derivata watt (simbolo:
W). Ancora una volta si tratta di un’unità di
misura eponima dedicata al matematico e ingegnere James Watt (Greenock, Scozia;
1736 - Heathfield in Handsworth, Birmingham, Inghilterra; 1819) per il suo fondamentale contributo nello sviluppo della macchina a vapore. Avremo quindi che:
1 W = 1 J s-1, ma in elettrotecnica si usa spesso l’equivalente espressione1 W = 1 V A.
1 C = 1A s
Un coulomb è pari a circa 6,24 x 1018 volte
la carica di un singolo elettrone. Anch’essa è
un’unità di misura eponima, prende il nome
dal già citato fisico francese Coulomb.
Spieghiamo con un esempio la relazione tra intensità di corrente e
differenza di potenziale paragonando la corrente ad una cascata
la cui energia potenziale è dovuta al campo gravitazionale. Il volt misura il dislivello della cascata che influenza la
differenza di energia potenziale, l’ampere invece misura la portata dell’acqua, cioè quanIl fisico
francese
Charles
Augustin de
Coulomb
(Angoulême,
1736 - Parigi,
1806).
26
Il watt viene infatti anche definito come voltampere. Bisogna sottolineare che il watt è
una misura di potenza e non di energia. Moltiplicando la potenza per il tempo si ottengono le dimensioni dell’energia. Quest’ultima
spesso è espressa, soprattutto nel conteggio
dei consumi energetici domestici ed industriali, in wattora, indicati con Wh, o più
spesso kilowattora, kWh. Il Wh non è una
misura approvata dal SI perché non misura il
tempo in secondi. Considerando che un’ora
contiene 3600 secondi è facile dimostrare
matematicamente che:
1 Wh = 1 J s-1 x 3 600 s = 3 600 J.
James Watt
(Greenock,
Scozia; 1736 Heathfield in
Handsworth,
Birmingham,
Inghilterra;
1819).
Alessandro
Giuseppe
Antonio
Anastasio Volta
(Camnago,
Como, 1745 Como, 1827).
RIALE AD OPPORSI AL PASSAGGIO DI CORRENTE ELETTRICA
Impara a misurare l’energia
elettrica per risparmiare
Imparare a misurare
l’energia ci può aiutare a
risparmiare in termini di
risorse e di costo della
bolletta elettrica.
Facciamo un esempio del
tutto teorico che però ci aiuta
a capire grandezze e quantità
in gioco.
Nel salotto c’è un
lampadario che usa tre
lampadine da 100 W di
potenza assorbita (in totale
300 W) e di sera lo teniamo
acceso mediamente per tre
ore: ogni sera avremo un
consumo di 900 Wh, cioè
3 240 000 J. Considerando
che il contenuto energetico
di un kilogrammo di petrolio
è di 10 000 kcal (kilocalorie)
e che 1 kcal è circa uguale a
4,19 kJ abbiamo che 1 kg di
petrolio ha un contenuto
energetico di 41 900 kJ, cioè
41 900 000 J. In teoria
servirebbero quindi circa 80
grammi di petrolio per avere
i 3 240 000 J necessari per
tenere acceso il nostro
lampadario tre ore. Ciò se
l’energia chimica del
petrolio fosse convertita al
100% in energia elettrica,
cosa che sappiamo non vera,
in quanto la resa nelle
comuni centrali
termoelettriche si aggira
attorno al 30%. Per cui la
quantità teorica di petrolio
richiesta è di poco superiore
ai 260 g., senza considerare
le ingenti perdite di energia
che si hanno nella rete di
distribuzione, dovute alla
conversione in calore.
Oggi le cosiddette lampade
a basso consumo hanno un
assorbimento pari a circa un
quarto di quelle tradizionali
(fino anche a un quinto) a
parità di luminosità, quindi
se le adottassimo nel nostro
lampadario questo
consumerebbe un quarto in
termini di wattora e quindi in
definitiva un quarto di
petrolio, cioè 65 g, con un
risparmio di 195 g di
petrolio e 0,675 kWh.
Quanto risparmieremmo in
tutta Italia con questo
semplice accorgimento?
Facciamo insieme un
calcolo. Poniamo che la
popolazione sia arrivata a
60 000 000 di persone e che
la famiglia media sia
composta di quattro persone.
Abbiamo quindi 15 000 000
di case e di lampadari simili.
Il risparmio globale sarebbe
complessivamente di circa
2 925 tonnellate di petrolio.
Il quadro di
distribuzione
della centrale
elettrica delle
tranvie
nel 1898
in provincia
di Lecce.
Un’ultima grandezza fisica legata
alla corrente elettrica è la resistenza: essa indica la tendenza di
un materiale ad opporsi al passaggio di corrente elettrica attraverso di esso quando è sottoposto ad una tensione (differenza di potenziale). Questa opposizione si manifesta
con un riscaldamento del componente (il già
citato “effetto Joule”) e dipende fondamentalmente dal materiale con cui è realizzato, dalle
sue dimensioni, dalla sua temperatura. La resistenza è definita come il rapporto tra la tensione (differenza di potenziale) e l’intensità di
corrente, essa si misura in ohm, indicato dalla
lettera greca omega in maiuscolo, Ω, perché
unità eponima, così chiamata in onore del fisico tedesco Georg Simon Ohm (Erlangen,
1789 - Monaco di Baviera, 1854), che ha formulato la famosa legge omonima. Tale legge
dice che la differenza di potenziale V ai capi
di un conduttore ad una data temperatura T è
proporzionale all’intensità della corrente elettrica (I) che lo attraversa, moltiplicato per una
costante tipica del conduttore detta resistenza
(R) e cioè:
V = I R (legge di Ohm), scrivibile anche come
R = V I-1.
Ne deriva che l’ohm ha le dimensioni di volt
diviso per ampere, cioè 1 Ω = 1 V A-1, in
unità di base: m2 kg A-2 s-3. Un resistore quindi ha resistenza pari ad 1 Ω quando, applicando una differenza di potenziale di un volt ai
suoi capi, viene attraversato da una corrente
di intensità pari ad un ampere.
Un ultimo accenno va al concetto
di corrente continua e corrente alternata. La prima si ha quando gli
elettroni si muovono sempre nello stesso senso internamente ad
un circuito, ne è un esempio qualsiasi circuito alimentato da batterie.
Nelle nostre reti domestiche la corrente è invece alternata, cioè viene inviata ad impulsi
ad una determinata frequenza dalle centrali.
Per questo tipo di circuiti è necessario specificare anche la frequenza, oltre all’intensità di
corrente e la tensione del circuito, che sono le
due grandezze che caratterizzano anche un
circuito a corrente continua. La frequenza misura il numero di cicli con inversione di polarità e direzione di moto che la corrente compie in un secondo; nella nostra rete di distribuzione la frequenza è di 50 periodi o cicli al
secondo, cioè 50 Hz (hertz). Vale a dire che la
corrente cambia polarità e direzione di moto
27
IL BLACKOUT CI FA CAPIRE QUANTO OGGI SIAMO
ER
I
S
DOS
due volte ogni 20 millisecondi compiendo un
ciclo. Ciò si riflette nell’intermittenza della luce di alcuni tipi di lampade o del segnale video della TV, che non possiamo registrare ad
occhio nudo perché la frequenza è troppo elevata, ma che può essere colta da una macchina fotografica digitale mossa velocemente durante lo scatto di una foto notturna (sono le
immagini scattate dall’autore che abbiamo
messo a paragone nell’apertura del nostro servizio alle pagine 16-17) o che inquadra la TV.
Quest’ultimo aspetto è facilmente verificabile
a casa: osservando la TV nel visore della macchina digitale, vedremo delle fasce scorrere
sullo schermo, dovute appunto alla corrente
alternata.
Come calcolare quanta corrente
usa un dispositivo elettrico? Leggiamo sulla targhetta le caratteristiche
del trasformatore/caricabatteria di un comune computer portatile.
Quello in esame funziona con una corrente alternata in entrata di 100-240 V, a circa 1,3 A,
con una frequenza di 50-60 Hz. Oggi in Italia
la tensione è tipicamente di 230 V e la frequenza di 50 Hz. In entrata quindi il trasformatore assorbe una potenza teorica pari a circa 300 watt (230 V per 1,3 A), il suo consumo
orario sarà quindi di 300 Wh (1 080 kJ). In
uscita il trasformatore del portatile considerato eroga una corrente continua di 18,5 V a circa 4,7 A, con una potenza erogata di circa
90 W, fornisce ogni ora 90 Wh di energia elettrica (324 kJ).
E il resto? Dove sono finiti i 756 kJ di energia
assorbita in un’ora che mancano? Ecco la
spiegazione: la resa della conversione tra corrente alternata in entrata e continua in uscita
del trasformatore non è del 100% e parte dell’energia elettrica viene dissipata sotto forma
di calore.
Lo possiamo verificare toccando un comune
L’americano Thomas Alva
Edison (1847 - 1931),
già inventore della
lampadina nel 1878,
inaugurò la prima
centrale elettrica
commerciale a Manhattan
(New York).
Qui è ritratto nel 1901
nel suo laboratorio.
28
caricabatteria del telefonino inserito in una
presa. Solitamente ciò accade anche quando
non si sta ricaricando il cellulare o l’apparecchio non è acceso, per cui tenere i trasformatori/caricabatteria inseriti nella spina quando
non si utilizza un apparecchio serve solo a
sprecare energia elettrica e risorse.
Provate anche voi a verificare le etichette degli elettrodomestici e degli altri apparati elettrici in casa, calcolate quanto consumano attraverso la potenza assorbita indicata in watt o
in kilowatt, o calcolatela in voltampere se avete l’intensità di funzionamento in ampere,
pensando che la nostra comune rete elettrica
domestica eroga tensione a 230 V. Assieme al
tempo di utilizzo e al costo del kWh, questi
dati vi permetteranno di calcolare i wattora o i
kilowattora assorbiti e quindi i costi.
Abbiamo accennato all’illuminazione e non ci dilungheremo sugli
altri usi dell’energia elettrica,
convertita per gli svariati usi in energia
termica (phon, forno, ferro da stiro),
meccanica (frullatore, aspirapolvere) o in entrambi i tipi (lavatrice, asciugatrice, lavastoviglie) o, ancora, in energia radiativa (TV).
Per capire quanto siamo dipendenti nella nostra quotidianità dall’energia elettrica, basta
considerare il senso di disagio che ci coglie
quando siamo in casa durante un blackout. La
nostra vita moderna non può infatti prescindere dall’elettricità, eppure ancora oggi in alcune parti del mondo si vive senza. Quanto
cammino è stato fatto da quando nel 1882 l’americano Thomas Alva Edison (1847 - 1931),
già inventore della lampadina nel 1878, inaugurò la prima centrale elettrica commerciale a
Manhattan (New York).
Ma purtroppo l’energia elettrica
può essere usata anche contro la
vita: esempi di applicazioni in tal senso
sono le pistole elettriche, i taser, letali
solo accidentalmente ma dolorosissimi,
in dotazione alla polizia di alcuni paesi (per
esempio USA e Canada) e la pena di morte
comminata mediante la sedia elettrica negli
Stati Uniti.
Dosi elevate di energia elettrica interagiscono
negativamente con gli organismi, in quanto
alterano la conduzione degli impulsi nervosi
(che sono di tipo elettrico) e la permeabilità
delle membrane cellulari.
Nell’uomo la soglia di percettibilità è di circa
di 0,5 mA (milliampere) per la corrente alternata con le frequenze tipiche delle nostre reti
domestiche (50-60 Hz) e di 2 mA per la corrente continua (vedi il riquadro qui accanto).
DIPENDENTI DALL’ENERGIA ELETTRICA
Danni da scossa elettrica,
una “forza” invisibile e subdola
Energia delle radiazioni
elettromagnetiche
Intensità crescenti di corrente causano nell’ordine i seguenti
danni agli organismi animali:
❑ Elettrificazione
(I = 3-10 mA)
Produce nel corpo una
sensazione di formicolio più
o meno forte, può provocare
movimenti riflessi
involontari. Ne è un esempio
l’uso degli elettrostimolatori
per tenere in forma il corpo:
essi allenano i muscoli
facendoli contrarre
involontariamente e
ripetutamente sulla base di
una stimolazione elettrica di
intensità opportuna, in pratica
si tratta di una elettrificazione
controllata.
❑ Tetano muscolare
(I > 10 mA)
I muscoli sottoposti ad una
corrente alternata, subiscono
una sequenza di stimoli
elettrici che li portano alla
contrazione e alla
decontrazione, ma per loro
caratteristiche fisiologiche
non riescono a contrarsi e
decontrarsi con l’elevata
frequenza della corrente.
Pertanto, una volta contratti,
rimangono in tale stato finché
la corrente viene applicata.
Questa contrazione
permanente è detta in
fisiologia “tetano”, ne sono
un esempio noto i crampi
muscolari. Impugnando un
oggetto che disperde corrente
si ha una circostanza assai
grave rispetto al suo semplice
tocco, in quanto il tetano
paralizza i muscoli
impedendo il rilascio
dell’oggetto stesso. La
massima intensità di corrente
alternata (50-60 Hz) per la
quale si riesce a lasciare la
presa viene chiamata corrente
di rilascio e si aggira sui
10-30 mA.
❑ Blocco respiratorio
(I > 25 mA)
Si tratta del tetano dei
muscoli respiratori che si ha
quando con valori d’intensità
relativamente elevati,
soprattutto se il contatto
interessa la regione toracicopolmonare. La difficoltà
respiratoria comporta ipossia,
mancanza di ossigeno nel
comparto cerebrale, con
danni permanenti al cervello
dopo pochi minuti.
❑ Morte per asfissia
(I = 25-30 mA)
Il tetano che coglie i muscoli
respiratori può essere tale per
intensità e durata da
provocare la completa
disfunzionalità dell’apparato
respiratorio e la conseguente
morte per asfissia.
❑ Fibrillazione
ventricolare
(I = 60-75 mA)
Una corrente alternata
sufficientemente elevata
(> 50mA), che interessi
la regione toracica, può
provocare la perdita di
coordinamento della
contrazione delle fibre
muscolari cardiache, così
il cuore non riesce più a
pompare sangue causando
ipossia e danni al cervello.
In casi particolarmente gravi
si può arrivare alla morte per
arresto cardiaco.
❑Ustioni
Correnti ad intensità ancora
maggiori provocano, per il
già citato effetto Joule, un
riscaldamento tale della cute
da causare anche gravi
ustioni.
A forza di
braccia si
solleva uno
dei primi
tralicci per
l’alta tensione
nelle Prealpi
lombarde, nei
primi anni
del secolo
scorso.
L’energia primaria della Terra è
quella del Sole, che permette la
vita sul nostro pianeta. Si tratta
di energia in forma di radiazione elettromagnetica, comprendente particolari lunghezze d’onda tra cui quelle della
luce (visibile), che viene scambiata con la
materia attraverso i fotoni.
Ne abbiamo già parlato più volte nella nostra rivista e lì vi rimandiamo per maggiori
dettagli (Green n. 4 e 5).
In un solo secondo la nostra stella c’invia
un’energia pari a circa 174 000 TJ (terajoule, mille miliardi di joule, o 1012 J), nello
stesso lasso di tempo si stima che tutte le
attività del pianeta richiedano attualmente
un’energia pari a circa 13 TJ (dati MIT,
USA).
L’energia della radiazione solare viene in
parte usata dagli organismi produttori primari di biomassa (energia chimica) mediante la fotosintesi. In tal modo essi danno origine alle catene alimentari.
Inserendo le unità di misura nell’equazione
E = h ν (“e” uguale ad “acca” per “ni”) –
che definisce l’energia della radiazione
elettromagnetica in funzione della costante
di Planck (h = 6,63 x 10-34 J s) e della frequenza misurata in hertz (Hz), cioè in inverso di secondi (s-1) – è facile verificare
come quest’energia sia misurata in joule.
L’uomo usa l’energia associata
alle diverse lunghezze d’onda
(e quindi frequenze) per svariati scopi come la produzione di
energia elettrica col fotovoltaico, il solare termico per sanitari e riscaldamento domestico, la trasmissione dei segnali radio/TV e telefonia cellulare.
Un’applicazione particolare dell’energia
della radiazione luminosa è il laser (acronimo di Light Amplification by the Stimulated Emission of Radiation), un’affascinante tecnologia di cui sicuramente parleremo nei prossimi numeri di Green.
L’energia della radiazione elettromagnetica può anche essere dannosa, si pensi per
esempio agli usi bellici del laser e alla sovraesposizione a raggi X o UV che danneggiano il DNA degli organismi viventi,
cedendo mediante i fotoni parte della loro
energia alla molecola, causando la rottura
di legami chimici o permettendo la formazione di legami anomali.
29
L’ELETTRONVOLT, IL BARILE, LA TEP, LE KILOCAL
ER
I
S
DOS
Altre unità di misura dell’energia (e attenti al peso, in ogni caso...)
Oltre a quelle del SI ci sono altre unità di misura dell’energia che vengono ancora utilizzate per comodità e consuetudine d’uso in
alcuni settori specifici della scienza e della tecnica. Vediamo le più curiose e interessanti.
Fisica
Fonti energetiche
Sebbene il SI sia ormai il sistema ufficiale di unità di misura più
diffuso, ne esistono altri. Uno dei più noti è il sistema
“centimetro-grammo-secondo” (CGS), che ha queste tre per
unità di base da cui sono derivate tutte le altre. Fu proposto nel
1832 dal famoso matematico, astronomo e fisico tedesco Carl
Friedrich Gauss (Braunschweig, 1777 - Gottinga, 1855).
In questo sistema l’energia si misura in erg (simbolo: erg), per
cui avremo che:
Il contenuto di energia dei combustibili e dei carburanti si può
anche definire mediante misure di peso o di volume: la tonnellata
(1 000 kg) viene utilizzata per il petrolio greggio e il carbone, il
barile (pari a 159 litri) è utilizzato per il petrolio greggio, il metro
cubo per il gas e il litro per la benzina ed il gasolio.
Per poter confrontare il contenuto energetico dei vari combustibili
dobbiamo passare attraverso un’unica unità di misura.
Una delle misure più usate, anche se non facente parte del SI, è la
Tonnellata Equivalente di Petrolio (TEP), che riporta i contenuti
energetici delle diverse fonti energetiche a quella ancora oggi più
usata di tutte: il petrolio.
1 erg = 1 g cm2 s-2
Come possiamo vedere anche l’erg, al pari del joule, misura
l’energia come il prodotto di una massa per il quadrato di una
distanza, diviso per il quadrato di un tempo. Siccome le unità di
base del CGS e del SI possono essere convertite le une nelle
altre, si può tramutare l’erg in joule ed ovviamente in qualsiasi
altra unità cui il joule è equivalente. Avremo che 1 erg = 10-7
joule. Se ricordiamo dall’inizio dell’articolo quanto piccolo sia
il joule come unità di misura, potremo capire quanto più lo sia
questa unità che risulta dieci milioni di volte più piccola.
Un elettronvolt (simbolo: eV) rappresenta l’energia acquistata da
un elettrone libero quando passa attraverso una differenza di
potenziale elettrico di 1 volt. È una delle unità accettate dal SI
che devono essere misurate sperimentalmente.
Rappresenta una quantità davvero piccolissima di energia,
essendo 1 eV = 1,602 176 46 x 10-19 J. Sono quindi molto usati i
suoi multipli preceduti dai prefissi del SI - keV (kiloelettronvolt,
ossia mille elettronvolt), MeV (megaelettronvolt, un milione di
elettronvolt) e GeV (gigaelettronvolt, un miliardo di elettronvolt).
Nella fisica delle particelle, il megaelettronvolt e il
gigaelettronvolt sono utilizzati per misurare la massa delle
particelle elementari, in termini di energia.
Per farlo si usa la nota equazione di conversione della relatività
ristretta di Einstein: E = m c2.
Calcolata in questo modo la massa di un elettrone è di 0,511
MeV, quella di un protone di 938 MeV.
Usando le TEP si può calcolare il fabbisogno energetico di una
nazione cumulando tutte le fonti energetiche disponibili.
Una TEP rappresenta la quantità di calore ottenibile da una
tonnellata di petrolio. Misurando in TEP il carbone, stiamo
valutando la quantità di carbone che può produrre tanto calore
quanto una tonnellata di petrolio. Ricordiamo che valgono le
seguenti equivalenze:
1 kcal = 4,186 kJ = 1,16 x 10-3 kWh = 1 x 10-7 TEP
Per poter confrontare i valori energetici di volumi o pesi dei
diversi combustibili e riportarli in TEP dobbiamo passare
attraverso un’unità come la caloria o il joule, le quali possono
essere misurate attraverso strumenti di laboratorio.
Una tonnellata di petrolio (dati Eni) contiene 10 x 106 kilocalorie
(kcal), mentre una tonnellata di carbone fossile ne contiene
7 x 106.
Facendo la proporzione vediamo che 1 TEP di carbone equivale in
peso a circa 1,43 tonnellate.
Conoscendo i contenuti in termini di calorie delle diverse fonti
energetiche possiamo ricavare le TEP. A titolo di esempio di
seguito riportiamo il contenuto energetico medio di alcuni
combustibili/carburanti (dati ENI).
Siamo alla metà del secolo scorso, quando l’industria del freddo era agli albori e le BTU erano una misura misteriosa. Il gelato si raffreddava per una
reazione chimica con il comune sale marino e la forza di braccia del gelataio che faceva girare il recipiente. Il ghiaccio veniva venduto dall’ambulante!
30
LORIE, IL CHILOTONE...
Fonti energetiche solide
–
–
–
–
–
combustibili vegetali
torba
legna
carbone fossile nazionale
carbone fossile estero
Fonti energetiche liquide
– petrolio greggio
– benzina
– gasolio
Fonti energetiche gassose
– gas naturale
kcal kg-1 tonnellate
pari a 1 TEP
2 500
2 600
3 020
5 300
7 000
4,00
3,85
3,11
1,89
1,43
kcal kg-1 tonnellate
pari a 1 TEP
10 000
10 500
9 800
1,00
0,95
1,02
kcal m-3
8 200
Fisiologia dell’alimentazione
I dietologi misurano le calorie di cibi e bevande in kilocalorie
(kcal). Si ha che:
quindi della quantità, è dannoso. Infatti il surplus viene accumulato
nei legami chimici di molecole energetiche di riserva: i grassi.
Occhio quindi ai pannicoli adiposi e, nei casi più estremi, alle
disfunzioni (obesità). La formazione di tessuto adiposo è fisiologica
per alcune specie animali, come quelle che vanno in letargo ed
hanno bisogno di riserve energetiche per il metabolismo basale,
oppure in quelle che vivono in regioni particolarmente fredde, con
lunghi periodi d’innevamento. Queste ultime accumulano tessuto
adiposo come riserva energetica in previsione di scarsità di cibo.
A noi uomini e donne i pannicoli fanno poco comodo, soprattutto
d’estate…
Esplosivi
L’unità di misura della potenza degli esplosivi è il chilotone o
kiloton: ne esprime la potenza in termini di energia meccanica
liberata dall’esplosione di 1 000 tonnellate di tritolo,
corrispondenti a circa 4,2 x 1012 J. Non tiene conto quindi di calore
e radiazioni.
Rifacendoci all’esempio precedente un kiloton equivale all’energia
elettrica che ci serve in casa per oltre 13 anni. Con l’energia della
bomba atomica di Hiroshima da 13 kiloton avremmo potuto
soddisfare i bisogni energetici di una casa per circa 170 anni.
1 kcal = 4,186 kJ = 3,968 BTU
(abbreviazione di British Thermal Unit, vedi di seguito).
Impianti di condizionamento
Si tenga conto che un grammo di zuccheri apporta circa 4 kcal, tante
quanto un grammo di proteine, mentre un grammo di grassi apporta
9 kcal (un chilogrammo di olio ha circa 9 000 kcal, solo 1 000 in
meno del petrolio greggio).
Azzardando un’approssimazione, potremmo dire che in media ci
servono 2 000 - 2 500 kcal al giorno per vivere. Questi valori
cambiano ovviamente in base alla fisiologia del singolo individuo.
Quanta energia è? Facciamo un raffronto con l’energia elettrica
utilizzata nella nostra casa, ipotizzando di essere una famiglia di
quattro persone che usano l’impianto con potenza massima di circa 3
kW per 16 ore al giorno a mezza potenza.
Abbiamo un consumo di 24 kWh; siccome 1 kWh = 3600 kJ abbiamo
un consumo di energia pari a 86 400 kJ, circa 20 640 kcal.
Ogni giorno consumiamo in energia chimica dei cibi più o meno un
decimo dell’energia elettrica che serve alla nostra casa.
Attenzione. Ovviamente anche l’eccesso di energia chimica dei cibi, e
La British Thermal Unit (BTU o Btu) è un’unità di misura
dell’energia termica usata nei paesi anglosassoni per definire il
potere calorifico dei combustibili e la “potenza” dei sistemi di
riscaldamento. Ha una definizione molto simile a quella della
caloria rispetto alla quale cambia la quantità d’acqua e il fatto che si
consideri l’innalzamento di 1 °F (grado Fahrenheit, pari a circa
0,55 °C).
Una BTU è definita come la quantità di calore richiesta per alzare
la temperatura di 454 grammi di acqua (una libbra) da
60 a 61 gradi Fahrenheit (circa da 15,5 a 16,1 °C). Una BTU è pari
a 1 054,8 J.
Nel nostro paese le BTU vengono comunemente usate per definire
il “potere refrigerante” dei condizionatori, tipicamente variabile da
7 000 fino a 15 000 BTU nei comuni dispositivi domestici.
Molti di noi ormai ne possiedono almeno uno per combattere il
gran caldo estivo, a spese di un aumentato consumo di combustibili
fossili e di una bolletta elettrica decisamente più salata.
Ai giorni nostri le energie ci arrivano in casa con un ramificato sistema di tubi e cavi in grado di soddisfare necessità di caldo (per cucinare e scaldarsi).
Ma fino a pochi anni fa, non più di mezzo secolo, i carbonai preparavano la carbonella da vendere in città e il pane si cuoceva nel forno a legna.
31
UNA GITA IN AUTO PER RIFLETTERE SULLE TANTE
Energia termica
ER
I
S
DOS
Ne abbiamo già accennato, l’energia termica di un sistema rappresenta l’energia cinetica media
delle molecole (EC) la quale è proporzionale alla temperatura assoluta
del sistema (T) secondo l’equazione:
La nostra carrellata di immagini prosegue con due fotografie della Grande guerra,
che impegnò dal 1915 al 1918 l’esercito italiano e quello austriaco
sulle vette delle Alpi Orientali. Il conflitto costò seicentomila vittime.
Queste immagini ricordano l’orrore provocato dall’uso delle armi in guerra.
La molecola del
2,4,6-trinitrotoluene,
forse più noto come
tritolo o TNT.
Il suo potere esplosivo
è alla base della
definizione di
kiloton, l’unità di
misura della potenza
degli esplosivi.
32
3 kT
Ec = –
2
dove k è la costante di Boltzmann,
k = 1,380 650 5 x 10-23 J K-1. Il termine Ec
tiene conto dei movimenti di traslazione, di
rotazione e di vibrazione delle particelle.
Guardando le dimensioni di k e ricordando
che la temperatura assoluta si misura in kelvin (K) è facile verificare che EC si misura
in joule.
Gli usi principali dell’energia termica sono
già noti ai più: dagli usi domestici per la cucina e per scaldare acqua e ambienti, agli usi
industriali, per esempio nella fusione dei
metalli o del vetro, o nell’industria chimica
per accelerare le reazioni, nell’industria alimentare, e molto altro ancora.
La conversione di energia termica in cinetica serve per la produzione di energia elettrica nelle centrali dove il calore, generato dalla combustione di petrolio, carbone, gas, o
biomasse, o quello generato dalla reazione
di fissione dell’uranio, viene usato per scaldare acqua e produrre vapore sotto pressione che viene incanalato forzatamente attraverso le pale di una turbina che ruotando
producono elettricità (Green n. 1, pag. 26).
Anche gli effetti negativi dell’eccesso di energia termica sono noti, come quelli che si verificano
sempre più di frequente d’estate
in seguito alle temperature elevate, che purtroppo causano un incremento
della mortalità tra gli anziani. L’eccesso di
energia termica negli oceani e in atmosfera
aumenta, inoltre, la violenza e la frequenza
dei fenomeni meteorologici estremi come
tifoni e uragani. Ma l’energia termica ha effetti tristemente noti anche in guerra. Le
bombe in genere uccidono riversando sul
territorio e sulla popolazione una combinazione di elevate quantità di energia cinetica e
termica, grazie all’esplosione. Il movimento
violento delle masse d’aria distrugge ciò che
incontra intorno, trascina detriti trasformandoli in letali proiettili, in combinazione con
un’onda di calore e, nel caso delle bombe
atomiche, anche con radiazioni letali.
E FORME DI ENERGIA NELLA VITA QUOTIDIANA
Energia nucleare
Ne abbiamo parlato a lungo nello
scorso numero di Green, quindi
qui non faremo che un accenno,
riguardante soprattutto l’elevato
contenuto energetico del “combustibile” nucleare. Sappiamo che si crea
energia nucleare quando il nucleo dell’atomo
di U-235 (o di un altro materiale fissile) viene
colpito da un neutrone “lento” dotato di opportune caratteristiche. L’atomo di uranio si
spacca così con diverse modalità in due frammenti di massa diseguale, riemettendo contemporaneamente 2 o 3 neutroni ad alta energia (“veloci”). Tale reazione produce una
grande quantità di energia emessa sotto forma
di calore e particolari accorgimenti permettono di ottenere una reazione a catena con produzione continuata di energia. Ancora una
volta il calore può essere utilizzato per ottenere vapore acqueo in pressione e quindi elettricità mediante turbine.
Da un grammo di U-235 si ottiene con questa
reazione un quantitativo di energia di circa
22 500 kWh pari a 20 x 106 kcal (kilocalorie).
Ciò vuol dire che a parità di peso l’ordine di
grandezza dell’energia contenuta nell’uranio
è di un milione di volte superiore a quello del
petrolio (10 000 kcal kg-1).
Manca alla trattazione l’energia chimica cui
abbiamo più volte accennato in merito all’energia dei cibi o dei combustibili utilizzati per
la produzione di energia elettrica o per i veicoli a motore. Per fascino e complessità questo argomento merita una trattazione approfondita che vedremo prossimamente su
Green.
Per concludere vogliamo ancora
riflettere su quante forme di
energia entrano nella nostra vita di tutti i giorni: facciamo l’esempio di una passeggiata in
automobile.
Un’autovettura funziona con l’energia elettrica della batteria (in realtà è un accumulatore) e con l’energia chimica del carburante
(per brevità qui consideriamo solo le auto a
benzina). L’energia elettrica permette di far
scoccare una scintilla che produce lo scoppio iniziale della benzina nel cilindro e alimenta l’impianto elettrico dell’auto: luci e
spie, impianto hi-fi, ventilazione, servomeccanismi: alzacristalli e specchietti elettrici e
così via. In questo modo parte dell’energia
elettrica si trasforma in altre forme di energia, come quella della radiazione elettroma-
gnetica dei fari o quella meccanica di rotazione della ventola dell’impianto di ventilazione e raffreddamento. L’energia chimica
del carburante viene convertita dal motore
in energia meccanica che permette la rotazione dell’albero e quindi delle ruote, trasformandosi in energia cinetica dell’auto in
movimento grazie all’interazione delle ruote con l’asfalto (attrito di rotazione).
Parte dell’energia meccanica di rotazione
dell’albero motore viene ritrasformata in
energia elettrica. Nelle nostre auto c’è infatti un alternatore, cioè una macchina elettrica
rotante, che trasforma energia meccanica in
energia elettrica sotto forma di corrente alternata; esso ha la funzione di mantenere carica la batteria ed alimentare tutte le funzioni elettriche di bordo.
Poiché la batteria opera in corrente continua, è presente un “raddrizzatore”, un particolare dispositivo elettrico che ha la funzione di trasformare la corrente alternata in
continua.
Non tutta l’energia chimica del carburante
viene trasformata in energia meccanica utile. In genere solo il 28% circa dell’energia
chimica della benzina viene convertita in
energia meccanica che muove il pistone,
contro il 33% circa del motore a gasolio. La
maggior parte dell’energia viene espulsa dal
motore attraverso la marmitta.
L’energia meccanica serve a mettere in moto tutte le parti meccaniche del motore e
viene quindi in buona parte convertita in
movimento del veicolo.
Dobbiamo anche ricordare che la nostra auto si muove in un campo di forze conservativo, il campo gravitazionale. Quindi l’energia cinetica della nostra auto in movimento
può convertirsi in energia potenziale.
Supponiamo di avere davanti a noi una salita. Se non diamo più gas e lasciamo andare
l’auto per abbrivio, trascurando tutte le forze dissipative (attriti), se riusciamo ad arrivare in cima alla salita e a quel punto l’auto
si ferma, tutta la sua energia cinetica si è trasformata in energia potenziale, che può trasformarsi nuovamente in energia cinetica
quando, una volta fatta inversione, torniamo
al bordo della discesa e lasciamo che la
macchina ridiscenda in folle. Cosa da farsi
solo negli esempi, ma non nella pratica in
quanto è decisamente pericoloso viaggiare
senza il motore in rotazione, perché non
funzionano vari apparati dell’auto, tra cui i
sistemi idraulici ed il servofreno.
Fulvio Zecchini
33
Abbonati
a “Green”,
è nuova
e diversa!
Due sono le modalità di abbonamento, mediante invio del modulo di richiesta di abbonamento (vedi
fac-simile in alto a destra) scaricabile dal sito di
“Green” alla pagina
www.green.incaweb.org/abbonamenti/index.htm
• via e-mail: compilare il modulo di richiesta di abbonamento on-line e inviarlo a
[email protected]
• via fax: compilare il modulo di richiesta di abbonamento e inviarlo allo 06 59 26 103.
Costo dell’abbonamento
L’abbonamento annuale a “Green” comprende l’invio
di 10 numeri consecutivi della rivista al prezzo di 20,00
euro (IVA incl.; sconto 20% sul prezzo di copertina).
Viene previsto uno sconto particolare per i professori
della scuola secondaria e per le istituzioni scolastiche
che potranno sottoscrivere l’abbonamento annuale al
costo di 15,00 euro (IVA incl.; sconto del 40% sul prezzo di copertina) con invio obbligatorio presso l’istituto.
Pagamenti
Il pagamento dell’abbonamento va effettuato mediante
bollettino postale con versamento su c.c.p.
n. 80254360 intestato a “Consorzio INCA - Rivista
Green”, in un’unica soluzione anticipata. Si potrà utilizzare il bollettino parzialmente precompilato allegato
alla rivista.
34
L’altro
modo di
informarsi
e formarsi
Tempi di attivazione
La rivista viene inviata all’indirizzo indicato dal sottoscrivente entro 45 giorni a partire dalla data di sottoscrizione dell’abbonamento, previa verifica dell’effettuazione del pagamento. Se ci si abbona entro il giorno 10
del mese è possibile l’invio della rivista in uscita il mese
successivo (ciò dipende dalla rapidità con cui vengono
registrati i pagamenti con i bollettini postali che impiegano 10-30 giorni dalla data di versamento).
Cambio indirizzo
In caso di cambio di indirizzo, temporaneo o definitivo,
basterà comunicarlo alla redazione di “Green” via email; al successivo numero utile la rivista verrà spedita
al nuovo indirizzo senza alcun sovrapprezzo.
Rinnovo e cessazione
L’abbonamento dovrà essere rinnovato entro 45 giorni
dalla scadenza annuale. Scadenza e numero di copie residue da inviare saranno indicate nell’etichetta che ac-
A fronte delle sempre più numerose
richieste pervenute il Consorzio INCA,
editore di Green, non può far fronte
a ulteriori costi, che già sono consistenti,
per abbonamenti-omaggio in aggiunta
a quelli attualmente garantiti
alle scuole secondarie di secondo grado,
alle università e alle istituzioni.
È per questo che la direzione della
rivista apre la campagna abbonamenti
rivolta a chiunque abbia interesse a ricevere
Green. Per gli insegnanti della scuola
secondaria di secondo grado, considerato
l’alto valore didattico della rivista, sono
previste condizioni di particolare favore,
praticamente al costo di produzione.
le
i
m
i
s
c
a
F
È un piccolo contributo che chiediamo
per garantire il massimo successo di
un’iniziativa per i giovani che sta
registrando consensi in tutta Italia.
Siamo certi della vostra comprensione
e del vostro sostegno.
compagna la rivista. In caso di rinnovo entro la scadenza dell’abbonamento, ma con meno di 45 giorni di anticipo, l’invio della rivista potrà essere discontinuato e
verrà ripreso comunque entro 45 giorni dalla ricezione
del rinnovo. In caso di mancato rinnovo entro la scadenza l’abbonamento sarà da considerarsi cessato.
In caso di cessazione anticipata dell’abbonamento da
parte dell’abbonato o da parte dell’editore verranno rimborsate le copie residue non inviate, per un ammontare
pari a un decimo del valore dell’abbonamento per ogni
copia non inviata.
La richiesta di cessazione dovrà pervenire per posta via
raccomandata alla redazione all’indirizzo sopra riportato. La richiesta verrà processata entro 30 gg. dalla sua
ricezione, bloccando l’invio al primo numero tecnicamente utile.
Invio numeri arretrati
Gli arretrati possono essere richiesti per fax o per e-mail
alla redazione ai numeri ed indirizzi sopra riportati, indicando chiaramente i numeri richiesti e le quantità e
l’indirizzo di spedizione che avverrà per posta prioritaria.
Il prezzo è di 3,00 euro più 2,00 euro di spese fisse di
spedizione cadauno. Il pagamento avverrà attraverso
bolletino postale sul c.c.p. n. 80254360 intestato a
“Consorzio INCA - Rivista Green”, con la causale “richiesta numeri arretrati”.
Informativa sulla privacy
ai sensi del D. Lgs. 196/2003 e succ. modd. e integrazioni
I dati personali saranno trattati dall’editore Consorzio
Interuniversitario Nazionale “La Chimica per l’Ambiente” (Consorzio INCA; Marghera) per dare corso alla richiesta di abbonamento. A tale scopo, è indispensabile il conferimento dei dati anagrafici e il contestuale consenso al trattamento degli stessi. In caso di mancato consenso sarà impossibile procedere alla sottoscrizione dell’abbonamento.
Responsabile del trattamento dei dati personali è l’editore. Con il sopraccitato consenso al trattamento, l’editore potrà fornire i dati a suoi incaricati ai soli fini dell’invio della rivista: addetti alla stampa, al confezionamento e alla distribuzione della rivista, o altri soggetti
coinvolti. I dati personali non saranno ceduti a terzi a
fini pubblicitari o commerciali.
Ciascuno può in ogni momento e gratuitamente esercitare i diritti previsti dall’articolo 7 del D. Lgs. 196/03 e cioè conoscere quali dei suoi dati vengono trattati, far
integrare, modificare o cancellare i propri dati o opporsi al loro trattamento - inviando lettera raccomandata a:
Consorzio Interuniversitario Nazionale “La Chimica
per l’Ambiente”,
via delle Industrie 21/8, 30175 Venezia-Marghera.
35
LE NUOVE FRONTIERE DELLA CHIMICA
Alla ricerca
di Andrea Pochini
Il progredire della
scienza è un processo lento, basato sul dubbio sistematico e sull’acquisizione di
verità relative. Infatti l’enorme numero di
conoscenze raggiunte non
sono mai dichiarate “vere”,
ma solo “plausibili”.
In particolare lo sviluppo
della conoscenza in generale e di quella scientifica
in particolare può essere
paragonato all’evoluzione
subita dai sistemi biologici.
Questi infatti erano inizialmente unicellulari, ma si
sono poi sviluppati, al fine
di affrontare ambienti sempre più diversificati, in
strutture sempre più complesse di tipo pluricellulare.
Analogamente l’approccio
scientifico, che era all’ini-
zio quasi esclusivamente
monodisciplinare, si è andato sviluppando in logiche sempre più spiccatamente pluridisciplinari.
Questo è evidentemente legato alla possibilità di affrontare, interagendo in
una logica multifunzionale
e cooperativa, problemi
sempre più complessi, che
proprio per le loro caratteristiche possono trovare solo soluzioni in ambiti disciplinari ad elevata complessità.
In questa logica nel corso
delle loro ricerche gli
scienziati, modificando i
loro metodi ed i loro procedimenti nello stesso modo in cui modificano i loro
strumenti di misura e le loro teorie, hanno creato
nuovi linguaggi scientifici
disciplinari quali mezzi di
interpretazione e di comunicazione ed hanno appre-
Largamente impiegati
per diluire o
sciogliere altre
sostanze, per esempio
nel settore delle
vernici, dei metalli
o nella pulitura
a secco, questi liquidi
hanno spesso
comportato rischi
per la salute
e per l’ambiente.
36
so i linguaggi di discipline
affini.
I criteri di scelta dei solventi e più in particolare la valutazione dei vari pericoli,
fra cui anche quelli ambientali, correlati con il loro utilizzo, sono una interessante
ed istruttiva esemplificazione del modo di procedere
legato al progredire delle
conoscenze provenienti da
settori anche molto lontani
dalla chimica e di come
queste abbiano determinato
nuovi criteri nella valutazione delle scelte.
I solventi infatti
sono sostanze liquide usate su larga scala per diluire
o sciogliere un’altra sostanza al fine di ottenere una soluzione. L’acqua è un solven-
te largamente usato ma non
è un buon solvente per molte sostanze organiche che
contengono atomi di carbonio e di idrogeno. Per questo
vengono largamente impiegati solventi organici, ad
esempio nel settore delle
vernici, nella rimozione di
sostanze protettive da metalli, tessili, nella pulitura “a
secco” di vestiti ed in molte
applicazioni nel settore chimico.
Prima di affrontare questo specifico problema occorre fare una introduzione sulla visione molecolare della materia sia per comprendere i vari stati fisici, ed i
Ma i chimici sono
al lavoro per trovare
alternative
ecocompatibili
e hanno già raggiunto
importanti risultati.
Vediamo quali.
dei
solventi
verdi
PRIMA PARTE
comportamenti chimici come ad esempio la sua reattività, sia per capire cosa
sono, come lavorano e dove si utilizzano i solventi e i
criteri di scelta degli stessi.
Al fine di ottenere una corretta comprensione di questi concetti occorre infatti
scendere dalla visione macroscopica, ad esempio un
liquido con specifiche caratteristiche come il punto
di ebollizione, a quella microscopica o molecolare.
Quest’ultima è utile per vedere e capire la struttura e
le proprietà delle molecole
che costituiscono il liquido
e che quindi determinano le
sue proprietà chimiche e fisiche.
Un caccia da combattimento sulla piattaforma di revisione. In questa fase delicata
vengono controllati il rivestimento di polimeri, la viscosità dei fluidi dell’impianto
idraulico, gli olii lubrificanti, gli snodi in movimento, qualità e quantità di carburante.
In tutta questa fase i solventi rivestono un’importanza di primo piano.
Immagine di Ornella Erminio
37
LE NUOVE FRONTIERE DELLA CHIMICA
atomi
alle molecole.
Dagli
Energia di un sistema a due atomi in funzione
della distanza interatomica
Le interazioni
intramolecolari:
legami covalenti
Partendo dagli atomi dei vari
elementi noti e presenti nella
Tavola periodica, che sono poco
più di cento, si verifica che quelli
presenti nella crosta terrestre in quantità significative scendono a circa quindici. Infine nei sistemi biologici, quale
ad esempio il corpo umano, gli elementi significativi scendono a circa dieci ed in particolare quattro di questi, il carbonio (C), l’idrogeno (H), l’ossigeno (O) e l’azoto (N),
costituiscono più del 95% in peso del corpo
umano. Come vedremo, anche i solventi sono normalmente caratterizzati dalla presenza di questi quattro elementi.
Gli atomi non sono normalmente stabili e
cercano di evolvere per raggiungere, a livello degli elettroni che li caratterizzano, una
configurazione stabile a più bassa energia tipica dei gas nobili. Per ottenere questo risultato gli atomi mettono in compartecipazione
i propri elettroni con quelli di uno o più altri
atomi dando origine a legami intramolecolari, definiti covalenti, arrivando così alla
formazione di una molecola.
Come tipici esempi prendiamo la molecola
di idrogeno e quella di metano. L’atomo di
idrogeno ha un solo elettrone che mette in
compartecipazione con un altro atomo di
idrogeno al fine di ottenere un legame fra i
due atomi. Con questo legame viene raggiunta una situazione elettronica in cui ci
sono due elettroni condivisi che è uguale a
quella che caratterizza il gas nobile Elio.
Attraverso la condivisione dei due elettroni,
i due atomi si trovano nella molecola ad una
distanza di 74 pm (distanza di legame) e l’energia del sistema si abbassa di 436 kJ/mole.
In maniera analoga il Carbonio, caratterizzato da quattro elettroni da condividere, forma quattro legami con quattro atomi di Idrogeno al fine di raggiungere la situazione
elettronica stabile ad otto elettroni, che caratterizza il gas nobile Neon.
In questo modo si forma la molecola di metano CH4.
Come regola generale possiamo dire che
formando un legame si libera energia mentre per rompere un legame occorre fornire
energia al sistema.
38
La tavola di Pauling, due volte
Nobel per la chimica e la pace
Linus Carl Pauling (Portland,
28 febbraio 1901 – Big Sur, 19
agosto 1994) era un chimico
statunitense.
Come riporta la biografia tratta
da Wikipedia si è dedicato
soprattutto alla chimica
quantistica ed alla fisica ed è il
padre del legame chimico.
Ha ricevuto due premi Nobel,
il primo per la chimica nel
1954 e il secondo per la pace
nel 1962. Gli altri che hanno
ricevuto due premi Nobel sono
Marie Curie (fisica e chimica),
John Bardeen (entrambi in
fisica) e Frederick Sanger
(entrambi in chimica). Pauling
è l'unico tra essi che non li ha
ottenuti in condivisione con
altre personalità.
Il suo libro La natura del
legame chimico fu pubblicato
nel 1937 e rappresenta un
classico della letteratura
chimica internazionale. Le
nuove regole per determinare
le lunghezze dei legami
chimici e le altre proprietà
delle molecole sono state
scritte sulla base del nuovo
concetto di risonanza,
inventato dallo stesso Pauling.
Il grande chimico applicò la
meccanica quantistica per
determinare la struttura delle
molecole e la natura dei
legami.
I suoi lavori sul legame
chimico, a partire dal 1931,
hanno risolto tutti gli enigmi
sulla formazione di molecole
contenenti atomi uguali.
Pauling spiegò anche l’affinità
chimica e compilò la più nota
scala di elettronegatività.
Valori di elettronegatività
degli atomi
Elettronegatività, legami
covalenti polarizzati e polarità
delle molecole
Alla
ricerca dei
solventi
verdi
Quando due atomi diversi sono
uniti da un legame covalente,
l’attrazione esercitata da ogni
atomo sugli elettroni di legame
può essere messa in relazione
con una proprietà detta elettronegatività. Questa proprietà misura
la capacità relativa dei vari atomi di attrarre elettroni. Molto adoperata è la scala delle elettronegatività di Pauling (vedi la tabella qui sopra) in cui l’elettronegatività
viene espressa numericamente. A valori
più elevati corrispondono atomi più elettronegativi. L’elettronegatività cresce a parità di periodo (riga) da sinistra a destra ed
a parità di gruppo (colonna) dal basso verso l’alto, per cui l’atomo più elettronegativo è il fluoro.
Ad esempio, in una molecola di HCl, l’atomo di cloro, più elettronegativo rispetto all’idrogeno, esercita un’attrazione maggiore sugli elettroni di legame, per cui il baricentro delle cariche positive e quello delle
cariche negative non coincidono: quest’ultimo è più spostato verso l’atomo di cloro.
Questa distribuzione non simmetrica delle
cariche, dà luogo ad un legame covalente
polarizzato in cui gli elettroni sono spostati verso l’atomo più elettronegativo.
La presenza di un tale legame è la condizione necessaria, ma non sufficiente, per
avere una molecola polare, in cui i baricentri separati delle cariche positive e negative costituiscono un dipolo. Il dipolo
(vettore), generato grazie alla presenza di
un elemento fortemente elettronegativo,
può essere rappresentato formalizzando sul
cloro una parziale carica negativa e sull’idrogeno una parziale carica positiva, indicate con questi simboli:
δ+ δH-Cl
Il dipolo può essere quantificato dal valore del momento dipolare, che, in una molecola formata da
più di due atomi, si calcola facendo la
somma vettoriale dei valori di momento dipolare relativi a tutti i legami presenti.
In una molecola biatomica il momento dipolare (µ) dipende dalla differenza (∆) di
elettronegatività degli atomi ed aumenta
H-F
µ = 1,82 ∆ Elettronegatività = 1,9
H - Cl
µ = 1,03 ∆ Elettronegatività = 0,9
H - Br
µ = 0,82 ∆ Elettronegatività = 0,7
H-I
µ = 0,44 ∆ Elettronegatività = 0,4
quando questa differenza diventa più grande:
Questa polarizzazione può essere evidenziata anche utilizzando le mappe di potenziale
elettrostatico, che mostrano, tramite l’uso di
colori, la densità di carica associata con una
Potenziali elettrostatici
di alcune molecole biatomiche
Rosso
< Arancio < Giallo < Verde <
Potenziale
elettrostatico
più negativo
LiH
H2
Blu
Potenziale
elettrostatico
più positivo
HF
39
LE NUOVE FRONTIERE DELLA CHIMICA
Quando i solventi... risolvono
I diluenti nei colori dell’arte: un
talento anche la chimica giusta
Una
restauratrice
provvede
ai ritocchi ad
un’immagine
sacra che il
tempo ha
danneggiato.
Ha a
disposizione
uno scaffale
di pigmenti,
lacche,
solventi e
prodotti
naturali atti
a garantire
all’opera la
restituzione
alla
freschezza
delle origini.
Momenti dipolari (µ): effetti della polarizzazione
dei legami e della forma delle molecole
Molecole
apolari
Molecole
polari
µ=0D
CO2
Elettronegatività
C = 2,5 O = 3,5
µ=0D
CF4
Elettronegatività
C = 2,5 F = 4,0
O=C=O
H20
µ = 1,85 D Elettronegatività
H = 2,1 O = 3,5
NH3
µ = 1,47 D Elettronegatività
H = 2,1 N = 3,O
Le forze
intramolecolar
i possono essere
suddivise in
ioniche,
covalenti e
legami
metallici,
sebbene non ci
sia una netta
suddivisone tra
queste
descrizioni.
superficie molecolare.
Quando il legame covalente unisce due atomi uguali, come ad esempio in H2 o Cl2, i
centri delle cariche positive e negative sono
coincidenti, in un punto equidistante dai due
nuclei, e conseguentemente questi legami
non presentano polarità.
Quindi sono apolari le molecole in cui gli
atomi non presentano una significativa differenza di elettronegatività, oppure quelle
simmetriche (per esempio CO2, CF4) in cui
dipoli uguali si annullano a vicenda. In queste molecole il momento dipolare è nullo.
Quindi la polarità di una molecola richiede
sia la presenza di un legame covalente polarizzato sia una forma non simmetrica
della molecola.
Chiudiamo questa prima parte introduttiva
sulle forze intramolecolari presentando
nella tabella sotto un quadro più completo
di tali forze e delle loro energie, ribadendo
che qui ci occuperemo solo di quelle covalenti.
Le Forze intramolecolari sono quindi caratterizzate da energie relativamente elevate.
Formare o rompere questi legami richiede
pertanto molta energia, come vedremo nelle
Le forze intramolecolari
Forza
Pittori al lavoro ai
quattro angoli del
mondo. Usano colori
ad olio, acrilici,
tempere e smalti,
vernici a base di
nitrocellulosa o altri
prodotti. A ciascuno
il diluente adeguato.
40
Modello Attrazione
Energia
Esempio
Ionica
Catione – anione 400-4000 NaCl
kJ/mol
Covalente
150-1100 H-H
Nuclei che
condividono una kJ/mol
coppia di e-
Legame
metallico
Elettroni
delocalizzati
75-1000
kJ/mol
Fe
interazioni
intermolecolari:
Le
attrazione
e repulsione
Alla
ricerca dei
solventi
verdi
Le molecole interagiscono con
altre molecole tramite forze attrattive intermolecolari. Una semplice dimostrazione dell’esistenza di
tali forze si può avere confrontando
l’acqua allo stato solido (ghiaccio), liquido e gassoso. Se non esistessero tali interazioni l’acqua dovrebbe esistere come gas.
Le interazioni fra le molecole di acqua (interazioni intermolecolari) sono responsabili dell’esistenza dell’acqua liquida o solida.
Formare o rompere questi legami richiede,
come vedremo nei cambiamenti di stato fisico (solido – liquido – gas ) o nei processi
di solubilizzazione, energie molto più basse.
Nella tabella qui sotto sono presentate le varie possibili interazioni intermolecolari, con
i valori energetici relativi. In questo articolo
affronteremo solo quelle che avvengono fra
specie non cariche (dipolo – dipolo, dipolo
– dipolo indotto e le forze di dispersione di
London cioè dipolo istantaneo – dipolo indotto). Va anche tenuto presente che le molecole polari interagiscono fra di loro con
tutte e tre le possibili interazioni.
Interazioni dipolo – dipolo: i dipoli si allineano completamente o parzialmente nel
campo elettrico generato del dipolo adiacente, tale orientazione è contrastata dall’energia termica del sistema. Si ricorda che
solo allo zero assoluto (0 K), circa – 273°C,
le molecole sono immobili come pure gli
atomi all’interno delle molecole. Ad esempio a temperatura ambiente (circa 300 K)
nei liquidi e nei gas le molecole si muovono ed anche gli atomi dei vari legami oscillano spostandosi dalla distanza ottimale,
corrispondente al minimo energetico della
Distanza di Legame.
Interazioni dipolo – dipolo indotto: gli
elettroni di una molecola sono mobili per
cui quando una molecola si avvicina a un
dipolo, parzialmente carico, questi si muoveranno in risposta al campo elettrico prodotto dal dipolo, avvicinandosi alle parziali
cariche positive ed allontanandosi da quelle
negative. Questa libertà di movimento posseduta dagli elettroni di una molecola viene
chiamata polarizzabilità.
Gli atomi piccoli, che possiedono pochi
elettroni in prossimità dei protoni nucleari,
sono molto poco polarizzabili. Al contrario
gli atomi caratterizzati da un elevato numero atomico, avendo molti elettroni collocati
in zone lontane dal nucleo, sono molto più
facilmente polarizzabili. Su una molecola
che contiene atomi facilmente polarizzabili
sarà possibile la formazione di un dipolo indotto. La polarizzabilità delle molecole è
maggiore quando il loro indice di rifrazione
è più elevato (vedi i valori di elettronegatività degli atomi).
Forze di dipersione di London: possono
essere interpretate come dovute all’attrazione tra dipoli istantanei che si generano in
molecole apolari. Tali dipoli si formano ad
esempio per perdita di simmetria della mo-
Tipi di interazioni intermolecolari
Nei liquidi le interazioni dipolo–dipolo possono essere sia attrattive che repulsive (↔)
Interazione
intermolecolare
Energia Esempi
(KJ/mol)
….
Ione – dipolo
ione – carica del dipolo
40 – 600
Na
O
Dipolo – dipolo
Cariche dei dipoli
5 – 25
I – Cl I – Cl
Ione – dipolo indotto
Ione – nube e- polarizzabile 3 – 15
e polarizzabile
Fe2+ O2
Dipolo – dipolo indotto
carica del dipolo - nube
e- polarizzabile
2 – 10
H – Cl Cl – Cl
Dispersione (London)
nubi e- polarizzabili
0,05 – 40
F–F F–F
H
H
….
….
….
….
41
LE NUOVE FRONTIERE DELLA CHIMICA
Interazioni dipolo-dipolo nei vari stati fisici
della materia.
Stati fisici della
materia:
Solido
Gas-Liquidi-Solidi
Gli stati fisici della materia
Liquido
Gas
lecola come conseguenza dei moti molecolari. Ad esempio nel CCl4, che è una molecola priva di momento dipolare perché simmetrica, i moti molecolari possono allungare uno dei quattro legami C-Cl creando così
un dipolo istantaneo. Tale dipolo polarizzerà a sua volta un’altra molecola di CCl4,
molecola facilmente polarizzabile per la
presenza degli atomi di cloro in cui gli elettroni sono sufficientemente diffusi.
Legame ad idrogeno: questa particolare
interazione intermolecolare presenta energie relativamente elevate (ad esempio 20 –
40 kJ/mole) e si verifica fra atomi di idrogeno legati ad atomi ad elevata elettronegatività (F, O, N) ed elettroni presenti su altri
atomi di F, O, N.
Molecole che danno interazioni
intermolecolari via legame ad idrogeno
Liquido
Liquido
Nei gas le forze attrattive intermolecolari sono praticamente
nulle e le molecole sono libere di
muoversi con una velocità che aumenta all’aumentare della temperatura
(energia cinetica).
Nei liquidi esistono consistenti interazioni intermolecolari fra le molecole, che
le costringono a tenersi in stretto contatto
con le altre molecole anche se mantengono una certa libertà di movimento.
Nei solidi queste forze sono talmente elevate da bloccare ogni movimento, come
mostra la figura qui sopra.
Cambiamenti di stato. Nello schema qui
sotto sono stati riassunti i possibili passaggi
di stato: con le frecce blu sono stati indicati i
processi in cui viene ceduta energia, mentre
in rosso quelli in cui bisogna fornire energia
perché avvengano. Ad esempio, il calore di
evaporazione è una misura delle energie delle forze intermolecolari presenti fra le molecole del liquido e che vanno vinte per farlo
passare allo stato gassoso. Ne consegue che
Variazioni energetiche
nei passaggi di stato
H-F
42
H2O
NH3
Solido
Alla
ricerca dei
solventi
verdi
una misura delle energie associata alle forze intermolecolari
si può ottenere dai punti di
ebollizione delle varie sostanze.
Nella figura a lato sono riportate una serie di molecole apolari sia monoatomiche come i
gas nobili Elio, Neon, Argon,
Kripto e Xeno, sia biatomiche
come gli alogeni Fluoro, Cloro, Bromo e Iodio, con i loro
relativi punti di ebollizione. I punti di ebollizione crescono enormemente con l’aumentare della grandezza dell’atomo (peso atomico) o della molecola (peso molecolare PM
ottenuto dalla somma dei pesi atomici).
Questa proporzionalità può essere messa in
stretta correlazione con un aumento della
polarizzabilità dell’atomo più grande e conseguentemente delle forze di dispersione di
London.
Un aumento del punto di ebollizione con il
peso molecolare si osserva anche con gli alcani, molecole che contengono solo atomi di
carbonio e di idrogeno (tabella in basso). In
questo caso le molecole apolari aumentano
il numero di interazioni dipolo istantaneo –
dipolo indotto all’aumentare della lunghezza della catena, e conseguentemente anche
le relative energie.
Quando i solventi... risolvono
Diluire per vaporizzare le vernici
che si applicano in aerosol
La verniciatura
a spruzzo
è applicata
particolarmente
nelle piccole
produzioni con
pistole manuali
o impianti
altamente
automatizzati,
nel caso delle
grandi finiture
nelle catene di
montaggio.
La vernice è diluita
in percentuali
rilevanti per offrire
scarsa resistenza
alla vaporizzazione.
Vanno prese tutte le
misure necessarie ad
evitare l’inalazione
del composto.
Anche le frazioni petrolifere, costituite prevalentemente da idrocarburi apolari ed ottenute
dalla distillazione del petrolio, hanno temperature di ebollizione che aumentano all’aumentare del peso molecolare e quindi del numero
di atomi di carbonio contenuti nelle molecole
Punti di ebollizione, numero degli atomi
di carbonio e pesi molecolari (PM) del metano
e di alcuni alcani a catena lineare
Peso
molecolare
Punto di
ebollizione
Metano
CH4
12+4x1=16
-164,0
°C
Propano
C3H8
44
-42,1
°C
n - Butano
C4H10
58
0,5
°C
n - Esano
C6H14
86
68,9
°C
n - Decano
C10H14
134
174,1
°C
n - Eicosano C20H42
282
343
°C
L’applicazione è
ottenuta
mescolando aria
compressa alla
miscela di resine pigmento.
L’ alta diluizione
rende spesso
necessarie più
applicazioni del
prodotto.
43
LE NUOVE FRONTIERE DELLA CHIMICA
Alla
ricerca dei
solventi
verdi
presenti nelle varie frazioni illustrate nella tabella qui sotto. Quando la molecola non è più
apolare, oltre alle forze di dispersione di London intervengono anche gli altri tipi di interazioni intermolecolari.
Frazioni petrolifere
Frazione
N° atomi di C
delle molecole
Temperatura di Usi
ebollizione °C
Gassosa
1-4
< 40
Nafta
5 - 10
25 - 175
Cherosene
Gasolio leggero
Gasolio pesante
10 - 16
14 - 50
20 - 70
150 - 260
235 - 360
330 - 380
Olio lubrificante
> 60
340 - 575
Olio combustibile > 70
> 490
Bitume
> 580
> 80
Combustibile
Bombole di gas liquido
Benzina per auto
Prodotti chimici
Combustibile per aerei
Gasolio per auto
Sorgente di prodotti per
il “cracking”
Prodotti lubrificanti
Prodotti per il “cracking”
Combustibile per impianti
termoelettrici e navi
Superfici stradali, tetti
Riportiamo (tabella in basso) tre molecole
che hanno peso molecolare simile ma presentano diversi tipi di interazione intermolecolari. All’aumentare di queste interazioni aumenta anche il punto di ebollizione.
Equilibri liquido-gas: tensione di vapore.
Nei liquidi le molecole hanno una energia cinetica determinata dalla temperatura in cui
questi si trovano. Le molecole hanno energie
Correlazione ra le forze attrattive intermolecolari
e la temperatura di ebollizione
Temperatura Tipologia delle forze
di ebollizione attrattive intermolecolari *
Molecola
Formula
Propano
Etere dimetilico
Alcol etilico
CH3CH2CH3 -42°C
CH3OCH3
-25°C
CH3CH2OH +78°C
Tipo 1
Tipo 1+2
Tipo 1+2+3
*Dove le Forze attrattive intermolecolari vengono scomposte in: Tipo 1 = Dipolo istantaneo (dissimetrizzazione da moti molecolari) - dipolo indotto (polarizzabilità) [Forze di dispersione di London]; Tipo 2 = Dipolo - dipolo o dipolo-dipolo indotto; Tipo 3 = Legame ad idrogeno
44
differenti con una distribuzione statistica
delle energie e quindi alcune di esse hanno
una energia sufficiente per vincere le interazioni intermolecolari e passare in fase gas.
Tale equilibrio è dinamico e quindi molecole
di gas, perdendo parte della propria energia,
possono tornare nella fase liquida.
Equilibri
liquido–gas
La tensione di vapore di un liquido ad una
certa temperatura misura la pressione esercitata dal vapore ed è un indice del numero di
molecole presenti allo stato di vapore ed aumenta all’aumentare della temperatura e
al diminuire della energia delle interazioni intermolecolari.
Dipendenza della tensione
di vapore dalla temperatura
(Temperatura di
ebollizione =
P.E.;
Tensione di
vapore;
Calore di
evaporazione =
∆ Hvap).
Parametri relativi
al passaggio di stato liquido–gas
Sostanza
Butano
Etere dietilico
Metanolo
Etanolo
Acqua
Decano
Densità di gas
= K(PM) [K=costante a T, p=costanti]
P. E. Tensione ∆ Hvap
(ºC) di vapore (kJ/mol)
25ºC
(mm Hg)
-1
35
65
78
100
174
1780
480
120
60
20
0,80
22
27
38
43
44
51
Quando, con l’aumentare della temperatura, la tensione di vapore del liquido raggiunge 760 mm Hg (pressione atmosferica) abbiamo raggiunto la Tebollizione e tutte
le molecole di liquido passano allo stato di
vapore portando all’ebollizione del liquido
stesso.
Un altro parametro importante che determina la diffusione di un gas o di un vapore
nell’ambiente è la sua densità relativa rispetto all’aria.
La composizione dell’aria è circa la seguente:
78% azoto
(PM = 28),
21% ossigeno (PM = 32),
e 1% argon
(PM = 40).
Il peso molecolare (PM) di questa miscela
gassosa si ottiene dalla media pesata dei
pesi molecolari.
Peso molecolare medio dell’aria =
0,78 x 28 + 0,21 x 32 + 0,01 x 40 = ca. 29
Applicando l’equazione di stato dei gas
pv = (g/PM)RT, dove p, v, T, g e PM sono
rispettivamente la pressione, il volume, la
temperatura, i grammi ed il peso molecolare del gas, si ricava che la densità di un gas
d = g/v = (p/RT)PM dipende dalla pressione, temperatura e dal peso molecolare del
gas stesso.
Operando quindi a temperatura e pressioni
costanti la densità diviene direttamente dipendente dal peso molecolare del gas.
Il peso molecolare delle sostanze organiche
è generalmente >> 29; per cui la densità dei
gas o vapori da sostanze organiche >> densità aria. Questi stratificano quindi verso il
basso (si diffondono lentamente nell’atmosfera).
Densità relativa
di alcuni gas
Etere dietilico
C2H5O C2H5 PM = 74
Butano
Metano
Idrogeno
C4H10
CH4
H2
PM = 58
PM = 16
PM = 2
Vapore
molto pesante
Gas pesante
Gas leggero
Gas molto
leggero
La densità relativa di questi gas determina
la loro diffusione nell’aria e quindi anche
la posizione di eventuali sensori specifici
istallati in una logica protettiva.
Così, ad esempio, un rivelatore per gas di
città (CH4) dovrà essere collocato a soffitto mentre quello per i gas in bombole (miscela di propano e butano) va collocato in
basso.
Altri esempi di importanza della densità
dei gas nel determinare eventuali rischi
viene dalla CO2 che si libera nella fermentazione alcolica (produzione di vini).
Questo gas ha un peso molecolare uguale a
44 e quindi essendo più pesante dell’aria
stratifica verso il basso del tino spostando
l’aria ivi presente.
Se una persona, al termine del processo
fermentativo, entra in un tino non opportunamente ventilato si trova a contatto con un
gas non tossico ma soffocante. Infatti la diminuzione di ossigeno presente nel tino
può portare a rischi anche mortali.
Nella stessa logica la liberazione di una
enorme quantità di CO2 dal lago vulcanico
Nyos nel Camerun il 21 agosto 1986 ha
portato alle morte per soffocamento di circa 1800 persone. (Wikipedia)
45
LE NUOVE FRONTIERE DELLA CHIMICA
Soluzioni,
i due casi
se mescoliamo
Alla
ricerca dei
solventi
verdi
solido e liquido
La solubilizzazione del cloruro di sodio
(sale da cucina)
Na+ Cl- Na+ ClCl- Na+ Cl- Na+
Na+ Cl- Na+ ClCl- Na+ Cl- Na+
Na+ Cl- Na+ ClCl- Na+ Cl- Na+
Soluto
Solvente (H2O)
Soluzione
Nella figura qui sopra è schematizzato il processo di solubilizzazione del sale da cucina
(soluto solido) in acqua (solvente liquido).
Anche la miscibilità dei liquidi in generale e
dei solventi in particolare può fornire utili indicazioni sui parametri che guidano il processo di solubilizzazione (figura in basso).
L’acqua, molecola polare in grado di formare legami ad idrogeno, scioglie l’acetone che
è anch’esso polare ed avente la capacità di
accettare legami ad idrogeno. Questi due solventi sono quindi completamente miscibili
tra loro.
Al contrario l’acqua non scioglie, ad esempio, l’esano o il diclorometano che sono molecole non polari e questa immiscibilità dà
origine alla formazione di due fasi liquide di
cui quella con densità più bassa formerà lo
strato superiore della miscela eterogenea.
Mentre l’esano è meno denso dell’acqua il
diclorometano è più denso e quindi costituirà
la fase inferiore del sistema bifasico.
Se mescoliamo due sostanze diverse, ad esempio un solido ed
un liquido, possiamo avere due
casi: formazione di una miscela eterogenea con presenza di regioni a differente composizione e con osservabili
separazioni dei componenti oppure formazione di una miscela omogenea con
composizione uniforme e costante e senza
osservabili separazioni dei componenti come ad esempio nelle soluzioni. Queste sono
in genere costituite da solidi o liquidi disciolti in un altro liquido ma altri tipi di soluzioni
sono possibili.
Soluzioni Gas-Liquido. Piccole quantità di
gas non polari possono essere disciolte in acqua tramite interazioni attrattive dipolo – dipolo indotto. Così a 25°C ed 1 atmosfera 3,2
mL di O2 si sciolgono in 100mL di acqua e
questa solubilità è essenziale per la vita negli
ambienti acquatici.
Tipi diversi
di soluzioni
+
Una dimostrazione della solubilità:
la miscibilità di due liquidi
Gas in gas
Gas in liquido
Gas in solido
Liquido in liquido
Liquido in solido
Solido in liquido
Solido in solido
Esempio
Aria (O2, N2, Ar, e altri gas)
Acqua gassata (CO2 in acqua)
H2 in palladio
Gasolio (miscela di idrocarburi)
Pasta per otturazione dentale
(Mercurio in argento)
Acqua di mare
(NaCl e altri sali in acqua)
Leghe metalliche
Soluti e solventi. Soluto è la sostanza che
vogliamo sciogliere. Solvente è la sostanza
(normalmente un liquido che è la componente principale della miscela) che scioglie il soluto.
H2O+CH2Cl2
H2O+CH3COCH3
Nella pagina accanto viene presentata in
maniera schematica la miscibilità di vari
liquidi. A sinistra ci sono i solventi polari
capaci di dare legami ad idrogeno come
l’acqua, l’etandiolo o glicol etilenico,
l’etanolo e l’acido acetico.
La polarità diminuisce con il 2-butanone,
l’etil acetato e l’etere etilico ed infine con il
toluene, il tetraclorometano e l’esano si
“Alla ricerca dei solventi verdi” prosegue nel prossimo numer
46
La miscibilità
dei solventi
Quando i solventi... risolvono
Impasti di pigmenti e resine
che si applicano soltanto diluiti
Linea continua fra due solventi
Linea tratteggiata
Linea puntiforme
Assenza di linea
= completa miscibilità
= parziale miscibilità
= miscibilità molto bassa
= immiscibile
hanno i solventi apolari. Come si vede dalla
figura, le linee continue, specialmente con i
solventi capaci di dare legami ad idrogeno,
sono presenti solo con i solventi contigui. La
regola generale che quindi si può ricavare da
questi dati, ma anche da quelli riportati in
precedenza per la solubilità, è che “le
sostanze simili sciolgono sostanze simili”.
Le regole generali
di solubilità
Nelle immagini esempi
di giganteschi lavori di
verniciatura ed altri di
dimensioni più modeste
e a portata di tutti.
Basilare è comunque
la figura al centro,
il tecnico addetto alla
preparazione corregge
la “viscosità” dei
prodotti, così come
escono dalle aziende,
per adattare la densità
della vernice
alla superficie.
Le soluzioni si formano
quando sono simili questi tre tipi di forze
Il diluente è da
mescolare con
particolare accortezza
per agevolare l’uso
degli attrezzi.
Se facciamo un bilancio delle forze intermolecolari che entrano in gioco nella solubilizzazione di un soluto, dobbiamo da un lato considerare l’energia spesa per separare sia
le molecole di soluto sia di solvente e quindi, perché il processo avvenga, dovremmo ottenere almeno una pari quantità di energia dalle interazioni fra le molecole di soluto e
di solvente.
Andrea Pochini
Dipartimento di Chimica organica e industriale dell'Università di Parma
(1 - continua)
ro con la seconda parte dedicata ai rischi e alla legislazione...
47
ALTRE FONTI DI
INFORMAZIONE:
WWW.ANSA.IT;
LA REPUBBLICA,
CORRIERE
DELLA SERA
Futuro
notizie
dal mondo
&
futuribile
)
di Antonella Americo
In collaborazione con la Rete Informativa Scienza e Tecnologia (RISeT) del Ministero degli Affari Esteri
SVEZIA
Energia alternativa
svedese in Tanzania
La Tanzania sarà la prima nazione africana ad utilizzare fonti di energia
alternative, il bioetanolo, grazie ad un accordo economico tra il governo
tanzaniano e l’azienda svedese SEKAB AB.
Si tratta di un progetto che ha l’obiettivo di ridurre l’importazione di carburante e di favorire la produzione autonoma di energia da bioetanolo,
che sarà ottenuto per fermentazione dello zucchero di canna. L’azienda
inizierà la sua attività a partire dal mese di settembre a Bagamoyo, sulla
costa africana, e creerà opportunità di lavoro per la popolazione locale,
per almeno 300.000 nuovi impiegati.
Partecipa al progetto anche l’azienda svedese Scania, che produrrà veicoli a bioetanolo nell’impianto di Kibaha. La Camera di commercio svedese ha promesso di investire in Tanzania anche in altri settori, come per
esempio il gas, l’agricoltura e le nuove tecnologie dell’informazione.
(Monica Pavese)
SITO INTERNET www.ippmedia.com
Il nuovo materiale deriva da
Materiale
fibre della specie vegetale
eco-compatibile “Kapok” originaria delle Filippine, Indonesia e Myanper
mar, che hanno particolari
l’assorbimento proprietà assorbenti per olii
minerali e che possono essedi olio
re riutilizzate fino a sette
combustibile
volte.
Una quantità pari ad 1 kg
disperso
della nuova sostanza può in-
.
Un gruppo di ricercatori del
KAERI (Korea Atomic Energy
Research Institute), coordinato
dal dr. Chung Byung-yeoup, ha
messo a punto un nuovo
prodotto solido, eco-compatibile,
in grado di assorbire dispersioni
di olio combustibile in
ambiente marino.
SITO INTERNET
48
fatti assorbire selettivamente
fino a 40-60 kg di olio minerale (ma anche toluene, benzene e olio alimentare), senza assorbire acqua. Il potere
assorbente del materiale sviluppato risulta pari a 6 volte
www.kaeri.re.kr
Sunred:
lo “scooter
armadillo”
ad energia
solare
La ricerca di fonti propulsive
alternative al petrolio è da
tempo attiva anche nel settore
delle due ruote. I veicoli elettrici
sono ormai diventati una
realtà; attualmente sono allo
studio modelli che impiegano
sistemi di alimentazione
composti da celle a combustibile
e idrogeno.
SITO INTERNET
quello dei “tessuti non-tessuti” attualmente utilizzati.
Per le condizioni suddette,
dalle operazioni di “strizzamento” del materiale si può
ottenere olio puro al 99%.
Il problema dell’inquinamento marino di incidenti
nel trasporto di olio combustibile è di particolare gravità: nel periodo 1980-2000
si sono registrati almeno 590
casi incidentali tra i quali alcuni di eccezionale gravità
come quello della petroliera
Exxon Valdez nel 1989 che
provocò il rilascio in mare di
36.000 tonnellate di petrolio.
L’albero di
Kapok con i
frutti che
penzolano dai
rami e da cui
si ricava la
fibra; A destra
un cuscino di
fiocchi di
Kapok.
Il nuovo materiale può essere confezionato in forma sferica a diametri diversi e direttamente lanciato con
mezzi aerei sull’area inquinata. Un brevetto internazionale è stato depositato dal
KAERI ed una produzione
commerciale è in corso di
valutazione, anche in relazione ad eventuali esigenze
della Guardia costiera coreana per fronteggiare possibili
emergenze perché la Corea è
il terzo importatore mondiale di olio combustibile.
(Antonino Tata)
Test
Quanta anidride carbonica (CO ) produci nella tua casa? Ma come, non lo sai?
2
“Sunred”
funziona
richiudendosi
dopo aver
accumulato
energia con la
sua “corazza”
fotovoltaica.
Un’ulteriore conferma della
ricerca verso soluzioni di
mobilità a basso impatto ambientale e allo stesso tempo
capaci di sfuggire al traffico
caotico, arriva dallo “scooterarmadillo” della Sunred, una
società spagnola che si occupa di progettazione e sviluppo di prototipi di veicoli
sportivi e si basa sull'utilizzo
dell’energia solare.
La “Moto Solar Urbana” è
stata presentata in occasione
della 34a edizione del Salone
Internazionale dell’Auto di
Barcellona ed ha ricevuto il
premio come migliore inno-
Il gas serra che maggiormente contribuisce al riscaldamento globale è proprio la CO2.
Il test che troverai al link
SITO INTERNET
permette di calcolare le emissioni di CO2 della tua casa, inserendo parametri che riguardano il tipo di edificio in cui vivi, le lampadine che usi, i posti letto che hai e altro ancora. Il sito
è tutto in inglese e la domanda più difficile alla quale dovrai rispondere è il CAP della tua
zona. Ovviamente quello italiano non vale: inserisci un numero a caso, tipo Nw10.
Buon divertimento!
vazione tecnologica.
Ciò che incuriosisce immediatamente in questo prototipo è il design del tutto originale: la copertura di cui è
dotato, perfettamente visibile in tutta la sua estensione
quando il mezzo non è in
corsa, è interamente costituita da piccole cellette fotovoltaiche disposte su placche che nell’insieme ricorda
molto la corazza dell'armadillo, simpatico mammifero
molto diffuso in Patagonia.
La particolarità di questa
“corazza” che riveste il veicolo è quella di essere com-
(http://sun-red.com/Explotacion/inicioExplotacion.htm)
Finanziato
il primo
progetto
israeliano
di ricerca per
la sicurezza
delle risorse
idriche
da terrorismo
biologico
e chimico
L' Istituto Technion di Haifa
ha ricevuto un cospicuo
finanziamento da parte della
NATO per un progetto di
ricerca interdisciplinare sulla
protezione e messa in sicurezza
delle risorse idriche da possibili
attacchi terroristici di tipo
chimico o biologico.
http://actongo2.direct.gov.uk/index.html
Il progetto (il primo di questo tipo in Israele, che si
completerà alla fine del
2008) integra modelli matematici per il posizionamento delle stazioni di monitoraggio ed innovazioni tecnologiche per l’identificazione e la neutralizzazione
di contaminanti chimici o
biologici. Data l’importanza
dell’iniziativa, la Israel Water Commission ha ulteriormente finanziato le ricerche.
Gli studiosi del Technion
impegnati nelle ricerche
fanno capo alla facoltà di
Chimica, dove si sviluppano
strumenti capaci di rivelare
la presenza di veleni chimici altamente diluiti in acqua
e neutralizzarli, e alla facoltà di Biotecnology Food
Engineering, dove la ricerca
è incentrata sulla rilevazione rapida di elementi patogeni in acque, utilizzando
tecniche di sequenziamento
del DNA.
(Stefano Boccaletti)
posta da cellule ad alta capacità di assorbimento dell'energia solare e di essere retrattile, ovvero quando il
veicolo è a riposo questa
specie di guscio ricopre praticamente tutto lo scooter, in
modo da avere la massima
superficie disponibile e immagazzinare così il massimo quantitativo di energia
solare, e scompare nuovamente quando lo si riutilizza.
La superficie di esposizione
complessiva delle placche
solari retrattili è di 3,1 m2 ,
tale da garantire un’autono-
mia di 20 km e una velocità
massima di 50 km/h. Anche
il sistema di gestione dell’energia risulta particolarmente innovativo e il display
LCD montato a bordo a comando tattile fornisce in
tempo reale al conducente
informazioni dettagliate sulle prestazioni del mezzo.
Certo le prestazioni a prima
vista non sono esaltanti ma
in realtà è un passo avanti se
si pensa che non è necessario caricare batterie, inserire
spine e quant’altro: la Moto
Solar Urbana ha bisogno soltanto di un po’ di tintarella.
STATI UNITI
New York si rinfresca con il ghiaccio
In tema di lotta al caldo è questa l’ultima novità che arriva
dall’America: in alcuni grattacieli di New York, come la
Metropolitan Life Tower in Manhattan (storica sede del Credito Svizzero), si sta sperimentando un sistema di raffreddamento basato sull’aria fredda rilasciata da acqua ghiacciata
durante la notte.
Sostanzialmente, l’acqua, stivata in enormi cisterne metalliche, viene portata sotto zero durante la notte, quando la temperatura è naturalmente più bassa e la richiesta di energia
della città è minore. Durante il giorno i blocchi di ghiaccio si
sciolgono lentamente e rinfrescano l’aria circostante. Per
distribuire l’aria fresca in tutti gli uffici viene sfruttato il normale sistema di condizionamento, collegato alle cisterne di
ghiaccio.
Questa metodologia, se diventerà popolare, permetterà di
ridurre notevolmente lo sforzo della rete elettrica della Grande Mela, che nei mesi estivi consuma più energia dell’intera
nazione del Cile.
Inoltre, la nuova soluzione, assicurano gli ingegneri che
l’hanno messa a punto, consentirà, in un anno, un beneficio
sull’ambiente pari a 223 automobili in meno in circolazione.
A New York sia il Credito Svizzero che la Morgan Stanley
hanno ricevuto incentivi dalla Autorità per lo Sviluppo e la
Ricerca dell’Energia per installare gli impianti di refrigerazione a ghiaccio, nell’ambito di un programma che punta a
implementare la rete elettrica newyorchese e a sostenere le
imprese a ridurre i propri costi di mantenimento degli uffici.
Il problema, al momento, è rendere “economicamente sostenibile” il nuovo sistema di raffreddamento, che dato l’elevatissimo costo dell’impianto e della gestione, è sfruttabile solo
dalle grandi compagnie.
49
FONTI:
BUR, PORTALE
DELLA RICERCA
ITALIANA,
ERMES AMBIENTE,
ANSA,
AMBIENTENERGIA
notizie
dall’Italia
&
invenzioni
Progetti
)
di Chiara Palmieri
Un progetto
italiano
per il Golfo
Persico
Il programma Gemm (Gulf
Environmental Monitoring
and Management) è stato
lanciato dal Comitato Ev-K2
- CNR insieme ad un gruppo
di aziende italiane e prevede
la creazione di un polo di
ricerca ambientale e
tecnologica in Medio Oriente
per studiare il territorio
del Golfo Persico,
il mare, l'aria e il clima.
Più nel dettaglio, il programma si propone di promuovere lo sviluppo sostenibile, di
combattere la desertificazione, la contaminazione delle
acque e di risolvere il problema dello smaltimento
dei rifiuti e dei trasporti inquinanti. L’area del Golfo
Persico ha criticità ambientali enormi estese a tutti i
settori, senza dimenticare
anche il forte inquinamento
dell’aria dovuto alle raffinerie
e i terreni inquinati dai prodotti petroliferi da bonificare.
È questa un’area in pieno sviluppo che mira a realizzare
sia la sostenibilità ambientale
che quella economica.
L’iniziativa italiana non
tratta solo di scienza, ma si
allarga alla formazione, alla
tecnologia e all’impresa e
da questo è nata “Gemm
Trust”, un’associazione di
aziende italiane operanti in
diversi settori. Per creare un
legame tra le due anime del
progetto Gemm, il Comita-
BOLZANO
50
to sta lavorando alla promozione di un Parco tecnologico ambientale che renderà
più veloce e facile il dialogo
tra la ricerca scientifica e le
TERNI
sue applicazioni nell’industria, con ricadute importanti sull’innovazione tecnologica e sostenibile a livello
internazionale.
PADOVA
Il più grande impianto
fotovoltaico a film sottile
A Terni il Sole dà
elettricità a 450 famiglie
Nasce il climatizzatore
ecologico
È stata completata l’installazione di
uno dei più grandi impianti fotovoltaico a film sottile in Italia. L’impianto,
posizionato sul tetto della Cooperativa
frutticola Kurmar-Unifrut di Magré in
provincia di Bolzano, con una potenza
nominale di 700 kWp, ha un’estensione di oltre 8 mila metri quadrati. Fornirà una quantità di energia sufficiente
a soddisfare il fabbisogno annuale di
corrente di 240 famiglie composte da
quattro persone, in tal modo ridurrà
l’emissione di gas nocivi di circa 400
tonnellate di CO2 all’anno. Questa tecnologia è formata da una pellicola trasparente a base di tellururo di cadmio
(un sale di tellurio, formula TeCd), racchiusa fra due lastre di vetro, che cattura i raggi del sole producendo elettricità; inoltre, garantisce buone performance pur in presenza di tempo nuvoloso.
L’impianto fotovoltaico, realizzato
dalla società Terni energia, ha una
potenza di 875 kWp ed è in grado di
produrre elettricità sufficiente a soddisfare il fabbisogno medio annuo di
450 famiglie, sfruttando l’energia del
Sole. Si tratta del secondo impianto
d'Italia per quantità di energia prodotta.
È costato quattro milioni e mezzo di
euro ed è formato da 208 stringhe che
coprono una superficie di 16 mila
metri quadrati. Per la sua realizzazione sono stati utilizzati 4.160 moduli
fotovoltaici ed i lavori sono durati
circa 2 mesi.
L’impianto contribuirà a produrre
energia pulita e rinnovabile per una
durata di esercizio di almeno 30 anni
e porterà alla diminuzione di emissione di anidride carbonica in atmosfera
di circa 800 tonnellate annue.
Padova vedrà presto la nascita del
primo climatizzatore funzionante
per il 98% con energia prodotta
da pannelli solari, realizzato dalla
Schuco international Italia.
Il nuovo dispositivo permetterà di
ottenere il massimo raffreddamento dell’aria proprio nei
momenti di maggiore insolazione, con un consumo di appena il
2% dell'energia elettrica oggi
assorbita da un condizionatore di
pari capacità.
Attualmente le prospettive di produzione riguardano applicazioni
in uffici, scuole ed edifici pubblici, ma entro quattro anni saranno
disponibili i primi modelli per la
refrigerazione degli ambienti
domestici.
Rivelato
il puzzle
chimico
del dipinto
di Antonello
da Messina
Il Laboratorio di tecniche
nucleari per i beni culturali
(Labec) di Firenze
dell'Istituto nazionale di
Fisica Nucleare (INFN) ha
identificato con una tecnica
d’avanguardia la natura e la
distribuzione dei diversi
pigmenti del “Ritratto di
ignoto” conservato al Museo
Civico di Torino e dipinto da
Antonello da Messina nel
1476, rivelandone la tecnica
pittorica utilizzata.
La struttura del quadro, uno
dei più famosi del pittore, si
è rivelata molto più complessa di quanto si pensasse.
L’autore ha lavorato dettagliatamente per ottenere i
fantastici effetti di ombreggiatura sulle pieghe del
mantello rosso dell’enigmatico gentiluomo.
I ricercatori del Laboratorio
di tecniche nucleari per i beni culturali (Labec) di Firenze dell’Istituto nazionale di
Fisica Nucleare (INFN)
hanno esaminato l’opera
d’arte senza alterarla minimamente né hanno prelevato campioni, grazie ad una
tecnica basata sull’uso di un
acceleratore di particelle,
chiamata "Particle Induced
X-ray Emission" (PIXE).
Nella PIXE un microfascio
di ioni di bassissima intensità (millesimi di miliardesimo di ampere) viene inviato sul materiale da indagare che risponde emettendo raggi X. La rivelazione
delle energie dei raggi X
emessi permette di capire la
composizione nella zona
colpita dal fascio. Nel caso
specifico, si sono potuti addirittura svelare i diversi
materiali che compongono i
singoli strati delle varie stesure pittoriche sovrapposte.
Al quadro è stata inoltre applicata una variante di questa tecnica che permette di
ricostruire anche la distribuzione dei diversi pigmenti
della pittura sulla superficie,
con un dettaglio fino al centesimo di millimetro. L’opera ha rivelato una particolare complessità nella realizzazione del mantello rosso.
Grazie alla rivelazione della
distribuzione in superficie e
sui diversi strati di elementi
come mercurio, zolfo, alluminio, potassio, si è scoperto che è stato realizzato attraverso un complesso gioco di sovrapposizioni di
pigmenti e lacche. Un altro
dettaglio rivelato dalla indagine è relativo al piccolissimo fermaglio che chiude il
colletto del mantello: Antonello da Messina lo ha aggiunto dopo aver completato la pittura del vestito.
Errare humanum est...
Gli errori di Green
Green n. 1 Novembre 2006
Su segnalazione del nostro attento lettore che si firma col solo
nome, Paolo, nell’e-mail inviata alla nostra redazione il 27 marzo
2007, segnaliamo che a pag. 27 parlando delle centrali eoliche d’Italia è riportato «La più potente è quella di Varese Ligure, un
impianto eolico che genera una potenza di 4 GW, pari a quella di
una centrale nucleare moderna a 3 reattori».
La potenza della centrale di Varese Ligure (nella foto qui sotto) è
pari a 3,2 MW (megawatt), risulta quindi inesatta la comparazione con l’impianto nucleare che è decisamente di potenza maggiore, essendo quest’ultima dell’ordine dei gigawatt.
Un altro lettore sottolinea che lo stesso intenderebbe erroneamente comunicare al pubblico che alcune fonti rinnovabili di energia
possono attualmente sostituire i combustibili fossili o il nucleare.
La filosofia dell’articolo, come del resto risultava evidente, era
diversa: volevamo presentare alcune delle più interessanti e promettenti fonti energetiche alternative che potessero già oggi, in
base alle diverse possibilità tecnico/economiche di utilizzo reale,
contribuire ad alleviare la dipendenza dai combustibili fossili per
la produzione di energia e l’autotrazione. Tutto ciò in attesa di un
futuro in cui nuove tecnologie e/o fonti energetiche potranno permettere l’indipendenza dai combustibili fossili.
Green n. 2 – Dicembre 2006
In fondo alla prima colonna del riquadro a pag. 33 la formula della
forza peso scritta nel seguente modo:
è ovviamente
errata.
La forma esatta è:
Green n. 5 – Aprile 2007
A pag. 24 le dimensioni della costante di Planck sono errate, non
è
h = 6,63 x 10-34 J s-1,
ma
h = 6,63 x 10-34 J s.
Anche di questo ci scusiamo con i nostri lettori.
51
“Non credo agli effetti nocivi del progresso scientifico
che a volte vengono annunciati,
nonostante si viva attualmente un’epoca
che non ha confronti nella storia per l’importanza
e il numero di scoperte scientifiche concentrate
in un periodo estremamente breve”.
Giulio Natta (Imperia 1903-Bergamo 1979)
Premio Nobel per la Chimica 1963
Edward Hopper (Nyack, 22 luglio 1882 - New York City, 15 maggio 1967) - Mattino a Cape Cod
52