Energie su misura - Consorzio Interuniversitario Nazionale "La
Transcript
Energie su misura - Consorzio Interuniversitario Nazionale "La
Intervista a Sir Harold Kroto, premio Nobel per la Chimica 1996 La Scienza al servizio dell’Uomo e dell’Ambiente 8 Settembre 2007 Alla ricerca Foto di Ornella Erminio dei solventi verdi Largamente impiegati per diluire o sciogliere altre sostanze, per esempio nel settore delle vernici, dei metalli o nella pulitura a secco, questi liquidi hanno spesso comportato rischi per la salute e per l’ambiente. PRIMA PUNTATA “ ” Radiografia di un territorio con l’aiuto dei licheni Con il web aiuto gli insegnanti a insegnare meglio le scienze Energie su misura Calcoliamo insieme quanta energia ci serve a livello globale nella vita di ogni giorno Una copia euro 3,00 - Periodico mensile d’informazione edito dal Consorzio Interuniversitario Nazionale “La Chimica per l’Ambiente“ (INCA) - Anno II, N. 8, Settembre 2007 Il giornale per gli studenti, degli studenti e dei professori Parola di Prof Scambio di idee con Piero Tundo Una “palestra” per la diffusione della cultura scientifica Cari ragazzi, cari professori, I nizia un nuovo anno scolastico e Green, dopo la positiva esperienza dei primi otto numeri, si accinge ad accompagnarvi per la seconda volta nel vostro lavoro di apprendimento e di insegnamento. Alcuni hanno già concluso il secondo ciclo di studi e si sono iscritti all’Università: ci auguriamo che qualcuno abbia scelto una facoltà scientifica, perché la società contemporanea ha sempre più bisogno di bravi chimici, fisici, matematici, biologi. Sarebbe per noi un risultato eccezionale ed incoraggiante se anche un solo studente, uno soltanto, avesse intrapreso il percorso scientifico perché stimolato dalle pagine della rivista. I l giornale per gli studenti, degli studenti e dei professori – così lo abbiamo definito nello “strillo” di copertina – intende proseguire con rinnovato impegno la sfida lanciata nel novembre 2006 con l’uscita del primo numero. All’insegna della Scienza al servizio dell’uomo e dell’ambiente, continueremo a dare corrette informazioni di fronte al dilagare della spettacolarizzazione mediatica; a far emergere con chiarezza la corrispondenza tra le scienze e le richieste della società sia in ambito sociale che economico ed etico; a diffondere una solida cultura scientifica, senza la quale oggi i cittadini non sono in grado di esercitare i loro diritti nelle scelte che sempre più sono chiamati a fare. Cercheremo cioè di sollecitare nei lettori la spontanea curiosità verso i problemi che la scienza pone; curiosità e interesse che dovrebbero essere l’unico valido motivo che porta a scegliere la ricerca o una qualsivoglia carriera scientifica per il proprio futuro lavoro. Infatti la vita pone problemi che si possono risolvere se li si affronta direttamente: questo impegno interiore produce risultati solo quando ciascuno di noi si sente personalmente coinvolto, cioè quando ha scelto liberamente il proprio futuro. L a rivista in particolare continuerà ad essere efficace strumento didattico per gli insegnanti e insieme occasione di approfondimento e di stimolo per gli studenti, non soltanto delle scuole secondarie di secondo grado, ma anche di quelle di primo grado. E questo grazie alla collaborazione di ricercatori, esperti e docenti universitari che in uno stile chiaro e al tempo stesso rigoroso illustreranno i risultati delle loro ricerche o forniranno, attraverso dossier tematici, approfondimenti su argomenti che direttamente ci toccano nella vita di ogni giorno: l’energia, l’ambiente, la salute. Proprio in quanto strumento didattico Green, edita – è utile ricordarlo – dal Consorzio interuniversitario nazionale “La chimica per l’ambiente” Inca che raccoglie 33 università italiane che credono nella green chemistry, intende affiancarsi ad alcune iniziative delle istituzioni, in particolare del Ministero della Pubblica Istruzione, quali per esempio il Progetto lauree scientifiche e soprattutto quello relativo alla realizzazione di laboratori di scienze nelle scuole. P roprio in questi giorni infatti prende l’avvio, per il Programma nazionale Scuole aperte, una iniziativa grazie alla quale circa mille istituti potranno dotarsi entro breve di laboratori scientifici per favorire l’apprendimento delle scienze “dal vivo”, attraverso l’esperienza diretta dei ragazzi chiamati ad essere parte attiva negli esperimenti. E’ questo un primo concreto risultato dell’azione svolta dal Gruppo di lavoro interministeriale per lo sviluppo della cultura scientifica e tecnologica coordinato dal professor Luigi Berlinguer. I n quanto strumento didattico la rivista si è inoltre fatta promotrice, in ambito universitario, di un master di primo livello sulla diffusione della cultura scientifica, che formerà nell’anno accademico 2007-2008 esperti ed operatori della comunicazione scientifica in grado di rispondere alle domande di una società che richiede di essere correttamente informata. Il master, istituito dall’Università Cà Foscari di Venezia, prenderà il via il 5 novembre prossimo e le lezioni si terranno di venerdì e sabato, in modo da favorire la frequenza da parte di chi è impegnato in attività di lavoro o di ricerca. Ci auguriamo che tra gli iscritti ci siano anche insegnanti desiderosi di acquisire nuove competenze in un settore fondamentale della società della conoscenza. Nelle pagine seguenti troverete tutte le informazioni necessarie e le istruzioni per l’iscrizione (scadenza preiscrizioni 24 ottobre, iscrizioni 2 novembre 2007). M a Green vuole essere sempre di più anche strumento di incontro e di confronto tra studenti e ricercatori, tra scuola e università. Nei mesi scorsi sono arrivate in redazione centinaia di lettere ed e-mail: dal mondo istituzionale e scientifico (e qui voglio ringraziare in modo particolare, tra i tanti, il Capo dello Stato e il Presidente del Consiglio) e dalle scuole. Ci hanno scritto davvero in molti, insegnanti e ragazzi. Proprio dal mondo della scuola, dell’università e della ricerca ci attendiamo ora interventi che aprano un dibattito sui tanti aspetti che riguardano le scienze oggi: la didattica, l’etica, il lavoro degli studiosi, i risultati della ricerca scientifica, le applicazioni dei risultati, l’informazione. Nel pieno rispetto delle opinioni di ciascuno pubblicheremo testimonianze, esperienze, suggerimenti. Scriveteci. Scrivete a: [email protected] 2 Ritorno al futuro sommario Green La Scienza al servizio dell’Uomo e dell’Ambiente 8 Settembre 2007 Periodico mensile d’informazione del Consorzio Interuniversitario Nazionale La Chimica per l’Ambiente (INCA) Direttore Piero Tundo Comitato scientifico Angelo Albini, Università di Pavia Sergio Auricchio, Politecnico di Milano Attilio Citterio, Politecnico di Milano Lucio Previtera, Università di Napoli Federico II Direttore responsabile Gino Banterla Coordinatore di redazione Fulvio Zecchini Una pietra preziosa si mimetizza in una pannocchia di granoturco. La foto di Ornella Erminio è come un simbolo per una chimica verde soprattutto in agricoltura. I nostri campi sono preziosi, la nostra salute di più. Comitato redazionale Antonella Americo Chiara Palmieri Elisabetta Tolomeo Progetto grafico e impaginazione Graficatorri - Franco Malaguti Sommario L’intervista Dalle scuole Il Nobel Harold Kroto: “Con il web aiuto gli insegnanti a insegnare meglio le scienze” Radiografia di un territorio con l’aiuto dei licheni pag. 6 pag. 10 DOSSIER Energie su misura. Calcoliamo insieme quanta energia ci serve a livello globale nella vita di ogni giorno. E quanta ne servirà in futuro pag. 16 Nuove frontiere Alla ricerca dei solventi verdi pag. 36 Futuro & Futuribile Notizie dal mondo pag. 48 Progetti & Invenzioni Notizie dall’Italia pag. 50 Direzione e redazione: Viale Luigi Pasteur, 33 - 00144 Roma, tel. 06 54 22 07 10, tel./fax 06 59 26 10 3 e-mail: [email protected] Sito Internet: www.green.incaweb.org Amministrazione: Consorzio Interuniversitario Nazionale “La Chimica per l’Ambiente” (INCA) Via delle Industrie, 21/8 - 30175 Marghera (VE) Registrazione al Tribunale di Venezia n. 20 del 15 luglio 2006 Stampa: Grafiche Seregni, Paderno Dugnano (Milano) La rivista mette a disposizione di istituzioni, università, enti, imprese del settore i suoi spazi per inserzioni che intendano promuovere iniziative per gli studenti e per gli insegnanti e diffondere messaggi istituzionali e comunicazioni aziendali. Per informazioni rivolgersi al Consorzio Interuniversitario Nazionale “La Chimica per l’Ambiente” INCA, proprietario ed editore della rivista: Via delle Industrie 21/8 30175 Marghera (VE) telefono 041 23 46 611 fax 041 23 46 602 e-mail:[email protected] © Consorzio INCA, 2007. Tutti i diritti sono riservati. La presente pubblicazione, tutta o in parte, non può essere riprodotta o trasmessa in nessuna forma e con nessun mezzo, elettronico, meccanico, fotocopia, registrazione o altro, senza l’autorizzazione scritta dell’editore. 3 Luigi Berlinguer: la terza missione Master in diffusione della cultura scientifica “Il master in diffusione della cultura scientifica di Cà Foscari è un esempio concreto di come si stia affermando la terza missione dell’Università: accanto alla ricerca e all’insegnamento, far conoscere i risultati della ricerca ai cittadini”. Così Luigi Berlinguer, presidente del Gruppo di lavoro interministeriale per lo sviluppo della cultura scientifica e tecnologica, ha presentato il 17 luglio a Venezia il nuovo master di primo livello, nato su iniziativa del Consorzio Interuniversitario Nazionale “La Chimica per l’Ambiente” INCA in partnership con VEGA, Parco Scientifico e Tecnologico di Venezia. La presentazione si è svolta nella splendida cornice dell’aula Scarpa dell’Università Cà Foscari, affacciata sul Canal Grande. Sono intervenuti il rettore dell’ateneo Pier Francesco Ghetti; Piero Tundo, presidente INCA e responsabile della organizzazione didattica e scientifica del master; Gianpietro Marchiori, amministratore delegato di VEGA, e Carmela Palumbo, direttore generale dell’Ufficio scolastico regionale per il Veneto. Nelle foto, il tavolo dei relatori e un momento della visita di Berlinguer ai laboratori INCA di Marghera. La Scienza al servizio dell’ Uomo e dell’ Obiettivo del master Prende il via nell’anno accademico 2007/2008 all’Università degli Studi di Venezia “Ca’ Foscari” il master di primo livello in “Diffusione della cultura scientifica. La scienza al servizio dell’uomo e dell’ambiente”. Si tratta di una iniziativa innovativa nel panorama dei master universitari italiani, che si caratterizza per il peculiare percorso formativo. Di fronte alla complessità del vivere quotidiano e alle emergenze sociali di un mondo globalizzato, la moderna società della conoscenza, impone una nuova strategia nelle proposte didattiche del settore dell’informazione scientifica. Oggi più che mai sono necessari operatori della comunicazione, qualificati e responsabili, in possesso di una formazione multi e interdisciplinare che risponda anche ad irrinunciabili principi etici, permettendo così di fornire un’informazione nuova e corretta, interessante di per sé, senza bisogno della spettacolarizzazione della notizia e del sensazionalismo che talvolta troviamo nel sistema media4 tico odierno. Il master dell’Università Cà Foscari intende pertanto preparare esperti e operatori della comunicazione scientifica, intesa come trasferimento della conoscenza in maniera rigorosa e comprensibile, capaci di favorire la comprensione degli aspetti scientifici che stanno alla base dei fenomeni, contribuendo in tal modo alla crescita culturale e tecnologica di una società che sempre di più necessita di essere correttamente informata in settori fondamentali della vita di ogni giorno quali l’energia, l’ambiente, la salute, l’inquinamento atmosferico, i cambiamenti climatici. Il master forma figure professionali flessibili che rispondono alle varie esigenze di comunicazione scientifica di aziende, musei, testate giornalistiche, uffici stampa e uffici relazioni con il pubblico (Urp), enti pubblici, enti locali, parchi scientifici e naturalistici. Al termine del corso l’allievo sarà in grado di redigere testi scritti secondo le regole della chiarezza e del rigore scientifico, produrre comunicazioni multimediali ed elaborare progettazioni info-grafiche. Soggetti di diversa estrazione culturale e scientifica potranno acquisire, attraverso lezioni, seminari, laboratori, preparazione on line, tirocini in sistemi editoriali e una serie di stage in aziende, l’esperienza necessaria per porsi nel nuovo mercato della Università Cà Foscari di Venezia dell’Università Insegnamenti e stage Area insegnamenti fondamentali 1. Diritto dell’informazione in Italia e nell’Unione Europea 2. Etica della comunicazione e dell’informazione 3. Teorie e tecniche della comunicazione 4. Percorsi dei nuovi media e della comunicazione multimediale 5. Trasferimento delle conoscenze e diffusione della cultura scientifica 6. Sociologia dei processi comunicativi e formazione delle opinioni pubbliche Area insegnamenti caratterizzanti 1. Evoluzione della Chimica 2. Le nuove frontiere della Fisica 3. Biologia ed Ecologia nella vita quotidiana 4. Scienze delle trasformazioni della Terra 5. Storia della Scienza e della Tecnica 6. Percorsi storici del giornalismo e della comunicazione Area insegnamenti professionalizzanti 1. Analisi delle fonti di informazione 2. La comunicazione istituzionale 3. Marketing e comunicazione aziendale 4. I modelli di scrittura 5. Strutture tecniche e strutture espressive 6. L’infografica: fusione tra parola e figura Oltre alle sopraelencate lezioni frontali e/o on-line (200 ore), caratterizzano il master un laboratorio di scrittura articolato in 200 ore e stage in aziende operanti nel settore scientifico, tecnologico o editoriale (200 ore). Le lezioni frontali si terranno di venerdì e sabato presso il complesso VEGA (Marghera, Venezia) e avranno inizio il 5 novembre 2007. Informazioni didattiche e organizzative Consorzio Interuniversitario Nazionale “La Chimica per l’Ambiente” INCA Via delle Industrie 21/8 Marghera Venezia signora Katiuscia Grandi tel. 041 2346611 fax 041 2346602 e-mail: [email protected] Centro Interateneo di Eccellenza per la Ricerca Didattica e la Formazione Avanzata – laboratorio Univirtual, E-Learning Technologies, Via delle Industrie 17/A Marghera Venezia dott. ssa Roberta D’Argenio tel. 041 5094384 – fax 041 5094410 e-mail: [email protected] Università Informazioni amministrative Cà Foscari Sezione Formazione Postlauream di Venezia e Permanente Università Cà Foscari, Dorsoduro 3249 - Venezia tel. 041 2347575 fax. 041 2347547 e-mail: [email protected] Ambiente mediazione culturale-scientifica. Il master nasce dalla consolidata esperienza del Consorzio Interuniversitario Nazionale “La Chimica per l’Ambiente” (INCA; www.incaweb.org), che raggruppa 34 atenei italiani, e ha come testata-laboratorio la rivista “Green. La scienza al servizio dell’uomo e dell’ambiente” edita dallo stesso Consorzio e diffusa gratuitamente in tutte le scuole secondarie di secondo grado d’Italia (www.green.incaweb.org). Partner nella realizzazione del master è il Parco Scientifico e Tecnologico Vega di Venezia (www.vegapark.ve.it). Tenendo conto anche delle specifiche esigenze della piccola e media impresa, il master tenterà un originale approccio di studio e conoscenza specifica unendo le conoscenze delle discipline scientifiche universitarie con le competenze proprie dell’imprenditoria. Parte integrante e fondamentale del percorso formativo, che prevede lezioni teoriche frontali e pratica di laboratorio, saranno le esperienze di stage in aziende, enti pubblici e privati, uffici stampa, giornali. Infatti uno degli obiettivi principali del master è far sì che al termine del corso si ottengano figure professionali in grado di produrre comunicazione multimediale ed elaborare progetti di divulgazione scientifica ed aziendale specifica. A chi è rivolto Sono ammessi al master allievi in possesso di una laurea in qualsiasi disciplina conseguita ai sensi del D.M. 509/99 o secondo l’ordinamento precedente. Sono ammessi anche i giornalisti professionisti e pubblicisti in possesso di diploma di scuola secondaria superiore, iscritti all’Ordine dei giornalisti da almeno cinque anni. Al fine di permettere ai vari partecipanti di partire da basi il più possibile paritarie, saranno effettuati corsi propedeutici integrativi differenziati a seconda dell’estrazione scientifica o umanistica degli allievi. Durata e frequenza Durata: 12 mesi Inizio: 5 novembre 2007 Modalità didattiche: blended (frontale e on line) Il master riconosce 60 crediti formativi universitari; rilascia un diploma che ha valore legale, e assicura uno stage finale in preparazione della tesi di diploma. Costo Il costo del master è di euro 2.000 in due rate. Sono previste 5 borse di studio che copriranno il 100% del costo d’iscrizione. Per ogni altra informazione o per consultare il piano didattico si rimanda al sito http://www.cenec.org/ita/master2007/dcs/presenta.htm 5 Intervista a Sir Harold Kroto, premio Nobel per la Chimica 1996 “Con il web a insegnare di Fabio Aricò Il professor Harold Kroto, nominato “Sir” nel 1996, ha ricevuto nello stesso anno il Nobel per la Chimica insieme ai professori Curl e Smalley grazie alla scoperta dei fullereni, avvenuta studiando le catene carboniche nello spazio interstellare. I fullereni o buckyballs, così chiamati in onore di Richard Buckminster Fuller (un famoso poeta, inventore e architetto americano) sono nanostrutture costituite interamente da atomi di carbonio che possono disporsi nello spazio a formare diverse geometrie: sferiche, come vediamo qui sopra a sinistra, ellissoidali (a destra) o cilindriche (in bas- so). I fullereni hanno, a livello molecolare, una struttura simile alla grafite, che è costituita da esagoni organizzati in lamine composti da atomi di carbonio uniti tra di loro. Nella struttura dei fullereni invece gli atomi di carbonio possono formare anche delle geometrie pentagonali (o a volte eptagonali) che sfavoriscono la formazione di lamine a favore di strutture cilindriche o sferiche. In particolare, i fullereni cilindrici, chiamati nanotubi, sono fonte di grande interesse e vengono considerati, per le loro straordinarie proprietà, uno dei materiali del futuro. Il prof Kroto è stato inoltre il co-fondatore, nel 1995, del Vega Science Trust, nato con l’intento di promuovere lezioni e film di scienze di facile comprensione per il pubblico. Il website relativo a questo progetto è Dalle nanotecnologie e dalla scoperta dei “fullereni” ai programmi televisi 6 aiuto gli insegnanti meglio le scienze” accessibile da più di 165 paesi ed è totalmente disegnato da Kroto che ha una vera passione per l’arte grafica, anche se il suo maggiore interesse restano comunque le nanotecnologie. A dimostrazione del suo contributo in questo settore, l’Università di Sheffield (dove Kroto si è laureato nel 1961), ha fondato nel 2005 il Kroto Research Campus che comprende il Kroto Research Institute, il Nanoscience ed il Technology Centre. Kroto ha tenuto recentemente una conferenza a Venezia sull’importanza della diffusione della cultura scientifica. Alla fine della conferenza ha rilasciato questa intervista a “Green”. ntri o c n gli ii green d Professore Kroto, lei è uno dei pionieri delle nanotecnologie: come pensa che esse siano cambiate negli ultimi dieci anni? Quale sarà il futuro delle nanotecnologie e in particolare della scienza dei materiali? “Le nanotecnologie non sono una scienza nuova, ma piuttosto un ramo della chimica vecchio di 200 anni, o meglio, il cui inizio si perde all’alba dell’Universo temperato. Recentemente è accaduto che le aree scientifiche più importanti del XXI secolo, come la fisica, la biologia e l’ingegneria, hanno cominciato a gravitare intorno all’universo della chimica. Fondamentalmente le nanotecnologie sono basate sull’assemblaggio di strutture complesse partendo da elementi vi di divulgazione scientifica per la Bbc. E ora su Internet www.geoSet.info 7 Intervista a Sir Harold Kroto, premio Nobel maths). Questo progetto è una via di mezzo tra You Tube e Wikipedia e spero che le università vorranno dare la loro collaborazione. Lo scopo di Geo è molto flessibile, ma il fine ultimo è aiutare gli insegnanti ad insegnare meglio”. molto più piccoli; dopo tutto gli uomini stessi sono fatti in questo modo. Per cui le nanotecnologie sono vecchie quanto la vita stessa. Esse hanno aperto la possibilità a nuovi sviluppi in medicina (nuovi nano-sistemi che possono cercare, riconoscere e distruggere parti malate del corpo umano); in elettronica (supercomputer grandi come un orologio da polso ed elettronica stampabile) e in ingegneria civile (materiali più leggeri di un sesto e insieme più forti 100 volte rispetto al ferro)”. Lei è molto attivo nella divulgazione della scienza, specialmente tramite il progetto Vega Science Trust che ha portato alla produzione di più di 80 programmi televisivi, molti dei quali andati in onda sulla Bbc. Come le è venuta questa idea? “L’idea del Vega è nata con il progetto di registrare un ciclo di lezioni di scienze per la Bbc. Abbiamo così creato diversi filoni: dai programmi orientativi per la carriera ai laboratori per bambini. Fino ad oggi abbiamo realizzato più di 110 programmi, 55 dei quali sono stati mandati in onda dalla Bbc. Nel frattempo l’avvento di Internet ha rivoluzionato l’idea della messa in onda e adesso sono concentrato su questo metodo di diffusione del materiale educativo scientifico. Inoltre ultimamente sto lavorando a un progetto molto stimolante chiamato Global Education Outreach (Geo) che è incluso nel mio nuovo sito www.geoSET.info (Set Science Engineering and Technology incl 8 Gli studenti continuano ad essere poco interessati alla scienza e in particolare alla chimica. Perché? “Ci sono molte ragioni, che sintetizzo schematicamente per punti. Anzitutto: studiare le scienze è più difficile che non sfilare in passerella o agire come uno sciocco in un reality show. I ragazzi che vivono nel mondo tecnologicamente sviluppato pensano che la celebrità sia la cosa più importante a cui aspirare: i punti di riferimento sono le supermodelle, le rockstar, le trasmissioni televisive di successo... Ma questo è totalmente irragionevole, i giovani devono capire che solo uno su mille può fare della fama una carriera, nella maggior parte saranno destinati a una vita di fallimenti. In secondo luogo, la tecnologia moderna è complessa, imperscrutabile, non riparabile e progettata per essere buttata via in quanto obsoleta prima ancora di essere venduta: accade così per i telefoni cellulari, per le macchine fotografiche digitali, per i computer. Come si può avere rispetto per le cose che si possono buttare via quando smettono di “I ragazzi che vivono nel mondo tecnologicamente ri sviluppato pensano ontn che la celebrità sia la cosa c n i gli i gree più importante a cui aspirare” d funzionare? Come possono i giovani essere affascinati da un tipo di tecnologia che non stuzzica la loro curiosità anche se ne sono interessati? Io da ragazzo ero in grado di aggiustare quasi ogni cosa avessi comprato ed è così che ho imparato come funzionava il mondo intorno a me. Ho costruito la mia prima radio e ho aggiustato quella della mia famiglia svitandone il retro e cambiando i fusibili che non funzionavano più. Sapevo saldare resistenze. Scattavo foto con la mia macchina, preparavo in bagno le soluzioni per lo sviluppo dei negativi e di notte stampavo le foto. Ho così sviluppato le mie capacità analitiche per risolvere problemi e ho imparato come funzionavano le cose tramite un lavoro investigativo sugli oggetti che smettevano di funzionare. per la Chimica 1996 Il sito web di sir Harold Kroto, innovativo strumento di didattica per gli insegnanti. E ancora: una volta non avevamo l’automobile, il telefono, il frigorifero, la televisione, il forno elettrico o il riscaldamento centralizzato. C’era un bagno esterno e d’inverno accendevamo il fuoco ogni giorno con il carbone. Oggi i bambini vengono accompagnati a scuola in macchina invece di camminare, hanno una seconda televisione nella loro stanza da letto, hanno immediatamente la terza o quarta macchina di famiglia senza doversela sudare e passano gran parte del loro tempo con il telefono cellulare, sono assuefatti ad Internet… Dobbiamo ancora vedere che impatto avrà tutto questo sulla società. Terzo punto: gli scienziati più preparati fanno scienza o sono impegnati in lavori ben remunerati che richiedono forti capacità analitiche e matematiche. Gli insegnanti, al contrario, non sono equamente remunerati, e d’altra parte pochissimi scienziati hanno un lavoro come insegnante, e se lo hanno non insegnano ai bambini sotto i dieci anni, l’età in cui l’abilità scientifica deve essere nutrita e sostenuta. Dopo i dieci anni comincia ad essere troppo tardi. Inoltre i bambini si trovano di fronte ad insegnanti preparatissimi in materie umanistiche, non in quelle scientifiche. Un laureato appassionato di storia e che vuole continuare a lavorare nel settore ha come unica soluzione l’insegnamento e probabilmente la scrittura come sbocco secondario. Ultimo punto: sono stati istituiti numerosi corsi di studio, per esempio scienze della comunicazione o psicologia, stimolanti ma “leggeri”, e i giovani vi si iscrivono in massa. A volte essi sono dieci volte più numerosi del necessario”. Uno dei programmi messi in onda dal Vega Science s’intitola “The next big thing” (La prossima grande idea). In questa trasmissione gli scienziati sono invitati a parlare di diversi argomenti quali le nanotecnologie, la valutazione del rischio ambientale, l’intelligenza artificiale. Un episodio in particolare trattava dell’energia sostenibile. Quale pensa sia “la prossima grande idea” per quel che riguarda la chimica sostenibile? “Io sospetto che, se non impareremo a operare la fotolisi dell’acqua in idrogeno e ossigeno, la nostra vita, così saldamente basata sulle tecnologie e così dipendente dal vorace consumo energetico derivante principalmente dai carburanti fossili, sarà destinata alla fine. Non so valutare se sarà in cinque, 50 o 500 anni ma non possiamo continuare in questa direzione. In un anno consumiamo una quantità di carburanti fossili che ha richiesto milioni di anni per formarsi. L’energia nucleare sarà probabilmente una tecnologia temporanea e ci aiuterà a guadagnare tempo, forse anche l’energia eolica o simili energie potrebbero aiutare, ma alla fine l’unica soluzione plausibile sarebbe – paradossalmente – che diminuisse la popolazione mondiale di un fattore di dieci…”. “Sicuramente l’etica, ntri come l’umanità, è un concetto o c n gli ii green creato dall’uomo ed è la nostra d più grande creazione” Pensa che i valori etici debbano essere considerati dalla scienza? “Sicuramente l’etica, come l’umanità, è un concetto creato dall’uomo ed è la nostra più grande creazione. Dio non ne è stato il creatore, ma l’abbiamo creata noi. Fino a quando non riconosceremo questa idea di fondo saremo portati a prendere sempre decisioni irrazionali e stupide. L’umanità (etica secolare) deve essere studiata se vogliamo essere sicuri che le scienze siano usate a beneficio dell’uomo. Purtroppo i più estremisti, ma anche alcuni non estremisti esponenti del dogma sia religioso che politico, hanno sempre messo il potere davanti al benessere delle persone e utilizzato la tecnologia a questo scopo. La tecnologia, oggi, è così potente che potrebbe distruggere l’intera razza umana. Cerchiamo di essere ottimisti… speriamo che il riscaldamento globale della terra ci finisca prima!”. Intervista di Fabio Aricò 9 DALLE SCUOLE /Una ricerca sull’inquinamento atmos e Ecco i risultati del biomonitoraggio della qualità dell’aria effettuato dagli studenti del Liceo della comunicazione opzione ambientale dell’Istituto Maria Immacolata di Gorgonzola (Milano) Le classi 4 del liceo della comunicazione opzione ambientale dell’Istituto M. Immacolata, in collaborazione con l’amministrazione comunale di Gorgonzola (Mi) e la Società Ecosfera, effettuano da cinque anni il monitoraggio della qualità dell’aria attraverso l’osservazione dei licheni epifiti, utilizzati come bioindicatori. Il modulo si inserisce in un progetto più ampio denominato IQA (IMI Qualità Ambiente) che prevede l’approfondimento delle tematiche ambientali svolte in classe e applicate direttamente sul campo per rendere gli studenti consapevoli anche delle condizioni ambientali del proprio territorio. Il progetto pluriennale IQA vuole affrontare il problema dell’inquinamento atmosferico e acquatico utilizzando diversi metodi di ricerca, che permettano allo studente di apprendere metodologie di indagine ambientale con le quali effettuare una stima oggettiva dello stato ecologico del territorio. In particolare, la valutazione della qualità dell’aria è oggigiorno di primaria importanza, dal momento che l’inquinamento atmosferico è uno dei principali problemi ambientali di rilevanza mondiale. Il modulo prevede inizialmente uno studio della planimetria del territorio comunale di Gorgonzola, individuando le stazioni di rilevamento. La scelta delle stazioni non è casuale, poiché si considerano zone diversamente esposte agli effetti negativi dell’inquinamento causato dal traffico o da antiparassitari e fertilizzanti che influiscono sulla quantità e la biodiversità delle specie licheniche. Le uscite sul territorio vengono precedute, poi, da un laboratorio per il riconoscimento dei caratteri morfologici dei licheni e per le tecniche utilizzate per distinguere le differenti specie, nonché per l’introduzione al metodo per il calcolo dell’indice di biodiversità lichenica (IBL) che fornisce un’indicazione quantitativa relativa alla qualità dell’aria. In seguito, si procede alla classificazione dei licheni sul campo in diverse stazioni di rilevamento, riportando i risultati su apposite schede. Infine, si passa alla fase di analisi e rielaborazione, durante la quale sono costruite tabelle in cui vengono inseriti i dati finali. Si passa quindi all’elaborazione dei risultati, calcolando per ciascuna stazione l’indice IBL. Storia del biomonitoraggio: uno studio che viene dal freddo Le prime osservazioni sul deperimento dei licheni in aree soggette a inquinamento atmosferico risalgono alla metà del secolo scorso (Nylander, 1867). Verso la fine degli anni ’20, studi condotti nel Nord Europa evidenziarono la graduale scomparsa di licheni epifiti nel centro di molte città (Sernander, 1926). Agli inizi degli anni ’70, vennero trovate correlazioni tra le concentrazioni di SO2 e la presenza di determinate specie licheniche (Hawksworth & Rose). Importanti passi avanti nello sviluppo di una metodica riproducibile sono stati avviati a partire dalla fine degli anni '80, quando un'equipe di lichenologi svizzeri mise a punto un metodo che permetteva di associare la biodiversità dei licheni epifiti alla qualità dell'aria con una predittività molto elevata. Il metodo permetteva di ottenere un indice di purezza atmosferica e pertanto era denominato metodo I.A.P. (Index of Atmospheric Purity). All’inizio degli anni ’90, Nimis testò l’applicabilità del metodo I.A.P. in Italia, conducendo alcuni studi di applicazione a La Spezia, Schio, Savona e apportando alcune modifiche metodologiche. La principale variazione rispetto al metodo svizzero consiste nell’utilizzo di un reticolo a maglie di dimensioni fisse (50x30 cm; 10 maglie), mentre precedentemente le dimensioni del reticolo variavano con il diametro del tronco. Il metodo così modificato si basa su una misura dell’indice di biodiversità lichenica su substrati arborei (Biodiversità Lichenica, BL), definita come la somma delle frequenze delle specie presenti entro un reticolo a dieci maglie di area costante (Nimis, 1999). L’IBL misurato è in funzione della concentrazione delle principali sostanze inquinanti presenti in atmosfera: la predittività, misurata sperimentalmente in diversi lavori (Nimis et al., 1990), è circa del 98%. Radiografia di un territor Morfologia e caratteristiche dei licheni, una simbiosi tra fungo e alga di M. Crispiatico, A. Ricco, L. Ronciglia 10 I licheni sono organismi eterospecifici, costituiti dall’aggregazione di un fungo e di un’alga. L’alga, fotobionte, e il fungo, micobionte, sono in simbiosi mutualistica. Questa relazione realizza un reciproco vantaggio tra i due organismi: l’alga fornisce al fungo il glucosio dalla fotosintesi, il fungo procura all’alga sostanze minerali e soprattutto acqua per il processo fotosintetico. I licheni sono gli esseri viventi che hanno la più ampia distribuzione geografica, sopportano le condizioni di vita più difficili e possono resistere a lunghi periodi di siccità. La temperatura che permette lo svolgimento ottimale della fotosintesi si aggira intorno a + ferico (con bioindicatori) in provincia di Milano Licheni crostosi: formano patine aderenti al substrato. Licheni fogliosi: hanno un aspetto fogliaceo e sono formati da lamine con sviluppo parallelo al substrato; il bordo può essere inciso. Licheni fruticosi: hanno struttura tridimensionale, crescono come cespugli perché si staccano dal substrato e si sviluppano verso l’alto con un tallo più o meno ramificato. io con l’aiuto dei licheni 10°C, ma questi organismi possono vivere in condizioni tra i –20°C e i + 70°C. Per questa loro caratteristica, i licheni sono in grado di colonizzare gli ambienti più diversi, ad ogni latitudine e altitudine della superficie terrestre, anche quelli caratterizzati da condizioni estreme, dove da soli fungo e alga non potrebbero sopravvivere. Alcuni di essi sono chiamati organismi pionieri, perché sono stati i primi a “colonizzare” determinati ambienti. Generalmente i licheni necessitano di molta luce: è per questo che sono rari nei substrati delle foreste fitte, mentre sono presenti sui rami più alti delle piante. Si possono riscontrare anche su pietre, scorze degli alberi, vecchie vetrate e fili arrugginiti. Alcune specie crescono di 1 mm all’anno, altre, invece, possono arrivare ad aumentare di 1 cm all’anno: questa frequenza è in relazione con la combinazione di alcune sostanze inquinanti (anidride solforosa, ossidi di azoto, cloro, piombo, rame e cadmio). In vita latente, questi organismi possono resistere anche per mesi interi, sfruttando la poca acqua per la fotosintesi che permetterà loro di sopravvivere per tutta la giornata. Il corpo vegetativo del lichene è il tallo, costituito da ife intrecciate tra di loro, dove si trovano le cellule algali. 11 DALLE SCUOLE /Una ricerca sull’inquinamento atmosf Inquinamento atmosferico, danni e pericoli L’inquinamento atmosferico può essere definito come “l’emissione nell’atmosfera di sostanze che possono avere un’azione nociva per ecosistemi terrestri ed acquatici, la salute umana, i beni materiali e le opere d’arte”. Tra gli inquinanti più diffusi e pericolosi troviamo: Monossido di carbonio L’apporto di CO nell’atmosfera è connesso a vari processi di combustione: una delle principali sorgenti sono i motori a scoppio, ma può essere liberato anche da alcune industrie, come le acciaierie, e dalle centrali termoelettriche. Gli effetti indotti sulla vegetazione sono trascurabili, mentre sull’uomo appaiono particolarmente gravi perché influiscono sul trasporto dell’ossigeno ai tessuti. Ossidi di azoto Il problema dell’inquinamento da NOx generato dalle attività umane è prevalentemente legato alla loro distribuzione: le sorgenti naturali li rilasciano uniformemente nell’atmosfera, mentre le sorgenti alimentate dall’uomo provocano concentrazioni in aree ristrette. I NOx sono prodotti dagli autoveicoli, dalle industrie e dal riscaldamento domestico. Gli effetti tossici riguardano soprattutto l’apparato respiratorio. Per il metodo biologico si possono I rilevatori di inquinamento: vantaggi del biomonitoraggio Fotografia del professore Franco Maria Boschetto. BIOACCUMULATORI: organismi resistenti all’inquinamento, i quali assorbono alcune sostanze che possono essere analizzate. I licheni epifiti sono in grado di bioaccumulare elementi in traccia, soprattutto metalli pesanti diffusi in atmosfera sotto forma di particolato. Per questo motivo sono ampiamente utilizzati per il biomonitoraggio dei patterns di deposizione atmosferica di metalli in traccia. Le caratteristiche che rendono i licheni degli ottimi bioaccumulatori sono: - la capacità di accumulare metalli pesanti; - la dipendenza del loro metabolismo dagli scambi gassosi con l’atmosfera; - l’impossibilità di eliminare le parti danneggiate del tallo. Quest’ultima caratteristica fa sì che il tallo mantenga informazioni relative a periodi di tempo piuttosto lunghi, con la possibilità di indagare esposizioni agli inquinanti di tipo cronico. Per rilevare l’inquinamento atmosferico possono essere utilizzati due metodi METODO CHIMICO STRUMENTALE: attraverso centraline automatiche si misurano direttamente le sostanze nocive prelevando campioni d’aria dall’atmosfera METODO BIOLOGICO o BIOMONITORAGGIO: si basa sull’analisi di alterazioni ambientali mediante parametri biologici, procedendo nello studio e nell’interpretazione degli effetti prodotti dall’inquinamento sugli organismi. Un buon indicatore biologico deve: - essere ubiquitariamente presente, facilmente reperibile ed individuabile; - essere capace di reagire all’alterazione ambientale nel suo complesso; - avere un lungo ciclo vitale e resistenza agli stress ambientali naturali I vantaggi offerti dal biomonitoraggio • costi contenuti e tempi di ricerca brevi; • possibilità di realizzare reti di monitoraggio su vasta scala, basate su un’elevata densità di punti di campionamento; • ottimizzare il dislocamento delle centraline automatiche. 12 ferico (con bioindicatori) in provincia di Milano Ossidi di zolfo La natura produce circa i due terzi della quantità complessiva di ossidi di zolfo, principalmente tramite processi dovuti ad attività vulcaniche, mentre le sorgenti legate all’azione dell’uomo risultano concentrate in aree urbane ristrette dove si concentrano le attività industriali. Sono gas con un alto grado di tossicità per gli organismi viventi e responsabili di tumori nell’uomo. Particolati Si tratta di goccioline liquide e particelle solide volatili con dimensioni comprese tra 0,0002 e 500 µm. I particolati, oltre a essere prodotti da processi naturali come le eruzioni vulcaniche, possono avere origine da lavorazioni industriali (cantieri edili, fonderie, cementifici), da lavorazioni agricole, dall’usura dell’asfalto, dei pneumatici, dei freni, nonché dagli scarichi degli autoveicoli. Le particelle sospese posso- utilizzare due sistemi BIOINDICATORI: organismi sensibili, che subiscono danni facilmente osservabili, qualificabili, correlabili alle diverse intensità di inquinamento, in modo che, quando sia maggiore l’inquinamento ci sia un maggior danno. I licheni, data la loro stretta dipendenza dall’atmosfera, per l’apporto idrico, per la nutrizione minerale, per l’apporto di gas (CO2 per la fotosintesi algale), sono estremamente esposti e reattivi alla presenza di sostanze tossiche che alterino la composizione atmosferica. Le seguenti peculiarità fisiologiche ed ecologiche contribuiscono a rendere questi organismi degli ottimi bioindicatori degli effetti dell’inquinamento atmosferico. Le sostanze inquinanti possono provocare danni individuali di diverso tipo ai talli e, di conseguenza, modificazioni e impoverimenti delle comunità licheniche. I licheni sono perciò utilizzabili nel controllo biologico dell’ambiente: il biomonitoraggio. no causare irritazioni e allergia alle mucose dell’uomo. Tra i residui della combustione, molto pericolose per la salute risultano le ceneri costituite da ossidi di metalli pesanti, quali cadmio, rame e piombo; infatti, molti metalli pesanti, oltre a poter penetrare direttamente negli organismi tramite la respirazione, possono essere assunti anche attraverso l’alimentazione. Idrocarburi La maggior parte degli idrocarburi viene prodotta dalla decomposizione di materia organica (fermentazione batterica), ma le alte concentrazioni nelle aree urbane sono dovute prevalentemente al traffico veicolare. Per quanto riguarda i danni diretti sulla salute dell’uomo, si segnalano diversi idrocarburi aromatici; lo xilene può avere effetti neurotossici, mentre il benzene produce anemie, aberrazioni cromosomiche e diversi tipi di tumore. Metodo di rilevamento: scelta degli alberi e delle zone di corteccia Giunti nelle apposite stazioni di rilevamento, vengono individuati gli alberi da monitorare, analizzati anche gli anni precedenti. Le specie arboree prese in considerazione sono: tigli (Tilia spp.), pioppi (Populus nigra), querce (Quercus spp.). Gli alberi si trovano disposti a filare e ogni singola stazione deve comprendere tre o quattro piante. In seguito sono fissati ai tronchi degli alberi i reticoli per mezzo delle puntine; dopodiché si rileva l’intensità di traffico nella zona, la circonferenza del tronco, l’altezza da terra e l’esposizione del reticolo. Successivamente si passa al riconoscimento dei diversi tipi di licheni nei 10 riquadri del reticolo per mezzo delle lenti di ingrandimento, delle chiavi dicotomiche e dei reagenti chimici (idrossido di potassio KOH e ipoclorito di sodio NaClO). I licheni • hanno un metabolismo basato sugli scambi gassosi e di nutrienti direttamente con l’atmosfera, grazie alla mancanza di una cuticola superficiale e di un apparato radicale; • presentano una buona resistenza agli stress ambientali, che è una conseguenza del loro metabolismo particolarmente lento; • hanno un’ampia distribuzione; • a differenza delle piante superiori, non sono in grado di eliminare le parti intossicate del tallo; • sono longevi e quindi forniscono informazioni relative a periodi lunghi; • sono fissi al substrato e testimoniano le condizioni dell’area in cui si trovano; • presentano un’attività metabolica ininterrotta, anche nel periodo invernale, quando la concentrazione di inquinanti atmosferici raggiunge, nelle aree urbane, i suoi massimi livelli. 13 DALLE SCUOLE /Una ricerca sull’inquinamento atmosf Reticolo utilizzato Esempio di conteggio su reticolo Per effettuare l’analisi che ci ha condotto a monitorare il territorio, utilizziamo i seguenti strumenti: • un reticolo, costituito da dieci riquadri della grandezza di 10x15 cm l’uno; • una bussola, utilizzata per determinare l’orientamento, secondo i punti cardinali, della posizione del reticolo posto sugli alberi; • un metro, utilizzato per misurare la circonferenza dell’albero e l’altezza di rilevamento dal suolo; • il reagente K , ovvero idrossido di potassio, e il reagente C (ipoclorito di sodio) utilizzati per la classificazione delle diverse varietà licheniche; • stereomicroscopio, per il riconoscimento delle specie dubbie. + L’indice di biodiversità lichenica Indice Colore Qualità dell’aria 0 < IBL < 10 Pessima 11 < IBL < 20 Scadente 21 < IBL < 30 Accettabile 31 < IBL < 40 Discreta 41 < IBL < 50 Buona IBL > 50 Ottima 14 1 2 3 4 5 6 7 8 9 10 Per il conteggio dell’IBL si utilizza questo metodo: • si individua la specie di lichene attraverso le chiavi dicotomiche; • si osserva dove questa specie lichenica è presente all’interno dei dieci rettangoli del reticolo. Per conteggiare quanti organismi sono presenti nel reticolo si devono seguire delle regole particolari: non bisogna contare due volte la stessa specie nello stesso quadrante; la specie che si trova sulla linea di confine deve essere contata due volte (cioè come se fosse presente in tutti e due i quadranti); possono Le rilevazioni anno per anno nelle aree esaminate ferico (con bioindicatori) in provincia di Milano Conteggio della frequenza e della tipologia è stato conteggiato 5 volte, poiché presente per intero nel quadrante 9 e presente in parte nei quadranti 3, 4, 5, 6. è stato conteggiato 3 volte, poiché è presente per intero soltanto nei quadranti 2, 5, 10. è stato conteggiato 4 volte, poiché presente per intero nei quadranti 1, 8 e presente in parte nei quadranti 3, 4. è stato conteggiato 4 volte, poiché presente per intero nel quadrante 10, presente in parte nei quadranti 8, 9 e presente nel quadrante 6. è stato conteggiato 5 volte, poiché presente per intero nel quadrante 6 e presente in parte nei quadranti 1, 3, 9, 10. è stato conteggiato 2 volte, poiché presente per intero nei quadranti 2, 3. è stato conteggiato 2 volte, poiché presente per intero nei quadranti 1, 8. essere rilevati al massimo 10 licheni di una stessa specie, poiché dieci sono i riquadri della griglia. L’IBL calcolato è la somma totale di tutte le varietà di licheni riscontrate e in questo caso è pari a 25. • Per determinare l’IBL totale di una stazione è necessario prendere in considerazione gli IBL di tre o quattro alberi e farne la media. Infine si confronta l’indice di biodiversità ottenuto attraverso la tabella relativa alla qualità dell’aria e si ottiene così una classificazione della zona monitorata. Cascina Cascina Via Mirabello Antonietta Argentia 1 Via Argentia 2 P.zza Giovanni XXIII Piazza Sola Cabiati Conclusioni Considerato che il nostro studio si propone di analizzare la qualità dell’aria nel Comune di Gorgonzola, si è ritenuto opportuno monitorare un’area più vasta possibile del territorio comunale, posizionando così le stazioni di campionamento nel centro cittadino, in periferia ed in area di campagna, per un totale di 13 punti. Ognuna delle stazioni è stata confrontata con le altre e il risultato è stato espresso attraverso: una tabella conclusiva con i valori di IBL e il relativo indice di qualità dell’aria, un grafico contenente i valori IBL dei 5 anni di rilevamenti, una cartina rappresentante la distribuzione delle stazioni di rilevamento sul Comune di Gorgonzola, e indicante l’indice di qualità dell’aria (dati riportati in basso). A conclusione del lavoro svolto durante l’anno 2007, si è potuto constatare che la qualità dell’aria varia sensibilmente a seconda delle aree prese in analisi: l’indice oscilla da un minimo di 6,3 ad un massimo di 33,6. Tali diversità sono causate dalla presenza e dalla concentrazione di differenti fonti inquinanti nelle zone monitorate. Infatti, prendendo in considerazione l’area più inquinata (classificata come pessima), si può notare come essa sia ubicata presso un incrocio semaforico, dove le automobili sostano spesso a motore acceso per periodi prolungati. Proseguendo nell’analisi del grafico, si nota la qualità dell’aria scadente (da 12,3 a 16,8) anche in altre tre stazioni, ancora per la presenza di un elevato traffico veicolare. Mentre nelle rimanenti otto stazioni, ubicate in aree periferiche e meno trafficate, l’indice di qualità dell’aria risulta essere discreto (fra 26,3 e 33,6). Considerando l’arco di tempo fra il 2005 e il 2007, si può constatare che l’IBL si è mantenuto pressoché costante nella maggior parte delle stazioni, a parte poche aree che hanno visto peggiorata o migliorata in maniera più consistente la qualità. Prendendo in considerazione le specie licheniche rilevate quest’anno, si possono notare tra le più comuni: Phaephyscia Orbicularis, Physcia Adscendens, Candelariella, Xanthoria Parietina, Lecanora e Candelaria Concolor. Va evidenziato che i licheni esaminati sono tutti di struttura fogliosa e crostosa; non sono stati rilevate strutture di tipo fruticoso. Dal lavoro svolto sul campo e dai dati elaborati è possibile trarre che l’inquinamento è un problema che interessa non solo le grandi città, ma anche quelle di piccole e medie dimensioni, anche se certamente a livelli meno elevati e localizzati in postazioni precise. Via Milano Via Buo- Via Buo- Via Viale narroti 1 narroti 2 Del Parco Kennedy Via Via Trieste 1 Trieste 2 Via Trento 2 15 CALCOLIAMO INSIEME QUANTA ENERGIA CI SERVE Energie ER I S DOS La richiesta energetica aumenta rapidamente con l’incremento demografico e con lo sviluppo socioeconomico, soprattutto dei Paesi emergenti quali la Cina e l’India. Per capire le necessità del futuro occorre essere in grado di “misurare” l’energia disponibile e quanta ne sarà necessaria nei prossimi anni. di Fulvio Zecchini A completamento del nostro dossier dedicato all’energia abbiamo voluto pubblicare, insieme ai profili degli scienziati che hanno elaborato le leggi fondamentali della fisica, anche qualche fotografia relativa all’energia degli “umili”, di coloro che il lavoro, soprattutto nel secolo scorso, lo hanno svolto con fatica, abnegazione e sacrificio. E spesso... con lo sfruttamento. Scena di aratura in Val Padana. Anni Quaranta del secolo scorso. Un bambino sta davanti per tracciare la via più dritta al tiro dei quattro bovini che tirano l’aratro. 16 Energia uguale vita, è lapalissiano ricordarlo, ma forse sarà meno ovvio dire che energia può essere anche uguale a morte. Non è detto infatti che se un dato elemento è necessario alla vita, averne in quantità enormi sia meglio. Un semplice esempio è quello dell’effetto serra, necessario al mantenimento di una temperatura media compatibile con la vita sulla Terra, ma oggi responsabile del riscaldamento globale del pianeta. Se a causa di emissioni E A LIVELLO GLOBALE NELLA VITA DI OGNI GIORNO su misura antropiche sempre maggiori di gas serra l’atmosfera trattenesse una quantità molto maggiore di energia radiativa solare sulla Terra, le temperature salirebbero fino a valori incompatibili con la vita come noi la conosciamo. L’enorme surplus di energia in atmosfera permetterebbe fenomeni estremi, quali tifoni ed uragani, di proporzioni realmente catastrofiche. Dobbiamo quindi poter misurare l’energia, per sapere quanta ce ne serve, per dosare e non sprecare quella disponibile: la questione ener- getica è oggi una delle maggiori emergenze planetarie. Difatti la richiesta energetica del pianeta cresce sempre più. È necessario perciò prevedere quanta ne servirà in un prossimo futuro, ma per poter fare questi calcoli ci occorrono delle misurazioni e dei modelli predittivi computerizzati che utilizzino questi dati e producano gli scenari del futuro sulla base di fattori quali la popolazione mondiale e lo sviluppo industriale, come vediamo nel planisfero e nell’istogramma delle pagine seguenti. Un villaggio vacanze sul canale di Suez, Egitto, fotografato di notte (a sinistra). Effettuando foto notturne mentre si muove rapidamente la fotocamera, si ottengono effetti “artistici” con le luci che rivelano la presenza di corrente alternata nei lampioni (a destra). Infatti il nostro occhio non riesce a cogliere l’intermittenza della corrente, ma il sensore della fotocamera sì (ne parliamo a pagina 28). Ciò è visibile in molte delle scie luminose che risultano tratteggiate anziché continue, come sarebbe se facessimo una foto in una stanza buia ad una torcia a batteria (corrente continua) mossa rapidamente. (Foto Fulvio Zecchini) 17 L’ENERGIA È LA CAPACITÀ DI UN CORPO O DI UN ER I S DOS all’OECD, dati in bilioni di BTU (1012 BTU; vedi testo). Si veda come in questi ultimi, in generale meno industrializzati, la richiesta di energia aumenterà molto più rapidamente, grazie anche alla presenza di nazioni in forte sviluppo quali Cina e India. Mercato energetico mondiale: consumi di energia al 2004 e scenario dei consumi fino al 2030 nei paesi appartenenti e non (Fonte: dati al 2004, Energy Information Administration EIA, Department of Energy, DoE, USA; proiezioni EIA System for the Analysis, 2007). Parleremo quindi di unità di misura dell’energia in maniera rigorosa e – per quanto possibile – comprensibile, rifacendoci al sistema internazionale di unità di misura, ufficialmente noto col nome francese di Système International d’Unités (SI). Utilizzeremo le definizioni e convenzioni di scrittura che abbiamo imparato a conoscere in Green numero 2. Per parlare di energia prima di tutto dobbiamo rispondere alla domanda: cos’è l’energia? Ecco la definizione che ne dà la fisica: l’energia è la capacità di un corpo o di un sistema di compiere un lavoro. Quest’ultimo in fisica ha definizioni non semplici e diverse a seconda della branca della fisica considerata. Siamo quindi costretti a fare delle semplificazioni estreme e a descrivere solo gli esempi più semplici. In meccanica il lavoro è il prodotto della forza moltiplicata per la distanza lungo la quale questa forza è stata applicata. Per semplicità tratteremo la forza come un valore scalare, cioè una quantità descritta da un solo numero, non sensibile alle dimensioni dello spazio, né al particolare sistema di riferimento o di coordinate utilizzato. In realtà però la forza non è una grandezza meramente numerica, ma vettoriale, dotata cioè di quantità assoluta (modulo), direzione nello spazio (in cui viene applicata) e ver- so (cioè il senso in cui viene applicata lungo la direzione). In fisica la forza è una grandezza che si manifesta nell’interazione tra corpi (due o più), sia a livello macroscopico, che atomico e molecolare. L’applicazione di una forza (o più) causa quindi il movimento dei corpi, cambiandone lo stato di quiete o alterando il movimento già in essere. Va considerato che sulla Terra un corpo, anche se in quiete, è in realtà comunque sempre soggetto all’azione di alcune forze (ad esempio la gravità); quando un corpo è fermo rispetto ad un dato sistema di riferimento, significa che tutte le forze su di esso applicate si controbilanciano. La forza in meccanica si esprime come il prodotto della massa (la quantità di materia presente in un corpo) per l’accelerazione (cioè la variazione della velocità nel tempo). Nell’ambito della meccanica, l’energia è quindi necessaria per spostare un corpo e la sua misurazione corrisponde al lavoro effettuato, infatti sia il lavoro che l’energia nel SI vengono espressi in joule (si veda il riquadro qui a lato). Un esempio: supponiamo che lo scooter sia rimasto a secco e il prossimo distributore si trovi a mille metri. Il lavoro che dovremo compiere lungo questo chilometro sarà uguale alla forza applicata per la distanza; in piano la spinta controbilancia l’attrito (motore, ruote, resistenza dell’aria), il quale rimane 18 Joule: come misurare l’energia necessaria a qualunque “lavoro” Il joule è un’unità di misura eponima dedicata a James Prescott Joule (vedi box nelle pagine seguenti). Questa unità rappresenta il lavoro fatto, o l’energia utilizzata, nell’esercitare la forza di un newton (simbolo: N) per muovere un oggetto di un metro lungo la direzione della forza (abbiamo già detto che è una quantità vettoriale). In unità di base del SI avremo che: 1 J = 1 kg m2 s-2 che possiamo scrivere anche come 1 J = 1 N m essendo 1 N = 1 kg m s-2. Cioè il joule è misurato in termini di una massa per il quadrato di una distanza, diviso il quadrato di un tempo. Ma quanta energia rappresenta un joule all’atto pratico? È una quantità piuttosto piccola. Qualche esempio: equivale circa all’energia richiesta per sollevare di un metro un telefonino di 102 g contro la forza di gravità; all’energia richiesta per riscaldare 1 g di aria fresca e secca di 1 °C; oppure ancora a circa un duecentomillesimo dell’energia fornita da una piccola mela (100 g). Viste le equivalenze matematiche e la definizione di joule, quest’ultimo nel SI può anche essere misurato in newton per metro, e viene anche definito come newton-metro (N m). Ma il newton-metro però in fisica definisce anche la coppia di torsione, che ha le stesse dimensioni dell’energia in unità di base, ma deriva da un concetto fisico differente. Per non creare confusione oggi il newton-metro è quasi esclusivamente usato per misurare la coppia di torsione. Infatti avrete probabilmente sentito nominare il newton-metro sui mass-media per quantificare il valore della coppia del motore delle automobili o dei motocicli, una quantità proporzionale alle loro prestazioni. Più avanti parleremo di campi di forze conservativi, qui ci Lavoro dell’uomo e lavoro animale per produrre legna anche a scopi energetici: nei monti del Trentino si accumula legname per la città di Venezia che necessitava di ben 350.000 tronchi ogni anno. SISTEMA DI COMPIERE UN LAVORO Mappa dei paesi che partecipano all’OCSE (Organizzazione per la Cooperazione e lo Sviluppo Economico; in inglese OECD, Organization for Economic Cooperation and Development). L’Organizzazione Europea per la Cooperazione Economica (OECE) nasce dopo la seconda guerra mondiale per attuare il Piano Marshall. Diventa il moderno OCSE nel 1961, un’organizzazione a vocazione transatlantica e, successivamente, mondiale. Comprende oggi 30 paesi. Oltre 70 paesi con economie in via di sviluppo e in transizione collaborano con l’OCSE. Esso rappresenta un forum che consente ai governi di rispondere insieme alle sfide economiche, sociali e ambientali derivate dall’interdipendenza e dalla mondializzazione. Inoltre è una fonte di dati comparativi, di analisi e di previsioni per sostenere la cooperazione multilaterale. limiteremo a dire che se al posto del campo gravitazionale consideriamo il campo elettrico, possiamo definire il joule come il lavoro richiesto (o l’energia utilizzata) per muovere la carica elettrica di un coulomb (C, vedi più avanti) attraverso una differenza di potenziale di un volt (V); avremo in questo caso: 1J=1CV Nei circuiti elettrici un joule rappresenta inoltre il lavoro richiesto (o l’energia utilizzata) per produrre la potenza di un watt (W) per un secondo (s): 1 J = 1 W s con 1 W = 1 J s-1 Come accennato nel testo, il lavoro dei sistemi termodinamici dipende dalla pressione (misurata in pascal, Pa) e dal volume del sistema considerato avremo quindi anche quest’altra equivalenza: 1 J = 1 Pa m3 dove 1 Pa = 1 N m-2, ovvero 1 Pa = 1 kg m-1 s-2 Se nelle equivalenze sopra riportate utilizziamo le unità di base del SI, anziché quelle derivate, torniamo sempre alle stesse dimensioni del joule (kg m2 s-2). Infatti, quando scriviamo delle equazioni per risolvere un problema di fisica, è buona norma controllare che le dimensioni del termine a sinistra e di quello a destra siano le stesse, se tali non sono l’equazione è errata. Un joule può inoltre essere convertito nelle seguenti unità di misura (vedi anche alle pagine 30-31): ❑1J ❑1J ❑1J ❑1J ❑1J = 6,241 509 75 x 1018 eV = 107 erg = 0,239 cal = 9,48 x 10-4 BTU = 2,78 x 10-7 kWh (elettronvolt) (erg) (calorie) (British Thermal Unit) (kilowattora) In una zolfatara alcune donne preparano pani di zolfo. A quei tempi serviva un duro lavoro per disporre di questo composto dai molteplici usi industriali. (Sicilia 1930) costante a velocità costante. In questo caso, l’energia usata si potrebbe anche misurare in calorie degli alimenti necessari ad alimentare i nostri muscoli. Se fossimo stati più fortunati e la riserva di carburante del motorino fosse durata fino al benzinaio, al posto nostro il lavoro l’avrebbe fatto il motore sfruttando l’energia chimica contenuta nella benzina. Se vogliamo avere un controllo sull’energia che stiamo consumando quando andiamo in motorino o in auto, basta regolare la velocità. Se vogliamo mantenere una velocità costante sulla strada, sappiamo di dover continuare a dare gas in modo costante. Ciò vale a dire che dobbiamo sempre applicare una forza costante per compiere lavoro contro gli attriti sfruttando l’energia chimica del carburante. Bisogna sapere tuttavia che gli attriti dipendono dal quadrato della velocità e quindi in proporzione cresce il consumo di carburante. Più velocemente si va, più tutte le forze contrarie al moto sono elevate, più si deve dare gas e più energia, e quindi carburante, si usa. Pensiamoci quando corriamo troppo col motorino o in auto. Non solo si infrange il codice della strada, ma si sprecano risorse non rinnovabili del nostro pianeta. In termodinamica (vedi alle pagine seguenti) il lavoro viene descritto in termini di pressione e volume: un gas può effettuare lavoro grazie alla sua pressione (cioè una forza applicata ad una superficie) per variare il volume del contenitore entro cui è chiuso. Ad esempio in un cilindro con pistone che si muove idealmente senza attriti e che contiene un gas, se il gas all’interno ha pressione superiore rispetto a quella atmosferica, a meno di altri fattori, compirà del lavoro e farà sollevare il pistone contro la forza di gravità fino a quando la pressione del gas (che diminuisce all’aumentare del volume a temperatura costante) sarà controbilanciato da quella atmosferica ed andrà all’equilibrio. Se invece è maggiore la pressione atmosferica, sarà questa che lavorerà e spingerà il pistone diminuendo il volumedel gas fino all’equilibrio. Se forniamo energia ulteriore al gas scaldandolo (energia termica), esso tenderà ad espandersi, la pressione nel cilindro aumenterà e il gas potrà nuovamente compiere del lavoro facendo sollevare il pistone fino ad un nuovo equilibrio. Anche in termodinamica il lavoro e l’energia sono oggi espressi in joule (vedi riquadro qui accanto). Come vedremo ci sono varie equivalenze tra le unità di misura dell’energia, alcune delle quali tipicamente utilizzate in riferimento al tipo di energia che si vuole misurare e/o a particolari campi della scienza e della tecnica. 19 SEBBENE POSSA ESSERE TRASFORMATA O CONVERTITA, LA James Prescott Joule. James Prescott Joule, il fisico inglese che “misurò” il lavoro 20 Il fisico inglese James Prescott Joule (Salford, Manchester, 1818 – Sale, Cheshire, 1889) è stato uno dei padri della moderna termodinamica. Secondo di cinque figli, nacque alla vigilia di Natale del 1818 a Salford, da un ricco produttore di birra, Benjamin. Era un ragazzino timido e gracile, con problemi alla spina dorsale, che preferì gli studi all’attività fisica. Inizialmente educato in casa, venne inviato sedicenne, assieme ad un fratello, a studiare chimica, fisica, matematica e metodo scientifico presso la Società Letteraria e Filosofica di Manchester, dove ebbe tra i suoi insegnanti il noto chimico e fisico inglese John Dalton (1766-1844). I due fratelli erano affascinati dall’elettricità, sulla quale – curiosamente – fecero i primi esperimenti dandosi la scossa a vicenda o dandola ai servitori di casa. Dopo soli tre anni entrambi dovettero abbandonare gli studi a causa della malattia del padre ed occuparsi della birreria di famiglia. Così, fino al 1854, la scienza rimase solo un hobby. Joule era un fervente cristiano, riteneva Dio sommo creatore dell’universo, non riscontrando – al pari di molti scienziati di oggi – alcuna contrapposizione tra Fede e Scienza, tanto che scrisse: “È evidente che la conoscenza delle leggi della natura altro non è che la conoscenza della mente di Dio che è in esse espressa”. E ancora: “Dopo aver conosciuto e obbedito alla volontà di Dio, il mio prossimo scopo è quello di conoscere qualcosa delle sue qualità di saggezza, potenza e bontà evidenziate dal suo operato”. Sebbene la sua produzione di scritti cominci nel 1838, la società scientifica continuò a ritenerlo un dilettante di provincia anche dopo il 1841, anno in cui inviò alla Royal Society un contributo su quello che oggi viene chiamato “effetto Joule”: indagando sugli aspetti della produzione di calore a partire dall’elettricità, scoprì che un conduttore attraversato da corrente elettrica produce calore in quantità proporzionale alla resistenza del conduttore e al quadrato della corrente stessa. Convinto sostenitore del principio della conservazione dell’energia, Joule si interessò inizialmente alla conversione dell’energia elettrica in energia termica (calore) e viceversa. Andando contro le teorie prevalenti del tempo, che indicavano che il calore fosse una sostanza fluida (il “calorico”) che non si poteva né creare né distruggere e poteva muoversi e trasferirsi da un corpo all’altro (la cosiddetta “teoria del calorico”), nel 1843 pubblicò uno studio dove scrisse che la potenza meccanica ottenuta facendo ruotare una macchina magneto-elettrica a batteria era convertita in calore a livello delle resistenze, a seguito del passaggio delle correnti di induzione attraverso le spire, e non perché del calore veniva trasferito da parti calde sotto forma di calorico. Inoltre, secondo Joule, avveniva anche la trasformazione opposta: in un qualche modo, la potenza motrice del motore magnetoelettrico era ottenuta a spese del calore prodotto dalla reazione chimica all’interno della batteria che alimentava il dispositivo. Studiò in seguito la conversione del lavoro meccanico in calore, cosa che cercò di dimostrare attraverso varie metodologie sperimentali, ma inizialmente le sue conclusioni furono accolte con freddezza dagli scienziati del tempo. Era cominciato il suo cammino alla ricerca dell’“equivalente meccanico del calore”. Riuscì a misurare il piccolo riscaldamento che si otteneva per “attrito” dovuto alla viscosità (la proprietà dei fluidi che indica la resistenza allo scorrimento) dell’acqua che veniva forzata attraverso un cilindro forato; ottenne così un valore del rapporto tra lavoro meccanico e calore. Nei suoi esperimenti utilizzò le unità Esperimento ideato da Joule nel 1845 per ottenere l’equivalente meccanico del calore, mediante un sistema con pesi, carrucole e una sorta di “calorimetro”. Quest’ultimo altro non è che un contenitore termico chiuso, dotato di un agitatore a palette, che permette di misurare la temperatura dell’acqua in esso contenuta grazie a un termometro. Il lavoro del campo di gravità (energia meccanica) viene così convertito in calore (energia termica) per attrito con l’acqua all’interno del calorimetro; il calore prodotto viene valutato attraverso l’aumento di temperatura dell’acqua. A sinistra, lo schema dell’intero esperimento con la sezione orizzontale e verticale del calorimetro. A destra, lo schema dettagliato del calorimetro che vediamo nella foto a destra del Museo delle Scienze di Londra. QUANTITÀ DI ENERGIA È UNA COSTANTE anglosassoni a quel tempo usate per misurare il lavoro meccanico (e la relativa energia impiegata) e il calore, nelle nostre unità attuali questo rapporto è pari a 4,14 J cal-1, che possiamo scrivere come 1 cal = 4,14 J. Decisamente vicino al valore oggi determinato in 4,1855. La caloria è definita come la quantità di calore necessaria ad elevare da 14,5 a 15,5 °C la temperatura della massa di un grammo di acqua distillata a livello del mare alla pressione di 1 013,25 hPa (un’atmosfera). Ottenne un’ulteriore dimostrazione della conversione del lavoro meccanico in calore, calcolando il riscaldamento che si ottiene compiendo un lavoro meccanico per comprimere un gas contenuto in un cilindro con pistone. Dai risultati di questo esperimento ottenne un rapporto di 4,43 J cal-1. Nel 1845 Joule presenta all’Associazione Britannica di Cambridge il suo lavoro intitolato Sull’equivalente meccanico del calore. Qui riporta il più rigoroso dei suoi esperimenti in cui fa uso della caduta di un peso, controllata da un contrappeso cui è unito da una fune mediante due carrucole, per ottenere lavoro meccanico. Questo viene convertito in energia termica perché nel tratto tra le due carrucole la fune è avvolta attorno all’asse di un agitatore a palette che ruotando, a seguito della caduta del peso, fa scaldare per “attrito” dell’acqua, contenuta in un contenitore termico dotato di termometro, una sorta di calorimetro (foto e schema qui sotto). In tal modo ottenne un rapporto di 4,41 J cal-1, ma nel 1850 affinò l’esperimento ottenendo un valore di 4,159 sorprendentemente vicino al valore attuale. In pratica, con questi suoi studi, Joule dimostrò il principio di conservazione dell’energia per i sistemi termodinamici, verificando che a livello molecolare il calore è una forma di energia meccanica dovuta all’energia cinetica delle molecole. Da questo momento la comunità scientifica iniziò ad apprezzare grandemente il lavoro di Joule, come indicano i vari riconoscimenti ricevuti successivamente tra cui la Royal Medal e la Copley Medal attribuitegli dalla Royal Society. A 54 anni la sua salute cominciò a deteriorarsi e da quel momento Joule lavorò ben poco. Morì a Sale nel Cheshire (Inghilterra) nel 1889 a 71 anni. ER I S DOS Energia meccanica Energia elettrica Energia delle radiazioni elettromagnetiche Energia termica Energia nucleare In un sistema complesso come quello del nostro pianeta, esistono più forme concomitanti di energia. Di seguito proviamo a descrivere in maniera semplice alcune delle più comuni e a vedere quali sono le unità più corrette per misurarle. Prima però sarà utile ricordare che in via generale l’energia non si crea e non si distrugge: la conservazione dell’energia è la legge fondamentale di conservazione della fisica. Essa afferma che, sebbene possa essere trasformata e convertita da una forma ad un’altra, la quantità totale di energia è una costante, ovvero il suo valore si mantiene immutato al passare del tempo. Questa legge fu inizialmente enunciata nella meccanica, sulla base dei concetti di energia cinetica ed energia potenziale. Formalmente, in meccanica, esiste la possibilità di avere forze dissipative, come l’attrito, che comportano la non conservazione dell’energia. Non terremo qui conto di questi complessi aspetti di fisica, considerando che in generale l’interazione tra forze e attrito dà origine a forme di energia solitamente non utilizzabili (calore a bassa temperatura), portando così alla degradazione dell’energia, ma mantenendo costante l’energia totale del sistema. Lo studio della termodinamica come meccanica statistica di atomi e molecole e la dimostrazione dell’equivalenza tra calore (energia termica) ed energia meccanica, enunciato originariamente da Joule, estende il principio di conservazione dell’energia anche ad altri settori della fisica, ma ciò vale solo se si considerano tutte le forme in cui l’energia si presenta. Ciò fa sì che la legge di conservazione dell’energia ed il primo principio della termodinamica siano strettamente legati. 21 IN UN CAMPO CONSERVATIVO LA FORZA NON R E I S S O D I principi fondamentali della termodinamica La termodinamica è la branca della fisica che studia gli effetti esercitati dal calore (energia termica) sulla materia, nonché la sua trasformazione in energia meccanica e viceversa. Descrive le trasformazioni subite da un sistema in seguito a un processo di scambio di energia con altri sistemi o con l’ambiente esterno. In termini classici la termodinamica si occupa di sistemi ideali macroscopici in cui una porzione della materia viene considerata come un sistema separato dall’ambiente esterno. Lo stato di un sistema macroscopico che si trova all’equilibrio è specificato da grandezze dette variabili “termodinamiche” o “di stato”, come la temperatura. Una funzione di stato è una proprietà di un sistema che dipende solamente dallo stato iniziale e finale, e non dal particolare cammino seguito per arrivarvi. Una funzione di stato descrive perciò lo stato di equilibrio di un sistema. La temperatura rappresenta la proprietà di un sistema correlata alla quantità di energia cinetica media degli atomi e/o delle molecole in esso presenti. successiva enunciazione formale dei principi della termodinamica (XIX secolo). Il primo principio della termodinamica definisce il calore come una forma di energia che può essere convertita in lavoro meccanico ed essere immagazzinata, ma che non è una sostanza materiale. Fu dimostrato sperimentalmente, inizialmente proprio da Joule, che l’energia termica (il calore) e l’energia meccanica sono equivalenti, pertanto il calore è una forma di energia e non un fluido. Il primo principio della termodinamica enuncia quindi anche la conservazione dell’energia. In ogni macchina termica una certa quantità di calore viene trasformata in lavoro: non può esistere nessuna macchina che produca lavoro senza consumare energia. Una simile macchina, se esistesse, produrrebbe infatti il cosiddetto “moto perpetuo di prima specie”, cioè quello creato da una macchina che produca in uscita una quantità di energia maggiore di quella che consuma, autoalimentandosi per un tempo indefinito. In termini matematici il primo principio viene così enunciato: Principio zero della termodinamica ∆U = ∆Q – ∆L (in un sistema chiuso) Il principio zero della termodinamica recita che, se un corpo A è in equilibrio termico con un corpo B e, quest’ultimo, è in equilibrio termico con un corpo C, allora anche A e C sono in equilibrio tra loro. Quando due sistemi interagenti si trovano all’equilibrio termico condividono alcune proprietà misurabili (la temperatura) e, se si trovano in equilibrio con un terzo, le condividono anche con questo ultimo. Anche se non espressamente indicato nel principio, questo spiega perché due sistemi che si scambiano calore raggiungono infine la stessa temperatura. Infatti a livello di cinetica delle molecole gli urti delle particelle del corpo più caldo, mediamente più veloci, con le particelle del corpo più freddo, mediamente più lente, porteranno ad un passaggio di energia cinetica dalle prime alle seconde, fino a quando la temperatura diverrà uguale. Infatti quelle più veloci tenderanno a rallentare al seguito dell’urto, le altre ad accelerare. Lo stesso fenomeno avviene quando giocando a biliardo all’americana si tira il primo colpo e si spacca la formazione triangolare iniziale delle palle, queste si muoveranno inizialmente a velocità differenti tra loro, ma a seguito degli urti reciproci la velocità tenderà ad uniformarsi, prima che tutte le palle si fermino a causa degli attriti. Cioè la variazione (espressa matematicamente dalla lettera greca delta maiuscola: ∆) dell’energia interna U del sistema, è pari alla differenza tra il calore scambiato con l’ambiente (∆Q) e il lavoro compiuto (∆L). Per convenzione ∆Q è positivo se il calore è fornito al sistema, negativo se è invece ceduto e ∆L è positivo se il lavoro è compiuto dal sistema sull’ambiente, al contrario è negativo se è subito dal sistema. Semplificando al massimo, questa equazione ci dice che in una macchina termica parte del calore viene convertito in lavoro meccanico. Secondo principio della termodinamica Vari studiosi enunciarono in modi differenti, ma equivalenti, il secondo principio della termodinamica. Il fisico e Primo principio della termodinamica Un corpo a contatto con uno più freddo gli trasferisce energia termica fino a che non viene raggiunto uno stato di equilibrio, in cui sono uguali le temperature dei due corpi. Nel ‘700 gli studiosi supposero che fosse una sostanza, maggiormente concentrata nel corpo più caldo, a passare nel corpo più freddo: il “calorico”, un fluido capace di attraversare la materia e di trasferirsi quindi da un corpo ad un altro. È questa la già citata “teoria del calorico”, che gli studi di Joule contribuirono a smentire, anticipando la 22 Il fisico e matematico tedesco Rudolf Julius Emanuel Clausius (Köslin, 1822 - Bonn, 1888). Sir William Thomson (Belfast, 1824 - Netherall, Scozia, 1907), più noto come Lord Kelvin. VARIA IN TERMINI DI DIREZIONE E DI VERSO Energia meccanica matematico tedesco Rudolf Julius Emanuel Clausius (Köslin, 1822 – Bonn, 1888) riportò che è impossibile realizzare una macchina termica ciclica (ad esempio un motore di automobile, che però non rappresenta affatto una macchina ideale), che abbia come unico risultato il trasferimento di calore da un corpo freddo a uno caldo. Ciò equivale a quanto affermò Sir William Thomson (Belfast, Irlanda, 1824 – Netherall, Largs, Scozia, 1907), più noto come Lord Kelvin, il quale indicò che è impossibile costruire una macchina ciclica che funzioni producendo lavoro a spese del calore sottratto a una sola sorgente. Questo implica che è impossibile realizzare il cosiddetto “moto perpetuo di seconda specie”. Tali macchine dovrebbero essere in grado di convertire interamente il calore estratto da una sola sorgente a temperatura costante in lavoro. Ciò è impossibile in quanto l’entropia totale di un sistema isolato rimane invariata solo quando si svolge una trasformazione reversibile ed aumenta quando si svolge una trasformazione irreversibile. L’entropia è una funzione di stato, introdotta proprio col secondo principio della termodinamica, che rappresenta una misura del disordine di un sistema fisico, ripresa dal terzo principio (qui di seguito). Nel SI l’entropia si misura in joule diviso kelvin (J K-1). Terzo principio della termodinamica: per poter parzialmente trasformare Risulta intimamente connesso al secondo principio, di cui in pratica rappresenta una conseguenza. Il terzo principio della termodinamica recita che è impossibile raggiungere una temperatura pari allo zero assoluto (0 K) con un numero finito di trasformazioni e definisce meglio l’entropia. I principi della termodinamica verranno meglio spiegati in un prossimo articolo di “Green”¸dove parleremo della trasformazione di energia e quindi spiegheremo anche perché in una macchina termica servono delle parti più fredde cui si possa cedere calore, per poter parzialmente trasformare quest’ultimo in lavoro. Minatori al lavoro nello scavo del carbone. Proprio ai tempi di maggior sviluppo dell’estrazione del “minerale energetico” risalgono studi e leggi sulla termodinamica. La rivoluzione industriale mostrava tutta la sua “fame” di energia. L’energia meccanica di un sistema in fisica è definita come la somma dell’energia cinetica (grandezza indicata dal simbolo corsivo: K) e dell’energia potenziale (simbolo: U) di un corpo. In un campo conservativo la forza è conservativa, cioè non varia in termini di direzione e verso, mentre la sua intensità (modulo), varia in dipendenza dalla distanza del centro del campo di forza. In un campo conservativo il lavoro che compie la forza che genera il campo da un punto ad un altro dello spazio non dipende dal percorso, ma solo dal punto di partenza e dal punto di arrivo. Questo campo ammette l’esistenza di una funzione scalare detta “potenziale” dalla cui variazione dipende il lavoro compiuto dalla forza. Un campo di forze conservativo ammette quindi l’esistenza di un’energia potenziale. L’energia potenziale di un corpo è una funzione scalare delle coordinate nello spazio e rappresenta il livello di energia che il corpo possiede a causa della sua posizione all’interno di un campo di forze conservative che tende ad attrarlo o a respingerlo. Nel campo (conservativo) gravitazionale, l’energia potenziale può trasformasi in cinetica e viceversa, ma la loro somma, l’energia meccanica, si conserva. Matematicamente ciò si esprime con la formula: ∆K = -∆U cioè la variazione (indicata in fisica e matematica con la lettera greca delta maiuscolo, ∆) di energia cinetica (∆K) è uguale a quella potenziale (∆U), variata di segno: se una aumenta l’altra diminuisce, a indicare che una si trasforma nell’altra. Facciamo un esempio concreto, dove vedremo però che l’energia meccanica in realtà non si conserva. Pensiamo di lasciare cadere una pallina senza applicarle noi alcuna forza. Quando è ferma nella nostra mano, la pallina ha energia cinetica nulla, ma ha un’energia potenziale iniziale che le deriva dal fatto di essere immersa nel campo gravitazionale. Per cui essa è attratta verso il centro della Terra e, quindi, tenderà a muoversi verso il suolo se la lasciamo. Infatti, mentre la teniamo sollevata, la forza dei nostri muscoli, unita alla solidità della nostra mano, sta controbilanciando la forza gravitazionale. 23 NELLE ARMI DA FUOCO L’ENERGIA CHIMICA R E I S S O D Primi anni del secolo scorso: in un reparto delle officine Breda di Sesto San Giovanni vengono fabbricati i grandi alternatori delle centrali elettriche. Una gigantesca condotta porta l’acqua dai ghiacciai in quota alla centrale elettrica a valle. Già dai primi del secolo scorso il nostro paese era all’avanguardia nello sfruttamento idroelettrico. 24 L’energia potenziale gravitazionale (U) della pallina dipende dall’accelerazione di gravità (g), dalla sua massa (m) e dall’altezza a cui si trova (h) rispetto al centro del campo. Ad una certa quota avremo che U = m g h, quindi maggiore la quota, maggiore l’energia potenziale essendo g e la massa della pallina costanti. Appena lasciata, l’energia potenziale della pallina tende a diminuire trasformandosi in energia cinetica durante la caduta; questa aumenta fino ad un massimo che la pallina possiede immediatamente prima di toccare il suolo, essendosi trasformata completamente l’energia potenziale dovuta alla sua altezza dal suolo. Infatti l’energia cinetica è quella che un corpo possiede in virtù del movimento, dipende dalla massa e dalla velocità 1 K = – m v2 2 e visto che la pallina è sottoposta all’accelerazione costante di gravità, g (pari a 9,81 m s-2), aumenterà sempre più la sua velocità durante il tragitto dalla nostra mano al suolo. Esistono a questo punto due casi limite. In un urto ideale perfettamente elastico, dove non esistano attriti né interni né esterni alla pallina, questa rimbalzerà fino al punto di partenza. Nel secondo caso limite, in cui l’urto sia perfettamente anelastico, la pallina non rimbalza e si ferma immediatamente, come fosse una pallina di pongo che si appiccica immediatamente al pavimento. A questo punto l’energia cinetica sarà nuovamente nulla e l’energia potenziale sarà diminuita, essendo diminuita l’altezza a cui si trova la pallina (h) rispetto al centro gravitazionale. L’energia cinetica si è trasformata in qualcosa di diverso dall’energia potenziale. Vigendo il principio della conservazione dell’energia totale, nel nostro esempio essa si è trasformata completamente in energia termica all’atto dell’impatto col suolo. Quindi tutta l’energia potenziale dovuta al dislivello tra la nostra mano e il suolo si è trasformata in energia cinetica e all’impatto si è degradata in calore, energia non utile dispersa nell’ambiente. Infatti, se riuscissimo a misurare la temperatura del sistema “pallina al punto d’impatto” osserveremmo un aumento di temperatura. Proviamo a battere forte le mani, le sentiremo scaldarsi: è lo stesso fenomeno. Verifichiamo infine come si misurano K e U. L’energia chimica della polvere da sparo si trasforma in velocità per il proiettile. Fin qui le regole energetiche illustrate nell’articolo. A ben altre energie pensava questo gruppo di cacciatori che proprio dall’attività venatoria ricavava selvaggina da mettere in tavola, un’antica passione oggi in via di esaurimento. 1 Abbiamo che K = – m v2, dove m si misura in 2 chilogrammi, v in metri al secondo (m s-1), per cui K si misura in kg m2 s-2, cioè proprio la definizione di joule in unità SI di base. Ragionamento simile per U = m g h, dove avremo g misurata in m s-2, m e h ovviamente rispettivamente in chilogrammi e metri, per cui U si misurerà nuovamente in kg m2 s-2, cioè in joule. Oltre al campo gravitazionale terrestre, altri campi di forza sono conservativi, quindi un corpo con determinate caratteristiche immerso in questi campi avrà un’energia potenziale che potrà trasformarsi in energia cinetica. Nel campo elettrico, la forza di Coulomb, che descrive l’attrazione o la repulsione rispettivamente tra cariche elettriche di segno opposto o uguale, determina l’esistenza di un’energia potenziale elettrica. Anche la forza elastica ammette un’energia potenziale elastica. Pensate ad una molla fissata per un’estremità e libera dall’altra dove troviamo un’impugnatura. Per allungare questa molla dobbiamo esercitare una forza di trazione lungo un certo tratto e quindi spendere un lavoro; una volta allungata di un certo tratto, se ci fermiamo dovremo comunque esercitare una certa forza per contrastare la forza elastica che tende a riportare la molla in posizione di riposo. In questo caso però il lavoro è nullo non essendoci spostamento. Proprio su questo principio sono ideati gli strumenti ginnici che usano le molle; essi sono allenanti perché ci costringono a produrre lavoro e spendere energia mentre tiriamo/comprimiamo/pieghiamo e rilasciamo le molle, irrobustendo i muscoli e facendo loro consumare l’energia chimica dei cibi, aiutando a smaltire l’eventuale surplus di calorie introdotto con l’alimentazione. Vari sono gli utilizzi dell’energia meccanica. Per esempio può essere convertita in energia elettrica; anzi, la produzione di quest’ultima passa spesso attraverso la conversione di energia cinetica. Quella posseduta da un fluido in movimento (liquido o gas) viene trasformata facendolo passare forzatamente attraverso le pale di una turbina, generando così elettricità. Classicamente l’energia meccanica dei fiumi e dei bacini idrici viene convertita così; si sfrutta il dislivello creato da cascate naturali o, più spesso, da dighe artificiali, per VIENE LIBERATA IN MANIERA ESPLOSIVA Energia elettrica Il getto di petrolio “schizza” dalla sommità di uno dei primi pozzi per l’estrazione dell’oro nero. L’industria dell’acciaio ebbe un clamoroso sviluppo dall’Ottocento al Novecento con una richiesta di energia e lavoro cui la scienza dette un contributo determinante. convertire l’energia potenziale dell’acqua in quota in energia cinetica e quindi in elettricità. Anche l’energia cinetica delle onde può essere convertita in energia elettrica, mentre l’energia potenziale delle masse d’acqua durante l’alta marea può essere convertita in energia cinetica e quindi in energia elettrica nelle centrali mareomotrici (Green n. 1). Sono centinaia gli esempi nella vita quotidiana in cui l’energia chimica viene convertita in energia meccanica. Quella degli alimenti può essere convertita ad uso ludico in tutti gli sport in cui si prevede l’utilizzo di un attrezzo e di una pallina, o anche solo di una palla. In questi casi si converte l’energia chimica dei cibi in energia meccanica nei muscoli e si trasferisce il movimento alla palla (energia cinetica) che deve essere dotata di adeguata velocità ed eseguire particolari traiettorie. Un eccesso di energia cinetica di corpi che interagiscono può avere effetti rovinosi, in quanto può infrangere la loro integrità strutturale. Le armi da fuoco sfruttano proprio l’energia cinetica per sortire i loro malevoli effetti. In un fucile l’energia chimica della polvere da sparo contenuta nel bossolo della pallottola viene liberata in maniera esplosiva, espellendo il proietto vero e proprio ad alta velocità. La forma di quest’ultimo è affusolata e aerodinamica per permettere una migliore penetrazione nell’aria e nel bersaglio, per tale motivo le dimensioni devono essere limitate. Per massimizzare l’impatto, che dipende dalla massa e dalla velocità, si utilizza il miglior compromesso massa/dimensioni/forma del proietto utilizzando materiali ad alta densità. Oggi, per realizzare i proiettili si usano comunemente il piombo (che ha densità media pari a 11,35 g cm-3) ed altri metalli o leghe. Come purtroppo abbiamo appreso dalle cronache di recenti conflitti, in guerra è stato usato uranio impoverito, che è molto più denso del piombo (densità media dell’uranio: 19,0 g cm-3) e permette una maggior capacità di penetrazione ai proiettili, ma è purtroppo dotato di radioattività residua, nociva anche per chi usa l’arma. La massa del proietto combinata alla sua velocità, che in un fucile moderno arriva a circa 1 000 m s-1, cioè 3 600 km h-1, è tale da rompere l’integrità strutturale dei tessuti di un uomo o di un animale, anche da distanze dell’ordine del chilometro. Solitamente anche la pallottola si “rompe”, rimanendo deformata dall’urto. Parlare approfonditamente di elettricità e campo elettrico implica affrontare complesse tematiche fisiche. Il cammino temporale per arrivare dai primi studi del fisico francese Charles Augustin de Coulomb (Angoulême, 1736 - Parigi, 1806) sulle cariche elettriche e il loro moto e sul campo elettrico della metà del ‘700, alla creazione della prima centrale elettrica commerciale di fine ‘800 è relativamente breve. Qui però si preferisce saltare ai giorni nostri e parlare di una delle forme di energia più utili alla nostra iper-tecnologica vita quotidiana: l’energia elettrica. L’energia elettrica si ottiene nelle centrali elettriche che possono usare fonti energetiche fossili o rinnovabili o energia nucleare, permettendo agli utenti di disporre di energia elettrica sotto forma di corrente elettrica. In generale questa rappresenta un qualsiasi flusso di carica elettrica attraverso un materiale conduttore. Storicamente, la corrente convenzionale è stata definita come lo spostamento di cariche positive, ma nel caso della conduzione metallica – quale è il caso della corrente delle nostre case che passa nei cavi elettrici – essa è dovuta ad un flusso di elettroni, con carica negativa, che si muovono in direzione opposta a quella della corrente classicamente definita. Ad ogni modo la definizione non influisce sulla nostra discussione. La quantità di carica che scorre nell’unità di tempo attraverso un conduttore è detta intensità di corrente, simboleggiata dalla lettera I (“i” maiuscola in corsivo); la sua unità di misura è l’ampere (simbolo: A), una delle sette unità SI di base. L’ampere è definito come la corrente costante che, se mantenuta in due conduttori dritti e paralleli di lunghezza infinita, di sezione circolare trascurabile, e disposti ad 1 metro di distanza nel vuoto, produrrebbe tra questi due conduttori una forza pari a 2 x 10-7 newton al metro (N m-1). La forza che si crea è quella del campo magnetico indotto dal passaggio di corrente nei due conduttori. Se la corrente ha lo stesso verso, il campo magnetico avrà lo stesso segno ed i due conduttori si respingeranno, al contrario si attrarranno se la corrente viaggia in direzioni opposte al loro interno. Tra due punti nel campo elettrico si può definire una differenza di potenziale elettrico 25 LA RESISTENZA INDICA LA TENDENZA DI UN MATE R E I S S O D (simbolo V), la cui unità di misura è il volt (V), così chiamato in onore del grande fisico ed inventore italiano Alessandro Giuseppe Antonio Anastasio Volta (Camnago, Como, 1745 – Como, 1827), che nel 1800 inventò la pila voltaica, la prima batteria chimica. Si dice che tra due punti A e B di un campo elettrico c’è una differenza di potenziale di 1 V se la forza elettrica compie il lavoro di 1 J (joule) per portare una carica di 1 C (coulomb) da A a B. Quindi dalla sua definizione avremo che: 1 V = 1 J C-1, in unità fondamentali 1 V = 1 m2 kg s-3 A-1 A sua volta il coulomb (simbolo: C), è l’unità di misura della carica elettrica (grandezza indicata col simbolo Q o q), definita in termini di ampere: 1 coulomb è la quantità di carica elettrica trasportata da una corrente di 1 ampere che scorre per 1 secondo, nel SI avremo quindi che: ta acqua passa per l’area della sezione della cascata nell’unità di tempo. La differenza di potenziale moltiplicata per l’intensità della corrente (misurata in ampere) rappresenta la potenza (in questo caso elettrica). La potenza esprime la capacità di convertire e fornire energia nel tempo. Si tratta di un concetto più facile perché più vicino alla vita di tutti i giorni in quanto è uno dei parametri che caratterizza le nostre macchine, tra cui i comunissimi scooter e le automobili e gli utensili a motore. Nel SI la potenza viene misurata dall’unità derivata watt (simbolo: W). Ancora una volta si tratta di un’unità di misura eponima dedicata al matematico e ingegnere James Watt (Greenock, Scozia; 1736 - Heathfield in Handsworth, Birmingham, Inghilterra; 1819) per il suo fondamentale contributo nello sviluppo della macchina a vapore. Avremo quindi che: 1 W = 1 J s-1, ma in elettrotecnica si usa spesso l’equivalente espressione1 W = 1 V A. 1 C = 1A s Un coulomb è pari a circa 6,24 x 1018 volte la carica di un singolo elettrone. Anch’essa è un’unità di misura eponima, prende il nome dal già citato fisico francese Coulomb. Spieghiamo con un esempio la relazione tra intensità di corrente e differenza di potenziale paragonando la corrente ad una cascata la cui energia potenziale è dovuta al campo gravitazionale. Il volt misura il dislivello della cascata che influenza la differenza di energia potenziale, l’ampere invece misura la portata dell’acqua, cioè quanIl fisico francese Charles Augustin de Coulomb (Angoulême, 1736 - Parigi, 1806). 26 Il watt viene infatti anche definito come voltampere. Bisogna sottolineare che il watt è una misura di potenza e non di energia. Moltiplicando la potenza per il tempo si ottengono le dimensioni dell’energia. Quest’ultima spesso è espressa, soprattutto nel conteggio dei consumi energetici domestici ed industriali, in wattora, indicati con Wh, o più spesso kilowattora, kWh. Il Wh non è una misura approvata dal SI perché non misura il tempo in secondi. Considerando che un’ora contiene 3600 secondi è facile dimostrare matematicamente che: 1 Wh = 1 J s-1 x 3 600 s = 3 600 J. James Watt (Greenock, Scozia; 1736 Heathfield in Handsworth, Birmingham, Inghilterra; 1819). Alessandro Giuseppe Antonio Anastasio Volta (Camnago, Como, 1745 Como, 1827). RIALE AD OPPORSI AL PASSAGGIO DI CORRENTE ELETTRICA Impara a misurare l’energia elettrica per risparmiare Imparare a misurare l’energia ci può aiutare a risparmiare in termini di risorse e di costo della bolletta elettrica. Facciamo un esempio del tutto teorico che però ci aiuta a capire grandezze e quantità in gioco. Nel salotto c’è un lampadario che usa tre lampadine da 100 W di potenza assorbita (in totale 300 W) e di sera lo teniamo acceso mediamente per tre ore: ogni sera avremo un consumo di 900 Wh, cioè 3 240 000 J. Considerando che il contenuto energetico di un kilogrammo di petrolio è di 10 000 kcal (kilocalorie) e che 1 kcal è circa uguale a 4,19 kJ abbiamo che 1 kg di petrolio ha un contenuto energetico di 41 900 kJ, cioè 41 900 000 J. In teoria servirebbero quindi circa 80 grammi di petrolio per avere i 3 240 000 J necessari per tenere acceso il nostro lampadario tre ore. Ciò se l’energia chimica del petrolio fosse convertita al 100% in energia elettrica, cosa che sappiamo non vera, in quanto la resa nelle comuni centrali termoelettriche si aggira attorno al 30%. Per cui la quantità teorica di petrolio richiesta è di poco superiore ai 260 g., senza considerare le ingenti perdite di energia che si hanno nella rete di distribuzione, dovute alla conversione in calore. Oggi le cosiddette lampade a basso consumo hanno un assorbimento pari a circa un quarto di quelle tradizionali (fino anche a un quinto) a parità di luminosità, quindi se le adottassimo nel nostro lampadario questo consumerebbe un quarto in termini di wattora e quindi in definitiva un quarto di petrolio, cioè 65 g, con un risparmio di 195 g di petrolio e 0,675 kWh. Quanto risparmieremmo in tutta Italia con questo semplice accorgimento? Facciamo insieme un calcolo. Poniamo che la popolazione sia arrivata a 60 000 000 di persone e che la famiglia media sia composta di quattro persone. Abbiamo quindi 15 000 000 di case e di lampadari simili. Il risparmio globale sarebbe complessivamente di circa 2 925 tonnellate di petrolio. Il quadro di distribuzione della centrale elettrica delle tranvie nel 1898 in provincia di Lecce. Un’ultima grandezza fisica legata alla corrente elettrica è la resistenza: essa indica la tendenza di un materiale ad opporsi al passaggio di corrente elettrica attraverso di esso quando è sottoposto ad una tensione (differenza di potenziale). Questa opposizione si manifesta con un riscaldamento del componente (il già citato “effetto Joule”) e dipende fondamentalmente dal materiale con cui è realizzato, dalle sue dimensioni, dalla sua temperatura. La resistenza è definita come il rapporto tra la tensione (differenza di potenziale) e l’intensità di corrente, essa si misura in ohm, indicato dalla lettera greca omega in maiuscolo, Ω, perché unità eponima, così chiamata in onore del fisico tedesco Georg Simon Ohm (Erlangen, 1789 - Monaco di Baviera, 1854), che ha formulato la famosa legge omonima. Tale legge dice che la differenza di potenziale V ai capi di un conduttore ad una data temperatura T è proporzionale all’intensità della corrente elettrica (I) che lo attraversa, moltiplicato per una costante tipica del conduttore detta resistenza (R) e cioè: V = I R (legge di Ohm), scrivibile anche come R = V I-1. Ne deriva che l’ohm ha le dimensioni di volt diviso per ampere, cioè 1 Ω = 1 V A-1, in unità di base: m2 kg A-2 s-3. Un resistore quindi ha resistenza pari ad 1 Ω quando, applicando una differenza di potenziale di un volt ai suoi capi, viene attraversato da una corrente di intensità pari ad un ampere. Un ultimo accenno va al concetto di corrente continua e corrente alternata. La prima si ha quando gli elettroni si muovono sempre nello stesso senso internamente ad un circuito, ne è un esempio qualsiasi circuito alimentato da batterie. Nelle nostre reti domestiche la corrente è invece alternata, cioè viene inviata ad impulsi ad una determinata frequenza dalle centrali. Per questo tipo di circuiti è necessario specificare anche la frequenza, oltre all’intensità di corrente e la tensione del circuito, che sono le due grandezze che caratterizzano anche un circuito a corrente continua. La frequenza misura il numero di cicli con inversione di polarità e direzione di moto che la corrente compie in un secondo; nella nostra rete di distribuzione la frequenza è di 50 periodi o cicli al secondo, cioè 50 Hz (hertz). Vale a dire che la corrente cambia polarità e direzione di moto 27 IL BLACKOUT CI FA CAPIRE QUANTO OGGI SIAMO ER I S DOS due volte ogni 20 millisecondi compiendo un ciclo. Ciò si riflette nell’intermittenza della luce di alcuni tipi di lampade o del segnale video della TV, che non possiamo registrare ad occhio nudo perché la frequenza è troppo elevata, ma che può essere colta da una macchina fotografica digitale mossa velocemente durante lo scatto di una foto notturna (sono le immagini scattate dall’autore che abbiamo messo a paragone nell’apertura del nostro servizio alle pagine 16-17) o che inquadra la TV. Quest’ultimo aspetto è facilmente verificabile a casa: osservando la TV nel visore della macchina digitale, vedremo delle fasce scorrere sullo schermo, dovute appunto alla corrente alternata. Come calcolare quanta corrente usa un dispositivo elettrico? Leggiamo sulla targhetta le caratteristiche del trasformatore/caricabatteria di un comune computer portatile. Quello in esame funziona con una corrente alternata in entrata di 100-240 V, a circa 1,3 A, con una frequenza di 50-60 Hz. Oggi in Italia la tensione è tipicamente di 230 V e la frequenza di 50 Hz. In entrata quindi il trasformatore assorbe una potenza teorica pari a circa 300 watt (230 V per 1,3 A), il suo consumo orario sarà quindi di 300 Wh (1 080 kJ). In uscita il trasformatore del portatile considerato eroga una corrente continua di 18,5 V a circa 4,7 A, con una potenza erogata di circa 90 W, fornisce ogni ora 90 Wh di energia elettrica (324 kJ). E il resto? Dove sono finiti i 756 kJ di energia assorbita in un’ora che mancano? Ecco la spiegazione: la resa della conversione tra corrente alternata in entrata e continua in uscita del trasformatore non è del 100% e parte dell’energia elettrica viene dissipata sotto forma di calore. Lo possiamo verificare toccando un comune L’americano Thomas Alva Edison (1847 - 1931), già inventore della lampadina nel 1878, inaugurò la prima centrale elettrica commerciale a Manhattan (New York). Qui è ritratto nel 1901 nel suo laboratorio. 28 caricabatteria del telefonino inserito in una presa. Solitamente ciò accade anche quando non si sta ricaricando il cellulare o l’apparecchio non è acceso, per cui tenere i trasformatori/caricabatteria inseriti nella spina quando non si utilizza un apparecchio serve solo a sprecare energia elettrica e risorse. Provate anche voi a verificare le etichette degli elettrodomestici e degli altri apparati elettrici in casa, calcolate quanto consumano attraverso la potenza assorbita indicata in watt o in kilowatt, o calcolatela in voltampere se avete l’intensità di funzionamento in ampere, pensando che la nostra comune rete elettrica domestica eroga tensione a 230 V. Assieme al tempo di utilizzo e al costo del kWh, questi dati vi permetteranno di calcolare i wattora o i kilowattora assorbiti e quindi i costi. Abbiamo accennato all’illuminazione e non ci dilungheremo sugli altri usi dell’energia elettrica, convertita per gli svariati usi in energia termica (phon, forno, ferro da stiro), meccanica (frullatore, aspirapolvere) o in entrambi i tipi (lavatrice, asciugatrice, lavastoviglie) o, ancora, in energia radiativa (TV). Per capire quanto siamo dipendenti nella nostra quotidianità dall’energia elettrica, basta considerare il senso di disagio che ci coglie quando siamo in casa durante un blackout. La nostra vita moderna non può infatti prescindere dall’elettricità, eppure ancora oggi in alcune parti del mondo si vive senza. Quanto cammino è stato fatto da quando nel 1882 l’americano Thomas Alva Edison (1847 - 1931), già inventore della lampadina nel 1878, inaugurò la prima centrale elettrica commerciale a Manhattan (New York). Ma purtroppo l’energia elettrica può essere usata anche contro la vita: esempi di applicazioni in tal senso sono le pistole elettriche, i taser, letali solo accidentalmente ma dolorosissimi, in dotazione alla polizia di alcuni paesi (per esempio USA e Canada) e la pena di morte comminata mediante la sedia elettrica negli Stati Uniti. Dosi elevate di energia elettrica interagiscono negativamente con gli organismi, in quanto alterano la conduzione degli impulsi nervosi (che sono di tipo elettrico) e la permeabilità delle membrane cellulari. Nell’uomo la soglia di percettibilità è di circa di 0,5 mA (milliampere) per la corrente alternata con le frequenze tipiche delle nostre reti domestiche (50-60 Hz) e di 2 mA per la corrente continua (vedi il riquadro qui accanto). DIPENDENTI DALL’ENERGIA ELETTRICA Danni da scossa elettrica, una “forza” invisibile e subdola Energia delle radiazioni elettromagnetiche Intensità crescenti di corrente causano nell’ordine i seguenti danni agli organismi animali: ❑ Elettrificazione (I = 3-10 mA) Produce nel corpo una sensazione di formicolio più o meno forte, può provocare movimenti riflessi involontari. Ne è un esempio l’uso degli elettrostimolatori per tenere in forma il corpo: essi allenano i muscoli facendoli contrarre involontariamente e ripetutamente sulla base di una stimolazione elettrica di intensità opportuna, in pratica si tratta di una elettrificazione controllata. ❑ Tetano muscolare (I > 10 mA) I muscoli sottoposti ad una corrente alternata, subiscono una sequenza di stimoli elettrici che li portano alla contrazione e alla decontrazione, ma per loro caratteristiche fisiologiche non riescono a contrarsi e decontrarsi con l’elevata frequenza della corrente. Pertanto, una volta contratti, rimangono in tale stato finché la corrente viene applicata. Questa contrazione permanente è detta in fisiologia “tetano”, ne sono un esempio noto i crampi muscolari. Impugnando un oggetto che disperde corrente si ha una circostanza assai grave rispetto al suo semplice tocco, in quanto il tetano paralizza i muscoli impedendo il rilascio dell’oggetto stesso. La massima intensità di corrente alternata (50-60 Hz) per la quale si riesce a lasciare la presa viene chiamata corrente di rilascio e si aggira sui 10-30 mA. ❑ Blocco respiratorio (I > 25 mA) Si tratta del tetano dei muscoli respiratori che si ha quando con valori d’intensità relativamente elevati, soprattutto se il contatto interessa la regione toracicopolmonare. La difficoltà respiratoria comporta ipossia, mancanza di ossigeno nel comparto cerebrale, con danni permanenti al cervello dopo pochi minuti. ❑ Morte per asfissia (I = 25-30 mA) Il tetano che coglie i muscoli respiratori può essere tale per intensità e durata da provocare la completa disfunzionalità dell’apparato respiratorio e la conseguente morte per asfissia. ❑ Fibrillazione ventricolare (I = 60-75 mA) Una corrente alternata sufficientemente elevata (> 50mA), che interessi la regione toracica, può provocare la perdita di coordinamento della contrazione delle fibre muscolari cardiache, così il cuore non riesce più a pompare sangue causando ipossia e danni al cervello. In casi particolarmente gravi si può arrivare alla morte per arresto cardiaco. ❑Ustioni Correnti ad intensità ancora maggiori provocano, per il già citato effetto Joule, un riscaldamento tale della cute da causare anche gravi ustioni. A forza di braccia si solleva uno dei primi tralicci per l’alta tensione nelle Prealpi lombarde, nei primi anni del secolo scorso. L’energia primaria della Terra è quella del Sole, che permette la vita sul nostro pianeta. Si tratta di energia in forma di radiazione elettromagnetica, comprendente particolari lunghezze d’onda tra cui quelle della luce (visibile), che viene scambiata con la materia attraverso i fotoni. Ne abbiamo già parlato più volte nella nostra rivista e lì vi rimandiamo per maggiori dettagli (Green n. 4 e 5). In un solo secondo la nostra stella c’invia un’energia pari a circa 174 000 TJ (terajoule, mille miliardi di joule, o 1012 J), nello stesso lasso di tempo si stima che tutte le attività del pianeta richiedano attualmente un’energia pari a circa 13 TJ (dati MIT, USA). L’energia della radiazione solare viene in parte usata dagli organismi produttori primari di biomassa (energia chimica) mediante la fotosintesi. In tal modo essi danno origine alle catene alimentari. Inserendo le unità di misura nell’equazione E = h ν (“e” uguale ad “acca” per “ni”) – che definisce l’energia della radiazione elettromagnetica in funzione della costante di Planck (h = 6,63 x 10-34 J s) e della frequenza misurata in hertz (Hz), cioè in inverso di secondi (s-1) – è facile verificare come quest’energia sia misurata in joule. L’uomo usa l’energia associata alle diverse lunghezze d’onda (e quindi frequenze) per svariati scopi come la produzione di energia elettrica col fotovoltaico, il solare termico per sanitari e riscaldamento domestico, la trasmissione dei segnali radio/TV e telefonia cellulare. Un’applicazione particolare dell’energia della radiazione luminosa è il laser (acronimo di Light Amplification by the Stimulated Emission of Radiation), un’affascinante tecnologia di cui sicuramente parleremo nei prossimi numeri di Green. L’energia della radiazione elettromagnetica può anche essere dannosa, si pensi per esempio agli usi bellici del laser e alla sovraesposizione a raggi X o UV che danneggiano il DNA degli organismi viventi, cedendo mediante i fotoni parte della loro energia alla molecola, causando la rottura di legami chimici o permettendo la formazione di legami anomali. 29 L’ELETTRONVOLT, IL BARILE, LA TEP, LE KILOCAL ER I S DOS Altre unità di misura dell’energia (e attenti al peso, in ogni caso...) Oltre a quelle del SI ci sono altre unità di misura dell’energia che vengono ancora utilizzate per comodità e consuetudine d’uso in alcuni settori specifici della scienza e della tecnica. Vediamo le più curiose e interessanti. Fisica Fonti energetiche Sebbene il SI sia ormai il sistema ufficiale di unità di misura più diffuso, ne esistono altri. Uno dei più noti è il sistema “centimetro-grammo-secondo” (CGS), che ha queste tre per unità di base da cui sono derivate tutte le altre. Fu proposto nel 1832 dal famoso matematico, astronomo e fisico tedesco Carl Friedrich Gauss (Braunschweig, 1777 - Gottinga, 1855). In questo sistema l’energia si misura in erg (simbolo: erg), per cui avremo che: Il contenuto di energia dei combustibili e dei carburanti si può anche definire mediante misure di peso o di volume: la tonnellata (1 000 kg) viene utilizzata per il petrolio greggio e il carbone, il barile (pari a 159 litri) è utilizzato per il petrolio greggio, il metro cubo per il gas e il litro per la benzina ed il gasolio. Per poter confrontare il contenuto energetico dei vari combustibili dobbiamo passare attraverso un’unica unità di misura. Una delle misure più usate, anche se non facente parte del SI, è la Tonnellata Equivalente di Petrolio (TEP), che riporta i contenuti energetici delle diverse fonti energetiche a quella ancora oggi più usata di tutte: il petrolio. 1 erg = 1 g cm2 s-2 Come possiamo vedere anche l’erg, al pari del joule, misura l’energia come il prodotto di una massa per il quadrato di una distanza, diviso per il quadrato di un tempo. Siccome le unità di base del CGS e del SI possono essere convertite le une nelle altre, si può tramutare l’erg in joule ed ovviamente in qualsiasi altra unità cui il joule è equivalente. Avremo che 1 erg = 10-7 joule. Se ricordiamo dall’inizio dell’articolo quanto piccolo sia il joule come unità di misura, potremo capire quanto più lo sia questa unità che risulta dieci milioni di volte più piccola. Un elettronvolt (simbolo: eV) rappresenta l’energia acquistata da un elettrone libero quando passa attraverso una differenza di potenziale elettrico di 1 volt. È una delle unità accettate dal SI che devono essere misurate sperimentalmente. Rappresenta una quantità davvero piccolissima di energia, essendo 1 eV = 1,602 176 46 x 10-19 J. Sono quindi molto usati i suoi multipli preceduti dai prefissi del SI - keV (kiloelettronvolt, ossia mille elettronvolt), MeV (megaelettronvolt, un milione di elettronvolt) e GeV (gigaelettronvolt, un miliardo di elettronvolt). Nella fisica delle particelle, il megaelettronvolt e il gigaelettronvolt sono utilizzati per misurare la massa delle particelle elementari, in termini di energia. Per farlo si usa la nota equazione di conversione della relatività ristretta di Einstein: E = m c2. Calcolata in questo modo la massa di un elettrone è di 0,511 MeV, quella di un protone di 938 MeV. Usando le TEP si può calcolare il fabbisogno energetico di una nazione cumulando tutte le fonti energetiche disponibili. Una TEP rappresenta la quantità di calore ottenibile da una tonnellata di petrolio. Misurando in TEP il carbone, stiamo valutando la quantità di carbone che può produrre tanto calore quanto una tonnellata di petrolio. Ricordiamo che valgono le seguenti equivalenze: 1 kcal = 4,186 kJ = 1,16 x 10-3 kWh = 1 x 10-7 TEP Per poter confrontare i valori energetici di volumi o pesi dei diversi combustibili e riportarli in TEP dobbiamo passare attraverso un’unità come la caloria o il joule, le quali possono essere misurate attraverso strumenti di laboratorio. Una tonnellata di petrolio (dati Eni) contiene 10 x 106 kilocalorie (kcal), mentre una tonnellata di carbone fossile ne contiene 7 x 106. Facendo la proporzione vediamo che 1 TEP di carbone equivale in peso a circa 1,43 tonnellate. Conoscendo i contenuti in termini di calorie delle diverse fonti energetiche possiamo ricavare le TEP. A titolo di esempio di seguito riportiamo il contenuto energetico medio di alcuni combustibili/carburanti (dati ENI). Siamo alla metà del secolo scorso, quando l’industria del freddo era agli albori e le BTU erano una misura misteriosa. Il gelato si raffreddava per una reazione chimica con il comune sale marino e la forza di braccia del gelataio che faceva girare il recipiente. Il ghiaccio veniva venduto dall’ambulante! 30 LORIE, IL CHILOTONE... Fonti energetiche solide – – – – – combustibili vegetali torba legna carbone fossile nazionale carbone fossile estero Fonti energetiche liquide – petrolio greggio – benzina – gasolio Fonti energetiche gassose – gas naturale kcal kg-1 tonnellate pari a 1 TEP 2 500 2 600 3 020 5 300 7 000 4,00 3,85 3,11 1,89 1,43 kcal kg-1 tonnellate pari a 1 TEP 10 000 10 500 9 800 1,00 0,95 1,02 kcal m-3 8 200 Fisiologia dell’alimentazione I dietologi misurano le calorie di cibi e bevande in kilocalorie (kcal). Si ha che: quindi della quantità, è dannoso. Infatti il surplus viene accumulato nei legami chimici di molecole energetiche di riserva: i grassi. Occhio quindi ai pannicoli adiposi e, nei casi più estremi, alle disfunzioni (obesità). La formazione di tessuto adiposo è fisiologica per alcune specie animali, come quelle che vanno in letargo ed hanno bisogno di riserve energetiche per il metabolismo basale, oppure in quelle che vivono in regioni particolarmente fredde, con lunghi periodi d’innevamento. Queste ultime accumulano tessuto adiposo come riserva energetica in previsione di scarsità di cibo. A noi uomini e donne i pannicoli fanno poco comodo, soprattutto d’estate… Esplosivi L’unità di misura della potenza degli esplosivi è il chilotone o kiloton: ne esprime la potenza in termini di energia meccanica liberata dall’esplosione di 1 000 tonnellate di tritolo, corrispondenti a circa 4,2 x 1012 J. Non tiene conto quindi di calore e radiazioni. Rifacendoci all’esempio precedente un kiloton equivale all’energia elettrica che ci serve in casa per oltre 13 anni. Con l’energia della bomba atomica di Hiroshima da 13 kiloton avremmo potuto soddisfare i bisogni energetici di una casa per circa 170 anni. 1 kcal = 4,186 kJ = 3,968 BTU (abbreviazione di British Thermal Unit, vedi di seguito). Impianti di condizionamento Si tenga conto che un grammo di zuccheri apporta circa 4 kcal, tante quanto un grammo di proteine, mentre un grammo di grassi apporta 9 kcal (un chilogrammo di olio ha circa 9 000 kcal, solo 1 000 in meno del petrolio greggio). Azzardando un’approssimazione, potremmo dire che in media ci servono 2 000 - 2 500 kcal al giorno per vivere. Questi valori cambiano ovviamente in base alla fisiologia del singolo individuo. Quanta energia è? Facciamo un raffronto con l’energia elettrica utilizzata nella nostra casa, ipotizzando di essere una famiglia di quattro persone che usano l’impianto con potenza massima di circa 3 kW per 16 ore al giorno a mezza potenza. Abbiamo un consumo di 24 kWh; siccome 1 kWh = 3600 kJ abbiamo un consumo di energia pari a 86 400 kJ, circa 20 640 kcal. Ogni giorno consumiamo in energia chimica dei cibi più o meno un decimo dell’energia elettrica che serve alla nostra casa. Attenzione. Ovviamente anche l’eccesso di energia chimica dei cibi, e La British Thermal Unit (BTU o Btu) è un’unità di misura dell’energia termica usata nei paesi anglosassoni per definire il potere calorifico dei combustibili e la “potenza” dei sistemi di riscaldamento. Ha una definizione molto simile a quella della caloria rispetto alla quale cambia la quantità d’acqua e il fatto che si consideri l’innalzamento di 1 °F (grado Fahrenheit, pari a circa 0,55 °C). Una BTU è definita come la quantità di calore richiesta per alzare la temperatura di 454 grammi di acqua (una libbra) da 60 a 61 gradi Fahrenheit (circa da 15,5 a 16,1 °C). Una BTU è pari a 1 054,8 J. Nel nostro paese le BTU vengono comunemente usate per definire il “potere refrigerante” dei condizionatori, tipicamente variabile da 7 000 fino a 15 000 BTU nei comuni dispositivi domestici. Molti di noi ormai ne possiedono almeno uno per combattere il gran caldo estivo, a spese di un aumentato consumo di combustibili fossili e di una bolletta elettrica decisamente più salata. Ai giorni nostri le energie ci arrivano in casa con un ramificato sistema di tubi e cavi in grado di soddisfare necessità di caldo (per cucinare e scaldarsi). Ma fino a pochi anni fa, non più di mezzo secolo, i carbonai preparavano la carbonella da vendere in città e il pane si cuoceva nel forno a legna. 31 UNA GITA IN AUTO PER RIFLETTERE SULLE TANTE Energia termica ER I S DOS Ne abbiamo già accennato, l’energia termica di un sistema rappresenta l’energia cinetica media delle molecole (EC) la quale è proporzionale alla temperatura assoluta del sistema (T) secondo l’equazione: La nostra carrellata di immagini prosegue con due fotografie della Grande guerra, che impegnò dal 1915 al 1918 l’esercito italiano e quello austriaco sulle vette delle Alpi Orientali. Il conflitto costò seicentomila vittime. Queste immagini ricordano l’orrore provocato dall’uso delle armi in guerra. La molecola del 2,4,6-trinitrotoluene, forse più noto come tritolo o TNT. Il suo potere esplosivo è alla base della definizione di kiloton, l’unità di misura della potenza degli esplosivi. 32 3 kT Ec = – 2 dove k è la costante di Boltzmann, k = 1,380 650 5 x 10-23 J K-1. Il termine Ec tiene conto dei movimenti di traslazione, di rotazione e di vibrazione delle particelle. Guardando le dimensioni di k e ricordando che la temperatura assoluta si misura in kelvin (K) è facile verificare che EC si misura in joule. Gli usi principali dell’energia termica sono già noti ai più: dagli usi domestici per la cucina e per scaldare acqua e ambienti, agli usi industriali, per esempio nella fusione dei metalli o del vetro, o nell’industria chimica per accelerare le reazioni, nell’industria alimentare, e molto altro ancora. La conversione di energia termica in cinetica serve per la produzione di energia elettrica nelle centrali dove il calore, generato dalla combustione di petrolio, carbone, gas, o biomasse, o quello generato dalla reazione di fissione dell’uranio, viene usato per scaldare acqua e produrre vapore sotto pressione che viene incanalato forzatamente attraverso le pale di una turbina che ruotando producono elettricità (Green n. 1, pag. 26). Anche gli effetti negativi dell’eccesso di energia termica sono noti, come quelli che si verificano sempre più di frequente d’estate in seguito alle temperature elevate, che purtroppo causano un incremento della mortalità tra gli anziani. L’eccesso di energia termica negli oceani e in atmosfera aumenta, inoltre, la violenza e la frequenza dei fenomeni meteorologici estremi come tifoni e uragani. Ma l’energia termica ha effetti tristemente noti anche in guerra. Le bombe in genere uccidono riversando sul territorio e sulla popolazione una combinazione di elevate quantità di energia cinetica e termica, grazie all’esplosione. Il movimento violento delle masse d’aria distrugge ciò che incontra intorno, trascina detriti trasformandoli in letali proiettili, in combinazione con un’onda di calore e, nel caso delle bombe atomiche, anche con radiazioni letali. E FORME DI ENERGIA NELLA VITA QUOTIDIANA Energia nucleare Ne abbiamo parlato a lungo nello scorso numero di Green, quindi qui non faremo che un accenno, riguardante soprattutto l’elevato contenuto energetico del “combustibile” nucleare. Sappiamo che si crea energia nucleare quando il nucleo dell’atomo di U-235 (o di un altro materiale fissile) viene colpito da un neutrone “lento” dotato di opportune caratteristiche. L’atomo di uranio si spacca così con diverse modalità in due frammenti di massa diseguale, riemettendo contemporaneamente 2 o 3 neutroni ad alta energia (“veloci”). Tale reazione produce una grande quantità di energia emessa sotto forma di calore e particolari accorgimenti permettono di ottenere una reazione a catena con produzione continuata di energia. Ancora una volta il calore può essere utilizzato per ottenere vapore acqueo in pressione e quindi elettricità mediante turbine. Da un grammo di U-235 si ottiene con questa reazione un quantitativo di energia di circa 22 500 kWh pari a 20 x 106 kcal (kilocalorie). Ciò vuol dire che a parità di peso l’ordine di grandezza dell’energia contenuta nell’uranio è di un milione di volte superiore a quello del petrolio (10 000 kcal kg-1). Manca alla trattazione l’energia chimica cui abbiamo più volte accennato in merito all’energia dei cibi o dei combustibili utilizzati per la produzione di energia elettrica o per i veicoli a motore. Per fascino e complessità questo argomento merita una trattazione approfondita che vedremo prossimamente su Green. Per concludere vogliamo ancora riflettere su quante forme di energia entrano nella nostra vita di tutti i giorni: facciamo l’esempio di una passeggiata in automobile. Un’autovettura funziona con l’energia elettrica della batteria (in realtà è un accumulatore) e con l’energia chimica del carburante (per brevità qui consideriamo solo le auto a benzina). L’energia elettrica permette di far scoccare una scintilla che produce lo scoppio iniziale della benzina nel cilindro e alimenta l’impianto elettrico dell’auto: luci e spie, impianto hi-fi, ventilazione, servomeccanismi: alzacristalli e specchietti elettrici e così via. In questo modo parte dell’energia elettrica si trasforma in altre forme di energia, come quella della radiazione elettroma- gnetica dei fari o quella meccanica di rotazione della ventola dell’impianto di ventilazione e raffreddamento. L’energia chimica del carburante viene convertita dal motore in energia meccanica che permette la rotazione dell’albero e quindi delle ruote, trasformandosi in energia cinetica dell’auto in movimento grazie all’interazione delle ruote con l’asfalto (attrito di rotazione). Parte dell’energia meccanica di rotazione dell’albero motore viene ritrasformata in energia elettrica. Nelle nostre auto c’è infatti un alternatore, cioè una macchina elettrica rotante, che trasforma energia meccanica in energia elettrica sotto forma di corrente alternata; esso ha la funzione di mantenere carica la batteria ed alimentare tutte le funzioni elettriche di bordo. Poiché la batteria opera in corrente continua, è presente un “raddrizzatore”, un particolare dispositivo elettrico che ha la funzione di trasformare la corrente alternata in continua. Non tutta l’energia chimica del carburante viene trasformata in energia meccanica utile. In genere solo il 28% circa dell’energia chimica della benzina viene convertita in energia meccanica che muove il pistone, contro il 33% circa del motore a gasolio. La maggior parte dell’energia viene espulsa dal motore attraverso la marmitta. L’energia meccanica serve a mettere in moto tutte le parti meccaniche del motore e viene quindi in buona parte convertita in movimento del veicolo. Dobbiamo anche ricordare che la nostra auto si muove in un campo di forze conservativo, il campo gravitazionale. Quindi l’energia cinetica della nostra auto in movimento può convertirsi in energia potenziale. Supponiamo di avere davanti a noi una salita. Se non diamo più gas e lasciamo andare l’auto per abbrivio, trascurando tutte le forze dissipative (attriti), se riusciamo ad arrivare in cima alla salita e a quel punto l’auto si ferma, tutta la sua energia cinetica si è trasformata in energia potenziale, che può trasformarsi nuovamente in energia cinetica quando, una volta fatta inversione, torniamo al bordo della discesa e lasciamo che la macchina ridiscenda in folle. Cosa da farsi solo negli esempi, ma non nella pratica in quanto è decisamente pericoloso viaggiare senza il motore in rotazione, perché non funzionano vari apparati dell’auto, tra cui i sistemi idraulici ed il servofreno. Fulvio Zecchini 33 Abbonati a “Green”, è nuova e diversa! Due sono le modalità di abbonamento, mediante invio del modulo di richiesta di abbonamento (vedi fac-simile in alto a destra) scaricabile dal sito di “Green” alla pagina www.green.incaweb.org/abbonamenti/index.htm • via e-mail: compilare il modulo di richiesta di abbonamento on-line e inviarlo a [email protected] • via fax: compilare il modulo di richiesta di abbonamento e inviarlo allo 06 59 26 103. Costo dell’abbonamento L’abbonamento annuale a “Green” comprende l’invio di 10 numeri consecutivi della rivista al prezzo di 20,00 euro (IVA incl.; sconto 20% sul prezzo di copertina). Viene previsto uno sconto particolare per i professori della scuola secondaria e per le istituzioni scolastiche che potranno sottoscrivere l’abbonamento annuale al costo di 15,00 euro (IVA incl.; sconto del 40% sul prezzo di copertina) con invio obbligatorio presso l’istituto. Pagamenti Il pagamento dell’abbonamento va effettuato mediante bollettino postale con versamento su c.c.p. n. 80254360 intestato a “Consorzio INCA - Rivista Green”, in un’unica soluzione anticipata. Si potrà utilizzare il bollettino parzialmente precompilato allegato alla rivista. 34 L’altro modo di informarsi e formarsi Tempi di attivazione La rivista viene inviata all’indirizzo indicato dal sottoscrivente entro 45 giorni a partire dalla data di sottoscrizione dell’abbonamento, previa verifica dell’effettuazione del pagamento. Se ci si abbona entro il giorno 10 del mese è possibile l’invio della rivista in uscita il mese successivo (ciò dipende dalla rapidità con cui vengono registrati i pagamenti con i bollettini postali che impiegano 10-30 giorni dalla data di versamento). Cambio indirizzo In caso di cambio di indirizzo, temporaneo o definitivo, basterà comunicarlo alla redazione di “Green” via email; al successivo numero utile la rivista verrà spedita al nuovo indirizzo senza alcun sovrapprezzo. Rinnovo e cessazione L’abbonamento dovrà essere rinnovato entro 45 giorni dalla scadenza annuale. Scadenza e numero di copie residue da inviare saranno indicate nell’etichetta che ac- A fronte delle sempre più numerose richieste pervenute il Consorzio INCA, editore di Green, non può far fronte a ulteriori costi, che già sono consistenti, per abbonamenti-omaggio in aggiunta a quelli attualmente garantiti alle scuole secondarie di secondo grado, alle università e alle istituzioni. È per questo che la direzione della rivista apre la campagna abbonamenti rivolta a chiunque abbia interesse a ricevere Green. Per gli insegnanti della scuola secondaria di secondo grado, considerato l’alto valore didattico della rivista, sono previste condizioni di particolare favore, praticamente al costo di produzione. le i m i s c a F È un piccolo contributo che chiediamo per garantire il massimo successo di un’iniziativa per i giovani che sta registrando consensi in tutta Italia. Siamo certi della vostra comprensione e del vostro sostegno. compagna la rivista. In caso di rinnovo entro la scadenza dell’abbonamento, ma con meno di 45 giorni di anticipo, l’invio della rivista potrà essere discontinuato e verrà ripreso comunque entro 45 giorni dalla ricezione del rinnovo. In caso di mancato rinnovo entro la scadenza l’abbonamento sarà da considerarsi cessato. In caso di cessazione anticipata dell’abbonamento da parte dell’abbonato o da parte dell’editore verranno rimborsate le copie residue non inviate, per un ammontare pari a un decimo del valore dell’abbonamento per ogni copia non inviata. La richiesta di cessazione dovrà pervenire per posta via raccomandata alla redazione all’indirizzo sopra riportato. La richiesta verrà processata entro 30 gg. dalla sua ricezione, bloccando l’invio al primo numero tecnicamente utile. Invio numeri arretrati Gli arretrati possono essere richiesti per fax o per e-mail alla redazione ai numeri ed indirizzi sopra riportati, indicando chiaramente i numeri richiesti e le quantità e l’indirizzo di spedizione che avverrà per posta prioritaria. Il prezzo è di 3,00 euro più 2,00 euro di spese fisse di spedizione cadauno. Il pagamento avverrà attraverso bolletino postale sul c.c.p. n. 80254360 intestato a “Consorzio INCA - Rivista Green”, con la causale “richiesta numeri arretrati”. Informativa sulla privacy ai sensi del D. Lgs. 196/2003 e succ. modd. e integrazioni I dati personali saranno trattati dall’editore Consorzio Interuniversitario Nazionale “La Chimica per l’Ambiente” (Consorzio INCA; Marghera) per dare corso alla richiesta di abbonamento. A tale scopo, è indispensabile il conferimento dei dati anagrafici e il contestuale consenso al trattamento degli stessi. In caso di mancato consenso sarà impossibile procedere alla sottoscrizione dell’abbonamento. Responsabile del trattamento dei dati personali è l’editore. Con il sopraccitato consenso al trattamento, l’editore potrà fornire i dati a suoi incaricati ai soli fini dell’invio della rivista: addetti alla stampa, al confezionamento e alla distribuzione della rivista, o altri soggetti coinvolti. I dati personali non saranno ceduti a terzi a fini pubblicitari o commerciali. Ciascuno può in ogni momento e gratuitamente esercitare i diritti previsti dall’articolo 7 del D. Lgs. 196/03 e cioè conoscere quali dei suoi dati vengono trattati, far integrare, modificare o cancellare i propri dati o opporsi al loro trattamento - inviando lettera raccomandata a: Consorzio Interuniversitario Nazionale “La Chimica per l’Ambiente”, via delle Industrie 21/8, 30175 Venezia-Marghera. 35 LE NUOVE FRONTIERE DELLA CHIMICA Alla ricerca di Andrea Pochini Il progredire della scienza è un processo lento, basato sul dubbio sistematico e sull’acquisizione di verità relative. Infatti l’enorme numero di conoscenze raggiunte non sono mai dichiarate “vere”, ma solo “plausibili”. In particolare lo sviluppo della conoscenza in generale e di quella scientifica in particolare può essere paragonato all’evoluzione subita dai sistemi biologici. Questi infatti erano inizialmente unicellulari, ma si sono poi sviluppati, al fine di affrontare ambienti sempre più diversificati, in strutture sempre più complesse di tipo pluricellulare. Analogamente l’approccio scientifico, che era all’ini- zio quasi esclusivamente monodisciplinare, si è andato sviluppando in logiche sempre più spiccatamente pluridisciplinari. Questo è evidentemente legato alla possibilità di affrontare, interagendo in una logica multifunzionale e cooperativa, problemi sempre più complessi, che proprio per le loro caratteristiche possono trovare solo soluzioni in ambiti disciplinari ad elevata complessità. In questa logica nel corso delle loro ricerche gli scienziati, modificando i loro metodi ed i loro procedimenti nello stesso modo in cui modificano i loro strumenti di misura e le loro teorie, hanno creato nuovi linguaggi scientifici disciplinari quali mezzi di interpretazione e di comunicazione ed hanno appre- Largamente impiegati per diluire o sciogliere altre sostanze, per esempio nel settore delle vernici, dei metalli o nella pulitura a secco, questi liquidi hanno spesso comportato rischi per la salute e per l’ambiente. 36 so i linguaggi di discipline affini. I criteri di scelta dei solventi e più in particolare la valutazione dei vari pericoli, fra cui anche quelli ambientali, correlati con il loro utilizzo, sono una interessante ed istruttiva esemplificazione del modo di procedere legato al progredire delle conoscenze provenienti da settori anche molto lontani dalla chimica e di come queste abbiano determinato nuovi criteri nella valutazione delle scelte. I solventi infatti sono sostanze liquide usate su larga scala per diluire o sciogliere un’altra sostanza al fine di ottenere una soluzione. L’acqua è un solven- te largamente usato ma non è un buon solvente per molte sostanze organiche che contengono atomi di carbonio e di idrogeno. Per questo vengono largamente impiegati solventi organici, ad esempio nel settore delle vernici, nella rimozione di sostanze protettive da metalli, tessili, nella pulitura “a secco” di vestiti ed in molte applicazioni nel settore chimico. Prima di affrontare questo specifico problema occorre fare una introduzione sulla visione molecolare della materia sia per comprendere i vari stati fisici, ed i Ma i chimici sono al lavoro per trovare alternative ecocompatibili e hanno già raggiunto importanti risultati. Vediamo quali. dei solventi verdi PRIMA PARTE comportamenti chimici come ad esempio la sua reattività, sia per capire cosa sono, come lavorano e dove si utilizzano i solventi e i criteri di scelta degli stessi. Al fine di ottenere una corretta comprensione di questi concetti occorre infatti scendere dalla visione macroscopica, ad esempio un liquido con specifiche caratteristiche come il punto di ebollizione, a quella microscopica o molecolare. Quest’ultima è utile per vedere e capire la struttura e le proprietà delle molecole che costituiscono il liquido e che quindi determinano le sue proprietà chimiche e fisiche. Un caccia da combattimento sulla piattaforma di revisione. In questa fase delicata vengono controllati il rivestimento di polimeri, la viscosità dei fluidi dell’impianto idraulico, gli olii lubrificanti, gli snodi in movimento, qualità e quantità di carburante. In tutta questa fase i solventi rivestono un’importanza di primo piano. Immagine di Ornella Erminio 37 LE NUOVE FRONTIERE DELLA CHIMICA atomi alle molecole. Dagli Energia di un sistema a due atomi in funzione della distanza interatomica Le interazioni intramolecolari: legami covalenti Partendo dagli atomi dei vari elementi noti e presenti nella Tavola periodica, che sono poco più di cento, si verifica che quelli presenti nella crosta terrestre in quantità significative scendono a circa quindici. Infine nei sistemi biologici, quale ad esempio il corpo umano, gli elementi significativi scendono a circa dieci ed in particolare quattro di questi, il carbonio (C), l’idrogeno (H), l’ossigeno (O) e l’azoto (N), costituiscono più del 95% in peso del corpo umano. Come vedremo, anche i solventi sono normalmente caratterizzati dalla presenza di questi quattro elementi. Gli atomi non sono normalmente stabili e cercano di evolvere per raggiungere, a livello degli elettroni che li caratterizzano, una configurazione stabile a più bassa energia tipica dei gas nobili. Per ottenere questo risultato gli atomi mettono in compartecipazione i propri elettroni con quelli di uno o più altri atomi dando origine a legami intramolecolari, definiti covalenti, arrivando così alla formazione di una molecola. Come tipici esempi prendiamo la molecola di idrogeno e quella di metano. L’atomo di idrogeno ha un solo elettrone che mette in compartecipazione con un altro atomo di idrogeno al fine di ottenere un legame fra i due atomi. Con questo legame viene raggiunta una situazione elettronica in cui ci sono due elettroni condivisi che è uguale a quella che caratterizza il gas nobile Elio. Attraverso la condivisione dei due elettroni, i due atomi si trovano nella molecola ad una distanza di 74 pm (distanza di legame) e l’energia del sistema si abbassa di 436 kJ/mole. In maniera analoga il Carbonio, caratterizzato da quattro elettroni da condividere, forma quattro legami con quattro atomi di Idrogeno al fine di raggiungere la situazione elettronica stabile ad otto elettroni, che caratterizza il gas nobile Neon. In questo modo si forma la molecola di metano CH4. Come regola generale possiamo dire che formando un legame si libera energia mentre per rompere un legame occorre fornire energia al sistema. 38 La tavola di Pauling, due volte Nobel per la chimica e la pace Linus Carl Pauling (Portland, 28 febbraio 1901 – Big Sur, 19 agosto 1994) era un chimico statunitense. Come riporta la biografia tratta da Wikipedia si è dedicato soprattutto alla chimica quantistica ed alla fisica ed è il padre del legame chimico. Ha ricevuto due premi Nobel, il primo per la chimica nel 1954 e il secondo per la pace nel 1962. Gli altri che hanno ricevuto due premi Nobel sono Marie Curie (fisica e chimica), John Bardeen (entrambi in fisica) e Frederick Sanger (entrambi in chimica). Pauling è l'unico tra essi che non li ha ottenuti in condivisione con altre personalità. Il suo libro La natura del legame chimico fu pubblicato nel 1937 e rappresenta un classico della letteratura chimica internazionale. Le nuove regole per determinare le lunghezze dei legami chimici e le altre proprietà delle molecole sono state scritte sulla base del nuovo concetto di risonanza, inventato dallo stesso Pauling. Il grande chimico applicò la meccanica quantistica per determinare la struttura delle molecole e la natura dei legami. I suoi lavori sul legame chimico, a partire dal 1931, hanno risolto tutti gli enigmi sulla formazione di molecole contenenti atomi uguali. Pauling spiegò anche l’affinità chimica e compilò la più nota scala di elettronegatività. Valori di elettronegatività degli atomi Elettronegatività, legami covalenti polarizzati e polarità delle molecole Alla ricerca dei solventi verdi Quando due atomi diversi sono uniti da un legame covalente, l’attrazione esercitata da ogni atomo sugli elettroni di legame può essere messa in relazione con una proprietà detta elettronegatività. Questa proprietà misura la capacità relativa dei vari atomi di attrarre elettroni. Molto adoperata è la scala delle elettronegatività di Pauling (vedi la tabella qui sopra) in cui l’elettronegatività viene espressa numericamente. A valori più elevati corrispondono atomi più elettronegativi. L’elettronegatività cresce a parità di periodo (riga) da sinistra a destra ed a parità di gruppo (colonna) dal basso verso l’alto, per cui l’atomo più elettronegativo è il fluoro. Ad esempio, in una molecola di HCl, l’atomo di cloro, più elettronegativo rispetto all’idrogeno, esercita un’attrazione maggiore sugli elettroni di legame, per cui il baricentro delle cariche positive e quello delle cariche negative non coincidono: quest’ultimo è più spostato verso l’atomo di cloro. Questa distribuzione non simmetrica delle cariche, dà luogo ad un legame covalente polarizzato in cui gli elettroni sono spostati verso l’atomo più elettronegativo. La presenza di un tale legame è la condizione necessaria, ma non sufficiente, per avere una molecola polare, in cui i baricentri separati delle cariche positive e negative costituiscono un dipolo. Il dipolo (vettore), generato grazie alla presenza di un elemento fortemente elettronegativo, può essere rappresentato formalizzando sul cloro una parziale carica negativa e sull’idrogeno una parziale carica positiva, indicate con questi simboli: δ+ δH-Cl Il dipolo può essere quantificato dal valore del momento dipolare, che, in una molecola formata da più di due atomi, si calcola facendo la somma vettoriale dei valori di momento dipolare relativi a tutti i legami presenti. In una molecola biatomica il momento dipolare (µ) dipende dalla differenza (∆) di elettronegatività degli atomi ed aumenta H-F µ = 1,82 ∆ Elettronegatività = 1,9 H - Cl µ = 1,03 ∆ Elettronegatività = 0,9 H - Br µ = 0,82 ∆ Elettronegatività = 0,7 H-I µ = 0,44 ∆ Elettronegatività = 0,4 quando questa differenza diventa più grande: Questa polarizzazione può essere evidenziata anche utilizzando le mappe di potenziale elettrostatico, che mostrano, tramite l’uso di colori, la densità di carica associata con una Potenziali elettrostatici di alcune molecole biatomiche Rosso < Arancio < Giallo < Verde < Potenziale elettrostatico più negativo LiH H2 Blu Potenziale elettrostatico più positivo HF 39 LE NUOVE FRONTIERE DELLA CHIMICA Quando i solventi... risolvono I diluenti nei colori dell’arte: un talento anche la chimica giusta Una restauratrice provvede ai ritocchi ad un’immagine sacra che il tempo ha danneggiato. Ha a disposizione uno scaffale di pigmenti, lacche, solventi e prodotti naturali atti a garantire all’opera la restituzione alla freschezza delle origini. Momenti dipolari (µ): effetti della polarizzazione dei legami e della forma delle molecole Molecole apolari Molecole polari µ=0D CO2 Elettronegatività C = 2,5 O = 3,5 µ=0D CF4 Elettronegatività C = 2,5 F = 4,0 O=C=O H20 µ = 1,85 D Elettronegatività H = 2,1 O = 3,5 NH3 µ = 1,47 D Elettronegatività H = 2,1 N = 3,O Le forze intramolecolar i possono essere suddivise in ioniche, covalenti e legami metallici, sebbene non ci sia una netta suddivisone tra queste descrizioni. superficie molecolare. Quando il legame covalente unisce due atomi uguali, come ad esempio in H2 o Cl2, i centri delle cariche positive e negative sono coincidenti, in un punto equidistante dai due nuclei, e conseguentemente questi legami non presentano polarità. Quindi sono apolari le molecole in cui gli atomi non presentano una significativa differenza di elettronegatività, oppure quelle simmetriche (per esempio CO2, CF4) in cui dipoli uguali si annullano a vicenda. In queste molecole il momento dipolare è nullo. Quindi la polarità di una molecola richiede sia la presenza di un legame covalente polarizzato sia una forma non simmetrica della molecola. Chiudiamo questa prima parte introduttiva sulle forze intramolecolari presentando nella tabella sotto un quadro più completo di tali forze e delle loro energie, ribadendo che qui ci occuperemo solo di quelle covalenti. Le Forze intramolecolari sono quindi caratterizzate da energie relativamente elevate. Formare o rompere questi legami richiede pertanto molta energia, come vedremo nelle Le forze intramolecolari Forza Pittori al lavoro ai quattro angoli del mondo. Usano colori ad olio, acrilici, tempere e smalti, vernici a base di nitrocellulosa o altri prodotti. A ciascuno il diluente adeguato. 40 Modello Attrazione Energia Esempio Ionica Catione – anione 400-4000 NaCl kJ/mol Covalente 150-1100 H-H Nuclei che condividono una kJ/mol coppia di e- Legame metallico Elettroni delocalizzati 75-1000 kJ/mol Fe interazioni intermolecolari: Le attrazione e repulsione Alla ricerca dei solventi verdi Le molecole interagiscono con altre molecole tramite forze attrattive intermolecolari. Una semplice dimostrazione dell’esistenza di tali forze si può avere confrontando l’acqua allo stato solido (ghiaccio), liquido e gassoso. Se non esistessero tali interazioni l’acqua dovrebbe esistere come gas. Le interazioni fra le molecole di acqua (interazioni intermolecolari) sono responsabili dell’esistenza dell’acqua liquida o solida. Formare o rompere questi legami richiede, come vedremo nei cambiamenti di stato fisico (solido – liquido – gas ) o nei processi di solubilizzazione, energie molto più basse. Nella tabella qui sotto sono presentate le varie possibili interazioni intermolecolari, con i valori energetici relativi. In questo articolo affronteremo solo quelle che avvengono fra specie non cariche (dipolo – dipolo, dipolo – dipolo indotto e le forze di dispersione di London cioè dipolo istantaneo – dipolo indotto). Va anche tenuto presente che le molecole polari interagiscono fra di loro con tutte e tre le possibili interazioni. Interazioni dipolo – dipolo: i dipoli si allineano completamente o parzialmente nel campo elettrico generato del dipolo adiacente, tale orientazione è contrastata dall’energia termica del sistema. Si ricorda che solo allo zero assoluto (0 K), circa – 273°C, le molecole sono immobili come pure gli atomi all’interno delle molecole. Ad esempio a temperatura ambiente (circa 300 K) nei liquidi e nei gas le molecole si muovono ed anche gli atomi dei vari legami oscillano spostandosi dalla distanza ottimale, corrispondente al minimo energetico della Distanza di Legame. Interazioni dipolo – dipolo indotto: gli elettroni di una molecola sono mobili per cui quando una molecola si avvicina a un dipolo, parzialmente carico, questi si muoveranno in risposta al campo elettrico prodotto dal dipolo, avvicinandosi alle parziali cariche positive ed allontanandosi da quelle negative. Questa libertà di movimento posseduta dagli elettroni di una molecola viene chiamata polarizzabilità. Gli atomi piccoli, che possiedono pochi elettroni in prossimità dei protoni nucleari, sono molto poco polarizzabili. Al contrario gli atomi caratterizzati da un elevato numero atomico, avendo molti elettroni collocati in zone lontane dal nucleo, sono molto più facilmente polarizzabili. Su una molecola che contiene atomi facilmente polarizzabili sarà possibile la formazione di un dipolo indotto. La polarizzabilità delle molecole è maggiore quando il loro indice di rifrazione è più elevato (vedi i valori di elettronegatività degli atomi). Forze di dipersione di London: possono essere interpretate come dovute all’attrazione tra dipoli istantanei che si generano in molecole apolari. Tali dipoli si formano ad esempio per perdita di simmetria della mo- Tipi di interazioni intermolecolari Nei liquidi le interazioni dipolo–dipolo possono essere sia attrattive che repulsive (↔) Interazione intermolecolare Energia Esempi (KJ/mol) …. Ione – dipolo ione – carica del dipolo 40 – 600 Na O Dipolo – dipolo Cariche dei dipoli 5 – 25 I – Cl I – Cl Ione – dipolo indotto Ione – nube e- polarizzabile 3 – 15 e polarizzabile Fe2+ O2 Dipolo – dipolo indotto carica del dipolo - nube e- polarizzabile 2 – 10 H – Cl Cl – Cl Dispersione (London) nubi e- polarizzabili 0,05 – 40 F–F F–F H H …. …. …. …. 41 LE NUOVE FRONTIERE DELLA CHIMICA Interazioni dipolo-dipolo nei vari stati fisici della materia. Stati fisici della materia: Solido Gas-Liquidi-Solidi Gli stati fisici della materia Liquido Gas lecola come conseguenza dei moti molecolari. Ad esempio nel CCl4, che è una molecola priva di momento dipolare perché simmetrica, i moti molecolari possono allungare uno dei quattro legami C-Cl creando così un dipolo istantaneo. Tale dipolo polarizzerà a sua volta un’altra molecola di CCl4, molecola facilmente polarizzabile per la presenza degli atomi di cloro in cui gli elettroni sono sufficientemente diffusi. Legame ad idrogeno: questa particolare interazione intermolecolare presenta energie relativamente elevate (ad esempio 20 – 40 kJ/mole) e si verifica fra atomi di idrogeno legati ad atomi ad elevata elettronegatività (F, O, N) ed elettroni presenti su altri atomi di F, O, N. Molecole che danno interazioni intermolecolari via legame ad idrogeno Liquido Liquido Nei gas le forze attrattive intermolecolari sono praticamente nulle e le molecole sono libere di muoversi con una velocità che aumenta all’aumentare della temperatura (energia cinetica). Nei liquidi esistono consistenti interazioni intermolecolari fra le molecole, che le costringono a tenersi in stretto contatto con le altre molecole anche se mantengono una certa libertà di movimento. Nei solidi queste forze sono talmente elevate da bloccare ogni movimento, come mostra la figura qui sopra. Cambiamenti di stato. Nello schema qui sotto sono stati riassunti i possibili passaggi di stato: con le frecce blu sono stati indicati i processi in cui viene ceduta energia, mentre in rosso quelli in cui bisogna fornire energia perché avvengano. Ad esempio, il calore di evaporazione è una misura delle energie delle forze intermolecolari presenti fra le molecole del liquido e che vanno vinte per farlo passare allo stato gassoso. Ne consegue che Variazioni energetiche nei passaggi di stato H-F 42 H2O NH3 Solido Alla ricerca dei solventi verdi una misura delle energie associata alle forze intermolecolari si può ottenere dai punti di ebollizione delle varie sostanze. Nella figura a lato sono riportate una serie di molecole apolari sia monoatomiche come i gas nobili Elio, Neon, Argon, Kripto e Xeno, sia biatomiche come gli alogeni Fluoro, Cloro, Bromo e Iodio, con i loro relativi punti di ebollizione. I punti di ebollizione crescono enormemente con l’aumentare della grandezza dell’atomo (peso atomico) o della molecola (peso molecolare PM ottenuto dalla somma dei pesi atomici). Questa proporzionalità può essere messa in stretta correlazione con un aumento della polarizzabilità dell’atomo più grande e conseguentemente delle forze di dispersione di London. Un aumento del punto di ebollizione con il peso molecolare si osserva anche con gli alcani, molecole che contengono solo atomi di carbonio e di idrogeno (tabella in basso). In questo caso le molecole apolari aumentano il numero di interazioni dipolo istantaneo – dipolo indotto all’aumentare della lunghezza della catena, e conseguentemente anche le relative energie. Quando i solventi... risolvono Diluire per vaporizzare le vernici che si applicano in aerosol La verniciatura a spruzzo è applicata particolarmente nelle piccole produzioni con pistole manuali o impianti altamente automatizzati, nel caso delle grandi finiture nelle catene di montaggio. La vernice è diluita in percentuali rilevanti per offrire scarsa resistenza alla vaporizzazione. Vanno prese tutte le misure necessarie ad evitare l’inalazione del composto. Anche le frazioni petrolifere, costituite prevalentemente da idrocarburi apolari ed ottenute dalla distillazione del petrolio, hanno temperature di ebollizione che aumentano all’aumentare del peso molecolare e quindi del numero di atomi di carbonio contenuti nelle molecole Punti di ebollizione, numero degli atomi di carbonio e pesi molecolari (PM) del metano e di alcuni alcani a catena lineare Peso molecolare Punto di ebollizione Metano CH4 12+4x1=16 -164,0 °C Propano C3H8 44 -42,1 °C n - Butano C4H10 58 0,5 °C n - Esano C6H14 86 68,9 °C n - Decano C10H14 134 174,1 °C n - Eicosano C20H42 282 343 °C L’applicazione è ottenuta mescolando aria compressa alla miscela di resine pigmento. L’ alta diluizione rende spesso necessarie più applicazioni del prodotto. 43 LE NUOVE FRONTIERE DELLA CHIMICA Alla ricerca dei solventi verdi presenti nelle varie frazioni illustrate nella tabella qui sotto. Quando la molecola non è più apolare, oltre alle forze di dispersione di London intervengono anche gli altri tipi di interazioni intermolecolari. Frazioni petrolifere Frazione N° atomi di C delle molecole Temperatura di Usi ebollizione °C Gassosa 1-4 < 40 Nafta 5 - 10 25 - 175 Cherosene Gasolio leggero Gasolio pesante 10 - 16 14 - 50 20 - 70 150 - 260 235 - 360 330 - 380 Olio lubrificante > 60 340 - 575 Olio combustibile > 70 > 490 Bitume > 580 > 80 Combustibile Bombole di gas liquido Benzina per auto Prodotti chimici Combustibile per aerei Gasolio per auto Sorgente di prodotti per il “cracking” Prodotti lubrificanti Prodotti per il “cracking” Combustibile per impianti termoelettrici e navi Superfici stradali, tetti Riportiamo (tabella in basso) tre molecole che hanno peso molecolare simile ma presentano diversi tipi di interazione intermolecolari. All’aumentare di queste interazioni aumenta anche il punto di ebollizione. Equilibri liquido-gas: tensione di vapore. Nei liquidi le molecole hanno una energia cinetica determinata dalla temperatura in cui questi si trovano. Le molecole hanno energie Correlazione ra le forze attrattive intermolecolari e la temperatura di ebollizione Temperatura Tipologia delle forze di ebollizione attrattive intermolecolari * Molecola Formula Propano Etere dimetilico Alcol etilico CH3CH2CH3 -42°C CH3OCH3 -25°C CH3CH2OH +78°C Tipo 1 Tipo 1+2 Tipo 1+2+3 *Dove le Forze attrattive intermolecolari vengono scomposte in: Tipo 1 = Dipolo istantaneo (dissimetrizzazione da moti molecolari) - dipolo indotto (polarizzabilità) [Forze di dispersione di London]; Tipo 2 = Dipolo - dipolo o dipolo-dipolo indotto; Tipo 3 = Legame ad idrogeno 44 differenti con una distribuzione statistica delle energie e quindi alcune di esse hanno una energia sufficiente per vincere le interazioni intermolecolari e passare in fase gas. Tale equilibrio è dinamico e quindi molecole di gas, perdendo parte della propria energia, possono tornare nella fase liquida. Equilibri liquido–gas La tensione di vapore di un liquido ad una certa temperatura misura la pressione esercitata dal vapore ed è un indice del numero di molecole presenti allo stato di vapore ed aumenta all’aumentare della temperatura e al diminuire della energia delle interazioni intermolecolari. Dipendenza della tensione di vapore dalla temperatura (Temperatura di ebollizione = P.E.; Tensione di vapore; Calore di evaporazione = ∆ Hvap). Parametri relativi al passaggio di stato liquido–gas Sostanza Butano Etere dietilico Metanolo Etanolo Acqua Decano Densità di gas = K(PM) [K=costante a T, p=costanti] P. E. Tensione ∆ Hvap (ºC) di vapore (kJ/mol) 25ºC (mm Hg) -1 35 65 78 100 174 1780 480 120 60 20 0,80 22 27 38 43 44 51 Quando, con l’aumentare della temperatura, la tensione di vapore del liquido raggiunge 760 mm Hg (pressione atmosferica) abbiamo raggiunto la Tebollizione e tutte le molecole di liquido passano allo stato di vapore portando all’ebollizione del liquido stesso. Un altro parametro importante che determina la diffusione di un gas o di un vapore nell’ambiente è la sua densità relativa rispetto all’aria. La composizione dell’aria è circa la seguente: 78% azoto (PM = 28), 21% ossigeno (PM = 32), e 1% argon (PM = 40). Il peso molecolare (PM) di questa miscela gassosa si ottiene dalla media pesata dei pesi molecolari. Peso molecolare medio dell’aria = 0,78 x 28 + 0,21 x 32 + 0,01 x 40 = ca. 29 Applicando l’equazione di stato dei gas pv = (g/PM)RT, dove p, v, T, g e PM sono rispettivamente la pressione, il volume, la temperatura, i grammi ed il peso molecolare del gas, si ricava che la densità di un gas d = g/v = (p/RT)PM dipende dalla pressione, temperatura e dal peso molecolare del gas stesso. Operando quindi a temperatura e pressioni costanti la densità diviene direttamente dipendente dal peso molecolare del gas. Il peso molecolare delle sostanze organiche è generalmente >> 29; per cui la densità dei gas o vapori da sostanze organiche >> densità aria. Questi stratificano quindi verso il basso (si diffondono lentamente nell’atmosfera). Densità relativa di alcuni gas Etere dietilico C2H5O C2H5 PM = 74 Butano Metano Idrogeno C4H10 CH4 H2 PM = 58 PM = 16 PM = 2 Vapore molto pesante Gas pesante Gas leggero Gas molto leggero La densità relativa di questi gas determina la loro diffusione nell’aria e quindi anche la posizione di eventuali sensori specifici istallati in una logica protettiva. Così, ad esempio, un rivelatore per gas di città (CH4) dovrà essere collocato a soffitto mentre quello per i gas in bombole (miscela di propano e butano) va collocato in basso. Altri esempi di importanza della densità dei gas nel determinare eventuali rischi viene dalla CO2 che si libera nella fermentazione alcolica (produzione di vini). Questo gas ha un peso molecolare uguale a 44 e quindi essendo più pesante dell’aria stratifica verso il basso del tino spostando l’aria ivi presente. Se una persona, al termine del processo fermentativo, entra in un tino non opportunamente ventilato si trova a contatto con un gas non tossico ma soffocante. Infatti la diminuzione di ossigeno presente nel tino può portare a rischi anche mortali. Nella stessa logica la liberazione di una enorme quantità di CO2 dal lago vulcanico Nyos nel Camerun il 21 agosto 1986 ha portato alle morte per soffocamento di circa 1800 persone. (Wikipedia) 45 LE NUOVE FRONTIERE DELLA CHIMICA Soluzioni, i due casi se mescoliamo Alla ricerca dei solventi verdi solido e liquido La solubilizzazione del cloruro di sodio (sale da cucina) Na+ Cl- Na+ ClCl- Na+ Cl- Na+ Na+ Cl- Na+ ClCl- Na+ Cl- Na+ Na+ Cl- Na+ ClCl- Na+ Cl- Na+ Soluto Solvente (H2O) Soluzione Nella figura qui sopra è schematizzato il processo di solubilizzazione del sale da cucina (soluto solido) in acqua (solvente liquido). Anche la miscibilità dei liquidi in generale e dei solventi in particolare può fornire utili indicazioni sui parametri che guidano il processo di solubilizzazione (figura in basso). L’acqua, molecola polare in grado di formare legami ad idrogeno, scioglie l’acetone che è anch’esso polare ed avente la capacità di accettare legami ad idrogeno. Questi due solventi sono quindi completamente miscibili tra loro. Al contrario l’acqua non scioglie, ad esempio, l’esano o il diclorometano che sono molecole non polari e questa immiscibilità dà origine alla formazione di due fasi liquide di cui quella con densità più bassa formerà lo strato superiore della miscela eterogenea. Mentre l’esano è meno denso dell’acqua il diclorometano è più denso e quindi costituirà la fase inferiore del sistema bifasico. Se mescoliamo due sostanze diverse, ad esempio un solido ed un liquido, possiamo avere due casi: formazione di una miscela eterogenea con presenza di regioni a differente composizione e con osservabili separazioni dei componenti oppure formazione di una miscela omogenea con composizione uniforme e costante e senza osservabili separazioni dei componenti come ad esempio nelle soluzioni. Queste sono in genere costituite da solidi o liquidi disciolti in un altro liquido ma altri tipi di soluzioni sono possibili. Soluzioni Gas-Liquido. Piccole quantità di gas non polari possono essere disciolte in acqua tramite interazioni attrattive dipolo – dipolo indotto. Così a 25°C ed 1 atmosfera 3,2 mL di O2 si sciolgono in 100mL di acqua e questa solubilità è essenziale per la vita negli ambienti acquatici. Tipi diversi di soluzioni + Una dimostrazione della solubilità: la miscibilità di due liquidi Gas in gas Gas in liquido Gas in solido Liquido in liquido Liquido in solido Solido in liquido Solido in solido Esempio Aria (O2, N2, Ar, e altri gas) Acqua gassata (CO2 in acqua) H2 in palladio Gasolio (miscela di idrocarburi) Pasta per otturazione dentale (Mercurio in argento) Acqua di mare (NaCl e altri sali in acqua) Leghe metalliche Soluti e solventi. Soluto è la sostanza che vogliamo sciogliere. Solvente è la sostanza (normalmente un liquido che è la componente principale della miscela) che scioglie il soluto. H2O+CH2Cl2 H2O+CH3COCH3 Nella pagina accanto viene presentata in maniera schematica la miscibilità di vari liquidi. A sinistra ci sono i solventi polari capaci di dare legami ad idrogeno come l’acqua, l’etandiolo o glicol etilenico, l’etanolo e l’acido acetico. La polarità diminuisce con il 2-butanone, l’etil acetato e l’etere etilico ed infine con il toluene, il tetraclorometano e l’esano si “Alla ricerca dei solventi verdi” prosegue nel prossimo numer 46 La miscibilità dei solventi Quando i solventi... risolvono Impasti di pigmenti e resine che si applicano soltanto diluiti Linea continua fra due solventi Linea tratteggiata Linea puntiforme Assenza di linea = completa miscibilità = parziale miscibilità = miscibilità molto bassa = immiscibile hanno i solventi apolari. Come si vede dalla figura, le linee continue, specialmente con i solventi capaci di dare legami ad idrogeno, sono presenti solo con i solventi contigui. La regola generale che quindi si può ricavare da questi dati, ma anche da quelli riportati in precedenza per la solubilità, è che “le sostanze simili sciolgono sostanze simili”. Le regole generali di solubilità Nelle immagini esempi di giganteschi lavori di verniciatura ed altri di dimensioni più modeste e a portata di tutti. Basilare è comunque la figura al centro, il tecnico addetto alla preparazione corregge la “viscosità” dei prodotti, così come escono dalle aziende, per adattare la densità della vernice alla superficie. Le soluzioni si formano quando sono simili questi tre tipi di forze Il diluente è da mescolare con particolare accortezza per agevolare l’uso degli attrezzi. Se facciamo un bilancio delle forze intermolecolari che entrano in gioco nella solubilizzazione di un soluto, dobbiamo da un lato considerare l’energia spesa per separare sia le molecole di soluto sia di solvente e quindi, perché il processo avvenga, dovremmo ottenere almeno una pari quantità di energia dalle interazioni fra le molecole di soluto e di solvente. Andrea Pochini Dipartimento di Chimica organica e industriale dell'Università di Parma (1 - continua) ro con la seconda parte dedicata ai rischi e alla legislazione... 47 ALTRE FONTI DI INFORMAZIONE: WWW.ANSA.IT; LA REPUBBLICA, CORRIERE DELLA SERA Futuro notizie dal mondo & futuribile ) di Antonella Americo In collaborazione con la Rete Informativa Scienza e Tecnologia (RISeT) del Ministero degli Affari Esteri SVEZIA Energia alternativa svedese in Tanzania La Tanzania sarà la prima nazione africana ad utilizzare fonti di energia alternative, il bioetanolo, grazie ad un accordo economico tra il governo tanzaniano e l’azienda svedese SEKAB AB. Si tratta di un progetto che ha l’obiettivo di ridurre l’importazione di carburante e di favorire la produzione autonoma di energia da bioetanolo, che sarà ottenuto per fermentazione dello zucchero di canna. L’azienda inizierà la sua attività a partire dal mese di settembre a Bagamoyo, sulla costa africana, e creerà opportunità di lavoro per la popolazione locale, per almeno 300.000 nuovi impiegati. Partecipa al progetto anche l’azienda svedese Scania, che produrrà veicoli a bioetanolo nell’impianto di Kibaha. La Camera di commercio svedese ha promesso di investire in Tanzania anche in altri settori, come per esempio il gas, l’agricoltura e le nuove tecnologie dell’informazione. (Monica Pavese) SITO INTERNET www.ippmedia.com Il nuovo materiale deriva da Materiale fibre della specie vegetale eco-compatibile “Kapok” originaria delle Filippine, Indonesia e Myanper mar, che hanno particolari l’assorbimento proprietà assorbenti per olii minerali e che possono essedi olio re riutilizzate fino a sette combustibile volte. Una quantità pari ad 1 kg disperso della nuova sostanza può in- . Un gruppo di ricercatori del KAERI (Korea Atomic Energy Research Institute), coordinato dal dr. Chung Byung-yeoup, ha messo a punto un nuovo prodotto solido, eco-compatibile, in grado di assorbire dispersioni di olio combustibile in ambiente marino. SITO INTERNET 48 fatti assorbire selettivamente fino a 40-60 kg di olio minerale (ma anche toluene, benzene e olio alimentare), senza assorbire acqua. Il potere assorbente del materiale sviluppato risulta pari a 6 volte www.kaeri.re.kr Sunred: lo “scooter armadillo” ad energia solare La ricerca di fonti propulsive alternative al petrolio è da tempo attiva anche nel settore delle due ruote. I veicoli elettrici sono ormai diventati una realtà; attualmente sono allo studio modelli che impiegano sistemi di alimentazione composti da celle a combustibile e idrogeno. SITO INTERNET quello dei “tessuti non-tessuti” attualmente utilizzati. Per le condizioni suddette, dalle operazioni di “strizzamento” del materiale si può ottenere olio puro al 99%. Il problema dell’inquinamento marino di incidenti nel trasporto di olio combustibile è di particolare gravità: nel periodo 1980-2000 si sono registrati almeno 590 casi incidentali tra i quali alcuni di eccezionale gravità come quello della petroliera Exxon Valdez nel 1989 che provocò il rilascio in mare di 36.000 tonnellate di petrolio. L’albero di Kapok con i frutti che penzolano dai rami e da cui si ricava la fibra; A destra un cuscino di fiocchi di Kapok. Il nuovo materiale può essere confezionato in forma sferica a diametri diversi e direttamente lanciato con mezzi aerei sull’area inquinata. Un brevetto internazionale è stato depositato dal KAERI ed una produzione commerciale è in corso di valutazione, anche in relazione ad eventuali esigenze della Guardia costiera coreana per fronteggiare possibili emergenze perché la Corea è il terzo importatore mondiale di olio combustibile. (Antonino Tata) Test Quanta anidride carbonica (CO ) produci nella tua casa? Ma come, non lo sai? 2 “Sunred” funziona richiudendosi dopo aver accumulato energia con la sua “corazza” fotovoltaica. Un’ulteriore conferma della ricerca verso soluzioni di mobilità a basso impatto ambientale e allo stesso tempo capaci di sfuggire al traffico caotico, arriva dallo “scooterarmadillo” della Sunred, una società spagnola che si occupa di progettazione e sviluppo di prototipi di veicoli sportivi e si basa sull'utilizzo dell’energia solare. La “Moto Solar Urbana” è stata presentata in occasione della 34a edizione del Salone Internazionale dell’Auto di Barcellona ed ha ricevuto il premio come migliore inno- Il gas serra che maggiormente contribuisce al riscaldamento globale è proprio la CO2. Il test che troverai al link SITO INTERNET permette di calcolare le emissioni di CO2 della tua casa, inserendo parametri che riguardano il tipo di edificio in cui vivi, le lampadine che usi, i posti letto che hai e altro ancora. Il sito è tutto in inglese e la domanda più difficile alla quale dovrai rispondere è il CAP della tua zona. Ovviamente quello italiano non vale: inserisci un numero a caso, tipo Nw10. Buon divertimento! vazione tecnologica. Ciò che incuriosisce immediatamente in questo prototipo è il design del tutto originale: la copertura di cui è dotato, perfettamente visibile in tutta la sua estensione quando il mezzo non è in corsa, è interamente costituita da piccole cellette fotovoltaiche disposte su placche che nell’insieme ricorda molto la corazza dell'armadillo, simpatico mammifero molto diffuso in Patagonia. La particolarità di questa “corazza” che riveste il veicolo è quella di essere com- (http://sun-red.com/Explotacion/inicioExplotacion.htm) Finanziato il primo progetto israeliano di ricerca per la sicurezza delle risorse idriche da terrorismo biologico e chimico L' Istituto Technion di Haifa ha ricevuto un cospicuo finanziamento da parte della NATO per un progetto di ricerca interdisciplinare sulla protezione e messa in sicurezza delle risorse idriche da possibili attacchi terroristici di tipo chimico o biologico. http://actongo2.direct.gov.uk/index.html Il progetto (il primo di questo tipo in Israele, che si completerà alla fine del 2008) integra modelli matematici per il posizionamento delle stazioni di monitoraggio ed innovazioni tecnologiche per l’identificazione e la neutralizzazione di contaminanti chimici o biologici. Data l’importanza dell’iniziativa, la Israel Water Commission ha ulteriormente finanziato le ricerche. Gli studiosi del Technion impegnati nelle ricerche fanno capo alla facoltà di Chimica, dove si sviluppano strumenti capaci di rivelare la presenza di veleni chimici altamente diluiti in acqua e neutralizzarli, e alla facoltà di Biotecnology Food Engineering, dove la ricerca è incentrata sulla rilevazione rapida di elementi patogeni in acque, utilizzando tecniche di sequenziamento del DNA. (Stefano Boccaletti) posta da cellule ad alta capacità di assorbimento dell'energia solare e di essere retrattile, ovvero quando il veicolo è a riposo questa specie di guscio ricopre praticamente tutto lo scooter, in modo da avere la massima superficie disponibile e immagazzinare così il massimo quantitativo di energia solare, e scompare nuovamente quando lo si riutilizza. La superficie di esposizione complessiva delle placche solari retrattili è di 3,1 m2 , tale da garantire un’autono- mia di 20 km e una velocità massima di 50 km/h. Anche il sistema di gestione dell’energia risulta particolarmente innovativo e il display LCD montato a bordo a comando tattile fornisce in tempo reale al conducente informazioni dettagliate sulle prestazioni del mezzo. Certo le prestazioni a prima vista non sono esaltanti ma in realtà è un passo avanti se si pensa che non è necessario caricare batterie, inserire spine e quant’altro: la Moto Solar Urbana ha bisogno soltanto di un po’ di tintarella. STATI UNITI New York si rinfresca con il ghiaccio In tema di lotta al caldo è questa l’ultima novità che arriva dall’America: in alcuni grattacieli di New York, come la Metropolitan Life Tower in Manhattan (storica sede del Credito Svizzero), si sta sperimentando un sistema di raffreddamento basato sull’aria fredda rilasciata da acqua ghiacciata durante la notte. Sostanzialmente, l’acqua, stivata in enormi cisterne metalliche, viene portata sotto zero durante la notte, quando la temperatura è naturalmente più bassa e la richiesta di energia della città è minore. Durante il giorno i blocchi di ghiaccio si sciolgono lentamente e rinfrescano l’aria circostante. Per distribuire l’aria fresca in tutti gli uffici viene sfruttato il normale sistema di condizionamento, collegato alle cisterne di ghiaccio. Questa metodologia, se diventerà popolare, permetterà di ridurre notevolmente lo sforzo della rete elettrica della Grande Mela, che nei mesi estivi consuma più energia dell’intera nazione del Cile. Inoltre, la nuova soluzione, assicurano gli ingegneri che l’hanno messa a punto, consentirà, in un anno, un beneficio sull’ambiente pari a 223 automobili in meno in circolazione. A New York sia il Credito Svizzero che la Morgan Stanley hanno ricevuto incentivi dalla Autorità per lo Sviluppo e la Ricerca dell’Energia per installare gli impianti di refrigerazione a ghiaccio, nell’ambito di un programma che punta a implementare la rete elettrica newyorchese e a sostenere le imprese a ridurre i propri costi di mantenimento degli uffici. Il problema, al momento, è rendere “economicamente sostenibile” il nuovo sistema di raffreddamento, che dato l’elevatissimo costo dell’impianto e della gestione, è sfruttabile solo dalle grandi compagnie. 49 FONTI: BUR, PORTALE DELLA RICERCA ITALIANA, ERMES AMBIENTE, ANSA, AMBIENTENERGIA notizie dall’Italia & invenzioni Progetti ) di Chiara Palmieri Un progetto italiano per il Golfo Persico Il programma Gemm (Gulf Environmental Monitoring and Management) è stato lanciato dal Comitato Ev-K2 - CNR insieme ad un gruppo di aziende italiane e prevede la creazione di un polo di ricerca ambientale e tecnologica in Medio Oriente per studiare il territorio del Golfo Persico, il mare, l'aria e il clima. Più nel dettaglio, il programma si propone di promuovere lo sviluppo sostenibile, di combattere la desertificazione, la contaminazione delle acque e di risolvere il problema dello smaltimento dei rifiuti e dei trasporti inquinanti. L’area del Golfo Persico ha criticità ambientali enormi estese a tutti i settori, senza dimenticare anche il forte inquinamento dell’aria dovuto alle raffinerie e i terreni inquinati dai prodotti petroliferi da bonificare. È questa un’area in pieno sviluppo che mira a realizzare sia la sostenibilità ambientale che quella economica. L’iniziativa italiana non tratta solo di scienza, ma si allarga alla formazione, alla tecnologia e all’impresa e da questo è nata “Gemm Trust”, un’associazione di aziende italiane operanti in diversi settori. Per creare un legame tra le due anime del progetto Gemm, il Comita- BOLZANO 50 to sta lavorando alla promozione di un Parco tecnologico ambientale che renderà più veloce e facile il dialogo tra la ricerca scientifica e le TERNI sue applicazioni nell’industria, con ricadute importanti sull’innovazione tecnologica e sostenibile a livello internazionale. PADOVA Il più grande impianto fotovoltaico a film sottile A Terni il Sole dà elettricità a 450 famiglie Nasce il climatizzatore ecologico È stata completata l’installazione di uno dei più grandi impianti fotovoltaico a film sottile in Italia. L’impianto, posizionato sul tetto della Cooperativa frutticola Kurmar-Unifrut di Magré in provincia di Bolzano, con una potenza nominale di 700 kWp, ha un’estensione di oltre 8 mila metri quadrati. Fornirà una quantità di energia sufficiente a soddisfare il fabbisogno annuale di corrente di 240 famiglie composte da quattro persone, in tal modo ridurrà l’emissione di gas nocivi di circa 400 tonnellate di CO2 all’anno. Questa tecnologia è formata da una pellicola trasparente a base di tellururo di cadmio (un sale di tellurio, formula TeCd), racchiusa fra due lastre di vetro, che cattura i raggi del sole producendo elettricità; inoltre, garantisce buone performance pur in presenza di tempo nuvoloso. L’impianto fotovoltaico, realizzato dalla società Terni energia, ha una potenza di 875 kWp ed è in grado di produrre elettricità sufficiente a soddisfare il fabbisogno medio annuo di 450 famiglie, sfruttando l’energia del Sole. Si tratta del secondo impianto d'Italia per quantità di energia prodotta. È costato quattro milioni e mezzo di euro ed è formato da 208 stringhe che coprono una superficie di 16 mila metri quadrati. Per la sua realizzazione sono stati utilizzati 4.160 moduli fotovoltaici ed i lavori sono durati circa 2 mesi. L’impianto contribuirà a produrre energia pulita e rinnovabile per una durata di esercizio di almeno 30 anni e porterà alla diminuzione di emissione di anidride carbonica in atmosfera di circa 800 tonnellate annue. Padova vedrà presto la nascita del primo climatizzatore funzionante per il 98% con energia prodotta da pannelli solari, realizzato dalla Schuco international Italia. Il nuovo dispositivo permetterà di ottenere il massimo raffreddamento dell’aria proprio nei momenti di maggiore insolazione, con un consumo di appena il 2% dell'energia elettrica oggi assorbita da un condizionatore di pari capacità. Attualmente le prospettive di produzione riguardano applicazioni in uffici, scuole ed edifici pubblici, ma entro quattro anni saranno disponibili i primi modelli per la refrigerazione degli ambienti domestici. Rivelato il puzzle chimico del dipinto di Antonello da Messina Il Laboratorio di tecniche nucleari per i beni culturali (Labec) di Firenze dell'Istituto nazionale di Fisica Nucleare (INFN) ha identificato con una tecnica d’avanguardia la natura e la distribuzione dei diversi pigmenti del “Ritratto di ignoto” conservato al Museo Civico di Torino e dipinto da Antonello da Messina nel 1476, rivelandone la tecnica pittorica utilizzata. La struttura del quadro, uno dei più famosi del pittore, si è rivelata molto più complessa di quanto si pensasse. L’autore ha lavorato dettagliatamente per ottenere i fantastici effetti di ombreggiatura sulle pieghe del mantello rosso dell’enigmatico gentiluomo. I ricercatori del Laboratorio di tecniche nucleari per i beni culturali (Labec) di Firenze dell’Istituto nazionale di Fisica Nucleare (INFN) hanno esaminato l’opera d’arte senza alterarla minimamente né hanno prelevato campioni, grazie ad una tecnica basata sull’uso di un acceleratore di particelle, chiamata "Particle Induced X-ray Emission" (PIXE). Nella PIXE un microfascio di ioni di bassissima intensità (millesimi di miliardesimo di ampere) viene inviato sul materiale da indagare che risponde emettendo raggi X. La rivelazione delle energie dei raggi X emessi permette di capire la composizione nella zona colpita dal fascio. Nel caso specifico, si sono potuti addirittura svelare i diversi materiali che compongono i singoli strati delle varie stesure pittoriche sovrapposte. Al quadro è stata inoltre applicata una variante di questa tecnica che permette di ricostruire anche la distribuzione dei diversi pigmenti della pittura sulla superficie, con un dettaglio fino al centesimo di millimetro. L’opera ha rivelato una particolare complessità nella realizzazione del mantello rosso. Grazie alla rivelazione della distribuzione in superficie e sui diversi strati di elementi come mercurio, zolfo, alluminio, potassio, si è scoperto che è stato realizzato attraverso un complesso gioco di sovrapposizioni di pigmenti e lacche. Un altro dettaglio rivelato dalla indagine è relativo al piccolissimo fermaglio che chiude il colletto del mantello: Antonello da Messina lo ha aggiunto dopo aver completato la pittura del vestito. Errare humanum est... Gli errori di Green Green n. 1 Novembre 2006 Su segnalazione del nostro attento lettore che si firma col solo nome, Paolo, nell’e-mail inviata alla nostra redazione il 27 marzo 2007, segnaliamo che a pag. 27 parlando delle centrali eoliche d’Italia è riportato «La più potente è quella di Varese Ligure, un impianto eolico che genera una potenza di 4 GW, pari a quella di una centrale nucleare moderna a 3 reattori». La potenza della centrale di Varese Ligure (nella foto qui sotto) è pari a 3,2 MW (megawatt), risulta quindi inesatta la comparazione con l’impianto nucleare che è decisamente di potenza maggiore, essendo quest’ultima dell’ordine dei gigawatt. Un altro lettore sottolinea che lo stesso intenderebbe erroneamente comunicare al pubblico che alcune fonti rinnovabili di energia possono attualmente sostituire i combustibili fossili o il nucleare. La filosofia dell’articolo, come del resto risultava evidente, era diversa: volevamo presentare alcune delle più interessanti e promettenti fonti energetiche alternative che potessero già oggi, in base alle diverse possibilità tecnico/economiche di utilizzo reale, contribuire ad alleviare la dipendenza dai combustibili fossili per la produzione di energia e l’autotrazione. Tutto ciò in attesa di un futuro in cui nuove tecnologie e/o fonti energetiche potranno permettere l’indipendenza dai combustibili fossili. Green n. 2 – Dicembre 2006 In fondo alla prima colonna del riquadro a pag. 33 la formula della forza peso scritta nel seguente modo: è ovviamente errata. La forma esatta è: Green n. 5 – Aprile 2007 A pag. 24 le dimensioni della costante di Planck sono errate, non è h = 6,63 x 10-34 J s-1, ma h = 6,63 x 10-34 J s. Anche di questo ci scusiamo con i nostri lettori. 51 “Non credo agli effetti nocivi del progresso scientifico che a volte vengono annunciati, nonostante si viva attualmente un’epoca che non ha confronti nella storia per l’importanza e il numero di scoperte scientifiche concentrate in un periodo estremamente breve”. Giulio Natta (Imperia 1903-Bergamo 1979) Premio Nobel per la Chimica 1963 Edward Hopper (Nyack, 22 luglio 1882 - New York City, 15 maggio 1967) - Mattino a Cape Cod 52