e dell - Consorzio INCA
Transcript
e dell - Consorzio INCA
La Scienza al servizio dell’ Uomo e dell’Ambiente 12 Marzo 2008 A colloquio con padre Roberto Busa, 95 anni, il pioniere Parola di prof della linguistica Valutazione e merito: informatica regole trasparenti per il bene comune Piogge acide Allarme salute e inquinamento Molecole piccanti Abitudini alimentari mondiali Attrazioni magnetiche Frontiere della scienza e innovazione www.green.incaweb.org Personaggi in primo piano COPIA OMAGGIO Prezzo di un numero euro 3,00 - Periodico mensile d’informazione edito dal Consorzio Interuniversitario Nazionale “La Chimica per l’Ambiente“ (INCA) - Anno III, N. 12, Marzo 2008 Un “ponte” tra i ricercatori e la società per essere protagonisti nel mondo che cambia Parola di Prof Scambio di idee con Piero Tundo Valutazione e merito: regole trasparenti per il bene comune T utti noi abbiamo esperienza che le prove cui siamo sottoposti durante la nostra vita sono momenti cui segue un cambiamento che spesso è positivo. Anche quelle dolorose, come sanno i genitori quando i piccoli si ammalano: dopo il morbillo e la varicella, il piccolo sembra più adulto ed è realmente cresciuto. In seguito al superamento di un ostacolo, la realtà ci si propone in maniera diversa e la affrontiamo più consapevoli e con differenti intenti. U n’altra considerazione, molto legata alla prima, è la necessità che noi sentiamo di un giudizio esterno, che conforti le nostre scelte. La sola autoreferenzialità produce disastri perché non comporta un confronto e un’armonizzazione con i nostri simili; si può anche dire, estendendo questo concetto, che la valutazione con le prove ad essa associate, spesso difficili, fa parte di un processo virtuoso ed è un indice della maturità di una società: i regimi totalitari sono caratterizzati da una selezione non basata su una valutazione di merito; il giudizio – che pur sempre verrà - per tali regimi spesso arriva in forma violenta attraverso guerre e sollevamenti civili. Che tipo di valutazione allora? La tipologia dei giudizi è molto variegata e dipende dalla storia, dalla cultura e dalla tradizione. Ma il grado di confidenzialità e di affabilità, amichevolezza, non gendarmesca, ma promuovente come viene fatto il giudizio nella valutazione a cui segue il riconoscimento del merito, e quindi la promozione - è un indice della maturità e della civiltà di una società e di un popolo. A questo occorre quindi mirare per affermare la democrazia: rendere le regole trasparenti e le prove utili, non per selezionare il più forte, ma per riconoscere una maggiore autorità a chi opera correttamente per il bene comune. C ome per i bambini la guarigione dopo una malattia, l’autorità conferita attraverso un processo di valutazione trasparente e necessariamente sofferto, oltre che procurare soddisfazioni, apre un nuovo significato alla nostra esistenza. Così avviene anche nella scienza; il piacere della ricerca e l’emulazione nel sapere scientifico hanno reso necessario sin dall’inizio adottare metodi di analisi e di giudizio condivisi: a causa del numero elevatissimo dei dati, dei risultati e della pluralità degli attori coinvolti, le discipline scientifiche devono affidarsi al giudizio critico degli esperti, secondo procedure e criteri comuni, per condividere i risultati senza polemica. L a valutazione della ricerca svolta dalle Università e dagli Enti di ricerca italiani, con un po’ di ritardo rispetto alle altre Università europee, è iniziata nel 2003 da parte del Ministero dell’Istruzione, dell’Università e della Ricerca, con l’istituzione del Comitato di indirizzo per la valutazione della ricerca, CIVR; attraverso la trasparenza delle linee guida e il lavoro di referee italiani e stranieri, il CIVR ha valutato 77 Università, 12 Enti pubblici di ricerca e 13 Istituzioni private di ricerca, per le ricerche da loro svolte negli anni 2001-2003. I risultati di questo lavoro sono pubblici ed sono consultabili al link http://vtr2006.cineca.it/ A lcuni risultati del CIVR sono per noi importanti, perché ci indicano l’eccellenza della ricerca nelle aree scientifiche di matematica, fisica, chimica, scienze della terra, biologia, medicina, nanoscienza, beni culturali e sostenibilità. Con l’intento di fare cosa utile a voi, studenti che state scegliendo se intraprendere o no una carriera di studi universitaria, inizieremo da questo numero la pubblicazione di articoli provenienti dagli Istituti di ricerca che si sono distinti con una qualità di eccellenza nella valutazione del CIVR. V ogliamo in tal modo offrire una visione oggettiva, basata su una valutazione istituzionalmente condivisa, sulle grandi opportunità che la ricerca scientifica italiana offre nel contesto della ricerca europea. Ci auguriamo che voi possiate scegliere, nell’ambito del vostra aspirazione, la migliore destinazione per investire nel vostro futuro. Il primo di questi articoli è di Dante Gatteschi, professore di Chimica inorganica all’Università di Firenze e direttore del Consorzio interuniversitario nazionale per la scienza e tecnologia dei materiali (INSTM). Il suo articolo è a pagina 30. Buona lettura. Scrivete a: [email protected] 2 Aurora boreale sommario Green La Scienza al servizio dell’Uomo e dell’Ambiente 12 Marzo 2008 Periodico mensile d’informazione del Consorzio Interuniversitario Nazionale La Chimica per l’Ambiente (INCA) Direttore Piero Tundo Comitato scientifico Angelo Albini, Università di Pavia Sergio Auricchio, Politecnico di Milano Attilio Citterio, Politecnico di Milano Lucio Previtera, Università di Napoli Federico II Direttore responsabile Gino Banterla “Attrazioni magnetiche” (vedi servizio pag. 32): variazioni sul tema dell’aurora boreale nell’interpretazione di Ornella Erminio. Coordinatore di redazione Fulvio Zecchini Sommario L’intervista Sapori & Chimica DOSSIER Scienze linguistiche & Informatica. Rovesciando Babele. Incontro con padre Roberto Busa pag. 4 Molecole… piccanti. La storia e le proprietà del peperoncino e del pepe Corrosive rain. Le piogge acide. Salute, vegetazione e monumenti a rischio Le news di Green dall’Italia e dal mondo Progetto grafico e impaginazione Graficatorri - Franco Malaguti e-mail: [email protected] pag. 10 pag. 18 Scienza & Innovazione Attrazioni magnetiche. Nuove frontiere del magnetismo pag. 32 Futuro & Futuribile Comitato redazionale Antonella Americo Chiara Palmieri pag. 46 Olimpiadi della Scienza Studenti, partecipate al ConcorsoGreen Scuola 2008 promosso dal Consorzio INCA e dalla nostra rivista in collaborazione con il Ministero della Pubblica Istruzione sul tema “Energie alternative e ambiente. La produzione sostenibile di energia”. Scadenza per l’invio degli elaborati 30 aprile 2008. Informazioni, regolamento e scheda di partecipazione: www.incaweb.org www.green.incaweb.org Direzione e redazione: Viale Luigi Pasteur, 33 - 00144 Roma, tel. 06 54 22 07 10 - tel./fax 06 59 26 10 3 E-mail: [email protected] - Sito internet: www.green.incaweb.org Amministrazione: Consorzio Interuniversitario Nazionale “La Chimica per l’Ambiente” (INCA) Via delle Industrie, 21/8 - 30175 Marghera (VE) telefono 041 23 46 611 - fax 041 23 46 602 - e-mail: [email protected] Registrazione al Tribunale di Venezia n. 20 del 15 luglio 2006 - Stampa: Grafiche Seregni, Paderno Dugnano (Milano) Concessionaria per la pubblicità su “Green” Marketing Planet Media Tel. 039. 23 08 568 Fax 039. 23 08 576 Via Vittorio Emanuele, 15 20052 Monza (MI) E-mail: [email protected] Web: www.mktplanetmedia.it Per abbonamenti e arretrati scrivete a: [email protected] © Consorzio INCA, 2008. Tutti i diritti sono riservati. La presente pubblicazione, tutta o in parte, non può essere riprodotta o trasmessa in nessuna forma e con nessun mezzo, elettronico, meccanico, fotocopia, registrazione o altro, senza l’autorizzazione scritta dell’editore. L’editore, nell’ambito delle leggi sul copyright, è a disposizione degli aventi diritto che non si sono potuti rintracciare. 3 Scienze linguistiche & Informatica Rovesciando Pieter Bruegel il Vecchio (1525-1569), La Torre di Babele. Tutta la terra aveva una sola lingua e le stesse parole. Emigrando dall’oriente gli uomini capitarono in una pianura nel paese di Sennaar e vi si stabilirono. Si dissero l’un l’altro: “Venite, facciamoci mattoni e cuociamoli al fuoco”. Il mattone servì loro da pietra e il bitume da cemento. Poi dissero: “Venite, costruiamoci una città e una torre, la cui cima tocchi il cielo e facciamoci un nome, per non disperderci su tutta la terra”. Ma il Signore scese a vedere la città e la torre che gli uomini stavano costruendo. Il Signore disse: “Ecco, essi sono un solo popolo e hanno tutti una lingua sola; questo è l’inizio della loro opera e ora quanto avranno in progetto di fare non sarà loro impossibile. Scendiamo dunque e confondiamo la loro lingua, perché non comprendano più l’uno la lingua dell’altro”. Il Signore li disperse di là su tutta la terra ed essi cessarono di costruire la città. Per questo la si chiamò Babele, perché là il Signore confuse la lingua di tutta la terra e di là il Signore li disperse su tutta la terra. Babele di Gino Banterla 4 Padre Roberto Busa, rileggendo il celebre brano della Genesi (11, 1-9) viene spontaneo interrogarsi sul senso di Babele oggi. Nei primi anni del terzo millennio dopo Cristo viviamo tante “babele”: della comunicazione, dei valori, dell’economia, oltre che delle lingue. La scienza nell’ultimo secolo ha fatto progressi giganteschi, eppure siamo nella stessa situazione descritta dalla Bibbia. Gli uomini con le loro invenzioni vogliono toccare il cielo, ma si trovano “dispersi sulla terra”, disorientati e spesso incapaci di capirsi e di comunicare tra loro. Quale è il ruolo della lingua e delle lingue nella società globalizzata? Le interviste di Green do Disegno di Marina Molino Ronza Padre Roberto Busa, pioniere della linguistica informatica Dai calcolatori a schede perforate ai bit Sessant’anni di ricerche sulla lingua Ha 95 anni e proprio non li dimostra. Padre Roberto Busa, classe 1913 (è nato il 28 novembre a Vicenza) sembra essere, tutt’al più, un “giovane” settantacinquenne. È stato compagno di scuola di un papa, Giovanni Paolo I, al secolo Albino Luciani, e nella sua lunga carriera accademica ha avuto centinaia di allievi, alcuni diventati grandi personalità: uno per tutti, il cardinale Carlo Maria Martini, già arcivescovo di Milano. Alto di statura, portamento ieratico e professorale ma battuta sempre pronta (“Mi sto perfezionando in vecchiaia”, scherza accogliendoci nel suo studio), padre Busa deve alla mente sempre in allenamento la sua sbalorditiva vitalità. Sin da quando, nel 1948, andò a New York all’IBM dove incominciò le sue ricerche linguistiche sui testi di san Tommaso d’Aquino affidandosi agli enormi calcolatori a schede perforate. Nessuno ci credeva allora, ma i gesuiti in campo scientifico quando ci si mettono ottengono il meglio, l’eccellenza diremmo oggi. E Padre Busa davanti allo scaffale nel quale sono raccolti i 56 volumi del suo Index Thomisticus. San Tommaso d’Aquino diceva che la lingua, cioè il parlare, è un atto d’amore per il prossimo e che la menzogna è per questo un peccato contro la natura. Senza sincerità e senza trasparenza non si è galantuomini. Parlare, comunicare deve essere prima di tutto e sopra tutto un atto d’amore. Mettiamocelo bene in testa… . ■ Lei è il pioniere della linguistica computazionale, alla quale ha dedicato sessant’anni di ricerche. E il 28 gennaio scorso – guarda caso, proprio nel giorno che la Chiesa dedica a San Tommaso – ha presentato pubblicamente a Milano il Progetto LD (Lingue disciplinate), che si propone di vincere una delle sfide imposte dalla difatti padre Busa S.J. (Societatis Jesu, è la sigla con la quale si firmano gli appartenenti alla Compagnia di Gesù fondata nel 1540 da Ignazio di Loyola) ha dato vita a una nuova disciplina, la linguistica informatica. Dai “dinosauri” – come lui chiama i primi computer a valvole – ai più recenti strumenti informatici, dalle schede perforate e dai nastri magnetici ai bit e ai byte, padre Busa si è fatto missionario del “computer in humanities” insegnando alla Pontificia Università Gregoriana, all’Università Cattolica del Sacro Cuore, al Politecnico di Milano e partecipando a qualche centinaio di congressi e seminari in ogni parte del globo. La sua bibliografia vanta oltre 440 pubblicazioni tra libri e saggi, tra le quali spicca il ciclopico Index Thomisticus. Il suo “regno” è il Centro da lui fondato, il Cael (Computerizzazione delle analisi ermeneutiche e lessicologiche) che ha sede all’Aloisianum di Gallarate (Varese), l’Istituto dei gesuiti dove lo abbiamo incontrato. globalizzazione. Riuscirà davvero il computer a farci parlare un’unica lingua, “rovesciando Babele” come afferma nel suo ultimo libro? Direi di no se intendiamo che in prospettiva tutti gli uomini possano parlare una sola lingua. Ma rispondo senz’altro di sì se consideriamo il computer come un intermediario tra persone che parlano lingue diverse, come portatore di una lingua ontologica e ideografica nella quale ogni singola parola ha un solo significato. Un cinese e un italiano grazie al computer potranno un giorno dialogare tra di loro senza conoscere l’uno la lingua dell’altro e neppure l’inglese. In pratica accadrà questo: il cinese invia un testo nella sua lin5 Scienze linguistiche & Informatica L’illusione americana durante la “guerra fredda” In piena guerra fredda, dopo la seconda guerra mondiale, il Governo americano finanziò vari gruppi di ricercatori perché mettessero a punto un sistema di traduzione automatica dal russo all’inglese attraverso il computer. Erano gli anni del cosiddetto equilibrio del terrore, che si basava sugli arsenali militari e sulla rincorsa agli armamenti, e i due giganti che allora do- Un’utopia che può diventare realtà. Riuscirà il computer a farci parlare un’unica lingua? Padre Roberto Busa nel suo studio all’Aloisianum di Gallarate (Varese). È nato a Vicenza il 28 novembre 1913. Roma, 20 dicembre 2005. Il Capo dello Stato, Carlo Azeglio Ciampi, conferisce a padre Busa la massima onorificenza della Repubblica, il Cavalierato di Gran Croce. L’Index Thomisticus: tutto il sapere del mondo antico in 11 milioni di parole L’opera di san Tommaso d’Aquino (1221-1274), una intera vita dedicata allo studio e all’insegnamento, è stata “scandagliata” con il computer, nel corso di una ricerca durata tre decenni, da padre Busa. Il risultato di questo lavoro colossale è pubblicato nell’Index Thomisticus in 56 volumi di circa mille pagine ciascuno, condensati poi agli inizi degli anni Novanta su cd-rom. Attraverso l’Index è possibile rintracciare in un istante qualsiasi parola latina contenuta nei 118 scritti di Tommaso d’Aquino, i quali rappresentano una sorta di “enciclopedia” ante litteram del sapere del mondo antico. L’Aquinate condensò 40 secoli di pensieri e di civiltà, da quella assiro-babilonese (nella quale nacque6 minavano la scena mondiale – l’Unione Sovietica e gli Stati Uniti – si osservavano a distanza attraverso i rispettivi servizi segreti, il Kgb e la Cia. Ma l’illusione americana rimase tale: il progetto si arenò di fronte alle difficoltà rappresentate dalla lingua viva, non pienamente leggibile dal computer – oltretutto in quegli anni si era ancora nella preistoria degli elaboratori gua al computer, il quale lo traduce e lo trasmette all’italiano; quest’ultimo scrive in italiano e il computer traduce in cinese. Prima che si arrivi a questi risultati gli esperti italiani e cinesi dovranno ovviamente elaborare i necessari programmi, risultato del matrimonio tra la fisica dell’informatica e la microanalisi delle lingue. ■ La rete veicola miliardi di dati e informazioni di fronte ai quali è sempre più difficile raccapezzarsi. Come trovare una chiave di lettura di fonte alla Babele informativa? Nelle forme attuali di trasmissione di dati e di informazioni via rete c’è un grande deficit di precisazioni di linguaggio al quale tutte le grandi aziende dell’ICT, Information and Communication Technology, cercano di ovviare con investimenti in ricerca, per approdare a nuovi codici linguistici con cui far lavorare le macchine. Il mio tentativo si muove proprio in questa direzione: un lessico in grado di sviluppare, standardizzare e globalizzare le attuali forme di comunicazione via rete. ■ Questo è appunto l’obiettivo del suo Progetto Lingue disciplinate. Ce lo potrebbe illustrare in parole povere? Per farmi capire rispondo con un’equazione. Una lingua disciplinata sta a una lingua viva come un frutteto sta a una foresta pluviale. ro le Scritture del Vecchio Testamento) ai Greci, dai Romani agli Arabi. “Questa ingente mole di scritti”, spiega padre Busa, “non è suddivisa in voci, bensì sintetizzata in un sistema logico-scientifico rappresentante la realtà del cosmo, dalla materia prima su su fino all’Amor che move il Sole e l’altre stelle (Dante). È un esempio formidabile di sintesi, da tenere ben presente oggi, in un momento in cui lo sviluppo gigantesco degli strumenti scientifici sta frantumando e parcellizzando i saperi”. Undici milioni di parole – I Promessi Sposi, tanto per fare un esempio, arrivano “appena” a 230 mila, la Divina Commedia a 100 mila – sono state schedate nell’Index Thomisticus attraverso un sistema che permette, tra l’altro, di distinguere i termini omografi, quelli, cioè, che si scrivono nello stesso modo ma hanno un significato diverso. Intervista a padre Roberto Busa elettronici – in quanto creativa e personalizzata. Infatti l’intelligibilità distribuita delle traduzioni raggiunse al massimo l’80 per cento, percentuale certamente considerevole, ma il 20 per cento restante era diffuso qua e là nel testo, che così non risultava comprensibile nel suo insieme. Nel 1966 uscì il Rapporto ALPAC, Automatic language processing advisory committee, opera di sette ricercatori americani, che decretava la fine degli esperimenti di tradu- zione automatica. In seguito a quella ricerca infatti il Pentagono – il ministero della Difesa Usa – sospese i finanziamenti. L’idea di uno strumento capace di tradurre automaticamente testi da una lingua all’altra non venne però abbandonata. Con la diffusione dei personal computer e con il vertiginoso sviluppo di Internet, negli ultimi decenni sono stati messi a punto sofisticati programmi di traduzione assistita, che hanno portato alla definizione di standard sempre più avanzati. Questi software operano però ancora su segmenti di testi, non su un testo organico. Non è stato infatti realizzato fino ad oggi uno strumento per la traduzione automatica e simultanea di un testo articolato. Il Progetto Lingue disciplinate elaborato da padre Roberto Busa suggerisce come colmare questa lacuna. Il Checkpoint Charlie, unico punto di passaggio tra Berlino Est-Ovest, simbolo della guerra fredda. Chiamiamo viva qualsiasi lingua venga usata istintivamente da chiunque su qualunque argomento. Essa punta alla ridondanza e all’ornamento: quando uno si esprime spesso cerca di abbellire il suo discorso come fa con la sua persona. La lingua viva non è domabile dal computer, come ha dimostrato il Rapporto ALPAC del 1966 negli Stati Uniti (vedi box). La ragione sta nel fatto che le variabili della lingua viva – parlata e scritta – sono tante quanti gli individui umani, moltiplicate per gli anni della loro vita e per il numero degli ambienti in cui essi si sono mossi: paese, scuola, professioni, famiglia, religione, letteratura, arte, sport e via dicendo. Chiamo invece disciplinata una lingua che sia stata potata, cioè ridotta all’essenziale, per finalità particolari. Esempi di potatura dei testi sono gli indici, gli abstracts di articoli scientifici, i telegrammi, gli sms. La lingua disciplinata, a differenza di quella viva, può essere domata dal computer. ■ Con quale procedura? È necessaria una premessa. Nel lessico di chiunque parli o scriva vi sono due emisferi: poche voci di altissima frequenza (le cosiddette parti grammaticali, variabili e invariabili) presenti in ogni argomento ed esprimenti la logica; moltissime voci che specificano ciò di cui si tratta e quindi esprimono la San Tommaso d’Aquino (1221-1274) ritratto con un volume in evidenza da Francesco Solimena noto come l'Abate Ciccio (Canale di Serino 1657 – Napoli 1747) considerato uno degli artisti che meglio incarnarono la cultura tardo-barocca in Italia. cultura o il contesto (alimentazione, trasporti, sport, musica, arte…). Prendiamo ora un determinato testo scritto in una lingua viva, per esempio un manuale di diritto commerciale o di produzione industriale, per sottoporlo a microanalisi e a microsintesi. Va fatto anzitutto un censimento di tutti gli elementi linguistici, di tutte le parole, classificandole senza eccezioni, con le loro frequenze sia assolute sia percentuali. Forse è utile, per far capire questa fase, richiamare quanto ho fatto nell’Index Thomisticus. Gli 11 milioni di parole che formano l’opera di san Tommaso d’Aquino sono riuniti in 147.088 forme diverse di parola. Messe in ordine di frequenza decrescente, risulta che la più alta, la congiunzione et, ne ha 295.593, mentre sono ben 29.637 le voci rigorosamente hapax, cioè presenti una sola volta. Le 80 parole più frequenti rappresentano insieme il 41 per cento di tutte le parole scritte da san Tommaso, le 800 più frequenti il 66 per cento. Sulla base del censimento del nostro testo comincia la potatura: una équipe di esperti fa una cernita delle parole ritenute indispensabili sia del primo che del secondo emisfero e attraverso un complesso processo di confronti e di decantazione del sistema lessicologico si arriva a una lingua semplificata, standardizzata, potata fino al suo nucleo es- Le parti del discorso variabili e invariabili Ve le ricordate le parti variabili e invariabili del discorso? Niente paura, ripassiamo la grammatica. Le parti del discorso sono, secondo la definizione del Devoto-Oli, “le categorie in cui sono distribuite le parole di una lingua, secondo il significato, la funzione che assolvono nella frase, le caratteristiche di formazione e flessione”. In italiano sono nove Parti variabili: articolo, sostantivo, pronome, aggettivo, verbo. Parti invariabili: avverbio, preposizione, congiunzione, interiezione. 7 Scienze linguistiche & Informatica Bit, byte, file, il “linguaggio” del computer Tutta la materia è riconducibile ai numeri, afferma padre Roberto Busa nell’intervista. Mentre questa è una considerazione personale di carattere filosofico, frutto di una lunga vita tutta dedicata alla ricerca, è un dato di fatto sotto gli occhi di tutti che ai numeri è riconducibile l’immenso lavoro dello studioso gesuita sulle parole e sulle lingue. Bit, byte e files altro non sono infatti che combinazioni di numeri che vanno a formare il linguaggio informatico. Vediamo, in sintesi, come esso si configura. Il linguaggio informatico si fonda sulla logica binaria, basata su due soli numeri 0 e 1, che altro non sono che la “codificazione” di una realtà fisica ben precisa: lo stato di senziale ed elementare. A ognuna delle parole selezionate si fa corrispondere un insieme di numeri binari. ■ E il computer a questo punto compie la magia della traduzione automatica: lo studente di Pechino capisce così all’istante ciò che gli scrive lo studente di Roma e viceversa… Sia ben inteso, il computer non fa le magie di Harry Potter. Il lavoro degli esperti, dopo la potatura, è ancora lungo e impegnativo, perché i sistemi lessicologici variano tra lingue, argomenti e scrittori diversi. Prima di arrivare all’input-output italiano-cinese e cinese-italiano dobbiamo disporre di algoritmi che ci dicano, per esempio, quale è nelle due lingue la collocazione di un aggettivo rispetto a un sostantivo o di un verbo rispetto al soggetto. Solo allora i due files saranno come un Giano bifronte e il computer diventerà parlatore di lingue diverse. Lo stesso testo potrà essere immediatamente leggibile in tutte le altre lingue disciplinate. ■ Ma che necessità c’è oggi della traduzione automatica quando in tutto il mondo si sta affermando sempre di più la lingua inglese? È vero, tramontata l’utopia dell’esperanto e di altri circa duecento tentativi di lingua artificiale molti considerano l’inglese come una sorta di lingua franca planetaria. In realtà l’inglese è già correntemente usato in tutti i Paesi del mondo nel campo della medicina, della chimica, della fisica, della matematica, in genere in tutte le scienze esatte e naturali. Il mio progetto di traduzione automatica si rivolge invece a quella infinità di persone – penso per esempio ai piccoli imprenditori – che hanno necessità di un mediatore linguistico preciso e versatile in un’epoca di grande mobilità in cui le porte del mondo sono costituite da un biglietto d’aereo. Spero che qualche organismo internazionale si renda conto dell’importanza del Progetto Lingue disciplinate e voglia sostenerlo, anche perché esso sarebbe un investimento sicuro, in continua crescita e duraturo. Esso rappresenta una straordinaria opportunità, un’infrastruttura pubblica di comunicazione sociale a livello mondiale capace di produrre vantaggi duraturi e di dare un contributo per l’abbattimento delle disuguaglianze tra i popoli. ■ Non c’è il rischio che l’intelligenza dell’uomo venga schiacciata dall’invadenza del computer? Sì, questo rischio effettivamente esiste, ma la colpa è di chi usa il computer. Oggi c’è in atto una pericolosa inflazione dell’informazione che certo non aiuta a pensare. Mi piace fare un altro esempio: mentre per quanto riguarda il cibo ciò che sappiamo sui vari si- Summary Babel reversed Jesuit Father Roberto Busa is the pioneer of computational linguistics. He began his research on the scripts of Thomas Aquinas in 1948 at IBM in New York, entrusting himself on the enormous punched card computers. From the “dinosaurs” – as he called the first valve computers – to the more recent informatic tools, from punched cards and magnetic tapes to bits and bytes, Father Busa has been the missionary of the “computer in humanities” teaching at the Pontificia Università Gregoriana (Pontifical Gregorian University), at the Università Cattolica del Sacro Cuore (Catholic University of the 8 Holy Heart), at the Politecnico di Milano (Polytechnic of Milan) and participating in hundreds of congresses and seminars all over the world. And even today, as a 95 year old man, he continues his work in the centre he founded, the Cael (Computerization of the hermeneutical and lexicological analyses) which is located at the Aloisianum in Gallarate (Varese), within the Institute of Jesuits. In this interview he talks about the results of sixty years of research and about his new adventure; the Progetto di traduzione automatica Lingue disciplinate (Project of automatic translation of disciplined Languages), a possible answer to the challenges imposed by the globalization and by the Babel of communications. Intervista a padre Roberto Busa magnetizzazione di un materiale magnetizzabile, o la presenza/assenza di carica elettrica in un condensatore. Per capire come funziona tale linguaggio pensiamo ad una lampadina che può essere accesa o spenta, o ad una qualsiasi coppia di stati fisici autoescludentisi. Questi due stati, nel computer, corrispondono – come del resto nel caso della lampadina – al numero 1 (accesa) e 0 (spenta). Le cifre binarie sono chiamate bit, termine che deriva dall’inglese BInary digiT. Il bit, in pratica, è l’unità elementare per la misura dell’informazione. In un computer le cifre binarie vengono raggruppate in stringhe: esse contengono un numero costante di bit che servono per rappresentare una lettera, un numero, un simbolo speciale. Un gruppo di otto bit forma un byte ed è la quantità minima con la quale un computer è in grado di lavorare. Con un byte si possono ottenere 256 combinazioni di 0 e 1, attraverso le quali si possono rappresentare le lettere, i numeri, i caratteri speciali e i simboli. stemi di alimentazione e sulle specialità culinarie non ci porta a provare cento piatti in un giorno, per via degli ovvi freni imposti dall’apparato digestivo, la curiosità del pensiero è senza limiti e là dove ci fossero dei freni, essi agirebbero come un invito e una sfida. Nel Medioevo si diceva: non cercare di sapere ciò che non ti è lecito fare. È, questa, la legge della temperanza, una legge per così dire di igiene del comportamento umano. In altre parole: occorre essere padroni di se stessi. Anche di fronte all’inflazione dell’informazione. Solo così potremo dire: io cerco tra i miliardi di uomini che zampettano sulla crosta terrestre; cerco di essere la formichina che porta qualcosa di buono agli altri. ■ Se dovesse fare una sintesi del suo lunghissimo percorso di ricerca e di studio, che cosa metterebbe in evidenza? Quello che mi sorprende è che tutta la materia è riconducibile ai numeri. Direi di più, è fatta da una bufera di frequenze elementari di numeri che sembrano consistenti solo di energia. Comprendo soltanto ora l’importanza della definizione di Aristotele: la materia prima non ha nessuna delle qualità delle cose reali. Comincio a pensare – non so su quale fondamento della fisica – che la struttura atomica o intra-atomica di tutto ciò che chiamiamo materia e corpo e dimensione sia fatta di bolle di energia piene di materia inesi- Ludwik Lejzer Zamenhorf (1859-1917) Le informazioni sono codificate con i multipli del byte come segue: kb = (1024 byte) = 210 byte kilobyte Mb = megabyte (1024 kilobyte) Gb = gigabyte (1024 megabyte) Tb = terabyte (1024 gigabyte) I dati digitali sono rappresentati dal numero di byte che li compongono e dalla loro sequenza e vengono chiamati campi; il record è un insieme di campi; un insieme di record va a formare un file, che può essere un testo, un video, un brano musicale. stente e che quindi lo spazio e gli spazi siano mari di briciole d’energia. ■ Padre Busa, lei alla soglia dei suoi 95 anni è ancora in contatto con i giovani. Gli studenti, oggi, si sentono spesso disorientati: in famiglia, nella scuola, nella società. Quale consiglio darebbe a un ragazzo o a una ragazza che venissero a bussare alla sua porta per esprimere il proprio disagio di fronte a una società sempre più povera di valori? Il disorientamento dei giovani è proprio una conseguenza della parcellizzazione delle conoscenze, ossia della mancanza di sintesi conseguente al bombardamento confuso dell’informazione che ci piove addosso da tutti i punti dell’orizzonte e da tutti i continenti. Ricordo un signore conosciuto a New York: mi diceva che per sentirsi solo gli bastava soffermarsi nella Times Square. A un giovane che bussasse alla mia porta per chiedere consiglio direi: cerca di scegliere qualche cosa di buono in qualunque settore al quale tu ti senta portato (scienze, musica, teatro, filosofia, storia, pittura…) e di dedicarvi con impegno il tuo tempo. Devi farlo come un tuo percorso di crescita personale, per questo non aspettarti e non esigere nulla dagli altri. Non farlo per ricavarne gloria, ma semplicemente perché tu senta in modo pieno la tua dignità di uomo di fronte a te stesso. Gino Banterla Gli irriducibili dell’esperanto Non esistono statistiche che (1859-1917), figlio di un indocumentino quante persone segnante di lingue, che amava parlino l’esperanto nel monfirmarsi con lo pseudonimo do: qualcuno dice che sono Doktoro Esperanto, “colui appena 50.000, altri azzardache spera”. no due milioni. Questa lingua La prima grammatica italiana “artificiale” senza popolo né di esperanto venne pubblicata nazione risale alla seconda nel 1890. Nel 1954 l’UNEmetà dell’Ottocento. A metSCO, United Nations educatere a punto le basi dell’espetional, scientific and cultural ranto fu un oculista polacco, Organization, riconobbe “i riLudwik Lejzer Zamenhof sultati raggiunti dall’esperanto nel campo degli interscambi intellettuali internazionali e per l’avvicinamento dei popoli del mondo”, ma nonostante il sostegno dell’UNESCO e l’impegno delle associazioni esperantiste questa lingua non ha mai avuto grande diffusione. Per saperne di più (e per chi vuole cimentarsi direttamente on line con l’esperanto): http://it.lernu.net/ 9 SAPORI & CHIMICA Storia e proprietà del pepe ro In molti paesi del mondo diverse spezie vengono utilizzate per aromatizzare gli alimenti. Tra tutte particolarmente note e apprezzate sono quelle che conferiscono la piccantezza come caratteristica organolettica distintiva: pepe e peperoncino. La diffusione e la notorietà di queste spezie è così rilevante che il loro nome si ritrova sia nei modi di dire popolareschi, “è tutto pepe”, sia nei nomi di famosi gruppi rock, “Red Hot Chili Peppers”. La caratteristica nota piccante di queste spezie deriva dalla presenza di molecole strutturalmente simili, piperina e capsaicina, in grado di stimolare una intensa risposta neuronale quando vengono in contatto con particolari recettori posti nel cavo orale. Mo le Gianni Galaverna e Chiara Dall'Asta e l o c Pepe e peperoncino fanno parte delle abitudini alimentari in tutto il mondo. Scopriamo insieme i segreti di queste spezie, la cui caratteristica deriva dalla presenza di molecole strutturalmente simili: la piperina e la capsaicina. E vediamone la storia e gli effetti sul nostro corpo 10 … picca n pe roncino e del pepe i t an Summary Hot molecules! Spices are used worldwide to give foods a characteristic flavour, in particular those which make a dish hot and spicy. Following an historical introduction to spices, the present article describes the chemistry of the molecules which give them the hot taste. Among these we find piperine in pepper and capsaicin in chilli. All these substances are able to stimulate an intense neuronal response when they get in touch with particular mouth receptors. Hot taste is a secondary sensation. It is not due to the interaction between a molecule and its specific receptors, as happens for example with bitter or sweet taste, but to a non-specific response that some thermal receptors give in the presence of a particular class of substances. The piquancy of a spice or a food can be evaluated by the Scoville scale, which measures the capsaicin equivalent content via an organoleptic test. In the final part of the article we find a section dedicated to the history of the use of hot spices in weapons: from pepper-scented suffocating smokes used 2,500 years ago in China to the modern chilli-based sprays for personal defence. Capsaicina, piperina e gingerolo ed è subito piccante La capsaicina è una sostanza presente nelle piante del genere Capsicum, a cui appartengono diverse varietà di peperoncino. Insieme alla diidrocapsaicina e ad alcuni altri analoghi detti capsaicinoidi rappresenta la famiglia di alcaloidi isoprenoidi responsabili della “piccantezza” dei peperoncini. Chimicamente, i capsaicinoidi sono caratterizzati da una parte della molecola simile alla vanillina (e pertanto la molecola è classificata come vanilloide) e da una parte classificabile come alchilammide. I capsaicinoidi sono alcaloidi molto stabili: rimangono inalterati per lungo tempo, anche dopo cottura e congelamento. La capsaicina fu scoperta e isolata nel 1816 da P.A. Bucholtz che, per primo, la estrasse mediante macerazione in solventi organici. Ancor oggi questo metodo è utilizzato per estrarre l’oleoresina dai peperoncini. Questa sostanza è contenuta principalmente nella placenta che avvolge i semi del peperoncino e rappresenta lo 0,005 – 0,1% in peso del frutto essiccato. 11 Molecole… SAPORI & CHIMICA Storia e proprietà del pepe ro Dai dati ad oggi disponibili, non esistono evidenze di tossicità acuta di tipo orale nell’uomo. Allo stesso modo, nonostante il contatto con la pelle possa provocare bruciore, prurito ed eritema, questi effetti non vanno considerati come una reazione allergica bensì come conseguenza di una semplice irritazione topica. La sensazione di bruciore indotta dai principi attivi del Capsicum è unica e non ha nulla in comune con altre sostanze ustionanti come acidi o basi o con il fuoco, in quanto non inducono necrosi dei tessuti né alcuna lesione apparente. L’assunzione diretta di capsaicina pura può tuttavia indurre la morte per paralisi respiratoria, anche se per causare la morte di una persona di 70 Kg è necessario ingerire 13 g di capsaicina pura, equivalente ad un paio di cucchiai! Questa tossicità è identica a quella definita anche per il cloruro di sodio, cioè il comune sale da cucina! La piperina è il principio attivo del pepe: è una polvere giallo pallida cristallina di formula bruta C17H19O3N, peso molecolare 285,34 dalton e punto di fusione 128 – 132°C. Il suo analogo di sintesi assume una colorazione giallo-verde. Chimicamente appartiene alla stessa famiglia della capsaicina; più precisamente, si tratta dell’amide dell’a- cido piperinico con la piperidina. Questo composto, dalle caratteristiche lipofile, è solubile in alcoli e solventi apolari, mentre la solubilità in acqua è limitata. Nonostante il pepe sia stato usato per migliaia di anni, la piperina è stata scoperta solo nel 1820 dal chimico e fisico danese Hans Christian Oersted, che fu il primo ad identificarla ed isolarla dalle bacche di pepe nero essiccate. La sintesi del composto natural-identico fu invece portata a termine solo nel 1882. Nelle bacche essiccate, questo composto rappresenta circa il 5 – 7% in peso. Dal pepe nero sono stati isolati anche alcuni analoghi della piperina, caratterizzati da modificazioni sullo scheletro idrocarburico (parziale idrogenazione o elongazione della catena) oppure sulla parte amminica (sostituzione della piperidina con altre ammine cicliche, come la pirrolidina, o lineari come l’isobutilamina) In realtà, nel pepe fresco, la nota piccante è dovuta alla cavicina (isomero cis, cis) che durante l’essiccamento si trasforma in piperina (isomero trans, trans). L’isomerizzazione avviene per effetto della radiazione UV durante l’essiccamento dei peperoncini. La cavicina è molto più pungente della piperina che risulta al nostro palato più piacevole. ▲ Christos e espiciarias! – “Per Cristo e per le spezie!” Christos e espiciarias! – “Per Cristo e per le spezie!” – con questo grido di esultanza i marinai di Vasco de Gama sbarcarono in India nel 1498, consapevoli delle enormi ricchezze che avrebbero accumulato conquistandosi una parte del commercio delle spezie da secoli monopolio esclusivo dei mercanti veneziani. In quel periodo, in Europa, il pepe era infatti così pregiato che ne bastava una libbra (circa 454 grammi) per comprare la libertà di un servo della gleba dal suo feudatario. Il pepe si ottiene dalla pianta tropicale Piper nigrum, originaria dell’India, ed è ancora oggi la spezia più usata e più diffusa al mondo. La pianta è una liana robusta che cresce principalmente in India, in Brasile, in Indonesia e in Malesia; essa produce piccole drupe che, in seguito ad opportune fermentazioni ed essiccazioni, si trasformano nel pepe che raggiunge poi le nostre tavole. Il pepe era già conosciuto nella Grecia del V secolo a.C. ed era ricercatissimo nella Roma imperiale. Le spezie venivano usate soprattutto per la loro capacità di conservare i cibi e di esaltarne i sapori. Roma era un grande impero, i trasporti erano lenti e avvenivano senza refrigerazione, quindi era molto difficile procurarsi cibi freschi. Il pepe e le altre spezie coprivano il sapore 12 di cibi rancidi e ne rallentavano il deperimento, inoltre miglioravano il sapore dei cibi essiccati, affumicati e salati. Nel Medioevo le spezie provenivano principalmente dai mercati di Baghdad e di Costantinopoli, da cui venivano imbarcate verso Venezia, che esercitò un vero e proprio monopolio sui commerci per molti secoli. Nel ’400 la potenza commerciale di Venezia era tale da costringere altri stati ad intraprendere l’esplorazione di vie alternative per raggiungere le Indie. È forse incredibile ai nostri occhi, ma l’epoca delle grandi scoperte geografiche fu motivata in gran parte dalla richiesta di spezie. Nel 1492 Cristoforo Colombo, cercando una via alternativa verso l’India Orientale, scoprì il Nuovo Mondo e diede inizio all’era moderna. Ancora una volta grazie alle spezie. Eppure ad Haiti, nel Nuovo Mondo, Cristoforo Colombo non trovò il pepe bensì un’altra spezia piccante destinata a cambiare le abitudini culinarie di moltissime popolazioni: il peperoncino rosso. Gli sciamani delle tribù precolombiane utilizzavano il piccanti pe roncino e del pepe L’utilizzo della piperina non si esaurisce in cucina, ma questo composto si ritrova come principio attivo in insetticidi, alcoli e medicine. In effetti, l’utilizzo diffuso di questi principi attivi nella cucina dei paesi a clima caldo non è solamente un’abitudine culturale o gastronomica, ma dipende anche dagli effetti fisiologici indotti. La piperina stimola la traspirazione, permettendo il raffreddamento corporeo e la termoregolazione. Nella medicina tradizionale la piperina è molte volte applicata a fini terapeutici: in effetti, alcuni recenti studi dimostrano la sua capacità di stimolare la termogenesi e di migliorare l’assimilazione delle vitamine del gruppo B, del beta-carotene e del selenio. Il principio attivo presente nelle radici di zenzero fresche prende il nome di gingerolo, una sostanza oleosa gialla e molto piccante, appartenente anch’essa alla famiglia dei vanilloidi. avvenire sia durante le comuni pratiche di cucina sia durante i processi industriali per l’estrazione di oleoresine ed altri derivati. Infatti, il processo di preparazione delle oleoresine, spesso condotto in presenza di alcali, può indurre la degradazione del composto naturale con formazione dello zingerone. Tale composto, ottenuto per degradazione retroaldolica, è molto più dolce e meno persistente del principio attivo di partenza. È pertanto necessario controllare accuratamente i parametri di estrazione. Allo stesso modo, la cottura dello zenzero in ambiente acido può portare alla disidratazione del gingerolo, con formazione dello shogaolo, un analogo meno piccante e dall’aroma meno fresco e più dolce. zingerone calore ▲ gingerolo shogaolo peperoncino, che chiamavano chili, in combinazione con cacao e tabacco per indurre uno stato di trance allucinogeno durante i riti magici in cui si evocavano viaggi verso il paradiso o verso la terra dei morti. La nuova spezia da Haiti raggiunse la Spagna e il Portogallo, da dove in pochissimo tempo si diffuse dall’Africa fino all’India, integrandosi nelle cucine locali. L’arrivo del peperoncino dal Nuovo Mondo coincise con l’invasione Ottomana: i turchi portarono il peperoncino in tutta l’Europa centrale. L’anno 1526 è la data solitamente conosciuta come quella dell’introduzione del peperoncino in Ungheria, dove venne chiamata paprika. A parte la paprika, che divenne di uso comune nella cucina austro-ungarica, il peperoncino rosso non invase la cucina europea come avvenne per quella africana ed asiatica. Per gli europei la molecola preferita rimase la piperina. calore ▲ Per effetto della temperatura, il gingerolo può andare incontro a diverse trasformazioni, dovute principalmente alla presenza di un gruppo beta-idrossichetonico, che può facilmente subire disidratazione in ambiente acido oppure reazione retroaldolica in ambiente basico. Queste reazioni possono assicurare un ruolo più attivo all’Inghilterra nel commercio delle spezie. I rischi associati al finanziamento del viaggio in India di una nave che tornasse con un carico di pepe erano elevati, così all’inizio i mercanti cercavano di finanziare solo “quote” di un viaggio, limitando in tal modo la potenziale perdita individuale. Quest’uso si trasformò infine in acquisto di quote della società stessa: nacque la prima società per azioni e ancora una volta grazie alle spezie! Il commercio delle spezie rimase un affare esclusivo del Vecchio continente per circa due secoli. Nel 1780, lo statunitense Jonathan Carnes ruppe il monopolio europeo sulle spezie commerciando direttamente con le Indie Orientali e portando una nave carica di pepe a Salem, Massachusetts. Fino al 1846, il pepe, che valeva molti milioni di dollari, fu trasportato a Salem da navigatori americani che fondarono la marina mercantile degli Stati Uniti. E questo fu l’ultimo grande regalo che le spezie fecero al mondo occidentale. Fu l’avvento della refrigerazione a determinare il declino del grande commercio delle spezie a livello mondiale. Oggi le spezie rimangono solo ingredienti speciali e un po’ esotici di molte gustose specialità culinarie, ma continuano a mantenere intatto il loro fascino. Un po’ di storia… Il dominio portoghese nel commercio del pepe durò 150 anni, finché non subentrarono gli olandesi e gli inglesi. Amsterdam e Londra divennero i principali mercati per il commercio del pepe in Europa. La Compagnia delle Indie Orientali fu creata per 13 SAPORI & CHIMICA Storia e proprietà del pepe ro Caratteristiche e virtù del Capsicum, Molecole… che “morde” la lingua quando si mangia 14 A cosa è dovuta la sensazione del piccante come avviene per il dolce e l’amaro? Il genere Capsicum, della famiglia delle Solanacee, comprende varie specie di peperoncini piccanti, ornamentali e peperoni dolci, raggruppando circa 20 specie e 300 diverse varietà. La specie più importante e diffusa di Capsicum è il Capsicum annuum, a cui appartengono sia il chili che la paprika. Secondo alcuni, il nome latino Capsicum deriva da capsa, che significa scatola, e deve il nome alla particolare forma del frutto che ricorda proprio una scatola con dentro i semi. Altri invece lo fanno derivare dal greco kapto che significa mordere, con evidente riferimento al piccante che “morde” la lingua quando si mangia. La percentuale di capsaicina nella pianta dipende soprattutto dalla specie, dall’origine geografica e dalle condizioni climatiche di crescita. Ad esempio, da 1 Kg di peperoncino di cayenne si possono ottenere circa 2,13 g di capsaicina, cioè circa 20 volte di più di quanto si può estrarre da 1 Kg di paprika! La piccantezza è una sensazione gustativa secondaria, cioè non dovuta alla specifica interazione di una molecola con il proprio recettore (come avviene per il dolce o l’amaro), ma alla risposta fisica aspecifica di un recettore termico in presenza di una particolare classe di composti. Questa sensazione, detta anche chemestetica, è strettamente associata alla presenza di capsaicinoidi o di sostanze a struttura analoga: in particolare, la sollecitazione del recettore avviene in presenza di sostanze che contengono una vanillamide alchilica ramificata. Pertanto questi recettori prendono il nome di recettori vanilloidi. Perché l’interazione avvenga e si abbia la percezione del piccante, il sito attivo del recettore vanilloide deve riconoscere alcune funzioni chimiche necessariamente presenti sulla molecola piccante. Si è visto che la struttura di un composto piccante deve seguire questo schema: Il peperoncino è un condimento molto popolare, nonostante il dolore e l'irritazione che provoca. Diversi composti presenti nel peperoncino, tra cui i flavonoidi e i capsaicinoidi, hanno un effetto antibatterico, cosicché cibi cotti col peperoncino possano essere conservati relativamente a lungo. Questo spiega anche perché più ci si sposta in regioni dal clima caldo, maggiore sia l'uso di peperoncino ed altre spezie. I peperoncini sono ricchi in vitamina C e si ritiene abbiano molti effetti benefici sulla salute umana, purché usati con moderazione ed in assenza di problemi gastrointestinali. È interessante sapere che la vitamina C sia stata isolata per la prima volta proprio dai frutti del peperoncino, grazie agli studi del premio Nobel e chimico ungherese Albert SzentGyorgy. Il forte potere antiossidante del peperoncino gli ha valso la fama di antitumorale. Inoltre, il peperoncino si è dimostrato utile nella cura di malattie da raffreddamento come raffreddore, sinusite e bronchite, e nel favorire la digestione. Queste virtù sono dovute principalmente alla capsaicina, in grado di aumentare la secrezione di muco e di succhi gastrici. Tanto più la molecola piccante sarà simile a questo schema, tanto maggiore sarà la sua interazione con il recettore e, quindi, tanto più intensa e persistente sarà la sensazione di calore indotta. La capsaicina, che presenta una struttura totalmente analoga a quella ideale del modello riportato, è il composto più piccante conosciuto in natura, con una soglia di percezione (la minima quantità percepibile) pari a 10 ppm. Anche la piperina e il gingerolo, però, ricordano la struttura sopra riportata: ecco perché piperina e gingerolo, pur essendo piccanti, provocano sensazioni decisamente meno intense di quelle indotte dalla capsaicina. pe roncino e del pepe CURIOSITÁ Il peperoncino ci fa soffrire eppure lo amiamo: perché? Ma perché amiamo mangiare sostanze che provocano dolore? Capsaicina, piperina e gingerolo accrescono la secrezione salivare nel cavo orale, facilitando la masticazione e, quindi, la successiva digestione. Inoltre, la loro presenza sembra stimolare la motilità intestinale. Ma la reale causa della sempre più diffusa passione per i cibi piccanti sembra vada cercata in un altro effetto… Dopo aver mangiato un’alimento molto piccante, noi sperimentiamo spesso un senso di soddisfazione o di appagamento; piccanti Di seguito sono riportate le strutture delle tre molecole e sono evidenziate per ciascuna le zone che possono interagire con il recettore. Fondamentale è la presenza di un donatore e di un accettore di legami idrogeno, che nella capsaicina e nella piperina sono rappresentate dalla funzione ammidica, mentre nel gingerolo si ha solo il gruppo carbonilico (in blu). L’interazione è favorita anche dalla presenza di un anello eteroarilico contente un gruppo accettore di legame idrogeno opportunamente orientato (HBA) e in grado di dare interazioni di tipo π-π con il recettore. Questo gruppo è presente sia nei capsaicinoidi che nella piperina e nel gingerolo (in rosso). Anche la catena laterale lipofila (in verde) può interagire con un sito specifico posto sulla proteina, aumentando il legame fra molecola piccante e recettore. Opportuni spaziatori (linker) servono per favorire il posizionamento dei 3 gruppi responsabili dell’interazione all’interno del sito attivo del recettore. In questo caso non è importante la natura dello spaziatore ma le sue dimensioni. queste sensazioni potrebbero essere dovute alle endorfine, sostanze oppiodi simili alla morfina che vengono prodotte dal cervello come risposta naturale del corpo al dolore. Questo fenomeno può spiegare quella sorta di dipendenza che alcune persone provano verso i cibi molto piccanti. Quanto è più piccante il chili tanto maggiore è il dolore e quindi tanto maggiori sono le quantità di endorfine prodotte e tanto maggiore è il piacere successivo. Ecco perché il cioccolato al peperoncino era riconosciuto anche da Maya ed Aztechi come la bevanda degli dèi… Entrambi stimolano fortemente la produzione di endorfine, a cui associano un’azione tonica e stimolante. Ecco svelato il segreto di molte pozioni d’amore… Questi studi strutturali sono molto importanti e possono portare alla progettazione e alla sintesi di molecole in grado di mimare l’azione, e quindi il sapore, della capsaicina. Il meccanismo di interazione è piuttosto semplice: la capsaicina viene solubilizzata dalla saliva e, passando in soluzione, entra in contatto con due recettori vanilloidi presenti nel cavo orale, chiamati VR1 e VRL-1, presenti nella bocca, sulle labbra, nella gola, sulla lingua e nella cavità nasale. Entrambi possono essere definiti come sensori del dolore, in grado di riconoscere stimoli termici, e servono ad avvertire il nostro cervello quando ingeriamo cibo troppo caldo. Pertanto, VR1 e VRL-1 si attivano rispettivamente, in condizioni "normali", alle temperature di circa 43 °C e 52 °C. La capsaicina, quindi, legandosi a questi recettori, li attiva favorendo l’apertura di un canale specifico per ioni Ca2+. Il trasferimento degli ioni comporta una polarizzazione della membrana cellulare e fa partire un segnale nervoso che viene poi percepito dal centro del dolore posto nel cervello. Questo fenomeno provoca una sensazione di bruciore analoga a quella che si ha quando si ingerisce un cibo troppo caldo. La sensazione di bruciore che percepiamo risulta tanto più intensa e persistente quanto più il peperoncino è piccante, anche se non si ha un vero e proprio aumento di temperatura nella bocca. Una caratteristica che rende la sensazione di piccante unica è che questa può essere avvertita anche in altre parti del corpo: diversamente dalle molecole responsabili dei sapori primari (dolce, amaro, salato, acido e umami) che possono essere riconosciute solo dagli specifici recettori presenti all’interno della bocca, i recettori del dolore in grado di reagire con le molecole piccanti sono presenti anche in altre parti del corpo. Avete mai provato a sfregarvi inavvertitamente gli occhi con le mani sporche di peperoncino? 15 SAPORI & CHIMICA Storia e proprietà del pepe ro Oltre il gusto forte ecco lo spray al peperoncino per Molecole… autodifesa Ogni appassionato buongustaio ha provato almeno una volta l’indimenticabile sensazione di piccante che permane sul palato dopo un pasto speziato e caldo. E tutti noi abbiamo almeno una volta provato l’altrettanto spiacevole sensazione di bruciore in seguito all’incauta ingestione di un peperoncino. Sicuramente gran parte di noi non ha però avuto modo di conoscere l’esperienza pericolosa e indimenticabile di entrare in contatto ravvicinato con uno spray al peperoncino… Le molecole piccanti sono usate da sempre come armi di difesa. Il pepe, ad esempio, è usato da 2500 anni come arma. I Cinesi erano soliti usare contenitori in cui bruciavano pepe nell’olio: il fumo prodotto era irritante e soffocante. I Giapponesi usavano pepe finemente macinato posto in fini sacchetti di carta di riso e gettati sul volto dei propri avversari per accecarli temporaneamente. La scuola di arti marziali indiane usa ancor oggi comunemente diversi oggetti contenti pepe o peperoncino come armi di combattimento. Anche il peperoncino era usato come Sette diverse salse che... rappresentano la scala di Scoville. arma di difesa dalle tribù precolombiane, che usavano bruciarlo per ottenere fumi irritanti e velenosi. Ancor oggi, alcune tribù caraibiche sono solite bruciare peperoncino durante le cerimonie religiose per tenere lontani gli spiriti oppure intrecciarlo in lunghe corde da appendere alle canoe per difendersi dagli squali. Ma oggi l’arma sicuramente più conosciuta a base di peperoncino è lo spray per autodifesa: si tratta di un agente lacrimogeno non letale usato come arma di difesa che causa la momentanea immobilizzazione dell’aggressore. Il principio attivo presente in questi spray è l’estratto naturale di peperoncino denominato Oleoresin Capsicum (OC), utilizzato ad una concentrazione del 10%. Questo spray è solitamente proposto sia per la difesa da molestatori che da animali feroci o molesti. Alcuni analoghi sintetici della capsaicina, tra cui la vanillamide o la morfolide dell’acido pelargonico, sono usati in alcuni spray per autodifesa. L’efficacia di queste sostanze rispetto al principio attivo naturale non è ancora chiara e si possono avere danni anche permanenti. In Italia gli spray al La scala di Scoville, per misurare... la piccantezza La Scala di Scoville è una scala di misura della piccantezza di un alimento. Poiché generamente la sensazione del piccante è legata alla presenza di capsaicina, il numero di unità di Scoville (SHU, Scoville Heat Units) indica la quantità di capsaicina equivalente contenuta nell’alimento in esame. Wilbur Scoville sviluppò un test denominato Scoville Organoleptic Test (SOT) nel 1912: una soluzione dell'estratto del peperoncino veniva diluita in acqua e zucchero finché il "bruciore" non fosse più percettibile ad un insieme di assaggiatori; il grado di diluizione, posto arbitrariamente pari a 16.000.000 per la capsaicina pura, dava il valore di piccantezza in Unità di Scoville. Questa scala permette anche di ottenere il contenuto in peso di capsaicina ed analoghi nell’alimento in esame: ad esempio, uno dei peperoncini più piccanti, l'Habanero, fa misurare un valore superiore a 300.000 sulla scala Scoville. 16 Posto 16.000.000 SHU il valore della capsaicina pura, significa che l'estratto di Habanero ha un contenuto di capsaicina equivalente pari a (300.000/16.000.000) = 1.875% in peso. Il valore più alto finora registrato è di 577.000 per un Habanero della varietà Savina Rosso, ossia il 3,6% in peso. Come sempre, va ricordato che essendo prodotti naturali, non tutti i peperoncini Habanero Savina Rosso hanno questo stesso valore. Il SOT, nonostante sia un test molto diffuso e conosciuto, presenta il grave limite di dipendere dalla soggettività umana. Pertanto, sono stati sviluppati metodi di determinazione della piccantezza più oggettivi, basati sulla determinazione HPLC della capsaicina e dei suoi derivati. In tal caso, la piccantezza viene definita come concentrazione di capsaicina sul prodotto secco, espressa in ppm. Si ottengono, così, le Unità di Piccantezza ASTA, che possono poi essere convertite in Unità Scoville. pe roncino e del pepe Oleoresine per estrarre i principi attivi piccanti Il processo di estrazione delle oleoresine è datato 1930 circa ed è applicabile sia al pepe che al peperoncino per l’estrazione dei principi attivi piccanti. Questo processo essenzialmente si basa sulla concentrazione dell’oleoresina dal tessuto per evaporazione del solvente. L’oleoresina, come gran parte dei prodotti naturali, è termicamente sensibile: quindi, il processo deve essere progettato in modo da minimizzare la degradazione termica del principio attivo e di mantenere la piccantezza dell’estratto. L’oleoresina del Capsicum (OC) è quindi l’estratto dei frutti maturi essiccati e contiene una complessa miscela di oli essenziali, cere, materiale colorato e capsaicinoidi. Inoltre, sono presenti resine acide, esteri, terpeni e prodotti di ossidazione e polimerizzazione dei terpeni. Per ottenere 1 Kg di oleoresina è necessario lavorare circa 20 Kg di Capsicum. Poiché i capsaicinoidi sono disponibili anche in forma sintetica, spesso alcuni analoghi di sintesi a basso costo possono essere aggiunti per aumentare la piccantezza degli estratti o per ricreare oleoresine. Tra questi analoghi vi sono le amidi N-vanilliche (N-vanillil-octanamide, N-vanillil-nonanamide, N-vanillil-decanamide, N-vanillil-undecanamide e N-vanillil-acidamide paaiperica). Questi composti non solo diminuiscono il valore dei prodotti, ma possono indurre tossicità anche gravi. peperoncino (Oleoresin Capsicum, OC) sono considerati un’arma di autodifesa legale solo se il principio attivo è inferiore al 10%, mentre sono invece illegali gli spray contenenti analoghi di sintesi. Tra gli effetti comunemente attribuiti allo spray al peperoncino vi sono la temporanea cecità (15 – 30 min), la sensazione di bruciore alla pelle (45 – 60 min) e una tosse incontrollata con difficoltà respiratorie (3 – 15 min). Ovviamente non è possibile valutare in modo certo gli effetti che l’esposizione a tale spray può indurre: infatti, esistono troppe variabili da considerare. Ad esempio, la quantità e la durata della dose, una possibile doppia esposizione, lo stato dell’epitelio del soggetto colpito e la parte colpita (pelle, mucose, occhi…), fino alle condizioni atmosferiche al momento dell’esposizione. Saranno questi i fattori che decideranno per quanto tempo il dolore persisterà! In ogni caso, in condizioni normali, gli effetti sono totalmente reversibili e non inducono alcun danno permanente. Gianni Galaverna e Chiara Dall’Asta Dipartimento di Chimica Organica e IndustrialeUniversità di Parma CURIOSITÀ Troppo peperoncino? Ecco che cosa fare Per neutralizzare il bruciore nella bocca, i metodi più efficaci sono ingerire dello zucchero, dell'olio o dei grassi; anche masticare del pane aiuta, in quanto la mollica rimuove per azione meccanica la capsaicina dai recettori posti nel cavo orale. Uno dei modi più efficaci per alleviare la sensazione di bruciore è bere latte oppure mangiare yogurt o formaggi a pasta morbida: infatti, le caseine presenti sono in grado di agglutinare la capsaicina, rimuovendola dai recettori nervosi. Come già detto, la capsaicina non è molto solubile in acqua, mentre lo è nei grassi e nell'alcool. Quindi è assolutamente inutile bere acqua per alleviare il bruciore, meglio sarebbe un buon bicchiere di vino! Purtroppo però, per le alte concentrazioni di capsaicina come quelle contenute nell'Habanero Red Savina, l’unico modo davvero efficace per rimuovere il dolore è usare del ghiaccio come anestetico. Una piccantezza da… Guinness Il contenuto in capsaicinoidi è influenzato dalla genetica, dalle condizioni climatiche, dalle condizioni di crescita e dal grado di maturazione. Bisogna considerare che ogni fattore di stress a cui è sottoposta la pianta durante la crescita corrisponde ad un aumento del contenuto di capsaicinoidi, mentre pochi giorni di caldo intenso possono diminuirne drammaticamente il livello. Il record per la maggiore pic- cantezza in un peperoncino è stato assegnato dal Guinness dei primati al Bhut Jolokia indiano, che ha fatto segnare oltre 1.000.000 unità Scoville. Nel 2006, è stata presentata la varietà Dorset Naga, derivata da quest'ultima, che ha fatto misurare anch'essa oltre 1.000.000 di SU. In ordine crescente di piccantezza media delle specie, possiamo dare la seguente scala: Capsicum annuum (~100.000 SHU) Capsicum frutescens (~175.000 SHU) Capsicum chinense (varietà Red Savina, ~580.000 SHU) Incrocio varietale tra Capsicum chinense e C. frutescens (varietà Bhut Jolokia, Naga Dorset e simili ~1.000.000 SHU) A partire da 250.000 SHU, la sensazione di piccantezza cede il posto al dolore, la cui intensità è per lo più costante a prescindere dal contenuto in capsaicina, mentre aumentano la diffusione in bocca e gola e la persistenza nel tempo. Pertanto, assaggiare un Bhut Jolokia o un Habanero Orange, a parte il sapore, dà la stessa sensazione di dolore, solo che il primo induce un bruciore che dura di più! 17 Allarme inquinamento Salute, vegetazione e ER I S DOS Un fenomeno conosciuto sin dagli albori dell’industrializzazione, ma che negli ultimi decenni del XX secolo ha assunto dimensioni planetarie. Ad essere acide non sono soltanto le piogge, ma anche la neve o la grandine o la nebbia. La Natura si vendica con l’uomo riversando sulla terra e nell’ambiente sostanze inquinanti che non risparmiano nulla e nessuno. Cerchiamo di capire insieme come nasce e si sviluppa questo fenomeno. E quali sono i rimedi per combatterlo di Fulvio Zecchini Corrosive Parafrasando una canzone di Gianni Morandi del 1968 potremmo chiederci “Scende la pioggia, ma che fa?”: una domanda che da un punto di vista scientifico ha una risposta articolata. Il fenomeno delle piogge acide era già stato scoperto e descritto in dettaglio dal chimico scozzese Robert Angus Smith (1817-1884) nel 1852. I suoi studi finirono poi nell’oblio fino al 1950-60 quando la pubblicazione di alcune ricerche eseguite in Svezia riportarono il fenomeno all’attenzione dell’opinione pubblica. Quindi, a partire dagli Anni Ottanta del secolo scorso, l’interesse dei media è andato scemando, forse perché il buco dell’ozono e i cambiamenti climatici lo hanno oscurato, forse perché ne era stata esagerata la pericolosità in precedenza. Fatto sta che il problema ancora esiste, nonostante la legislazione internazionale abbia imposto nei successivi Anni Novanta una riduzione dell’emissione in atmosfera dei due principali responsabili del fenomeno: gli ossidi di zolfo e di azoto. Due sono i motivi fondamentali della persistenza delle piogge acide: in primo luogo gli ecosistemi non rispondono in tempo reale un cambio degli input; in secondo luogo c’è la naturale tendenza dell’uomo a semplificare e ad analizzare gli eventi in maniera separata e semplificata; ciò ha ostacolato l’identificazione delle interconnessioni tra i vari fenomeni d’inquinamento atmosferico. 18 In alto: un bosco danneggiato dalle piogge acide sulle montagne Jezera nella Repubblica Ceca. Effetto delle piogge acide su una statua della Westfalia (Germania) resa irriconoscibile dalla corrosione dovuta alle piogge. L’immagine in alto è del 1908, quella in basso del 1968. r ne e monumenti a rischio L’originale del monumento equestre a Marc’Aurelio un tempo situato nella piazza del Campidoglio a Roma. La statua, danneggiata dalle piogge acide e dagli altri fenomeni d’inquinamento atmosferico, è stata collocata nel 1997 in uno spazio dei Musei Capitolini e sostituita da una copia. Summary Corrosive rain Today’s public has generally forgotten about the acid rain phenomenon, nonetheless the problem still exists and rain keeps on damaging human health, the environment (lakes and forests), buildings and monuments. The low pH of rain is mainly due to the emission of sulphur (SOx) and nitrogen oxides (NOx), anhydrides forming strong acids when dissolved in water. Sulphur oxides are mainly due to the combustion of coal (which naturally contains sulphur) in power plants, while nitrogen oxides form during any combustion in the presence of air, like that in car engines. Thus, a major source of NOx is traffic. High temperatures allow atmospheric nitrogen (an inert gas) to react with oxygen providing the activation energy for the reaction. Chemistry of acid rain with respect to its effects on health and on natural and urban environments are in-depth described. Finally, social costs and countermeasures are discussed: clean coal technologies (CCTs), catalytic converters, use of (alternative) fuels without combustion, and environmental protection regulations. rain Vi siete mai soffermati a pensare come i detti popolari talvolta si adattino ai problemi ambientali di portata globale? “Chi la fa l’aspetti”, per esempio, è perfetto per il fenomeno delle piogge acide: noi mandiamo inquinanti in atmosfera tramite le emissioni delle ciminiere e dei tubi di scappamento e la Terra in qualche modo si vendica, ritornandocele sotto forma di piogge acide, in una sorta di perverso ping-pong. In realtà non è solo la pioggia ad essere acida, anche neve e grandine possono esserlo. Meglio, dovremmo parlare di deposizioni acide, includendo nel fenomeno tutti i modi in cui i composti acidi sospesi in atmosfera raggiungono il suolo. Tra questi troviamo le nebbie acide che sono, forse, il fenomeno peggiore, in quanto i composti acidi acquosi rimangono sospesi e circondano a lungo oggetti ed esseri viventi. Ma ancora possono essere acide le rugiade e le deposizioni secche sotto forma di polveri. Comunque, visto che il termine “piogge acide” è ormai entrato nell’uso corrente, useremo questo 19 Allarme inquinamento Salute, vegetazione e per descrivere il fenomeno nella sua totalità, pur tenendo conto di queste puntualizzazioni. Il pH rappresenta una funzione logaritmica in base 10 della concentrazione di ioni idrogeno: da un punto di vista chimico esso è rappresentato dall’equazione pH = – log [H+]. La pioggia ha già di per sé un pH lievemente acido a seguito della dissoluzione dell’anidride carbonica atmosferica in acqua, secondo la nota reazione in cui si forma acido carbonico, che a sua volta si dissocia parzialmente in ione idrogeno (protone, H+) e ione bicarbonato: 1 CO2 (g) + H2O (l) H2CO3 (aq) (acido carbonico) 1' H2CO3 (aq) H+ (aq) + HCO3 (aq) (ione bicarbonato) 1" H+ (aq) + H2O (aq) H3O+ (aq) (ione ossonio o idrossonio) Dove i termini tra parentesi indicano lo stato del composto: (aq) sta per in soluzione acquosa e (l) sta per liquido e, li vedremo più avanti, (g) sta per gassoso, (s) per solido. – Trattandosi di reazioni in soluzione, queste equazioni rappresentano degli equilibri come indicato dal simbolo con doppia freccia ( ), cioè la reazione può procedere sia verso sinistra che verso destra. L’acido carbonico è un acido debole, cioè solo un numero relativamente basso di molecole si dissociano in ioni idrogeno (H+) e ione bicarbonato (HCO3 ). In tal modo l’acqua piovana viene ad avere un pH naturale lievemente acido (pH<7), a seguito della dissoluzione circa 5,6 a 25 °C, con valori variabili da 5 a 6. In soluzione acquosa lo ione idrogeno si combina con una molecola d’acqua a formare lo ione idrossonio come nell’equazione 1"), ma per semplicità d’ora in poi ometteremo questa reazione. Per la nostra discussione l’ulteriore dissociazione di minima parte dello ione bicarbonato (HCO3 ) in ione idrogeno e ione carbonato (CO32 ) è trascurabile in quanto acido molto debole (vedi di seguito). Si parla di piogge acide e, quindi, di fenomeni dovuti ad inquinamento, a valori di pH significativamente inferiori a quello naturale della pioggia (pH < 5). Essendo questa una grandezza logaritmica, sue piccole variazioni si riflettono in elevate differenze nella concentrazione di H+; una diminuzione di pH di una unità rappresenta una concentrazione di H+ 10 volte superiore. Nelle piogge acide intervengono inquinanti che a contatto con l’umidità atmosferica creano acidi forti. Al contrario di quelli deboli, questi in acqua si dissociano totalmente in ione idrogeno e nel relativo controione a carica negativa, così aumentano di molto la concentrazione di H+ della pioggia, abbassandone decisamente il pH. – Il ruolo degli ER di I S DOS ossidi zolfo Gli ossidi di zolfo, globalmente indicati come SOx, sono rappresentati dalla SO2 (anidride solforosa o biossido di zolfo) e da SO3 (anidride solforica o triossido di zolfo), che si forma lentamente per ulteriore ossidazione a partire dalla prima e rappresenta circa l’1-5% degli SOx. Gli ossidi di zolfo e di azoto sono anidridi, termine che letteralmente indica degli acidi disidratati. L’anidride solforosa (SO2) rappresenta l’ossido di zolfo più concentrato in atmosfera; è un gas incolore, irritante, non infiammabile, molto solubile in acqua e dall’odore pungente. Può provocare danni diretti alla salute interagendo con gli enzimi cellulari e con alcune vitamine, distruggendo ad esempio la tiamina; può alterare la struttura tridimensionale delle proteine e, conseguentemente, la loro funzionalità. Essendo più pesante dell’aria, la SO2 tende a stratificarsi verso il basso e in contatto con l’umidità atmosferica o con la pioggia forma acidi secondo le seguenti reazioni: – – 20 LE PAROLE DELLA SCIENZA Anidridi, ossiacidi e idrossidi Gli ossidi dei nonmetalli e dei semimetalli (nuova definizione IUPAC degli elementi prima noti come metalloidi) sono detti anidridi, dal greco “privo di acqua”. Se sciolti in acqua formano acidi, o meglio “ossiacidi” (acidi contenenti ossigeno). Semplificando, questi ultimi possono essere descritti con una formula generica HxMyOz, dove M è l’elemento nonmetallico o semimetallico. Invece gli ossidi dei metalli sono basici e formano idrossidi se sciolti in acqua, alzando il valore di pH. Si possono indicare con la formula generica Mx(OH)y, in questo caso M è il composto metallico. ne e monumenti a rischio LE PAROLE DELLA SCIENZA CURIOSITÀ Ppm e ppb Lo zolfo nella materia vivente Parti per milione (ppm; 10-6) e parti per bilione (ppb; 10-9) con riferimento all’inglese “billion”, miliardo. Sono unità di concentrazione in peso/peso o volume/volume non più riconosciute dal SI, Sistema Internazionale, che però vengono ancora ampiamente usate nella pratica per la loro comodità. Ad esempio, nella benzina finita 100 ppm di S in peso corrispondono a 100 mg per 1 kg di benzina, 1 ppb di SO2 in atmosfera (in volume) corrisponde a 1 mm3 di SO2 per 1 m3 di atmosfera. Lo zolfo è un costituente comune della materia vivente (per esempio batteri, animali, piante) in quanto fa parte dei due aminoacidi essenziali, la cisteina e la metionina, importantissimi - tra l’altro - per la struttura tridimensionale delle proteine, in quanto i loro residui –SH possono essere ossidati a formare cosiddetti “ponti disolfuro” (-S-S-) tra due catene di aminoacidi (polipeptidiche) adiacenti stabilizzando la struttura tridimensionale della proteina fondamentale per la sua funzione. 2 SO2 (g) + H2O (l) H2SO3 (aq) indicatore di qualità merceologica del carbone è il contenuto in ceneri che deve essere basso per limitare il problema del particolato atmosferico. Purtroppo in Italia, nel bacino sardo del Sulcis, si trovano abbondanti riserve di carbone di qualità scadente, con un contenuto in zolfo del 6-8%, inutilizzabili ai sensi delle leggi vigenti, se non a seguito di costosi trattamenti. Ciò ha fatto sì che queste riserve siano inutilizzate da un trentennio circa. Lo zolfo è presente a livello di alcuni punti percentuali (in peso) anche nel petrolio grezzo, ma nei prodotti finiti – a seguito delle tecnologie produttive imposte dalle stringenti norme ambientali – la quantità di zolfo si riduce a livello di centinaia di parti per milione (ppm). Per cui il contributo della combustione dei derivati del petrolio alla emissione di SO2 in atmosfera è marginale. Nel carbone lo zolfo è contenuto in due forme, nei minerali contaminanti (come solfuro di metalli) e in forma intimamente legata alla microstruttura (1% in peso). Mentre quest’ultima non può essere rimossa se non con complessi e costosi procedimenti chimici, la parte minerale può essere ridotta per frantumazione del carbone in polvere finissima e per decantazione in opportuni liquidi come descritto più avanti. L’anidride solforosa può essere emessa in atmosfera tal quale o può formarsi come inquinante secondario per ossidazione dell’acido solfidrico (H2S), un gas tossico dal tipico odore di uova marce, prodotto durante la raffinazione del petrolio e dei gas combustibili. Nei depositi naturali di gas, come quelli di metano (CH4), l’H2S può talvolta essere predominante in termini di quantità. L’acido solfidrico è anche un tipico prodotto di scarto delle cartiere. Questo composto può essere rimosso con una reazione in cui lo zolfo ridotto (H2S) reagisce con lo zolfo ossidato (SO2) per dare zolfo elementare solido, poco dannoso per l’ambiente. Per ottenere lo zolfo ossidato viene prima bruciato un terzo dell’H2S: (acido solforoso) 2' H2SO3 (aq) H+ (aq) + HSO3 (aq) (ione bisolfito) 3 SO3 (g) + H2O (l) H2SO4 (aq) 3' H2SO4 (aq) H+ (aq) + HSO4 (aq) (ione bisolfato) 3" HSO4- (aq) H+ (aq) + SO42 (aq) (ione solfato) – (acido solforico) – – Gli acidi considerati in queste reazioni sono forti, per i nostri scopi, possiamo considerare l’equilibrio tutto spostato verso destra, con dissociazione completa. La dissociazione dello ione bisolfito formatosi nella reazione 2') non viene considerata in quanto acido debole. Su scala globale le maggiori emissioni di ossidi di zolfo sono quelle dei vulcani, che emettono anidride solforosa. Altre emissioni naturali di minore entità avvengono a carico dell’attività biologica dei suoli che contengono naturalmente zolfo, esiste infatti il “ciclo biogeochimico dello zolfo” (vedi riquadro sopra) in cui lo zolfo viene scambiato e riciclato in maniera biologica o chimico-fisica tra il biota e i diversi comparti del nostro pianeta (suolo, acqua, aria). Sul cratere Ovest del Nyiragango, in Congo. Piccoli arbusti crescono sul bordo quando il lago di lava si congela, per poi morire quando esso ridiviene attivo riversando tonnellate di anidride solforosa. Il maggior contributo antropico è quello derivato dalla combustione di carbone per la produzione di energia elettrica. Si tratta di un combustibile fossile che si è formato 100-400 milioni di anni fa per la decomposizione di biomasse vegetali. La sua composizione relativa in numero di atomi è circa C (135), H (96), O (9), N (1), S (1). Come vediamo quindi il carbone contiene naturalmente sia azoto che zolfo; quest’ultimo contenuto in ragione dell’1-6% in peso in base alla tipologia. In minori quantità sono presenti anche silicio e vari metalli - quali sodio, calcio, alluminio, nickel, rame, zinco, arsenico, piombo e mercurio – che possono essere volatilizzati durante la combustione. Tale composizione mostra un’ampia variazione geografica ed è dovuta alle modalità di formazione del carbone. Un altro 4 H2S (g) + O2 (g) → SO2 (g) + H2O (l) 21 Allarme inquinamento Salute, vegetazione e Il ruolo Quindi la SO2 viene fatta reagire mediante la reazione di Claus che avviene in fase gassosa, a formare zolfo solido e acqua: 4' degli 2 H2S (g) + SO2 (g) → 3 S (s) + 2 H2O (l) Assieme all’H2S, vi sono anche altri tre comuni gas di zolfo, tutti di odore sgradevole: CH3SH (metantiolo o metil mercaptano), (CH3)2S (dimetil solfuro) e CH3S-SCH3 (dimetil disolfuro); collettivamente questi quattro gas vengono indicati come zolfo ridotto totale. R E I S S O D Gli ossidi di azoto, noti anche come NOx, sono attori fondamentali nel fenomeno delle piogge acide quanto in quello dello smog fotochimico, che tratteremo in futuro su Green. Gli NOx si formano a partire dalla forma biatomica presente in atmosfera (N2), la cui ossidazione richiede un’elevata energia di attivazione (vedi Green n. 6, pagg. 12-13), in quanto N2 è una molecola così stabile da essere indicata come gas inerte. Questa energia può essere fornita sotto forma termica. Pertanto gli NOx si formano alle alte temperature raggiunte durante qualsiasi tipo di combustione in presenza di aria, essendo quest’ultima la maggiore fonte di azoto (rappresenta circa il 78% dei gas atmosferici). L’energia di attivazione necessaria per la loro formazione può anche essere apportata da scariche elettriche. Oltre ad essere emessi dai vulcani, gli ossidi di azoto possono formarsi in maniera naturale anche a seguito di temporali (fulmini) e per conversione dell’ammoniaca che può essere rilasciata in atmosfera da processi biologici o industriali. Il 49% degli NOx di origine antropica sono emessi dai grandi impianti per la produzione di energia termoelettrica (a carbone, gas o derivati del petrolio). Il 46% ha invece origine dagli scarichi dei veicoli con motore a combustione interna. Le alte temperature raggiunte nella camera di scoppio favoriscono la formazione di questi composti. Pertanto gli ossidi di azoto si ritrovano nei gas di scarico dei mezzi di trasporto, ma sono anche inquinanti indoor che si formano a seguito di comuni attività domestiche come la cottura sui fornelli, l’uso di caminetti e caldaie. Questi NOx sono emessi in atmosfera dai comignoli delle nostre case. Ma i loro precursori non si trovano nei combustibili, bensì nell’aria. La formazione di NO (monossido di azoto, ossido/anidride nitroso/a) avviene secondo la seguente reazione di carattere generale: Altre significative fonti fisse di SO2 sono le industrie metallurgiche. I metalli in natura si trovano associati ad altri elementi (come O, S, C e altri); quelli più preziosi sono spesso ritrovati come solfuri, come il ferro nella pirite (FeS2), il rame associato al ferro nella calcopirite (CuFeS2), lo zinco nella blenda (ZnS), il piombo nella galena (PbS), il nichel nella millerite (NiS). In tali casi in genere le fasi iniziali dell’estrazione dei metalli dai minerali consistono in un trattamento termico al di sotto del punto di fusione del metallo, per liberare quest’ultimo dagli altri elementi che vengono volatilizzati, il processo è chiamato “arrostimento”. Nel caso del solfuro di nickel (millerite) avremo: 5 NiS (s) + 3 O2 (g) → 2 NiO (s) + SO2 (g) Durante questi classici processi di arrostimento la concentrazione di SO2 prodotta è elevata, essa può essere ossidata ad anidride solforica (SO3) per via catalitica; quest’ultima viene fatta reagire con acqua secondo l’eq. 3 sopra riportata per produrre commercialmente acido solforico concentrato, utilizzato per applicazioni industriali e di laboratorio. Per alcuni minerali, come quelli di rame, si può operare un arrostimento in atmosfera di ossigeno puro, si forma così SO2 molto concentrata che può essere liquefatta e venduta come sottoprodotto del processo per il riutilizzo, ad esempio nell’industria alimentare. Essendo potenzialmente tossica viene aggiunta agli alimenti in dosi assolutamente controllate e normate (D.M. 209 del 27 febbraio 1996); la dose massima giornaliera assunta deve essere inferiore ai 0,7 mg kg-1 di peso corporeo (dati: Wageningen University, Olanda). Ha una funzione stabilizzante ed antimicrobica, la sua sigla identificativa come additivo alimentare è E 220 (E 220-227). Viene usata in molti prodotti, come vini (max 200 mg l-1), aceti (max 170 mg l-1), succhi e concentrati di frutta (fino a 350 mg l-1 in alcuni tipi), prodotti dolciari (max 50 mg kg-1 nei biscotti secchi) e svariati tipi di conserve. 22 ossidi di azoto 6 energia + N2 (g) + O2 (g) → 2 NO (g) Il problema scientifico si sposta quindi dal produrre combustibili puliti a quello del controllo della combustione, condotta ad esempio a temperature meno elevate e/o in atmo- ne e monumenti a rischio sfera modificata contenente O2 puro. Altre tecnologie ideali possono essere quelle di produzione di energia dai combustibili senza bruciarli come nel caso delle celle a combustibile (fuel cell). La combustione controllata può essere facilmente impiegata nelle industrie con trattamenti a temperatura elevata nei processi produttivi (ad esempio vetrerie, fonderie). Le fuel cell invece potrebbero rappresentare il prossimo futuro in termini di autotrazione ed energia per usi domestici (vedi Green n. 1, pagg. 16-17). Al momento attuale il sistema utilizzato per abbattere le emissioni di NOx dovute al traffico è quello di dotare i veicoli di un’efficiente marmitta catalitica che li riconverte a N2 (vedi Green n. 6, pagg. 20-22). Si potrebbe ipotizzare in un futuro di catalizzare anche gli scarichi delle centrali termiche di tipo domestico o industriale con sistemi simili a quelli delle automobili. Ciò permetterebbe di realizzare un ulteriore abbattimento di NOx a breve termine, in attesa dell’affinamento delle tecniche di produzione di energia senza combustione. Diversamente dall’azoto molecolare il monossido di azoto è molto reattivo negli strati superiori dell’atmosfera, può reagire con l’ozono distruggendolo (NO + O3 → NO2 + O2) al livello del suolo dove la concentrazione di ozono è limitata, reagisce con l’ossigeno secondo la seguente equazione: 7 2 NO (g) + O2 (g) 2 NO2 (g) Vari altri ossidi di azoto possono formarsi a partire da NO, ma in termini di piogge acide quello più pericoloso è senz’altro NO2, il biossido di azoto (ossido o anidride nitrico/a), tossico e altamente reattivo, di colore brunastro e odore molesto. La sua presenza partecipa alla formazione di quelle cappe di smog grigio/brunastre che talvolta ben si vedono arrivando in aereo e che circondano tutte le metropoli con traffico caotico ed elevato irraggiamento solare. Anche gli NOx sono anidridi e quindi formano acidi se disciolti un acqua. Vista la scarsa solubilità di NO in acqua, il contributo fondamentale degli NOx alle piogge acide si deve all’NO2 che forma acido nitrico con una reazione a più fasi rappresentata dalla seguente equazione globale: 8 4 NO2 (g) + 2 H2O (l) + O2 (g) → 4 HNO3 (aq) (acido nitrico) 8' HNO3 (aq) H+ (aq) + NO3– (aq) (ione nitrito) Quello nitrico è un acido forte quindi l’equilibrio rappresentato in 8') è in pratica completamente spostato a destra. In realtà spesso la formazione di acido nitri- co nelle grandi metropoli avviene per via fotochimica a carico del radicale idrossido (HO•) che si forma durante la complessa serie di reazioni coinvolte nel fenomeno dello smog fotochimico, a partire da ozono, ossidi di azoto e idrocarburi insaturi (alcheni) incombusti. Avremo: 8" NO2 (g) + HO• (g) → HNO3 (l) Ancora una volta notiamo che piogge acide e smog fotochimico mostrano intime connessioni in quanto sono coinvolti inquinanti comuni. Emissioni antropiche di SO 2 + 10%, quelle di NOx + 20%. Considerando trascurabile l’apporto di altri composti al problema delle piogge acide, valutiamo ora in maniera comparativa il ruolo di SO2 e NOx. Per quanto sopra esposto, anche l’apporto di SO3 è trascurabile per questa nostra discussione. Oltre alle sorgenti naturali che emettono significative quantità di SO2 e NOx, su scala globale le emissioni antropiche dei due inquinanti sono approssimativamente equivalenti. Secondo dati dell’Environmental Protection Agency (EPA) negli USA l’utilizzo di carbone per la produzione di energia assomma all’86% delle emissioni di SO2, ma solo al 46% di quelle di NOx. Riguardo a queste ultime la maggior parte (49%) è dovuta all’utilizzo di veicoli con motore a combustione interna. Analizzando i dati di emissione in valore assoluto a livello mondiale si vede che viene prodotta una quantità di SO2 circa doppia rispetto a quella degli NOx, considerando solo l’uso dei combustibili fossili gli ossidi di azoto ammontano solo al 40% del biossido di zolfo. Secondo alcune fonti a livello globale dal 1980 al 1990 le emissioni antropiche di SO2 sono aumentate del 10%, quelle di NOx del 20%. Mentre il trend dei grandi paesi industrializzati è in diminuzione, i paesi in via di sviluppo sono in controtendenza. Si considerino per esempio gli USA e la Cina: nel 1970 i primi emettevano circa 30 milioni di tonnellate di SO2 per anno, la seconda solo 10. Nel 2005 la Cina ne ha rilasciate in atmosfera 25,5 contro le circa 10 degli Stati Uniti. Fortunatamente nel 2007 l’andamento delle emissioni cinesi si è invertito. Questo è un chiaro segno di come, alla luce delle conoscenze attuali, lo sviluppo industriale debba essere inserito in un quadro di sostenibilità. 23 Allarme inquinamento Salute, vegetazione e Effetti delle piogge acide sui monumenti Nel planisfero in alto la distribuzione mondiale dei valori medi di pH della pioggia. Ridisegnato da: J.H. Seinfield e S.N. Pandis “Atmospheric Chemistry and Physics”, Wiley Editore (1998). 24 I valori di pH delle precipitazioni nei paesi industrializzati sono da tempo monitorati ed è ampiamente dimostrato che sono ben al di sotto di quelli della pioggia naturale a seguito della rivoluzione industriale. In pratica in tutta l’Europa il pH della pioggia è inferiore a 5, con valori che scendono in media a 4 in Gran Bretagna e Germania (planisfero qui sopra). Uno dei record di pH acido lo detiene la Scozia, dove nel 1974 è stata misurata pioggia con pH = 2,4! Il valore che si ritrova frequentemente nella nebbia, nella rugiada, e negli strati inferiori delle nuvole è attorno a 3. La presenza di un eccesso di ioni H+ in atmosfera causa direttamente o indirettamente danni alle cose e agli esseri viventi. Un segno tangibile dei danni delle piogge acide è visibile sul nostro patrimonio monumentale con i suoi edifici storici, i manufatti in pietra calcarea e marmo, le statue in metallo o leghe metalliche quali il bronzo. Pezzi importanti del patrimonio dell’umanità, come le rovine Maya di Chichén Itzà, il Partenone ad Atene (a lato) e il Taj Mahal in India, sono stati in vario grado danneggiati dal fenomeno, che d’altronde osserviamo con facilità sui monumenti delle città di tutto il mondo. Le piogge acide agiscono sui materiali esposti all’aperto con un duplice meccanismo: - un’azione chimica di corrosione; - un’azione meccanica di rimozione del materiale stesso, reso precedentemente friabile e solubile. Le deposizioni atmosferiche umide e acide si condensano sulle pareti dei manufatti, l’acqua può così fungere da veicolo per gli agenti inquinanti solidi, liquidi e gassosi che possono penetrare nelle porosità. La condensazione è maggiore sulle superfici fredde, quali quelle di statue o di palazzi disabitati. I monumenti in pietra calcarea sono i più colpiti, perché gli acidi corrodono il carbonato di calcio (CaCO3) di cui sono costituiti attraverso la seguente reazione: Partenone sull’Acropoli di Atene: sono ben evidenti (nell’ingrandimento qui sotto) i segni del tempo e dell’inquinamento urbano della metropoli greca. (Immagine di Fulvio Zecchini, 2007). ne e monumenti a rischio Jeeg Robot d’acciaio. Meglio se inox... Molti di voi forse non li ricordano ma negli Anni Settanta-Ottanta del secolo scorso erano molto di moda tra i giovani i manga giapponesi con robot guerrieri come protagonisti, che spesso erano “d’acciaio”, a indicare la loro robustezza e invincibilità. Ma l’acciaio comune arrugginisce e si corrode, è una lega di ferro e carbonio (max 2,1% in peso), con caratteristiche fisiche e meccaniche superiori a quelle del ferro, che sostituisce in molti usi: si pensi che la produzione mondiale di acciaio nel 2006 è stata di circa 1.240 milioni di tonnellate (dati: International Iron and Steel Institute, www.worldsteel.org). Se la percentuale di carbonio va oltre il 2,1% la lega ferro-carbonio viene denominata “ghisa” e ha proprietà e usi decisamente diversi. Vi sono vari tipi di acciai speciali che possono contenere altri metalli. L’acciaio resistente all’ossidazione e alla corrosione da acidi è detto acciaio 9 CaCO3 (s) + 2 H+ (aq) inossidabile o inox per la capacità di non arrugginire se esposto all’aria e all’acqua. È una lega ad elevato contenuto di cromo (min 11,5%) scoperta nel 1913. Oggi si distinguono diversi tipi identificati con sigle particolari in base al tenore in metalli, utilizzati per applicazioni specifiche. Una buona resistenza all’ossidazione e alla corrosione si ottiene aggiungendo un minimo del 13% in peso di cromo, fino ad un massimo del 26% per gli acciai ad usi particolari. Ossidandosi a contatto con l’ossigeno, il cromo si trasforma in ossido di cromo trivalente (Cr2O3) che forma uno strato superficiale protettivo che aderisce al pezzo, così sottile da essere invisibile, pur impedendo un’ulteriore ossidazione. Questo fenomeno è noto come “passivazione”. Vista la permanenza e la diffusione del fenomeno “piogge acide” sarà meglio adeguare anche i manga, meglio quindi “Jeeg Robot d’acciaio inox”. Ca2+ (aq) + CO2 (g) + H2O (l) Nel caso dell’acido solforico (H2SO4), gli ioni calcio (Ca2+) reagiscono con gli ioni solfato (SO42-) derivati dalla dissociazione dell’acido formando solfato di calcio (CaSO4, il comune gesso). Questo viene facilmente dilavato dalle acque piovane, provocando il disfacimento del manufatto. I materiali lapidei vanno incontro a vere e proprie malattie, tra cui le principali sono l’esfoliazione, l’alveolizzazione e la disgregazione sabbiosa. La prima consiste in un sollevamento dello strato superficiale (da 0,1 a qualche millimetro); questo quindi si separa dagli strati sottostanti, formando delle placche. Al di sotto si crea uno strato polveroso o gessoso che viene parzialmente trascinato via quando la placca si stacca. Nell’alveolizzazione il materiale di superficie si distacca sotto forma di granelli sabbiosi con velocità differenziale da zona a zona: ciò comporta la comparsa sulla pietra di “alveoli” che sono spesso visibili guardando da vicino gli edifici storici. Nella disgregazione sabbiosa l’erosione avviene in modo simile, ma con velocità uniforme su tutta la superficie. Anche acidi prodotti da batteri e muffe sulla superficie dei monumenti possono contribuire alla corrosione. Altri materiali edili come i mattoni e le malte e diversi metalli utilizzati (rame, bronzo, ferro) sono attaccabili dagli acidi. Gli ioni nitrato NO3 contenuti nelle piogge acide, oltre a concorrere alla corrosione dei metalli, penetrano nelle porosità dei mattoni e dei laterizi, determinandone lo sgretolamento progressivo. L’azione dell’acido solforico favorisce la formazione di solfato pentaidrato di rame (CuSO4 • 5 H2O) sulla superficie dei manufatti in rame e bronzo (lega di rame, stagno e zinco), formando quella sgradevole patina verdastra che tutti conosciamo. Una veduta a volo d’uccello della Basilica di San Marco a Venezia. Sulle cupole sono ben evidenti i segni dell’inquinamento. Il potere corrosivo delle piogge acide ha obbligato a ricoverare la quadriga che ornava la balconata della facciata della Basilica e a sostituirla con la copia. Leggende e ricostruzioni raccontano che i quattro cavalli ornassero prima i Propilei ad Atene poi l’ippodromo di Bisanzio in epoca romana. – 25 Allarme inquinamento Salute, vegetazione e R E I S S O D Ne sono un esempio tipico i famosi cavalli della facciata della Basilica di San Marco a Venezia o gli svariati monumenti equestri delle nostre piazze. Le piogge acide possono avere effetti negativi anche su altre strutture metalliche, come quelle di ferro e acciaio, usate nella costruzione di palazzi moderni, ferrovie, ponti, veicoli. In presenza di acqua e ossigeno il ferro si ossida (arrugginisce) e si può corrodere in vario grado. Tale reazione è fortemente accelerata dalla presenza di alte concentrazioni di H+ che favoriscono questa reazione a due fasi: 10 4 Fe (s) + 2 O2 (g) + 8 H+ (aq) → 4 Fe2+ (aq) + 4 H2O (l) 10' 4 Fe2+ (aq) + O2 (g) + 4 H2O (l) → 2 Fe2O3 (s) + 8 H+ (aq) La reazione netta sarà: 10" 4 Fe (s) + 3 O2 (g) → 2 Fe2O3 (s) Il ministero dei Beni Culturali ha pubblicato delle mappe che identificano sul territorio nazionale le zone a maggiore o minore rischio di corrosione per i manufatti (figura a lato). Per salvare il patrimonio artistico molti manufatti movibili vengono spostati al chiuso nei musei, restaurati e quindi sostituiti da copie. Ne sono esempi le due statue marmoree del David di Donatello e di Michelangelo che impreziosiscono due piazze di Firenze, i cavalli della Basilica di San Marco a Venezia, o ancora il monumento equestre a Marc’Aurelio nella piazza del Campidoglio (fotografie a pagina 19). In caso ciò sia impossibile, monumenti e manufatti esse possono essere protetti da vernici trasparenti o colorate (come nelle autovetture), che siano inerti e a basso impatto ambientale. In alternativa per gli oggetti metallici si possono usare leghe (molto costose) resistenti alla corrosione. 26 Mappa con la raffigurazione dell’indice di pericolosità di erosione legato al danneggiamento del patrimonio dei beni artistici provocato dalle piogge acide. Le tre macroaree dell’Italia sono mappate in zone a minore o maggior rischio (da Classe 1 a Classe 5). Fonte: Istituto centrale per il Restauro. ne e monumenti a rischio Effetti delle piogge acide sull’ambiente Il problema delle piogge acide risulta assai complicato da studiare in quanto scatena diversi fenomeni che non è facile correlare, così come è difficile identificare nell’insieme il rapporto causa-effetto. Infatti non è sempre possibile identificare le sorgenti dell’acidità e tracciare l’andamento del pH delle piogge nel tempo. Non ci sono dati storici anteriori al 1970 per l’inconsapevolezza del problema e per la scarsa diffusione degli strumenti di misurazione. Risulta quindi incerta la collocazione nel tempo dell’inizio dell’acidificazione delle piogge, così come non sono ben note tutte le cause. È certo, però, che ci sia stato un significativo e costante aumento dell’emissione in atmosfera di NOx e SOx a partire dal 1940, che a livello globale si è arrestato solo nell’ultimo ventennio. L’attuale legislazione in tema ambientale ha imposto l’uso delle marmitte catalitiche abbattendo significativamente la concentrazione di NOx; l’uso di carbone “pulito” ha permesso di ridurre la presenza di SOx, quest’ultima oggi diminuita sempre più attraverso l’uso di fonti energetiche alternative nelle centrali elettriche. Mentre gli effetti positivi su salute, manufatti ed edifici sono stati immediati, quelli sull’ambiente tarderanno a manifestarsi; si stima che ci vorranno 10-20 anni, in quanto gli ecosistemi non rispondono immediatamente alla diminuzione delle emissioni. Valori massimi di pH tollerabili da alcuni organismi che abitano gli ambienti lacustri. Laghi, il 10% danneggiati Gran parte degli scienziati ritiene che una consistente quantità di laghi e corsi d’acqua dei paesi industrializzati siano stati danneggiati dalle piogge acide; negli USA la stima è attorno al 10%. Laghi e corsi d’acqua sono sensibili all’apporto di acidità. In un lago in salute il pH si aggira attorno a 6,5, con un intervallo ideale per il biota di 6,5-9,3 circa. Al di sotto di pH 5,5 scompare la maggior parte dei pesci, sotto il 5 la maggior parte delle forme viventi, e a pH 4 il lago può considerarsi morto, una mera distesa di acqua acida (vedi grafico qui sopra). Nel sud della Norvegia e della Svezia un quinto dei laghi non contiene più pesci. Essendo i laghi sistemi più o meno chiusi, in cui il ricambio delle acque può essere lento, l’apporto di acidità dalle precipitazioni può facilmente abbassare il pH. Il grado di acidificazione dipenderà ovviamente dalla quantità di acqua caduta e dalla sua concentrazione in H+, ma anche dalla capacità neutralizzante del lago. Quando le rocce che circondano il lago sono di natura calcarea il carbonato di calcio può reagire con gli H+ abbassandone la concentrazione (innalzando quindi il pH) con una reazione del tutto simile a quella dell’equazione 9. Reazioni ancora più importanti per la neutralizzazione sono quelle dei bicarbonati, i quali si formano per reazione del carbonato con anidride carbonica e acqua: Smog e visibilità ridotta Uno degli effetti visibili cui contribuiscono le piogge acide è lo smog fotochimico, dovuto in prima istanza alla formazione di aerosol che contengono particelle fatte di acido solforico, H2SO4, ammonio solfato, (NH4)2SO4, e ammonio idrogeno solfato (o bisolfato di ammonio), NH4HSO4. La foschia provocata da questo fenomeno è maggiormente visibile d’estate quando la maggior insolazione accelera le reazioni fotochimiche e quando l’aria è stagnante, ciò ne giustifica la maggior gravità nei paesi equatoriali o subequatoriali a parità d’inquinanti emessi. Negli USA si è riscontrato - che a causa di questi fenomeni - la visibilità media può diminuire da 100 a 40 km o meno (con minimi anche di circa 2 km) anche in alta montagna, dove di solito si ritiene che l’aria sia più pulita. 11 CaCO3 (s) + CO2 (g) + H2O (l) Ca2+ (aq) + 2 HCO3 (aq) – 27 Allarme inquinamento Studenti prelevano campioni per la misurazione dell’inquinamento nel corso del programma di rilevazioni “Acidity in Pennsylvania”. A destra: si misurano gli effetti delle piogge acide in una foresta degli Stati Uniti. I bicarbonati reagiscono con gli H+ apportati dalle precipitazioni formando anidride carbonica e acqua: – 11' HCO3 (aq) + H+ (aq) CO2 (g) + H2O (l) I laghi circondati da altri tipi di rocce meno reattive dei carbonati - quali quelle granitiche, di origine magmatica, a base silicea hanno una capacità neutralizzante decisamente inferiore, molto bassa, a meno che non intervengano altri fenomeni. L’aumento di concentrazione di ioni idrogeno non ha solo effetti negativi diretti abbassando il pH, ma può favorire indirettamente reazioni chimiche dannose per la vita acquatica. Una di queste coinvolge gli ioni alluminio (Al3+) e danneggia l’apparato respiratorio dei pesci. L’alluminio è il terzo elemento in ordine di abbondanza nella crosta terrestre, dopo l’ossigeno e il silicio. Il granito contiene ioni alluminio e il suolo contiene complessi di silicati di alluminio per loro natura poco solubili in acqua. La loro solubilità viene però enormemente aumentata dalla presenza di acidi, un abbassamento del pH da 6,0 a 5,0 può aumentare di 1.000 volte la concentrazione di alluminio disciolto. In tali condizioni attorno alle branchie dei pesci si forma uno spesso strato di muco che non permette più lo scambio di ossigeno, così i pesci muoiono per soffocamento. Inoltre l’alluminio reagisce con l’acqua formando ioni idrogeno, esacerbando il problema: 12 Al3+ (aq) + H2O (l) → H+ (aq) + [Al(OH)]2+ (aq) A seguito della diminuzione della concentrazione di SOx e NOx in atmosfera è però possibile cercare di recuperare i laghi acidificati ripristinandoli ad uno stato di salute accettabile. In Svezia, sono stati effettuati interventi sperimentali spandendo polvere di idrossido di calcio sulla superficie che hanno dato risultati incoraggianti. 28 Simili reazioni di neutralizzazione avvengono in atmosfera e in natura. Idrossido e carbonato di calcio e altri composti basici di calcio, magnesio, sodio e potassio sono diffusi non solo nei suoli, ma anche nelle ceneri rilasciate dalle ciminiere industriali durante le combustioni. Queste particelle alcaline possono interagire con le goccioline di acido sospese in atmosfera neutralizzandolo parzialmente. Per quanto possa sembrare ironico, i sistemi di riduzione per le emissioni di particolato hanno contribuito a diminuire la capacità neutralizzante dell’atmosfera, abbassando di conseguenza il pH delle deposizioni. Foreste senza foglie... Una delle questioni più controverse in merito alle piogge acide è il loro effetto negativo sulle foreste. La scomparsa di porzioni più o meno estese di foreste è indiscutibile, ma ancora non si capisce se il loro declino sia naturale o artificiale, dovuto alle piogge acide o, più probabilmente, ad una concomitanza di fattori. Nel Nord Europa il fenomeno fu inizialmente descritto a partire dal 1960 e da allora sembra essere in costante espansione. Gli abeti di alta montagna sono gli alberi più colpiti. Dapprima si verifica un indebolimento dei rami, poi l’ingiallimento con diminuzione dell’attività fotosintetica e la seguente caduta degli aghi. Il fenomeno si espande poi a tutta la pianta che alla fine, indebolita, muore a causa di siccità, gelate, forte vento o infestazioni. Danni alle foreste si sono segnalati un po’ in tutta Europa (vedi la foto in apertura del nostro dossier), ma il fenomeno è di portata mondiale. In Germania e Regno Unito il problema è particolarmente grave in quanto il 50% circa delle foreste risulta danneggiato. Nel 1988 uno studio su vasta scala ha indicato che fino ad allora l’Italia aveva perso il 10% del suo patrimonio boschivo. Sebbene i danneggiamenti delle foreste sia- Salute, vegetazione e monumenti a rischio Effetti delle R E I S S O D no più frequenti nelle regioni più soggette al fenomeno delle piogge acide precedentemente indicate, non è semplice dimostrare la relazione di causa-effetto, soprattutto quando sono coinvolti molti fattori e varie sono le possibili cause. In alcune regioni delle alte latitudini gli stress climatici sembrano essere la causa principale. In altre regioni le infestazioni da parassiti, l’ozono troposferico e/o altri inquinanti atmosferici potrebbero essere i maggiori indiziati. Recenti osservazioni hanno ridimensionato il fenomeno della distruzione delle foreste, forse in precedenza ingigantito dai mass-media. Ci sono comunque prove circostanziate che le piogge acide stiano parzialmente contribuendo; esiste un’evidente correlazione tra precipitazioni acide, acidità delle acque superficiali e moria di alberi. Sempre più si sta accreditando una teoria secondo la quale i danni alle foreste sarebbero dovuti ad un effetto sinergico di SOx, NOx e ozono troposferico. Secondo questa teoria gli ossidi di azoto e ozono attaccherebbero direttamente il rivestimento ceroso delle foglie, permettendo agli ioni idrogeno di penetrare più facilmente e degradare i tessuti, facilitando anche l’ingresso di agenti patogeni. L’acidificazione del suolo circostante agirebbe invece in modo indiretto, mobilizzando metalli (soprattutto alluminio) che possono danneggiare le radici e inibendo l’assorbimento di acqua e di minerali. Questi ultimi – tra cui potassio, calcio, magnesio ed altri – sono parzialmente rimossi dagli strati superficiali del terreno dall’effetto lisciviante della pioggia acida. L’insieme di questi effetti lascerebbe le piante esposte ad avversità ambientali quali malattie, infestazioni, siccità o tempeste di vento. A questo va aggiunto che in alta montagna le vette sono speso avvolte da nubi basse che hanno sovente un pH più acido di quello delle piogge, lasciando gli alberi immersi a lungo in questa sorta di aerosol corrosivo. piogge acide sulla salute e strategie di controllo L’inalazione degli aerosol contenenti i solfati e l’acido solforico può provocare danni diretti alla salute, in modo più o meno grave, fino anche alla morte. Il danneggiamento avviene sopratutto a carico delle prime vie aeree, dove attaccano direttamente gli epiteli più sensibili provocando bronchiti ed enfisemi. Gli anziani, i malati e coloro i quali soffrono di preesistenti disturbi respiratori (asma, bronchite, enfisema) sono i più esposti. Uno dei casi più significativi è quello del 1952 a Londra. In quel tempo l’ampio uso di carbone ad alto tenore di zolfo causò una nebbia acida tale da causare in cinque giorni circa 4.000 vittime. Un episodio meno grave si verificò in Pennsylvania (USA) nel 1948 con 20 vittime. Sebbene questi siano episodi limite, l’Organizzazione Mondiale della Sanità stima che 625 milioni di persone siano esposte a livelli eccessivi di SO2, con costi rilevanti per la sanità pubblica. Un ulteriore oggetto di preoccupazione per la salute sono i possibili danni indiretti delle piogge acide. Alcuni metalli tossici - come il piombo, il cromo, il cadmio ed altri - sono legati ai minerali che costituiscono le rocce e la parte inorganica dei suoli. L’abbassamento di pH aumenta la mobilità di questi metalli che si solubilizzano parzialmente nell’acqua acidificata e possono raggiungere le falde usate a scopo potabile. Simili effetti sono stati evidenziati in alcuni acquiferi dell’Europa occidentale. Inoltre pesci che vivono in acque acide potrebbero per lo stesso motivo accumulare questi inquinanti e trasferirli all’uomo attraverso l’alimentazione. La legislazione, sia nazionale che sopranazionale, regola in maniera stringente le emissioni dovute ai trasporti (NOx) e alle centrali e fornaci a carbone (SOx). Nel caso dei veicoli a motore, per rientrare nei limiti di emissioni, ci si affida all’adozione obbligatoria di marmitte catalitiche. L’uso della marmitta catalitica accelera la decoposizione di NO che avviene molto lentamente in ambiente natu29 Allarme inquinamento Salute, vegetazione e m La mobilità transfrontaliera degli inquinanti Visti i molteplici effetti su manufatti, ambienti naturali e salute, si pone sempre più l’accento sui costi socio-economici delle piogge acide. Negli USA si stima che a causa delle piogge acide vengano spesi oltre 5 miliardi di dollari all’anno. Il maggior problema è quello di dover escogitare soluzioni a livello globale. Infatti gli inquinanti atmosferici non conoscono frontiere e possono essere trasportati anche a lunga distanza: le emissioni cinesi possono raggiungere il Giappone e, addirittura, la costa occidentale degli USA, mentre quelle statunitensi sono state ritrovate in Groenlandia! Alla mobilità transfrontaliera a lunga distanza bisogna aggiungere che, a livello globale, si prevede che le emissioni di SO2 continueranno ad aumentare fino al 2020, soprattutto nei paesi in rapido sviluppo. Dati dell’Agenzia Europea per l’Ambiente (European En- vironmental Agency, EEA) indicano che il 38% delle emissioni di zolfo in Italia (media sul periodo 1985-1995) sono di origine straniera. La percentuale sale al 69% per la Norvegia e al 72% per la Svezia, paesi pesantemente afflitti dalle piogge acide. La normativa internazionale, soprattutto in Nord America, Europa e Giappone, sta cercando di arginare il problema ponendo dei limiti restrittivi alle emissioni globali di NOx e SOx, ma per poter essere davvero efficace tale legislazione ambientale deve essere più ampiamente condivisa e applicata. Nel 1979 l’Europa ed il Nord America hanno firmato la “Convenzione sul Trasporto a lunga distanza degli Inquinanti atmosferici” mirata a ridurre l’emissione di composti coinvolti nel fenomeno delle piogge acide e dello smog fotochimico (ozono troposferico). rale, quando i gas di scarico si raffreddano. Il catalizzatore può favorire la combinazione di NO e CO per formare azoto molecolare e anidride carbonica. Il catalizzatore permette tre reazioni: la conversione del monossido di carbonio ad anidride carbonica, quella degli idrocarburi incombusti ad anidride carbonica e acqua e quella degli ossidi di azoto ad azoto molecolare e anidride carbonica. rende quindi possibile lavare il carbone con un liquido di densità intermedia facendo sì che le particelle di carbone galleggino e quelle di zolfo sedimentino. In alternativa a questo processo sono stati proposti metodi biologici o chimici che ossidino il ferro della pirite a Fe3+ solubile e/o che mineralizzino lo zolfo organico contenuto nel carbone. Altre CCT prevedono la purificazione del carbone durante la combustione, in modo da catturare gli inquinanti immediatamente dopo la loro formazione. Nei sistemi “a letto fluido” il carbone polverizzato è miscelato con carbonato di calcio, anch’esso in polvere, e quindi sospeso (fluidificato) su getti d’aria nella camera di combustione. Virtualmente tutta la SO2 formatasi reagisce con il carbonato a formare solfito e solfato di calcio con reazioni simili a quelle che presiedono alla bonifica dei fumi di ciminiera che vedremo a breve (eq. 13). Questa procedura permette di procedere a temperature di combustione meno elevate sfavorendo così anche la formazione di ossidi di azoto. Quando l’anidride solforosa viene emessa in forma diluita dalle ciminiere degli impianti di produzione di energia elettrica non è possibile eliminarla per ossidazione ad anidride solforica e poi ad acido solforico, secondo il procedimento utilizzato per la produzione commerciale dell’acido, descritto nelle equazioni 2 e 3). Vengono quindi usati dei processi cosiddetti di “scrubbing” o di “desolforazione” dei gas di scarto. Essi consistono in una reazione acido-base a umido fra la SO2 e carbonato (CaCO3) o ossido (CaO) di calcio in forma di solidi finemente granulari sospesi in acqua (slurry). Con tali processi è possibile eliminare fino al 90% degli SOx con una reazione del tipo: Purtroppo però oggigiorno anche la sola emissione di anidride carbonica rende l’uso di carburanti fossili nei motori poco sostenibile, a causa dell’effetto serra; è sempre più pressante la necessità di adottare nuovi sistemi di propulsione. Grazie al numero limitato di sorgenti e alla loro immobilità, il controllo degli SOx risulta di più facile approccio. Tre sono le strategie di possibile applicazione: a) passare all’uso esclusivo di carbone naturalmente povero di zolfo (contenuto di S = 1% circa); b) pulire e desolforizzare il carbone prima o durante l’uso; c) eliminare chimicamente gli ossidi di zolfo dai fumi. La prima strategia è applicabile, ma deve tenere conto del fatto che il contenuto energetico e di zolfo del carbone nelle varie zone geografiche è ampiamente variabile; impedire ad una nazione di usare/esportare il proprio carbone vale a dire arrecarle un grave danno economico. Il primo sistema usato per ridurre l’impatto degli SOx emessi da centrali elettriche a carbone è stato quello di costruire ciminiere molto alte (fino anche a 400 m!); ciò ha parzialmente ridotto i problemi a livello locale, ma ha esacerbato il già citato problema della mobilità transfrontaliera delle emissioni, favorendo il loro trasporto da parte dei venti dominanti. La pulizia del carbone può essere fatta abbastanza facilmente e la tecnologia è già disponibile (Clean Coal Technologies, CCTs). Il carbone viene frantumato fino a polverizzarlo. Lo zolfo è solitamente associato a particelle minerali pesanti, spesso pirite (FeS2). Si 30 13 CaCO3 (s) + SO2 (g) → CaSO3 (s) + CO2 (g) Il solfito di calcio può essere ossidato con aria a solfato, disidratato e rivenduto come gesso: 13' 2 CaSO3 (s) + O2 (g) → 2 CaSO4 (s) ne e monumenti a rischio Inquinante Tipo di limite SO2 Valori limite Limite per la protezione della salute 350 µg/m3, media 1 h (da non superare più di 24 volte per anno) umana (in vigore dal 1° gennaio 2005) 125 µg/m3, media 24 h (da non superare più di 3 volte per anno) Limite per gli ecosistemi (in vigore dal 19 luglio 2001) Soglia di allarme 20 µg/m3, media anno civile e semestre invernale 500 µg/m3, media 3 h consecutive NO2 Limite per la protezione della salute 200 µg/m3, media 1 h (da non superare più di 8 volte per anno ) umana (1° gennaio 2010) 40 µg/m3, media anno civile Soglia di allarme 400 µg/m3, media 3 h consecutive NOx Limite per la protezione della vegetazione (19 luglio 2001) 30 µg/m3, media anno civile Oltre ai composti del calcio, la desolforazione dei fumi può essere effettuata con solfito di sodio, ossido di magnesio o ammine (monoetanolammina, diglicolammina, dietanolammina, diisopropanolammina, metildietanolammina e trietanolammina). In Europa è stato proposto un processo detto SNOX per la rimozione degli ossidi di zolfo ed azoto, già in funzione anche in alcune raffinerie italiane. Prima i gas di scarto vengono raffreddati e mescolati con ammoniaca (anch’essa gassosa in condizioni normali) in presenza di un catalizzatore che rimuove NO secondo la reazione: 14 3 NO + 2 NH3 → 2,5 N2 + 3 H2O Quindi i gas sono quindi nuovamente riscaldati e la SO2 è ossidata cataliticamente a SO3 che viene fatto reagire con acqua per formare acido solforico. Per abbatterne le emissioni acidificanti, il carbone può anche essere convertito in combustibili gassosi (gassificazione) per trattamento con vapore; il prodotto (syngas) viene purificato ed usato in turbine a gas per produrre elettricità. Il carbone gassificato può essere anche compresso per formare combustibili liquidi per autotrazione. Ovviamente l’abbattimento di SOx si può ottenere anche sostituendo all’uso del carbone quello di altri combustibili quali gas naturali o prodotti petroliferi, che spesso però sono più costosi del carbone (soprattutto di quello meno pregiato ad alto tenore di zolfo). La miglior soluzione è quella di utilizzare, ogniqualvolta sia tecnicamente possibile, fonti energetiche alternative rinnovabili ed ecocompatibili, come energia solare ed eolica. La politica di controllo delle piogge acide non è semplice da attuare. Le case produttrici di veicoli e le industrie che producono carbone e combustibili o energia elettrica detengono un grande potere economico e di conseguenza una grande influenza politica. Negli USA, ad esempio, tali aziende osteggiano la pubblicazione di normative ulteriormente cautelative e restrittive in merito all’emissione di SOx ed NOx, in quanto queste compor- terebbero un impatto economico notevole. Pertanto chiedono che si investa per effettuare ulteriori ricerche al fine di confermare ciò che oggi ritengono solo un fondato sospetto, non essendoci una prova definitiva che gli ossidi di azoto e zolfo siano la causa principale delle deposizioni acide. Le aziende statunitensi sono riuscite a rientrare nei limiti della normativa attuale con costi accettabili grazie alla disponibilità di carbone a basso tenore di zolfo (1%) a buon mercato. In Italia la normativa recente recepisce la corrispettiva direttiva comunitaria in merito di emissioni industriali di SOx ed NOx; il Decreto Ministeriale 2 aprile 2002 n. 60, prevede l’adozione di limiti gradualmente più restrittivi al fine della tutela della salute e degli ecosistemi (vedi tabella qui sopra). Inoltre bisogna valutare il carico delle sostanze acidificanti e il loro andamento nei confronti degli obiettivi nazionali e internazionali di riduzione (D. Lgs. 171/04, Protocollo di Göteborg e Direttiva europea National Emission Ceilings, NEC). Pertanto gli inquinanti atmosferici sono monitorati in continuo dalle centraline fisse e mobili gestite dalle Agenzie Regionali per la Protezione Ambientale (ARPA) che molti di noi avranno visto passeggiando in città. Così si ottengono informazioni relative, tra l’altro, a ozono (O3), particolato PM10, biossido di zolfo (SO2), biossido di azoto (NO2), monossido di carbonio (CO) e benzene (C6H6). Secondo il rapporto ambientale annuale del 2006 pubblicato dall’Agenzia per la Protezione dell’Ambiente e dei servizi tecnici (APAT), in Italia le emissioni di sostanze acidificanti sono in diminuzione, soprattutto nel settore energetico e nei trasporti; il loro andamento è in linea con gli obiettivi prefissati (vedi tabella qui sopra). Nell’ambito della Direttiva NEC, l’Italia ha l’impegno di ridurre le emissioni nazionali annuali di biossido di zolfo a 0,475 Mt (milioni di tonnellate), quelle di ossidi di azoto a 0,990 Mt e quelle di ammoniaca a 0,419 Mt entro il 2010. Fulvio Zecchini 31 Scienza e innovazione tecnologica La ricerca sui magneti abbraccia oggi le aree più diverse: dall’industria automobilistica, dai nuovi sistemi di refrigerazione ai “farmaci intelligenti”, dalla Tac ai computer e ai magneti molecolari. Esaminiamo i risultati raggiunti dagli studiosi e le applicazioni pratiche che hanno cambiato la vita di ogni giorno di tutti noi. di Dante Gatteschi Dalla seconda metà del secolo scorso c’è stato un rapido sviluppo di nuove classi di materiali che hanno portato vantaggi tecnologici enormi e, in alcuni casi, hanno invaso anche il nostro vivere quotidiano. Per citarne qualcuno, i nuovi materiali ceramici ed elettroceramici, che, tra l’altro, hanno avuto notevole importanza per favorire i voli spaziali, nuove leghe con prestazioni superiori, materiali compositi a base inorganica, fibre di carbonio. Ma forse lo sviluppo più tumultuoso si è avuto nei cosiddetti materiali molecolari: quelli cioè che hanno una struttura molecolare, o che sono ottenuti usando approcci di sintesi molecolare. Che poi è un modo più sofisticato di dire chimica. Il primo settore a svilupparsi fu quello delle materie plastiche, che vennero essenzialmente sfruttate per le loro proprietà strutturali. In questo particolare settore, il ruolo della chimica italiana è stato determinante, come dimostrato dal premio Nobel per la Chimica assegnato nel 1963 a Giulio Natta (Imperia,1903 – Bergamo,1979) insieme al tedesco Karl Waldemar Ziegler (Helsa,1898 – Mülheim,1973). Dal punto di vista pratico fu lo sviluppo del Moplen®, una materia plastica sulla quale furono costruite le fortune, purtroppo effimere, della Montecatini. Attrazioni 32 Nuovi materiali Magnetismo ed elettricità nel sincrotrone Il sincrotrone è un acceleratore di particelle circolare e ciclico, in cui il campo magnetico (che serve a curvare la traiettoria delle particelle) e il campo elettrico variabile (che accelera le particelle) sono sincronizzati con il fascio delle particelle stesse. Esistono due tipi distinti di sincrotrone con diverso utilizzo. I sincrotroni come l’Elettra di Trieste qui rappresentato in una foto aerea, servono per lo studio della fisica dello stato solido e delle superfici, attraverso lo studio dell’interazione della materia con particolari radiazioni elettromagnetiche (luce di sincrotrone). Altri sincrotroni servono per lo studio della fisica nucleare attraverso l’accelerazione e la collisione di particelle nucleari e subnucleari. Summary Magnetic attraction Ancient Greeks tried to describe magnetism in the past, but they did not come close to finding a suitable explanation. As a matter of fact, this phenomenon can be correctly explained only by “quantum mechanics”, a branch of physics born in the first half of the twentieth century. Its laws describe phenomena at an atomic and subatomic dimension, at which those of classic mechanics are inapplicable. Following the studies of Hans Christian Ørsted (1777–1851), André-Marie Ampère (1775–1836), and finally James Clerk Maxwell (1831–1879), today we know that magnetism is mainly due to the motion of electrons, namely their spin, which is actually a quantum property. A magnetic momentum is also associated with the atomic nucleus, but it usually has little influence on the global magnetic properties of atoms and molecules. After describing the several existing types of magnetism, technologies based on new magnetic inorganic/organic materials such as single-molecule magnets are reported: “spintronic” and innovative computer data storage, new cooling systems, and “magic bullets” which carry drugs directly to damaged tissues, such as carcinogenic cells. magnetiche 33 Scienza e innovazione tecnologica Già Plinio il Vecchio provò a spiegare i segreti del magnetismo Altri materiali molecolari largamente usati sono i cristalli liquidi, scoperti per caso nel XIX secolo e ripresi negli Anni 50, che ora sono negli schermi (display) delle televisioni, dei telefonini, eccetera.Tuttavia, l’aspetto più innovativo è stato forse la scoperta della possibilità di fabbricare dei conduttori usando molecole organiche. In effetti, pensando alla materia organica, ci viene piuttosto in mente un isolante, nel caso dei conduttori immaginiamo immediatamente i metalli, il rame tra i primi. Comprendere le ragioni per le quali il poliacetilene conduce la corrente elettrica ha richiesto lo sviluppo di nuovi modelli teorici e un approccio interdisciplinare, permettendo la sintesi di nuovi materiali, che dopo un lungo periodo di incubazione stanno per arrivare sul mercato. Sebbene non si tratti di una vera e propria rivoluzione tecnologica, è comunque un contributo significativo alla ricerca di base. Si prevede che nel XXI secolo i materiali molecolari acquisteranno nuovi spazi, trovando nuovi tipi di applicazioni legati alla loro lavorabilità, alla possibilità di modularne le proprietà con tecniche di chimica molecolare e supramolecolare. Il modello da imitare è ancora una volta la Natura, che riesce a fabbricare, in condizioni molto blande di temperatura e pressione, materiali con proprietà straordinarie. I risultati brillanti ottenuti nel settore dei conduttori (e dei superconduttori) organici sono alla base della convinzione che i materiali molecolari possano essere progettati e costruiti per avere proprietà prestabilite. In particolare si pensa alla possibilità di ottenere materiali compositi polifunzionali, che presentano proprietà solitamente assenti nei costituenti di partenza. Una proprietà che è particolarmente difficile da mettere a punto in sistemi molecolari è quella del magnetismo, perché le condizioni per ottenere materiali magnetici usando le molecole sono molto stringenti. Anche se ancora non ci sono state scoperte epocali, la ricerca di base ha fatto numerosi passi in avanti e in alcuni settori esistono già delle applicazioni pratiche. Lo scopo di questo articolo è presentare un quadro esauriente di un settore rilevante in cui la ricerca italiana ha un ruolo apprezzato a livello internazionale. In particolare, i temi concernenti i magneti fatti di una sola molecola, discussi più avanti, sono stati imposti all’attenzione di numerosi gruppi di ricerca internazionali dall’attività svolta presso il Laboratorio di Magnetismo Molecolare dell’Università di Firenze e il Centro di Riferimento INSTM. Il tema del magnetismo è piuttosto complesso e spesso poco insegnato. Per questo si cercherà di fornire i concetti di base necessari ad illustrare i risultati più recenti. 34 Un’antica e curiosa bussola cinese utilizzava un cucchiaio in cui veniva versata acqua sulla quale galleggiava un ago magnetizzato. I magneti hanno attirato l’attenzione del genere umano sin dai tempi antichi. Già i greci raccontavano storie riguardanti la scoperta del magnetismo: una di queste narra di come il pastore Magnes fosse rimasto attaccato ad una pietra tramite i sandali suolati con chiodi di ferro. Oggi possiamo dire che la magnetite contenuta nella roccia aveva attratto il ferro. Ci possiamo poi immaginare la sorpresa quando si scoprì che l’effetto di attrazione continuava anche se il ferro e la magnetite non erano a contatto, ma si trovavano a qualche centimetro l’uno dall’altra. L’azione a distanza era un concetto difficile da spiegare. D’altra parte ora noi sappiamo che un’azione a distanza si esplica anche con la gravitazione, ma nessuno si meraviglia quando vede un sasso cadere: è una cosa del tutto naturale per noi. In effetti ci sono volute migliaia d’anni di storia dell’umanità per arrivare alle rivoluzionarie scoperte di Galileo Galilei e Isaac Newton a cavallo fra XVI e XVII secolo; secondo la legge della gravitazione universale formulata da quest’ultimo, due oggetti si attraggono con una forza proporzionale direttamente al prodotto delle masse e inversamente proporzionale al quadrato della distanza. Un aspetto che diversifica notevolmente le forze magnetiche da quelle gravitazionali è che le prime possono essere attrattive o repulsive mentre le seconde sono solo attrattive. E le forze magnetiche repulsive possono anche contrastare l’attrazione gravitazionale, come nel caso dei moderni treni a levitazione magnetica. Hans Christian Ørsted (Rudkøbing, 1777 – Copenhagen, 1851 Nuovi materiali Dal moto degli elettroni nascono i campi magnetici La stampa settecentesca illustra l’autentica mania (con regolari dispute scientifiche) che si diffuse nella società francese nell’ultimo ventennio del Settecento e che perdurò tenacemente fino a primi decenni del secolo successivo: il mesmerismo, che prese il nome dal suo ideatore, il medico francese Franz Mesmer (1734-1815). Essa si basava sull’idea dell’esistenza di un fluido vitale, di natura principalmente magnetica, che era sprigionato da ogni essere vivente. Chiaramente la spiegazione delle proprietà magnetiche era ben al di là delle possibilità di un pastorello della Grecia antica, ma anche i più grandi sapienti del tempo non riuscivano a comprendere appieno il fenomeno. Plinio il Vecchio ci provò, ma non riuscì a trovar nulla di meglio che spiegare che il ferro e la magnetite sono attratti da un vuoto per abbracciarsi. Bisognerà arrivare al principio del XIX secolo per avviarsi sulla strada giusta. Nel 1820 il fisico e chimico danese Hans Christian Ørsted (Rudkøbing, 1777 – Copenhagen, 1851) nota che una corrente elettrica interagisce con l’ago magnetico di una bussola, aprendo la via alle ricerche sull’elettromagnetismo. André-Marie Ampère (Lione, 1775 – Marsiglia, 1836) scopre che correnti elettriche generano campi magnetici e suggerisce che quelle interne ai materiali siano responsabili del ferromagnetismo e fluiscano perpendicolari all’asse del magnete: le correnti devono essere quindi fenomeni molecolari piuttosto che macroscopici. La completa formalizzazione teorica dei fenomeni elettromagnetici arriva poi alla metà del XIX secolo, grazie a James Clerk Maxwell (Edimburgo, 1831 – Cambridge, 1879): il fisico scozzese mostra quanto sia profondo il legame tra campi elettrici e magnetici, unificandoli in un unico campo, detto elettromagnetico, che si propaga nello spazio sotto forma di onda. Tale onda viaggia nel vuoto alla velocità della luce e, a seconda della lunghezza d’onda, è classificata come onda radio, luce, radiazione X. André-Marie Ampère (Lione, 1775 – Marsiglia, 1836) James Clerk Maxwell (Edimburgo, 1831 – Cambridge, 1879) Ora sappiamo che le proprietà del ferro e della magnetite sono legate al moto dei loro elettroni, che sono particelle di carica negativa e quindi, muovendosi, generano campi magnetici. In realtà, oltre a questo, è presente anche un campo magnetico associato ai nuclei atomici. Tale campo è però molto meno intenso di quello elettronico e, nel descrivere le proprietà macroscopiche del ferro, lo possiamo trascurare. Le cose cambiano se si fanno esperimenti per caratterizzare le proprietà magnetiche dei nuclei. Allora è necessario sviluppare una strumentazione adatta a “vedere” i nuclei. Un noto esempio è la Risonanza Magnetica Nucleare, più spesso detta Risonanza Magnetica tout court per evitare turbamenti associati all’aggettivo. In pratica si usa un campo magnetico esterno per osservare la risposta a tale campo del momento magnetico dei protoni dell’acqua dei vari tessuti, che possono essere così differenziati gli uni dagli altri, fornendo fotografie molto dettagliate della materia molle degli organismi viventi. Il vantaggio rispetto ad altre tecniche, come quelle che adoperano raggi X, è l’assenza di radiazioni ionizzanti: servono solo un campo magnetico e un generatore di onde radio (in maniera analoga funziona la Risonanza Paramagnetica Elettronica, EPR, dove vengono osservati gli spin elettronici e non quelli nucleari). Oltre alle applicazioni mediche, la Risonanza Magnetica Nucleare è lo strumento di elezione per l’indagine della struttura delle sostanze chimiche in soluzione, tra cui le proteine. Va ricordato che nel 2002 il Premio Nobel per la Chimica è stato assegnato allo svizzero Kurt Wüthrich (Aarberg, 1938) per aver messo a punto metodi molto efficienti per la determinazione della struttura delle proteine in soluzione, basati sulla spettroscopia di Risonanza Magnetica Nucleare. Ritornando all’origine del magnetismo delle sostanze, possiamo individuare cinque comportamenti fondamentali, che sono brevemente illustrati di seguito. 35 Scienza e innovazione tecnologica La memoria magnetica dei computer e la spintronica La lettura dell’informazione contenuta nei minuscoli elementi di memoria si effettua con delle testine magnetiche che sfruttano il principio della cosiddetta magnetoresistenza gigante (GMR), per il quale il fisico francese Albert Fert (Carcassonne, 1938) e quello tedesco Peter Grünberg (Plzec̀, 1939) hanno ricevuto il premio Nobel per la Fisica del 2007. Magnetoresistenza significa che la capacità di trasportare la corrente elettrica di un conduttore, come ad esempio il ferro, è influenzata dalla presenza di un campo magnetico. La variazione è però piccola ed è necessario avere notevoli quantità di materiale per leggere l’informazione contenuta nel bit. Fert e Grünberg hanno scoperto indipendentemente nel 1988 che se invece di un conduttore massivo si usava un materiale nanostrutturato, consistente di due strati di conduttore ferromagnetico separati da uno strato di conduttore non magnetico, tutti dello spessore di qualche nm, l’effetto della presenza di un campo magnetico poteva far variare la resistenza del conduttore anche del 100%. Si capì subito che questo effetto consentiva di usare elementi di memoria molto piccoli e testine di lettura miniaturizzate. IBM si lanciò subito su questa traccia e nel 1996 mise sul mercato le testine a GMR, che consentono di avere densità di informazione estremamente elevate. L’altro aspetto fondamentale di questa ricerca è che ha aperto le conoscenze su fenomeni in cui l’elettronica è accoppiata al magnetismo: questo nuovo settore scientifico avanzato viene denominato “spintronica” (vedi più avanti nel testo). Un elettrone in un atomo è caratterizzato da un moto orbitale e da un moto intrinseco, detto moto di spin, che combinati danno luogo ad un momento magnetic , la quantità vettoriale che caratterizza le proprietà del sistema, in termini di intensità, direzione e verso nello spazio. Semplificando, lo spin viene visualizzato come movimento di rotazione attorno al proprio asse (o, più correttamente, attorno al proprio centro di massa), ma in realtà questa proprietà è di natura puramente quantistica e non appartiene alla meccanica classica. Siccome in molte sostanze il moto orbitale è smorzato, viene sovente trascurato e, quindi, il momento magnetico dell’elettrone viene originato dal solo moto di spin. Quest’ultimo in meccanica quantistica è associato a due stati caratterizzati da numero quantico ±1/2 . Pertanto, in genere lo spin lo si indica con una freccia, che può essere orientata su o giù come mostrato in figura, assieme alla corrispondente polarità a livello macroscopico (polo Nord e Sud). In un materiale non si hanno elettroni liberi, ma legati a nuclei in atomi e molecole. In generale gli elettroni vanno in coppie come documentato dalle formule chimiche che vengono scritte tramite segmenti che descrivono due elettroni non condivisi (coppie non di legame) o condivisi (coppie di legame) tra due atomi. Secondo il principio di Pauli (vedi Green n. 5, pag. 24), per accoppiarsi gli elettroni devono avere spin differente: le due frecce hanno verso diverso come mostra il disegno a lato. In tal caso, il momento magnetico risultante è nullo. Tuttavia, se immerso in un campo magnetico esterno, il moto orbitale degli elettroni è modificato, generando un campo opposto a quello applicato e quindi una debole repulsione. Questo comportamento è detto diamagnetismo ed è presente in tutte le sostanze. In genere il comportamento diamagnetico non dà particolari informazioni sulla natura della sostanza. In alcune molecole, invece, esiste un nume36 ro dispari di elettroni, il che comporta che almeno un elettrone non abbia un partner con cui appaiare gli spin. Un esempio è l’ossido di azoto (NO), uno dei famigerati membri della banda degli NOx, responsabili dello smog fotochimico e delle piogge acide. L’elettrone spaiato avrà 50% di probabilità di avere lo spin su e 50% di avere lo spin giù. In assenza di un campo magnetico esterno, perciò, a livello macroscopico ci saranno tanti elettroni con lo spin su (↑) e altrettanti con lo spin giù (↓), pertanto la risultante sarà nulla. L’applicazione di un campo esterno cambia le popolazioni relative dei due tipi di allineamento di spin aumentando la popolazione delle coppie parallele al campo e diminuendo le altre. Il risultato è che l’aggiunta di un campo magnetico esterno genera una magnetizzazione non nulla, che tuttavia dipende dalla temperatura. Essendo questa una misura macroscopica dell’energia cinetica di atomi e molecole, ad un aumento di temperatura corrisponde un moto sempre più disordinato, pertanto maggiore sarà la temperatura minore sarà la magnetizzazione. Un tale comportamento viene definito paramagnetismo. Si deve anche notare che la magnetizzazione del paramagnete oscilla nel tempo: possiamo immaginare che uno spin passi dall’orientazione (↑) a quella inversa (↓) con un tempo caratteristico che viene detto tempo di rilassamento, indicato con la lettera greca “tau”, τ. A temperatura ambiente nei paramagneti τ oscilla tipicamente tra 10-6 e 10-13 s (da un milionesimo a un decimo di un bilionesimo di secondo). Il paramagnete più comune è la molecola di ossigeno. Nonostante la molecola abbia un numero pari di elettroni, ha due elettroni spaiati che generano un campo magnetico associato al loro spin. Spin dell’elettrone e magneti elementari I sistemi magnetici usati per le applicazioni pratiche, infine, sono i ferromagneti e i ferrimagneti. La differenza fondamentale tra questi ultimi e i paramagneti è che essi hanno una magnetizzazione permanente e Nuovi materiali Le principali classi di magneti (a sinistra) L’isteresi (a destra) possono essere quindi usati per numerose applicazioni che verranno illustrate in seguito. Nei ferromagneti esistono delle interazioni tra i centri paramagnetici isolati che tendono a orientare gli spin paralleli gli uni agli altri (figura in alto a sinistra). Naturalmente la tendenza ordinatrice è contrastata dall’agitazione termica cha favorisce lo stato disordinato paramagnetico. Quest’ultimo stato sarà favorito dalle alte temperature, mentre lo stato ordinato ferromagnetico si instaurerà al di sotto di una temperatura critica detta “temperatura di Curie”. La temperatura di Curie per il ferro è di 770 °C. Uno schema della struttura ordinata è riportato nella figura in alto a sinistra: tutti i momenti elementari (gli spin) sono paralleli gli uni agli altri e bloccati in una posizione. In questa condizione la magnetizzazione risultante è diversa da zero e il sistema si comporta come un magnete permanente, pronto per le applicazioni più svariate. In realtà se prendiamo un pezzo di ferro non trattato vediamo che non è magnetizzato. Per renderlo permanentemente magnetizzato è necessario esporlo ad un campo magnetico esterno che lo attivi. La ragione di questo comportamento è che il nostro pezzo di ferro minimizza la propria energia, cioè tende allo stato più stabile, attraverso l’organizzazione in domini. Questi sono porzioni di spazio all’interno delle quali tutti gli spin sono orientati paralleli, essendo però diversa la direzione tra un dominio e l’altro. A livello macroscopico, la risultante della magnetizzazione massiva è nulla; l’aggiunta di un campo magnetico esterno aumenterà il numero di domini magnetizzati lungo la direzione e verso del campo, raggiungendo così la magnetizzazione massima, detta magnetizzazione di saturazione, MS. Questa si raggiunge quando tutti i domini (e gli spin) sono orientati paralleli. Il magnetismo cooperativo non è limitato al ferromagnetismo, ma ci sono almeno altri due classi di materiali importanti. La differenza fondamentale tra questi e il ferromagnetismo è nel tipo di interazione. Se l’interazione tende a mettere coppie di elet- troni vicini antiparalleli nel sistema ordinato ci saranno tanti spin su e altrettanti spin giù, con annullamento del momento globale. Il sistema si chiama antiferromagnete ed è schematizzato in alto a sinistra. Non ha magnetizzazione spontanea, in assenza di campi esterni. Se l’interazione tra spin vicini è tale che si dispongono a 180° come mostrato in alto, nello stato ordinato si avrà non compensazione dei momenti diversi. Il sistema si chiama ferrimagnete e ha magnetizzazione spontanea. La magnetite è un ferrimagnete. Una proprietà importante dei magneti ordinati è l’isteresi (in alto). Immaginiamo che la magnetizzazione tenda ad essere allineata lungo un certo asse detto asse facile. Saturiamo la magnetizzazione e poi diminuiamo il campo applicato: la magnetizzazione diminuisce, ma quando si arriva a campo nullo non va a zero a causa dell’irreversibilità nella formazione dei domini. Questa magnetizzazione misurata a campo nullo prende il nome di magnetizzazione rimanente, MR. Perché la magnetizzazione ritorni uguale a zero è necessario applicare un campo negativo detto campo coercitivo. Continuando ad incrementare il campo negativo si raggiunge il valore minimo della magnetizzazione. Allora si inverte di nuovo il campo e lo si fa crescere verso valori positivi. Di nuovo a campo nullo la magnetizzazione è diversa da zero con un valore M0 = -MR. A campo nullo quindi la magnetizzazione può avere due valori diversi in dipendenza dalla storia del campione. Questo consente di definire un bit nelle memorie magnetiche dei computer dove uno dei due valori della magnetizzazione corrisponde a 0 e l’altro a 1. Magneti con campo coercitivo piccolo sono detti magneti morbidi, quelli con campo coercitivo grande sono detti magneti duri. Le due classi si prestano a tipi diversi di applicazioni. Negli elementi di memoria sono necessari materiali non troppo morbidi per evitare che si smagnetizzino e non troppo duri per non dover usare campi troppo forti per scrivere l’informazione. 37 Scienza e innovazione tecnologica Materiali magnetici infinitamente grandi infinitamente piccoli La moderna ricerca sui magneti abbraccia un numero impressionante di aree diverse, dall’infinitamente grande all’infinitamente piccolo. Per il primo aspetto si può pensare a fenomeni come l’aurora (boreale o australe) che è dovuta all’interazione di particelle cariche dotate di momento magnetico, contenute nel vento solare, con il campo magnetico terrestre, la cosiddetta magnetosfera. Certamente fenomeni affascinanti, ma che lasciano poco spazio alla chimica. In effetti gli oggetti della chimica vanno trovati su scale molto più piccole, ma non per questo meno interessanti. Uno dei settori importanti è legato allo studio dei tipici materiali magnetici che entrano nella nostra vita di tutti i giorni. Questi sono tutti sistemi tipicamente inorganici, come metalli, composti intermetallici e leghe, e composti ionici. Un esempio di materiale magnetico metallico è certamente il ferro, mentre fra i composti intermetallici si possono citare il samario cobalto (lega di composizione SmCo5) o il neodimio ferro boro (Nd2Fe14B), che, se pure meno noti al grande pubblico, sono largamente usati anche in oggetti di uso comune come i microfoni e i pick up delle chitarre elettriche. Uno degli oggetti più usati nella vita di tutti i giorni è certamente l’automobile. Ebbene, una macchina di media cilindrata ha circa 30 kg di magneti, che servono per motorini vari o per attuatori (le famose centraline) e sono presenti dall’abitacolo al motore. Nuovi tipi di magneti potrebbero portare a diminuire il carico, consentendo risparmi energetici. Un aspetto, per così dire, “ecologico” dei magneti è legato agli studi di nuovi sistemi magnetici di refrigerazione. In effetti, i magneti sono stati usati già da decine di anni per questi scopi, ma solo a basse temperature. Ad esempio refrigeranti a base di un sale di gadolinio paramagnetico sono comunemente usati per avvicinarsi allo zero assoluto (-273,15 °C), sfruttando l’effetto magne38 ...e in questo caso molto simpatici: viene dall’America questo colpo di genio magnetico! tocalorico (sotto). Recentemente si è scoperto che certe leghe di gadolinio con silicio e germanio hanno un alto effetto magnetocalorico vicino a temperatura ambiente. Si spera di mettere a punto una nuova linea di refrigeranti che sfruttino questo effetto che non richiede gas potenzialmente inquinanti. Effetto magnetocalorico L’effetto magnetocalorico, scoperto dal fisico tedesco Emil Gabriel Warburg (Altona, 1846 – Bayreuth, 1931) nel 1881 e chiarito in dettaglio dagli scienziati Peter Debye (Maastricht, 1884 – 1966) e William Francis Giauque (Niagara Falls, 1895 – Berkeley, 1982) negli Anni Venti del secolo scorso, è un processo magneto-termodinamico in cui si ha una variazione reversibile di temperatura mediante una variazione di campo magnetico applicato. La diminuzione d’intensità di un campo magnetico applicato causa il parziale disorientamento dei domini magnetici, all’interno dei quali l’agitazione termica tende a distruggere la struttura ordinata. Se al sistema non è permesso scambiare energia con l’esterno (processo adiabatico), l’energia termica viene assorbita dai domini per riallinearsi, causando una diminuzione della temperatura del sistema. Tra le leghe, una ampiamente usata anche nei calcolatori fino a qualche anno fa è il permalloy, che contiene il 20% di nichel e l’80% di ferro. Viene usato per la sua facilità a magnetizzarsi e smagnetizzarsi, per sua alta permeabilità e per la resistenza agli urti. Altri materiali magnetici vanno menzionati: gli ossidi, tra i quali il più importante è la magnetite, Fe3O4, la sostanza da cui cominciò la storia del magnetismo sulla terra, la maghemite, Fe2O3 ecc. Tutti questi esempi devono aver convinto che l’interesse chimico nei materiali magnetici deve essere limitato all’uso di tecniche metallurgiche o comunque quelle che si attribuiscono alla chimica dello stato solido, ma, come vedremo, non è proprio così. Nuovi materiali Il “Transrapid”, il treno a lievitazione magnetica in servizio in Germania. Come volare a pochi millimetri dal suolo... Attualmente ha superato anche il traguardo dei 500 km/h. Magneti in natura. La magnetite si trova anche negli esseri viventi È noto che i piccioni viaggiatori ritrovino la colombaia in cui sono stati allevati anche se trasportati a centinaia di chilometri seguendo probabilmente il campo magnetico. Questa facoltà venne sfruttata militarmente nel 1898: il tedesco Julius Neubronner iniziò a costruire una serie di leggerissime macchine fotografiche da fissare sul petto dei volatili, un apparato del peso di soli 70 grammi che poteva fissare un’immagine del terreno sorvolato su un negativo quadrato da quattro centimetri di lato. Era nata la “pigeon camera” che venne brevettata nel 1903. Quanto detto prima è vero in parte, ma l’esempio di seguito descritto ci deve convincere che ci sono notevoli aspetti in cui la chimica molecolare può svolgere un ruolo importante: essa si sviluppa in soluzione a temperature non troppo alte ed evita i forni che sono invece strumenti tipici della chimica dello stato solido. La magnetite è un minerale che si è formato in condizioni geologiche e come tale si trova in natura. Si trova magnetite anche negli esseri viventi, sotto forma di monocristalli avvolti da membrane cellulari, nei cosiddetti magnetosomi. I magnetosomi vengono formati all’interno degli organismi, con il limite di temperatura che questo comporta, usando tecniche che chiameremo di chimica molecolare o di chimica biologica, secondo la propensione del momento. Magnetosomi sono stati trovati in batteri magnetotattici che usano la magnetite come una bussola. Si tratta di batteri anaerobi che devono evitare di lasciare i fondali degli stagni in cui vivono per non incontrare, risalendo verso la superficie, troppo ossigeno che li ucciderebbe. La strategia ovvia per organismi pesanti per individua- Aprile 1941, sul fronte libicoegiziano. Un gruppo di soldati dell’esercito italiano durante la guerra in Africa oerientale Si notano, appese alla parete, le colombaie per i piccioni viaggiatori. re l’alto e il basso è sfruttare la gravità, ma l’esigua massa dei batteri rende impossibile questo sistema. Allora la selezione naturale ha “scoperto” che il campo magnetico terrestre ha una componente verso il basso che può essere sfruttata se si dispone di un sensore adatto. I magnetosomi hanno esattamente questa funzione, di far andare il batterio verso il basso. Le dimensioni dei magnetosomi sono tipicamente di 30-40 nm. Si ricordi che 1 nm (nanometro) è pari a un miliardesimo di metro e che la ricerca contemporanea ha sviluppato un grande interesse per oggetti di queste dimensioni. Il settore scientifico corrispondente, che ha generato grandi aspettative, è quello delle nanotecnologie. In un certo senso il batterio Aquaspyrillum magnetotacticum è stato il primo nanotecnologo. Una volta individuata una soluzione efficiente, la Natura la sfrutta a fondo: così troviamo magnetosomi in organismi molto più complessi come i piccioni viaggiatori. Poiché sembra appurato che per orientarsi sfruttino il campo magnetico terrestre, la tentazione di associare questo comportamento con la presenza di magnetosomi è grande. 39 Scienza e innovazione tecnologica Il nanomagnetismo e le applicazioni in campo biomedico Il passaggio da dimensioni macroscopiche a dimensioni di qualche nanometro ha una grossa influenza sulle proprietà di un ferromagnete (ma anche di un ferrimagnete). Supponiamo di prendere un pezzo di ferro e ridurlo in piccoli pezzi. La magnetizzazione tende a disporsi lungo l’asse facile, di cui abbiamo parlato in precedenza in relazione al fenomeno dell’isteresi, e può orientarsi su o giù. Esso può riorientarsi, cioè passare da su a giù superando una barriera energetica la cui altezza è direttamente proporzionale al volume della particella. Quindi per le particelle grandi questa sarà alta e la magnetizzazione non riesce a muoversi rimanendo bloccata. Quando il volume diminuisce l’energia termica è sufficiente a superare la barriera e la magnetizzazione può passare facilmente da su a giù. Il risultato è che avremo una sorta di equilibrio, con metà delle particelle che saranno con magnetizzazione su e l’altra metà giù: nell’insieme le particelle si comporteranno come un paramagnete. Ma come un paramagnete con un valore dello spin molto grande, perché dato dall’addizione dei singoli. Per questo si indica come superparamagnete. Ad alta temperatura il sistema è disordinato, a bassa temperatura la magnetizzazione non ce la fa più a superare la barriera e il sistema si blocca. La temperatura di bloccaggio dipende dalla tecnica usata per misurare la magnetizzazione, in particolare dal tempo di scala della misura. La strategia di usare materiale inorganico come la magnetite insieme a materiale organico, come le membrane dei magnetosomi, si sta sviluppando sempre più negli ultimi anni e trova applicazioni importanti in parecchi campi, tra cui quello dei farmaci intelligenti è uno dei più promettenti. In realtà particelle magnetiche vengono già ampiamente usate per separazione cellulari. Si tratta di predisporre nanoparticelle magnetiche, NPM, spesso di maghemite, rive40 Buche di potenziale per particelle magnetiche ed effetto tunnel (freccia verde). Uno strumento diagnostico ampiamente usato: la Risonanza Magnetica. stite di molecole che possano interagire con le cellule bersaglio. Una volta legate possono essere separate dalle altre sfruttando un campo magnetico esterno che trascina selettivamente le cellule marcate. Sullo stesso principio si basa l’uso di NPM che vadano selettivamente a intercettare ad esempio cellule cancerose. Una volta arrivate sull’obiettivo si inviano delle microonde che inducono oscillazioni nelle particelle magnetiche solamente. Queste quindi si riscaldano e riscaldano selettivamente le cellule malate cui sono legate, provocandone la morte. Il vantaggio di usare NPM superparamagnetiche è dovuto al fatto che non hanno una magnetizzazione spontanea che potrebbe interferire con varie molecole biologiche. Infine, tra le applicazioni biomediche delle NPM, si può citare il loro uso come mezzo di contrasto in risonanza magnetica. Come accennato la Risonanza Magnetica (Nucleare) è uno strumento diagnostico ampiamente usato con il quale si misura la risposta dei protoni dell’acqua a un campo magnetico pulsato. La risposta dei protoni è diversa a secondo della natura del tessuto in cui si trovano, quindi si possono evidenziare i tessuti diversi. Le differenze sono in genere piccole come in una fotografia in bianco e nero mal esposta che è una scala indistinta di grigi. L’immagine che si ottiene ha quindi poco contrasto e per renderla leggibile è necessario aumentarlo. Un modo è quello di aggiungere particelle o molecole magnetiche che interagiscono con i protoni dell’acqua modificandone la risposta. Tra le molecole quelle più comunemente usate sono quelle a base di gadolinio, ma anche le NPM sono usate. Nuovi materiali Le tre condizioni per ottenere magneti molecolari Se si usano solo composti organici è difficile ottenere magneti, cioè sistemi ordinati che abbiano magnetizzazione spontanea. Il problema è che per ottenere un magnete è necessario: 1) avere a disposizione “mattoni” con elettroni spaiati; 2) poter disporre di una malta che favorisca l’orientazione parallela dei momenti individuali; 3) poter formare con questi mattoni un edificio tridimensionale. Sembra facile ma non lo è. Mattoni organici con elettroni spaiati sono molto spesso instabili: gli elettroni spaiati tendono ad accoppiarsi formando un legame covalente. Esistono alcuni radicali stabili, come il nitronilnitrossido mostrato (vedi figura a in alto a destra) Un elettrone spaiato è delocalizzato essenzialmente sui due gruppi NO. La presenza di ingombranti gruppi CH3 rendono difficile la formazione di legami, che coinvolgano gli elettroni spaiati, tra due gruppi NO appartenenti a molecole diverse. Nel 1991 un gruppo giapponese riuscì a sintetizzare un derivato, quello mostrato che ordina come ferromagnete (cioè i cui spin si allineano come in un ferromagnete) a 0,6 K (temperatura di ordine), ovvero a -272,6 °C Venti anni di ricerca successiva hanno permesso di innalzare questa temperatura fino al record di 37 K (-236 °C). Il radicale mostrato qui sopra (b) in realtà si comporta come un debole ferromagnete: questo vuol dire che gli spin di molecole vicine si dispongono non paralleli, come in un ferromagnete normale, ma quasi antiparalleli come in un antiferromagnete. In realtà l’angolo tra Spin “storti” generano una risultante diversa da zero. Ferromagneti organici gli spin non è di 180° ma più piccolo, come mostrato nello schema qui sotto. Il risultato è che invece di annullarsi i momenti individuali danno una risultante diversa da zero, anche se molto più piccola di quella di un momento intero. Temperature di ordine più alte sono state ottenute con sistemi misti, in cui ad una grossa componente organica si aggiungono degli ioni metallici. Ad esempio il composto V(TCNE)2, dove TCNE è il tetracianoetilene, ordina come ferrimagnete ben oltre la temperatura ambiente. Magneti molecolari sono quindi possibili. Magneti di una sola molecola Una molecola contenente 12 Mn che a bassa temperatura si comporta come un minuscolo magnete. Gli aspetti più interessanti del magnetismo molecolare si sono rivelati più tardi, quando si è scoperto che una molecola contenente dodici ioni manganese, a bassa temperatura, si comporta come un piccolo magnete, o, come si dice, come un nanomagnete. La struttura della molecola è mostrata nella figura qui sopra. Ci sono otto ioni manganese (III), ciascuno con 4 elettroni spaiati, che si dispongono su un anello esterno, e quattro ioni manganese (IV), ciascuno con 3 elettroni spaiati, che si dispongono sui vertici di un tetraedro centrale. Gli ioni metallici sono connessi da ioni os41 Scienza e innovazione tecnologica LE PAROLE DELLA SCIENZA Microscopia a scansione di sonda (SPM) La microscopia a scansione di sonda è tecnica generale di microscopia che produce immagini delle superfici attraverso l’utilizzo di una sonda fisica che muovendosi “esplora” (scannino) la superficie del campione. Include molte tecniche di microscopia, tra cui la microscopia ad effetto tunnel (STM) o la microscopia a forza atomica (AFM). Spettroscopia di fotoelettroni (PES) La spettroscopia di fotoelettroni è una tecnica per deterL’isteresi a gradini e la firma degli effetti quantistici. sido che fanno assomigliare il nocciolo della molecola a un pezzetto di ossido di manganese a valenza mista. Nella pratica, la crescita a formare un ossido massivo è bloccata dalla presenza di carbossilati (gruppi contenenti COO-), che bloccano la ripetizione regolare. Nel caso in questione l’agente bloccante è semplicemente lo ione acetato, CH3COO-. Vedremo che è facile sostituire uno ione acetato con un altro carbossilato, variando in maniera fine le proprietà magnetiche del composto, che chiameremo Mn12Ac, dove Ac sta per acetato. Gli ioni metallici interagiscono magneticamente tra di loro in modo tale che tutti gli spin dei manganesi trivalenti (III) siano paralleli tra di loro e antiparalleli a quelli dei manganesi tetravalenti (IV). Le forze di interazione dominano a bassa temperatura e il sistema si stabilizza in uno stato con spin totale S = 10, con venti elettroni spaiati (ciascuno con spin = + ). Si tratta di un ferrimagnete molecolare, che è caratterizzato dal fatto che la magnetizzazione a bassa temperatura si blocca, come abbiamo descritto sopra per un superparamagnete. Il tempo di rilassamento della magnetizzazione, τ, che precedentemente abbiamo detto essere dell’ordine di 10-6-10-13 s nei paramagneti normali, in Mn12Ac a 2 K diventa dell’ordine di mesi e una molecola si comporta come un nanomagnete! In effetti le dimensioni della molecola sono di circa 1 nm. La causa del rilassamento lento è data dalla barriera di energia che la magnetizzazione deve superare per riorientarsi, come mostrato (a pag. 40) per un superparamagnete. L’origine della barriera è legata al fatto che gli ioni manganese (III) hanno una forma tridimensionale elongata: i momenti magnetici locali per riorientarsi devono passare per il piano perpendicolare all’asse facile spendendo energia. Misure spettroscopiche varie mostrano che l’altezza della barriera è corrispondente ad una temperatura di circa 60 K (vedi Green 42 8, pag. 32). Il rilassamento lento della magnetizzazione dà luogo a un’isteresi magnetica analoga a quella descritta per i magneti massivi, ma questa volta limitata ad oggetti di dimensioni di un nanometro (qui sopra). Sfruttando l’isteresi si può immagazzinare informazione e una molecola diventa un elemento di memoria di 1 nm! Per queste caratteristiche Mn12Ac è stato chiamato Magnete di una Sola Molecola, Single Molecule Magnet, SMM. Ma l’interesse maggiore suscitato da Mn12Ac è legato al fatto che ha mostrato effetti quantistici in sistemi mesoscopici (vedi di seguito). La frase precedente è senz’altro oscura, ma andava scritta per introdurre l’argomento. La nostra comprensione della materia è basata su quella che si chiama fisica classica che si è sviluppata da Galileo in poi e ha fornito il paradigma per la descrizioni di tutti i fenomeni: dal moto degli astri all’elettromagnetismo. Lo studio della struttura atomica mostrò invece che, a quei livelli, la fisica classica non era valida, i nuovi fenomeni descritti necessitavano di una diversa spiegazione: la meccanica quantistica permette proprio di giustificare fenomeni così diversi come gli spettri degli atomi, la superconduzione e il magnetismo. Tutto questo però richiede di ammettere fenomeni che a livello macroscopico, quello della fisica classica, non sono possibili. Un esempio è l’effetto tunnel, un fenomeno di natura quantomeccanica in cui un oggetto, che in un sistema classico o è in una buca di potenziale o nell’altra di (a pag. 40), può essere contemporaneamente in entrambe, e oscillare tra l’una e l’altra. Negli anni 90 del secolo scorso c’era un’intensa attività di ricerca per evidenziare la possibilità di osservare effetti quantistici in oggetti di maggior dimensione rispetto a quella atomica e molecolare, in Nuovi materiali minare le energie di legame degli elettroni in una sostanza, attraverso la misurazione dell’energia cinetica degli elettroni emessi per effetto fotoelettrico (cioè per stimolazione elettromagnetica). Spettroscopia di massa La spettroscopia di massa è una tecnica cromatografica che permette di analizzare qualitativamente le sostanzepresenti in una miscela di reazione. particolare si studiò proprio il tunnel quantistico della magnetizzazione in sistemi mesoscopici, una dimensione di confine tra quella dove i fenomeni sono descritti dalla meccanica classica (dimensione macroscopica) e quella descritta dalla meccanica quantistica (livello atomico e molecolare). Mn12Ac arrivò al momento giusto e riuscì dove si era fallito con tanti altri tipi di particelle. Queste ultime soffrivano del fatto di non essere mai tutte uguali, ma di avere una distribuzione di dimensioni. Siccome il manifestarsi di effetti quantistici diminuisce rapidamente al crescere delle dimensioni del sistema, studiare un insieme di oggetti di dimensioni diverse portava a raccogliere un insieme di risultati diversi, assolutamente illeggibile. Mn12Ac fu l’uovo di Colombo: le molecole sono per definizione tutte uguali, quindi studiare le proprietà magnetiche di un cristallo molecolare fotografa le risposte di oggetti tutti uguali che esaltano la risposta quantistica. La pistola fumante, come direbbero gli americani, la prova dell’effetto tunnel della magnetizzazione, fu ricavata dalla misura dell’isteresi magnetica, mostrata nella figura a pagina 37. La peculiarità di questa curva è che sono presenti scalini, che si osservano a valori precisi del campo magnetico applicato, HSn= n H0, dove n= 0, 1, 2... e H0 è una costante. Questa dipendenza da numeri interi è indicativa di effetti quantistici, si pensi ai numeri quantici usati per descrivere la struttura elettronica degli atomi (figura in alto a sinistra). Il successo ottenuto attrasse numerosi gruppi di chimici e di fisici, intenzionati a indagare ogni possibilità di ottenere SMM con prestazioni superiori. Gli aspetti da ottimizzare sono la temperatura al di sotto della quale la magnetizzazione rimane bloccata in una delle due buche di potenziale (vedi pagina 40) e la temperatura alla quale gli effetti quantistici diventano osservabili. Il settore è ancora molto attivo e sono già state ottenute molecole magnetiche con quasi un centinaio di ioni magnetici accoppiati. Un polimero di ioni cobalto e radicali si comporta come un filo magnetico a bassa temperatura. Magneti fatti da una catena di molecole Nella ricerca applicata ai magneti molecolari risulta assai interessante la scoperta del rilassamento lento della magnetizzazione anche in sistemi polimerici che dà luogo a Magneti di una sola catena, Single Chain Magnet, SCM. Un esempio è mostrato qui sopra: si tratta di un polimero in cui ioni cobalto (II) sono legati a due ossigeni provenienti da due nitronilnitrossidi (vedi pagina 41) e ogni nitronilnitrossido si lega a due ioni cobalto formando una catena. Intorno ad ogni ioni cobalto ci sono due ioni esafluoroacetilacetonato, che ne compensano le due cariche positive. L’accoppiamento tra gli spin del cobalto e quello del radicale è antiferromagnetico, ma siccome lo spin del cobalto è più grande il risultato è un ferrimagnete monodimensionale. Inoltre lo ione cobalto ha una spiccata preferenza per una direzione dello spazio, come succedeva con gli ioni manganese (III) in Mn12Ac e il rilassamento della magnetizzazione diventa molto lento a bassa temperatura. Anche in questo caso si osserva isteresi legate alle molecole polimeriche, che a bassa temperatura si comportano come nanofili magnetici. Si conta per questa via di ottenere sistemi che blocchino la magnetizzazione a temperature più alte di quelle raggiungibili con SMM. 43 Scienza e innovazione tecnologica Che cosa è la spintronica molecolare Matrici magnetiche organizzate supportate su varie superfici. Oro a I sistemi magnetici molecolari ora vengono molto studiati sia per gli aspetti applicativi riguardanti le memorie miniaturizzate, tipo SMM o SCM, che per gli aspetti quantici cui possono dar luogo. In quest’ultimo settore vengono condotti studi per lo sviluppo di memorie destinati ai calcolatori quantistici. Il principio su cui questi si basano è il cosiddetto qu-bit. Come ricordato nel box sopra un bit classico può valere 1 o 0, mentre un qu-bit può assumere tutti i valori tra 0 e 1. Magneti molecolari (MM) possono dar luogo a sistemi a due livelli che sono la base per generare qu-bit. L’altro aspetto di punta della ricerca sui MM è quello di inserirli in sistemi spintronici, sistemi in cui il passaggio della corrente elettrica risente dell’influenza di campi magnetici esterni. Questa branca di ricerca risente degli sviluppi che partirono con la GMR (vedi box pagina 36). In questo nuovo tipo di elettronica si sfrutta non solo la carica dell’elettrone, ma anche il suo momento magnetico; perciò, unendo le parole spin ed elettronica, è stato coniato il termine spintronica. Perché i MM siano utilizzabili è necessario poter organizzare le singole molecole per poi interrogarle una per volta. La molecola più sfruttata è Mn12, con opportuni carbossilati al posto dell’acetato. Alcuni esempi di molecole orga- nizzate sono mostrati nella sequenza in alto. Una possibilità è quella di organizzare le molecole su superfici, ad esempio di oro, (figura a): per ottenere l’attacco del Mn12 vengono introdotti gruppi –SR, sfruttando così l’affinità dello zolfo per l’oro. Un’altra tecnica usata è quella cosiddetta di Langmuir-Blodgett con la quale si formano monostrati di molecole sfruttando la tendenza all’autoassemblaggio di sistemi con lunghe code alifatiche (idrocarburi lineari, figura b. Infine si è molto sfruttata la possibilità di organizzare le molecole in matrici polimeriche (figura c). Una volta organizzate le molecole, è necessario mettere a punto tecniche di indagine che ne determinino la struttura e poi le proprietà. Per questo si adoperano tecniche di indagine complesse, come le tecniche di Microscopia a scansione di sonda (Scanning Probe Microscopy, SPM) che consentono di misurare la topografia e le dimensioni delle molecole organizzate. Modifiche di queste tecniche consentono di ottenere anche informazioni sulle proprietà magnetiche. Informazioni sulla struttura degli strati si ottengono anche con tecniche di spettroscopia di massa, di spettroscopia di fotoelettroni, di tecniche magneto-ottiche, di tecniche di dicroismo circolare magnetico ai raggi X, che richiedono l’uso di luce di sincrotrone. Un transistor innovativo basato su una molecola Mn12 Il transistor (o transistore) è un dispositivo a stato solido formato da semiconduttori. Le sue peculiari caratteristiche di conduzione della corrente elettrica ne permettono l’uso in ambito elettronico (es. nelle radioline portatili), principalmente come amplificatore di segnali elettrici o come interruttore elettronico comandato da segnali elettrici. Ve ne sono diversi tipi, quello qui rappresentato è un Field Effect Transistor o FET (letteralmente “transistor ad effetto campo”) innovativo in quanto basato sull’uso di una molecola magnetica a 12 atomi di manganese Mn12 simile a quella citata nel testo. (a) Veduta laterale della molecola Mn12: [Mn12O12 (O2C-R-SAc)16 (H2O)4]. 44 Gli atomi sono rappresentati con colori diversi: manganese in arancio, ossigeno in rosso scuro, carbonio in grigio, zolfo in giallo. I ligandi sono appositamente studiati, contengono tioli (molecole con residui –SH) terminali protetti da gruppi acetile –CO-CH3 (abbreviati con Ac, sostituiscono l’idrogeno di un tiolo legandosi allo zolfo). (b) Disegno schematico che mostra la molecola Mn12 intrappolata tra i due elettrodi di oro (Au) detti rispettivamente Source (“sorgente”) e Drain (“pozzo”). Un Gate (“porta”) in alluminio/ossido di alluminio (Al/Al2O3) cambia il potenziale elettrostatico sulla molecola. (c) Foto al microscopio elettronico a scansione dei due elettrodi, lo spazio fra di essi non è risolvibile a causa delle minuscole dimensioni. La barra della scala corrisponde ad una lunghezza di 200 nm (nanometri). Da Heersche et al., Phys. Rev. Lett. 2006, 96, 206801. Nuovi materiali Matrici polimeriche Film di idrocarburi b A Firenze un laboratorio aperto ai giovani ricercatori di tutta Europa L’autore di questo articolo è professore ordinario di Chimica generale ed inorganica all’Università di Firenze è internazionalmente riconosciuto come uno dei maggiori esperti di Magnetismo molecolare, un settore di ricerca che si estende dallo studio delle proprietà magnetiche di sistemi di interesse biologico alla messa a punto di nuovi dispositivi per calcolatori che si basano su effetti quantistici. L’interesse per la sua attività di ricerca è dimostrato dal fatto che il professor Gatteschi è uno dei pochi italiani inserito nella lista dei chimici più citati nel mondo. Il laboratorio di Magnetismo molecolare, LAMM, da lui diretto è uno dei centri di riferimento del Consorzio Interuniversitario per la Scienza e Tecnologia dei Materiali (INSTM). Il laboratorio ha a disposizione una strumentazione di prim’ordine per misurare le proprietà magnetiche e di risonanza paramagnetica elettronica (EPR) dei materiali. In particolare possiede uno spettrometro EPR operante a 95 GHz, unico in Italia. Recentemente sono state messe a punto anche strumentazioni Un altro aspetto importante dei magneti molecolari è rappresentato dalla possibilità di usarli in dispositivi che possono essere considerati come transistor di un sola molecola. Il primo passo consiste nel progettare opportune molecole per farle aderire a due elettrodi di dimensioni di qualche nanometro, e poi organizzarle tra due elettrodi. Questo è stato fatto ad esempio usando un derivato del Mn12 con la struttura mostrata qui a sinistra. Il magnetismo molecolare è un settore scientifico che ha avuto uno sviluppo molto rapido negli ultimi anni e che si caratterizza per un’elevatissima interdisciplinarietà. Il chimico sintetico si avvale dell’aiuto del chimico computazionale per fare previsioni sulle molecole che progetta e sintetizza e organizza. Il fisico sperimentale effettua misure e predispone strumentazione d’avanguardia per ottenere informazioni dettagliate e complesse che richiedono lo sviluppo di teorie che vengono elaborate dagli specialisti. Cominciano a svilupparsi utili interazioni con biologi e medici per verificare le possibilità applicative di questa nuova classe di materiali in medicina. Un altro esempio della necessità della ricerca scientifica di base, le cui scoperte possono trovare sempre nuovi e impensati sbocchi per l’applicazione pratica. Dante Gatteschi Dipartimento di Chimica, Università degli Studi di Firenze Presidente del Consorzio INSTM c che consentono di misurare le proprietà magnetiche di singole molecole. Per la complessità delle strutture a disposizione, e per le competenze scientifiche, il LAMM è riconosciuto come istituzione ospitante dalla Commissione Europea. Studenti da tutta l’Europa possono svolgere parte della loro attività di dottorato presso il laboratorio fiorentino. Le attività più importanti del LAMM riguardano la sintesi e lo studio delle proprietà di nuovi tipi di magneti basati su strutture molecolari, come i magneti a singola molecola e quelli a singola catena. Per la scoperta dei magneti a singola molecola e per la misura della coesistenza di effetti quantistici e classici in questi sistemi, Dante Gatteschi e Roberta Sessoli del LAMM hanno ricevuto l’Agilent technologies Europhysics Prize nel 2002, uno dei premi internazionali più prestigiosi. Attualmente gli sforzi del LAMM sono concentrati sullo sviluppo di tecniche sperimentali per ancorare questi nuovi tipi di magneti su supporti idonei che consentano di misurare le proprietà delle molecole e di sviluppare quella che viene indicata come spintronica molecolare. Quest’ultima è attesa dare uno sviluppo rivoluzionario nell’elettronica fondendo la spintronica, che fa riferimento a nuovi sistemi in cui si sfrutta non solo la carica ma anche lo spin degli elettroni, e l’elettronica molecolare. LE PAROLE DELLA SCIENZA Dicroismo circolare magnetico ai raggi X (XMCD) Dante Gatteschi e Roberta Sessoli Il dicroismo circolare magnetico ai raggi X rappresenta la differenza negli spettri di assorbimento ottenuti irradiando composti o materiali con radiazione X con polarizzazione circolare verso destra o verso sinistra. Tale effetto viene utilizzato per determinare le proprietà magnetiche, quali il momento magnetico orbitale o di spin. Luce di sincrotrone La luce di sincrotrone è la radiazione elettromagnetica generata deviando la traiettoria di particelle cariche (quindi accelerandole) mediante un sincrotrone, cioè un particolare tipo di acceleratore di particelle. La generazione di radiazione elettromagnetica da parte di una particella carica accelerata è prevista dalle leggi dell’elettromagnetismo. 45 Futuro le news di Green & ) futuribile Questo flebile epilogo di un passato glorioso potrebbe non essere del tutto preciso però; a farcelo notare è Suzaku, l’“occhio” ai raggi X nippo-americano, che ha recentemente osservato pulsazioni di raggi X provenienti da AE Aquarii, una nana bianca distante più di 300 anni luce dal nostro pianeta. Un fenomeno tipico di un altro tipo di stella, definita pulsar, in quanto caratterizzata dalle emissioni pulsate estremamente regolari di radiazione elettromagnetica. I due tipi di stella, nana bianca e pulsar, sono due possibili evoluzioni finali di una stella, che dipendono dalla massa della stella stessa. La nana bianca è un corpo stellare con un raggio molto corto (circa un centesimo di quello solare, che è di circa 700.000 km), ma con una massa paragonabile, caratte- Le inattese “pulsazioni” di una nana bianca distante 300 anni luce Strana fine quella di alcune stelle: dopo miliardi di anni di attività nucleare destinate a restringersi e a spegnersi lentamente, emettendo luce bianca a bassissima densità per altrettanti anni. Una nana bianca appunto, secondo la definizione degli astrofisici. PER APPROFONDIMENTI Elettrodi ad effetto… Madeleine È celebre il passo proustiano de “À la recherche du temps perdu” (“Alla Ricerca del tempo perduto”) in cui al protagonista torna in mente il ricordo vivo di un episodio passato; la memoria riaffiora assaporando una madeleine, un dolce che era solito mangiare da bambino. 46 La radiazione termica La nana bianca nel sistema AE: i due coni di luce nell’illustrazione raffigurano i fasci di radiazione elettromagnetica X emessi dal corpo celeste. La radiazione termica è la radiazione elettromagnetica emessa da un oggetto a causa della sua temperatura, ovvero dell’energia cinetica dei suoi costituenti. La relazione tra lunghezza d’onda più probabile della radiazione emessa e la temperatura dell’oggetto irraggiante è espressa dalla legge di Wien, secondo la quale la lunghezza d’onda è inversamente proporzionale alla temperatura. http://www.nasa.gov/centers/goddard/news/topstory/2007/whitedwarf_pulsar_prt.htm La Madeleine del futuro sarà probabilmente meno dolce e meno artigianale, e più simile a dei minuscoli elettrodi: le capacità mnemoniche del nostro cervello, infatti, sembrano aumentare in seguito a piccole stimolazioni elettriche di precisi circuiti neurali nel cervello, precisamente nell’ipotalamo. Questo quanto pubblicato sulla rivista scientifica Annals of Neurology dal team canadese di neurologi del Toronto Western Research PER APPROFONDIMENTI LE PAROLE DELLA SCIENZA Institute dell’Università locale, che hanno scoperto casualmente l’effetto durante un trattamento terapeutico sperimentale su di un paziente affetto da obesità. Mentre le prestazioni mentali generali sono rimaste pressoché immutate, i medici hanno riscontrato un sostanziale miglioramento nelle capacità del paziente di ricordare gruppi di parole e situazioni passate, tanto più grande quanto intensa la corrente applicata. L’ipotesi del team canadese, capitanato dal neurochirurgo Andres Lozano (nella fotografia), è che gli elettrodi stimolino inavvertitamente un gruppo di neuroni conosciuto come fornice, che attraversa l’ipotalamo verso l’ippocampo. Nonostante lo studio riguardi s o l a mente un paziente, http://www.nature.com/news/2008/080129/full/news.2008.538.html rizzata quindi da una densità molto più elevata (si pensi che la stessa massa è racchiusa in un volume un milione di volte più piccolo di quello del Sole) e un’accelerazione di gravità colossale: 7.000.000 m/s2 a fronte dei circa 10 m/s2 di quella terreste. In una nana bianca, la forza gravitazionale che tende a comprimere la massa è contrastata da una pressione degli elettroni conseguente al principio di esclusione di Pauli (vedi Green numero 5, pag. 24), che rende la stella estremamente stabile; l’alta temperatura che le caratterizza (dell’ordine dei 100.000 K) è responsabile dell’emissione di radiazione elettromagnetica bianca (vedi qui a lato). La pulsar (pulsating radio source), invece, è una stella formata da neutroni compressi ad una densità straordinaria: quella che si otterrebbe comprimendo una portaerei nel volume di un granello di sabbia! Nel caso della pulsar, infatti, la massa, equivalente a quella del Sole, è racchiusa in un volume 1014 volte più piccolo: un nucleo atomico di soli neutroni esteso per decine di chilometri insomma. Il tratto distintivo di questo tipo di stella è l’emissione di onde radio e raggi X che vengono Lozano puntualizza l’importanza delle implicazioni: “Per la prima volta abbiamo una finestra affacciata sul circuito neurale della memoria umana – della quale si conosce poco – che possiamo ora raggiungere e modificare”. Immediata arriva l’idea di applicazioni terapeutiche, per migliora- misurati dal nostro pianeta come fasci di radiazione di geometria simile ai coni di luce emessi da un faro (l’effetto è dovuto al disallineamento tra l’asse di rotazione e l’asse del campo magnetico della pulsar). La scoperta del team di scienziati della JAXA (l’ente aerospaziale giapponese) e della NASA, che avvicina il comportamento delle nane bianche a quello delle pulsar, è particolarmente importante poiché alle pulsazioni delle pulsar sono collegati i campi magnetici responsabili delle accelerazioni nello spazio dei raggi cosmici, cioè l’insieme delle radiazioni energetiche a cui sono esposti tutti i corpi celesti, compresa la Terra. “AE Aquarii sembra essere l’equivalente per le nane bianche di una pulsar,” dice Yukikatsu Terada, dell’Università giapponese di Saitama coinvolta nelle osservazioni. “Poiché le pulsar sono sorgenti di raggi cosmici, questo vuol dire che le nane bianche dovrebbero essere silenziosi acceleratori di particelle, che contribuiscono a molti dei raggi cosmici di bassa energia presenti nella nostra galassia”. Lorenzo De Angeli re la memoria di individui affetti da morbo di Alzheimer, prima che lo stato avanzato della malattia distrugga i circuiti neurali. . GIAPPONE Un composto per l’ immagazzinamento dell’idrogeno in autoveicoli Japan Steel Works Ltd, insieme alla Tohoku University, ha realizzato un nuovo sistema per la fornitura di idrogeno ai motori delle auto “pulite”. Il prototipo di “serbatoio” realizzato ha la dimensione di una scatola di fiammiferi ed è riempito con uno speciale composto di idrogenato di alluminio in grado di adsorbire idrogeno e di rilasciarlo quando riscaldato a 80 °C, di rilasciare idrogeno. Nella versione attuale il sistema è in grado di rilasciare il 43% in più di idrogeno rispetto a quello prodotto dalla “classica” lega di lantanio-nickel. Rispetto, inoltre, ai serbatoi a 350 atm, che necessitano di strutture metalliche molto robuste e pesanti, attualmente utilizzati per immagazzinare idrogeno sulle autovetture, il nuovo sistema evidenzia una capacità di immagazzinamento che è 3,6 volte superiore; esso fornisce quindi alla vettura, equipaggiata con un serbatoio da 90 litri dal peso di 100 Kg, un’autonomia di circa 650 Km. Japan Steel Works sta proseguendo le ricerche soprattutto nella direzione di abbassare a 60 °C la temperatura richiesta al composto per rilasciare idrogeno. Angelo Volpi (RISeT ) COREA Nuovo processo per il trattamento-smaltimento di rifiuti alimentari Un nuovo processo di trattamento/smaltimento di rifiuti organici di origine alimentare è stato messo a punto all’Università KAIST (Istituto avanzato coreano di Scienza e Tecnologia di Daejeon) da un team di ricerca guidato dal prof. Chang Ho-nam. Il processo, denominato HEROS (Hygienic and hands-free, Energy-saving, Residuefree, Odor-free, Space-saving system), è a basso impatto ambientale e consiste in una iniziale fase di separazione differenziata di fanghi e matrice secca attraverso sistemi filtranti. Il rifiuto alimentare viene quindi avviato a un processo biologico e di compattazione, con la eliminazione finale della componente umida ed una riduzione del BOD (Domanda Biochimica di Ossigeno, cioè una misura del contenuto di materia organica “biodegradabile”) dei fanghi acquosi separati sotto il valore di 180 mg/litro, contestualmente ad una riduzione della concentrazione dei solidi sospesi sotto il valore di 50 mg/litro. Entrambi i valori risultano compatibili con uno smaltimento sicuro. L’intero processo è attuato con attrezzature che trovano spazio nelle abitazioni /edifici (richiesti 16 mq), per un trattamento/smaltimento del rifiuto fin dall’origine. Il nuovo processo elimina i problemi di inquinamento generato dalle analoghe attrezzature tradizionali di trattamento di rifiuti in ambiente domestico. Il processo HEROS sarà montato in prova in 500 abitazioni private coreane e si valuta che il solo mercato nazionale possa avere un valore rilevante, corrispondente a 1.000 miliardi di won (1,06 miliardi di dollari statunitensi). Antonino Tata (RISeT ) 47 ! Futuro & Regala un abbonamento a Green Dieci numeri al prezzo scontato di 20 euro futuribile CURIOSITÀ Svelato finalmente il meccanismo per il quale la menta è fredda, ovvero trovato il recettore TRPM8 coinvolto nella sensazione di freddo che interagisce con il mentolo! Il merito è del gruppo del professor David McKemy dell’Università della Southern California, che ha utilizzato un topo geneticamente modificato nel quale i neuroni che esprimono le molecole di TRPM8 includevano anche un tracciante fosforescente che illuminasse le fibre nervose sensibili al freddo, che corrono dai neuroni sensoriali spinali alle terminazioni cutanee. “Gli esseri umani e altri mammiferi sembrano condividere lo stesso meccanismo” ha detto McKemy. La piacevole freschezza di una caramella alla menta, di una lozione antidolorifica o la puntura del ghiaccio sulla pelle avrebbero dunque tutte a che fare con lo stesso recettore. La rimozione di tale proteina, tuttavia, non elimina completamente la percezione di freddo: quello estremo, infatti, attiva anche circuiti dolorifici di allarme. Lo studio, pubblicato sulla rivista scientifica Journal of Neuroscience, ha come obiettivo a lungo termine quello di studiare i meccanismi molecolari associati agli organi di senso, nella speranza di sviluppare farmaci che allevino gli stati cronici di dolore, come quello dell’artrite o dell’infiammazione. “Se capiamo come i neuroni percepiscono il dolore normalmente – ha affermato McKemy – allora forse possiamo capire perché percepiamo il dolore quando non dovremmo”. I verbi evolvono come gli organismi “La matematica è un linguaggio” diceva Willard Gibbs (1839-1903), uno dei padri della termodinamica e della moderna chimica fisica. particolare i verbi – siano soggette ad un forte processo di “normalizzazione”, proprio come i geni e gli organismi. Lo studio, pubblicato sulla prestigiosa rivista scientifica Nature, ha analizzato la dipendenza tra la “regolarità” (nel senso grammaticale del termine) dei verbi inglesi e la frequenza con cui essi vengono utilizzati: il risultato è che l’emivita (vedi box) di un verbo irregolare è direttamentente proporzionale alla radice quadrata della sua frequenza d’uso. In altre parole, un verbo usato 100 volte meno di un altro, diventa regolare con una velocità dieci volte maggiore. Una parola molto comune come “be” ha, ad esempio, un’emivita di 38.800 anni, sufficienti per esentarla sostanzialmente dal processo di regolarizzazione; L’idea potrebbe rivoluzionare l’approccio terapeutico al cancro, una delle malattie che maggiormente affligge il genere umano: veicolare, attraverso nanoparticelle (1 nanometro = 10-9 m), farmaci chemioterapeutici da rilasciare esattamente dove necessario, evitando così gli effetti collaterali del trattamento tradizionale e incrementandone l’efficacia. http://www.usc.edu/uscnews/stories/14678.html “E il linguaggio ha delle leggi matematiche” aggiungerebbe Martin A. Nowak, professore di biologia e matematica all’Università di Harvard, che ha racchiuso in una formula matematica il processo evolutivo dei verbi irregolari di lingua inglese, analizzando il loro comportamento durante i 1200 anni passati. La convinzione di base è che le parole – e in PER APPROFONDIMENTI 48 Gli scienziati dell’Università della California di Los Angeles (UCLA), organizzati all’interno del Centro nanomacchine dell’Istituto di Nanosistemi (CNSI), stanno sviluppando la tecnologia già da diversi anni. Soltanto recentemente hanno tuttavia firmato un contratto con la società privata NanoPacific Holdings per introdurre tali nanomacchine sul mercato entro tre anni e rendere, dunque, le terapie basate su di esse maggiormente utilizzate. Le strutture veicolari includono nanovalvole a forma di nido d’ape che possono essere aperte o chiuse mediante l’interazione con un fotone di una data frequenza oppure un agente chimico, a seconda che il tumore sia localizzato vicino alla superficie della pelle o no, rispettivamente. Nel primo caso vengono utilizzate molecole “ventola”, che “soffino” il farmaco fuori dalla nanoparticella. “Inseriamo molecole come l’azobenzene dentro la struttura” – spiega Jeffrey Zink, codirettore del centro di ricerca – “quando vengono esposte alla luce, esse cominciano ad oscillare causando l’espulsione del farmaco”. Per le neoplasie situate a maggior profondità, invece, sono utilizzate sostanze chimiche che inneschino l’apertura della nanomacchina in pre- Nanovalvole contro il cancro Ecco perché la menta è fredda PER APPROFONDIMENTI Offerta speciale per gli studenti e i docenti: 10 numeri a soli 15 euro Il modulo di abbonamento è scaricabile all’indirizzo www.incaweb.org/green/abbonamenti/index.htm http://www.nature.com/nature/journal/v449/n7163/abs/nature06137.html senza di particolari enzimi o variazioni di pH nell’area interessata. I punti di forza della terapia sarebbero la drastica riduzione della dose di farmaco somministrata ai pazienti, che verrebbe ridotta di cento o addirittura mille volte, e l’inattività nei confronti delle cellule sane. Tuttavia, a questi vantaggi potrebbero aggiungersene anche altri: lo sviluppo della tecnologia potrebbe permet- tere infatti l’impiego di alcuni farmaci antitumorali fino ad ora inutilizzabili, come la camptotecina, al momento di difficile somministrazione in quanto di bassa solubilità nel sangue. Oltre a tali promettenti applicazioni, la collaborazione si propone di estendere le competenze sviluppate anche ad altri campi di utilizzo, quali la cosmetica o l’elettronica. Olio combustibile “bunker” Il carburante utilizzato per la propulsione delle navi è generalmente definito olio combustibile “bunker”, dal nome dei contenitori nei quali è depositato nei porti. Il combustibile “bunker” appartiene alla famiglia dei distillati pesanti ottenuti dal petrolio e viene classificato in varie categorie, in base alla lunghezza della catena di atomi di carbonio che lo costituiscono, da 20 a 70 circa (C20-C70). Per avere un termine di confronto, la benzina è formata per la maggior parte da C6-C8, il gasolio (altrimenti detto nafta), invece, prevalentemente da C13-C18. PER APPROFONDIMENTI www.cnsi.ucla.edu http://stoddart.chem.ucla.edu E la nave va… Un immenso aquilone che fa risparmiare fino al 50 % di carburante “The answer, my friend, is blowing in the wind” cantava un tempo Bob Dylan, ispirando e dando speranza agli animi di beatniks e pacifisti. Quasi cinquant’anni dopo è lo stesso vento ad infondere un po’ di ottimismo sul futuro energetico del nostro pianeta, adesso che l’energia eolica può essere impiegata anche nel trasporto marittimo grazie alla tecnologia sviluppata dall’azienda tedesca SkySails. il verbo “shrive”, invece, ha un’emivita di soli 300 anni, vale a dire verrà regolarizzato tra non molto tempo. “L’analisi matematica di questa evoluzione linguistica - ha affermato Erez Liebermann, collaboratore di Nowak - rivela che i verbi irregolari si comportano in modo tale da permetterci previsioni sui futuri stadi della loro traiettoria evolutiva”. Il vento del cantautore americano era un soffio consolatore che suggeriva risposte sul futuro dell’umanità, quello di SkySails è il vento che potrebbe dare risposta parziale al problema energetico globale, un vento potente e veloce di alta quota che viene utilizzato per il traino di navi mercantili, tramite un gigantesco aquilone di dimensione variabile dai 150 ai 600 metri quadrati, dispiegato tra i 100 e i 300 metri di altezza. L’idea è semplice ma d’impatto: affiancare al motore principale a combustione la propulsione eolica, molto più economica e ad impatto ambientale nullo. Con risultati tutt’altro che trascurabili: riduzione dei costi dal 10 al 35% e del consumo di carburante fino al 50%, secondo quanto dichiarato Che cos’è l’emivita Il concetto di emivita, qui utilizzato in campo linguistico-matematico, deriva dal linguaggio della fisica ed indica il tempo occorrente perché la metà degli atomi di un campione puro di un elemento radioattivo decada in un altro elemento. Pertanto, è una misura generale della stabilità di tale elemento: maggiore l’emivita, maggiore è la stabilità. dall’azienda. La portata della tecnologia SkySails non è di impatto ambientale trascurabile, se si tiene in considerazione, seguendo quanto detto dalla casa tedesca, che il trasporto marittimo, con un consumo annuale di circa 200-250 milioni di tonnellate di petrolio e un’emissione di circa di 600-800 milioni di tonnellate di anidride carbonica, contribuisce a circa il 5% delle emissioni globali, il doppio rispetto a quelle provenienti dal trasporto aereo. Utilizzare l’energia eolica come propulsione per una nave non è certo un’invenzione dei tempi moderni: ciò che è innovativo e che rende competitiva la tecnologia, rispetto alla navigazione a vela tradizionale, è di utilizzare un aquilone dispiegato in alta quota, dove i venti sono più veloci di circa il 10-20%, a causa dell’assenza di frizione con la superficie marina e terre- stre. La velocità del vento è particolarmente rilevante dal momento che il potere di trazione di un aquilone è proporzionale al quadrato di tale quantità: questo significa, ad esempio, che laddove la velocità delle raffiche raddoppia, il potere trainante dell’aquilone quadruplica! Non è finita qui: la tecnologia sviluppata permette di utilizzare vele relativamente poco estese, minimizza l’inclinazione dello scafo e consente, attraverso un profilo aerodinamico apposito, l’utilizzo del sistema non soltanto con vento di poppa, ma anche con vento laterale. All’azienda amburghese non sono mancati i riconoscimenti: primo fra tutti il “Premio per l’Innovazione dell’Economia Tedesca”, che vanta una giuria presieduta dal premio Nobel per la Fisica 1985 Klaus von Klitzing e dal Presidente dell’Istituto Fraunhofer Hans-Joerg Bullinger. Lorenzo De Angeli 49 Futuro le news di Green & ) futuribile Ecosistemi a rischio: verso il punto di non ritorno? Si pensi ad un pesante pullman che, uscito di strada, rimanga sospeso in perfetto ma precario equilibrio sull’orlo di un precipizio; e si immagini ora di aggiungere soltanto un sassolino molto leggero dalla parte che si affaccia sullo strapiombo. Anche un ciottolo così minuscolo sarebbe sufficiente a sbilanciare il veicolo, che precipiterebbe irrimediabilmente. Simile potrebbe essere il destino di alcuni ecosistemi del nostro pianeta, secondo lo studio pubblicato sulla rivista scientifica statunitense Proceedings of the National Academy of Sciences Journal da un team internazionale di esperti, tra cui Tim Lenton, professore di Scienze Ambientali all’Università di East Anglia, nel Regno Unito. L’opinione si discosta da quella generale del Pannello sui Cambiamenti Climatici (IPCC) che tende (con eccezioni) a vedere il cambiamento di stato dei sistemi ambientali terrestri come un processo graduale, lineare in termini matematici, cioè con una risposta proporzio- PER APPROFONDIMENTI L’intrusa della Via Lattea tradita dalla giovane età: “solo” 35 milioni di anni Si pensava che fosse una delle nostre, che appartenesse anche lei come il nostro Sole alla Via Lattea, ma alla fine è stata smascherata: He 04375439, la stella scoperta nel 2005 dagli astronomi dell’Osservatorio Europeo Meridionale (ESO), è un’intrusa. 50 fenomeni naturali (quali temperatura o livello del mare) mediati su lunghe scale spaziali e temporali, http://researchpages.net/ESMG/people/tim-lenton/tipping-points L’ha tradita la sua giovane età, “solo” 35 milioni di anni, e l’enorme velocità con cui si sposta verso lo spazio intergalattico, 2,6 milioni di chilometri l’ora. La stella ha una massa pari a circa otto volte quella del Sole e dista circa 200.000 anni-luce (distanza percorsa dalla luce in un anno, circa diecimila miliardi di chilometri) dal pianeta Terra. In seguito al primo avvistamento di He 0437-5439, gli astronomi avevano ritenuto che provenisse dal centro della Via Lattea; ciò era tuttavia in contraddizione col fatto che la nostra “straniera” avrebbe dovuto impiegare 100 milioni di anni per viaggiare dal centro della galassia al PER APPROFONDIMENTI nale alla causa che lo genera. Questo poiché l’IPCC considera, nelle proprie analisi, punto in cui è stata osservata, un tempo ben tre volte superiore alla sua età. Da qui lo scetticismo e l’esame della composizione della stella, analizzando lo spettro di radiazione elettromagnetica proveniente dal corpo celeste per determinarne la composizione chimica. È l’attesa scoperta, fatta dagli astronomi americani della Carnegie Institution in collaborazione con la Queen's University di Belfast: He 0437-5439 ha una composizione più simile a quella delle stelle che popolano la Grande Nube di Magellano. Questa galassia nana è visibile ad occhio nudo, un flebile corpo luminoso nel cielo notturno dell’emisfero http://www.ciw.edu/news/hyperfast_star_proven_be_alien australe, lontano 157.000 anni-luce. I ricercatori, coordinati da Alceste Bonanos e Mercedes Lopez-Morales, hanno pubblicato sulla rivista Astrophysical Journal Letters, oltre alle osservazioni sperimentali, anche un’ipotesi che spiega l’incredibile velocità della stella: l’accelerazione dovuta all’interazione con un buco nero supermassivo (SMBH), un corpo celeste con massa pari a oltre un milione di volte quella del Sole. La stella, in altre parole, avrebbe fatto parte di un sistema binario che, interagendo con il presunto buco nero, si sarebbe disgregato: He 0437-5439 sarebbe stata fiondata nelle vastità Circolazione termoalina Circolazione globale delle masse d’acqua oceaniche a causa della variazione della densità delle stesse, determinata dalla loro temperatura (termo-) e salinità (-alina). che non evidenziano il potenziale carattere esplosivo di alcuni specifici eventi, antropogenici (vale a dire causati dall’uomo) e non, responsabili di una possibile mutazione repentina. Le componenti del sistema Terra che possono passare ad uno stato qualitativo differente in seguito a piccole perturbazioni sono definite “elementi di capovolgimento” (tipping elements) e il punto critico a cui avviene la transizione tra i due stati “punto di capovolgimento” (tipping point). Esempi “storici” sarebbero il Massimo Termico del Paleocene-Eocene, in cui la temperatura media si innalzò di 4-5 °C all’Equatore dello spazio, mentre la sua sfortunata compagna sarebbe stata inghiottita dall’enorme massa gravitazionale. L’ipotesi è particolarmente interessante in quanto indicherebbe l’esistenza di un buco nero supermassivo nella Grande Nube di Magellano, una delle galassie più vicine alla nostra. e 8-10 °C ai Poli in seguito al rilascio di 1.500-4.500 Pg (1 Pg = 1 petagrammo = 1015 g, cioè 1.000 miliardi di kg) di carbone fossile, o la Grande Ossidazione, vale a dire il primo grande aumento di ossigeno atmosferico, avvenuto 2,4 miliardi di anni fa. Un caso recente di tipping element, invece, sarebbe il buco dell’ozono, dal momento che il disgregarsi dello strato procede rapidamente una volta sorpassata una soglia critica di concentrazione di cluorofluorocarburi rilasciati in atmosfera. Molti ambienti terrestri, come i ghiacci della Groenlandia, la foresta amazzonica o la circolazione termoalina atlantica, sarebbero già a rischio: per tali ambienti, infatti, l’aumento di temperatura previsto per i prossimi cento anni sarebbe sufficiente a raggiungere il tipping point, come mostrato nel grafico a lato, in cui sono riportati gli “elementi di capovolgimento” nel sistema climatico terrestre e le stime di surriscaldamento globale che li potrebbe innescare. Quale che sia la provenienza della nostra intrusa, non rimarrà con noi a lungo: si muove così velocemente che l’attrazione gravitazionale della Via Lattea è troppo debole per contenerla al proprio interno e per evitare il suo allontanamento nello spazio intergalattico. Lorenzo De Angeli Il nome delle stelle… L’unica organizzazione a cui è riconosciuto dalla comunità scientifica internazionale il diritto di nominare le stelle è l’Unione Astronomica Internazionale (IAU). Alcune società private rilasciano tuttavia, sotto pagamento, certificati che dimostrerebbero l’assegnazione di un determinato nome ad una particolare stella; tale pratica non è riconosciuta dall’IAU e pertanto tali nomi non vengono utilizzati dagli astronomi. Errata corrige Su gentile segnalazione dei nostri lettori, poniamo qui rimedio alle seguenti imprecisioni apparse sugli scorsi numeri di Green: n. 11 Gennaio-Febbraio 2008 A pag. 42, colonna di sinistra. La didascalia della foto è ovviamente errata. Quello di Albert Sabin è un vaccino antipolio vivo somministrato per via orale. Lo scienziato che sta iniettando il vaccino antipolio inattivato al “piccolo eroe” Randall Kerr è quindi il suo stesso scopritore: Jonas Salk. n. 9 Ottobre 2007 A pag. 27 nel box in basso nella colonna di destra si parla degli enantiomeri dell'acido lattico: "capacità di ruotare il piano della luce polarizzata (verso destra, forma D, o verso sinistra, forma L)". In realtà ci sono diverse definizioni di enantiomeri corrispondenti: la forma D o L è definita in base alla geometria e simmetria della molecola basata su semplici molecole chirali che fungono da modello come la gliceraldeide (per gli zuccheri) e la serina (per gli aminoacidi). Le forme + o – (più o meno), che non hanno corrispondenza con le precedenti, sono definite in base alla rotazione del piano della luce polarizzata, per convenzione saranno + se la rotazione è in senso orario e – nel caso opposto. Esistono ancora altre definizioni che qui tralasciamo. n. 4 Marzo 2007 A pag. 47 nel riquadro “Le Parole della Scienza” è necessario un breve chiarimento per quanto concerne gli omega-3. Si tratta di una categoria di acidi grassi insaturi essenziali presenti nelle membrane cellulari e necessari al loro corretto funzionamento ed integrità. Il residuo carbossilico (-COOH), tipico degli acidi, per definizione legato al carbonio iniziale (detto “alfa”, dalla prima lettera dell’alfabeto greco, α), il doppio legame carbonio-carbonio (C=C), caratteristico degli acidi grassi insaturi omega-3, si trova nella terminazione opposta della molecola al terzo carbonio a partire da quello terminale (detto “omega”, dall’ultima lettera dell’alfabeto greco, ω). In un omega-3 con 18 atomi di carbonio, quindi, il doppio legame si troverà tra il quindicesimo e il sedicesimo carbonio. Considerazioni simili valgono per gli acidi grassi essenziali omega-6. n. 3 Gennaio- Febbraio 2007 A pag. 16 e 17 quella indicata come “reazione di Friedel Craft”, dal nome dei due scienziati che l’hanno descritta nel 1877, Charles Friedel and James Crafts, deve essere correttamente indicata come “reazione di Friedel-Crafts”. 51 “ “ Io affermo che quando voi potete misurare ed esprimere in numeri ciò di cui state parlando, solo allora sapete effettivamente qualcosa; ma quando non vi è possibile esprimere numericamente l’oggetto della vostra indagine, insoddisfacente ne è la vostra conoscenza e scarso il vostro progresso dal punto di vista scientifico Lord William Thomson Kelvin (Belfast 26 giugno 1824 - Netherhall 17 dicembre 1907) Karl Blechen (Cottbus 1797 - Berlino 1840) - Costruendo il ponte del diavolo, 1833, olio su tela, Neue Pinakothek, Monaco