e dell - Consorzio INCA

Transcript

e dell - Consorzio INCA
La Scienza
al servizio
dell’ Uomo
e
dell’Ambiente
12
Marzo 2008
A colloquio con
padre Roberto
Busa, 95 anni,
il pioniere
Parola di prof della linguistica
Valutazione e merito:
informatica
regole trasparenti
per il bene comune
Piogge acide
Allarme salute
e
inquinamento
Molecole piccanti
Abitudini
alimentari
mondiali
Attrazioni magnetiche
Frontiere
della scienza
e innovazione
www.green.incaweb.org
Personaggi
in primo piano
COPIA OMAGGIO Prezzo di un numero euro 3,00 - Periodico mensile d’informazione edito dal Consorzio Interuniversitario Nazionale “La Chimica per l’Ambiente“ (INCA) - Anno III, N. 12, Marzo 2008
Un “ponte” tra i ricercatori e la società
per essere protagonisti nel mondo che cambia
Parola di Prof
Scambio di idee
con Piero Tundo
Valutazione e merito:
regole trasparenti
per il bene comune
T
utti noi abbiamo esperienza che le prove cui siamo
sottoposti durante la nostra vita sono momenti cui
segue un cambiamento che spesso è positivo. Anche
quelle dolorose, come sanno i genitori quando i piccoli si
ammalano: dopo il morbillo e la varicella, il piccolo sembra
più adulto ed è realmente cresciuto.
In seguito al superamento di un ostacolo, la realtà ci si
propone in maniera diversa e la affrontiamo più consapevoli
e con differenti intenti.
U
n’altra considerazione, molto legata alla prima, è la
necessità che noi sentiamo di un giudizio esterno,
che conforti le nostre scelte. La sola
autoreferenzialità produce disastri perché non comporta un
confronto e un’armonizzazione con i nostri simili; si può
anche dire, estendendo questo concetto, che la valutazione
con le prove ad essa associate, spesso difficili, fa parte di un
processo virtuoso ed è un indice della maturità di una
società: i regimi totalitari sono caratterizzati da una
selezione non basata su una valutazione di merito; il
giudizio – che pur sempre verrà - per tali regimi spesso
arriva in forma violenta attraverso guerre e sollevamenti
civili. Che tipo di valutazione allora? La tipologia dei
giudizi è molto variegata e dipende dalla storia, dalla cultura
e dalla tradizione. Ma il grado di confidenzialità e di
affabilità, amichevolezza, non gendarmesca, ma
promuovente come viene fatto il giudizio nella valutazione a cui segue il riconoscimento del merito, e quindi la
promozione - è un indice della maturità e della civiltà di una
società e di un popolo. A questo occorre quindi mirare per
affermare la democrazia: rendere le regole trasparenti e le
prove utili, non per selezionare il più forte, ma per
riconoscere una maggiore autorità a chi opera correttamente
per il bene comune.
C
ome per i bambini la guarigione dopo una malattia,
l’autorità conferita attraverso un processo di
valutazione trasparente e necessariamente sofferto,
oltre che procurare soddisfazioni, apre un nuovo significato
alla nostra esistenza.
Così avviene anche nella scienza; il piacere della ricerca e
l’emulazione nel sapere scientifico hanno reso necessario
sin dall’inizio adottare metodi di analisi e di giudizio
condivisi: a causa del numero elevatissimo dei dati, dei
risultati e della pluralità degli attori coinvolti, le discipline
scientifiche devono affidarsi al giudizio critico degli esperti,
secondo procedure e criteri comuni, per condividere i
risultati senza polemica.
L
a valutazione della ricerca svolta dalle Università e
dagli Enti di ricerca italiani, con un po’ di ritardo
rispetto alle altre Università europee, è iniziata nel
2003 da parte del Ministero dell’Istruzione, dell’Università
e della Ricerca, con l’istituzione del Comitato di indirizzo
per la valutazione della ricerca, CIVR; attraverso la
trasparenza delle linee guida e il lavoro di referee italiani e
stranieri, il CIVR ha valutato 77 Università, 12 Enti
pubblici di ricerca e 13 Istituzioni private di ricerca, per le
ricerche da loro svolte negli anni 2001-2003.
I risultati di questo lavoro sono pubblici ed sono
consultabili al link http://vtr2006.cineca.it/
A
lcuni risultati del CIVR sono per noi importanti,
perché ci indicano l’eccellenza della ricerca nelle
aree scientifiche di matematica, fisica, chimica,
scienze della terra, biologia, medicina, nanoscienza, beni
culturali e sostenibilità.
Con l’intento di fare cosa utile a voi, studenti che state
scegliendo se intraprendere o no una carriera di studi
universitaria, inizieremo da questo numero la
pubblicazione di articoli provenienti dagli Istituti di ricerca
che si sono distinti con una qualità di eccellenza nella
valutazione del CIVR.
V
ogliamo in tal modo offrire una visione oggettiva,
basata su una valutazione istituzionalmente
condivisa, sulle grandi opportunità che la ricerca
scientifica italiana offre nel contesto della ricerca europea.
Ci auguriamo che voi possiate scegliere, nell’ambito del
vostra aspirazione, la migliore destinazione per investire
nel vostro futuro. Il primo di questi articoli è di Dante
Gatteschi, professore di Chimica inorganica all’Università
di Firenze e direttore del Consorzio interuniversitario
nazionale per la scienza e tecnologia dei materiali
(INSTM). Il suo articolo è a pagina 30.
Buona lettura.
Scrivete a: [email protected]
2
Aurora boreale
sommario
Green
La Scienza
al servizio
dell’Uomo
e dell’Ambiente
12
Marzo
2008
Periodico mensile
d’informazione
del Consorzio
Interuniversitario
Nazionale
La Chimica
per l’Ambiente
(INCA)
Direttore
Piero Tundo
Comitato scientifico
Angelo Albini,
Università di Pavia
Sergio Auricchio,
Politecnico di Milano
Attilio Citterio,
Politecnico di Milano
Lucio Previtera,
Università di Napoli Federico II
Direttore responsabile
Gino Banterla
“Attrazioni magnetiche” (vedi servizio pag. 32): variazioni sul tema dell’aurora boreale
nell’interpretazione di Ornella Erminio.
Coordinatore di redazione
Fulvio Zecchini
Sommario
L’intervista
Sapori & Chimica
DOSSIER
Scienze linguistiche & Informatica. Rovesciando Babele.
Incontro con padre Roberto Busa
pag. 4
Molecole… piccanti. La storia e le proprietà
del peperoncino e del pepe
Corrosive rain. Le piogge acide.
Salute, vegetazione e monumenti a rischio
Le news di Green dall’Italia e dal mondo
Progetto grafico e impaginazione
Graficatorri - Franco Malaguti
e-mail: [email protected]
pag. 10
pag. 18
Scienza & Innovazione Attrazioni magnetiche. Nuove frontiere del magnetismo pag. 32
Futuro & Futuribile
Comitato redazionale
Antonella Americo
Chiara Palmieri
pag. 46
Olimpiadi della Scienza
Studenti, partecipate al ConcorsoGreen Scuola 2008 promosso dal Consorzio INCA e
dalla nostra rivista in collaborazione con il Ministero della Pubblica Istruzione sul tema
“Energie alternative e ambiente. La produzione sostenibile di energia”.
Scadenza per l’invio degli elaborati 30 aprile 2008.
Informazioni, regolamento e scheda di partecipazione:
www.incaweb.org
www.green.incaweb.org
Direzione e redazione: Viale Luigi Pasteur, 33 - 00144 Roma, tel. 06 54 22 07 10 - tel./fax 06 59 26 10 3
E-mail: [email protected] - Sito internet: www.green.incaweb.org
Amministrazione: Consorzio Interuniversitario Nazionale “La Chimica per l’Ambiente” (INCA)
Via delle Industrie, 21/8 - 30175 Marghera (VE)
telefono 041 23 46 611 - fax 041 23 46 602 - e-mail: [email protected]
Registrazione al Tribunale di Venezia n. 20 del 15 luglio 2006 - Stampa: Grafiche Seregni, Paderno Dugnano (Milano)
Concessionaria per la pubblicità
su “Green”
Marketing Planet Media
Tel. 039. 23 08 568
Fax 039. 23 08 576
Via Vittorio Emanuele, 15
20052 Monza (MI)
E-mail:
[email protected]
Web:
www.mktplanetmedia.it
Per abbonamenti e arretrati
scrivete a:
[email protected]
© Consorzio INCA, 2008.
Tutti i diritti sono riservati. La presente
pubblicazione, tutta o in parte, non può
essere riprodotta o trasmessa in nessuna
forma e con nessun mezzo, elettronico,
meccanico, fotocopia, registrazione o altro,
senza l’autorizzazione scritta dell’editore.
L’editore, nell’ambito delle leggi
sul copyright, è a disposizione degli aventi
diritto che non si sono potuti rintracciare.
3
Scienze linguistiche & Informatica
Rovesciando
Pieter Bruegel
il Vecchio
(1525-1569),
La Torre di
Babele.
Tutta la terra aveva una sola lingua e le stesse parole.
Emigrando dall’oriente gli uomini capitarono in una pianura
nel paese di Sennaar e vi si stabilirono. Si dissero l’un l’altro:
“Venite, facciamoci mattoni e cuociamoli al fuoco”. Il mattone
servì loro da pietra e il bitume da cemento. Poi dissero:
“Venite, costruiamoci una città e una torre, la cui cima tocchi
il cielo e facciamoci un nome, per non disperderci su tutta la
terra”. Ma il Signore scese a vedere la città e la torre che gli
uomini stavano costruendo. Il Signore disse: “Ecco, essi sono
un solo popolo e hanno tutti una lingua sola; questo è l’inizio
della loro opera e ora quanto avranno in progetto di fare non
sarà loro impossibile. Scendiamo dunque e confondiamo la
loro lingua, perché non comprendano più l’uno la lingua
dell’altro”. Il Signore li disperse di là su tutta la terra ed essi
cessarono di costruire la città. Per questo la si chiamò Babele,
perché là il Signore confuse la lingua di tutta la terra e di là il
Signore li disperse su tutta la terra.
Babele
di Gino Banterla
4
Padre Roberto Busa, rileggendo il celebre brano della Genesi (11, 1-9) viene spontaneo interrogarsi sul senso
di Babele oggi. Nei primi anni del terzo millennio dopo Cristo viviamo
tante “babele”: della comunicazione,
dei valori, dell’economia, oltre che delle
lingue. La scienza nell’ultimo secolo ha
fatto progressi giganteschi, eppure siamo
nella stessa situazione descritta dalla Bibbia. Gli uomini con le loro invenzioni vogliono toccare il cielo, ma si trovano “dispersi sulla terra”, disorientati e spesso incapaci di capirsi e di comunicare tra loro.
Quale è il ruolo della lingua e delle lingue
nella società globalizzata?
Le interviste di Green
do
Disegno
di Marina
Molino
Ronza
Padre Roberto Busa,
pioniere della
linguistica informatica
Dai calcolatori a schede perforate ai bit
Sessant’anni
di ricerche sulla lingua
Ha 95 anni e proprio non li
dimostra. Padre Roberto
Busa, classe 1913 (è nato il
28 novembre a Vicenza)
sembra essere, tutt’al più, un
“giovane” settantacinquenne.
È stato compagno di scuola
di un papa, Giovanni Paolo I,
al secolo Albino Luciani, e
nella sua lunga carriera
accademica ha avuto
centinaia di allievi, alcuni
diventati grandi personalità:
uno per tutti, il cardinale
Carlo Maria Martini, già
arcivescovo di Milano.
Alto di statura, portamento
ieratico e professorale ma
battuta sempre pronta (“Mi
sto perfezionando in
vecchiaia”, scherza
accogliendoci nel suo studio),
padre Busa deve alla mente
sempre in allenamento la sua
sbalorditiva vitalità. Sin da
quando, nel 1948, andò a
New York all’IBM dove
incominciò le sue ricerche
linguistiche sui testi di san
Tommaso d’Aquino
affidandosi agli enormi
calcolatori a schede perforate.
Nessuno ci credeva allora, ma
i gesuiti in campo scientifico
quando ci si mettono
ottengono il meglio,
l’eccellenza diremmo oggi. E
Padre Busa
davanti allo
scaffale nel
quale sono
raccolti i 56
volumi del
suo Index
Thomisticus.
San Tommaso d’Aquino diceva che la lingua, cioè il parlare, è un atto d’amore per il
prossimo e che la menzogna è per questo un
peccato contro la natura. Senza sincerità e
senza trasparenza non si è galantuomini.
Parlare, comunicare deve essere prima di tutto e sopra tutto un atto d’amore. Mettiamocelo bene in testa… .
■ Lei è il pioniere della linguistica computazionale, alla quale ha dedicato sessant’anni di ricerche. E il 28 gennaio scorso – guarda caso, proprio nel giorno che la
Chiesa dedica a San Tommaso – ha presentato pubblicamente a Milano il Progetto LD (Lingue disciplinate), che si propone di vincere una delle sfide imposte dalla
difatti padre Busa S.J.
(Societatis Jesu, è la sigla con
la quale si firmano gli
appartenenti alla Compagnia
di Gesù fondata nel 1540 da
Ignazio di Loyola) ha dato
vita a una nuova disciplina, la
linguistica informatica.
Dai “dinosauri” – come lui
chiama i primi computer a
valvole – ai più recenti
strumenti informatici, dalle
schede perforate e dai nastri
magnetici ai bit e ai byte,
padre Busa si è fatto
missionario del “computer in
humanities” insegnando alla
Pontificia Università
Gregoriana, all’Università
Cattolica del Sacro Cuore, al
Politecnico di Milano e
partecipando a qualche
centinaio di congressi e
seminari in ogni parte del
globo. La sua bibliografia
vanta oltre 440 pubblicazioni
tra libri e saggi, tra le quali
spicca il ciclopico Index
Thomisticus.
Il suo “regno” è il Centro da
lui fondato, il Cael
(Computerizzazione delle
analisi ermeneutiche e
lessicologiche) che ha sede
all’Aloisianum di Gallarate
(Varese), l’Istituto dei gesuiti
dove lo abbiamo incontrato.
globalizzazione. Riuscirà davvero il computer a farci parlare un’unica lingua, “rovesciando Babele” come afferma nel suo
ultimo libro?
Direi di no se intendiamo che in prospettiva
tutti gli uomini possano parlare una sola lingua. Ma rispondo senz’altro di sì se consideriamo il computer come un intermediario tra
persone che parlano lingue diverse, come
portatore di una lingua ontologica e ideografica nella quale ogni singola parola ha un solo significato. Un cinese e un italiano grazie
al computer potranno un giorno dialogare tra
di loro senza conoscere l’uno la lingua dell’altro e neppure l’inglese. In pratica accadrà
questo: il cinese invia un testo nella sua lin5
Scienze linguistiche & Informatica
L’illusione americana
durante la “guerra fredda”
In piena guerra fredda, dopo
la seconda guerra mondiale, il
Governo americano finanziò
vari gruppi di ricercatori perché mettessero a punto un sistema di traduzione automatica dal russo all’inglese attraverso il computer.
Erano gli anni del cosiddetto
equilibrio del terrore, che si
basava sugli arsenali militari e
sulla rincorsa agli armamenti,
e i due giganti che allora do-
Un’utopia che può
diventare realtà.
Riuscirà il computer
a farci parlare
un’unica lingua?
Padre Roberto
Busa nel suo
studio
all’Aloisianum
di Gallarate
(Varese). È
nato a
Vicenza il 28
novembre
1913.
Roma, 20
dicembre
2005. Il Capo
dello Stato,
Carlo Azeglio
Ciampi,
conferisce a
padre Busa la
massima
onorificenza
della
Repubblica, il
Cavalierato
di Gran
Croce.
L’Index Thomisticus: tutto il sapere
del mondo antico in 11 milioni di parole
L’opera di san Tommaso d’Aquino (1221-1274), una intera vita
dedicata allo studio e all’insegnamento, è stata “scandagliata”
con il computer, nel corso di una ricerca durata tre decenni, da
padre Busa. Il risultato di questo lavoro colossale è pubblicato
nell’Index Thomisticus in 56 volumi di circa mille pagine ciascuno, condensati poi agli inizi degli anni Novanta su cd-rom. Attraverso l’Index è possibile rintracciare in un istante qualsiasi parola latina contenuta nei 118 scritti di Tommaso d’Aquino, i
quali rappresentano una sorta di “enciclopedia” ante litteram del
sapere del mondo antico. L’Aquinate condensò 40 secoli di pensieri e di civiltà, da quella assiro-babilonese (nella quale nacque6
minavano la scena mondiale
– l’Unione Sovietica e gli Stati
Uniti – si osservavano a distanza attraverso i rispettivi
servizi segreti, il Kgb e la Cia.
Ma l’illusione americana rimase tale: il progetto si arenò
di fronte alle difficoltà rappresentate dalla lingua viva, non
pienamente leggibile dal
computer – oltretutto in quegli anni si era ancora nella
preistoria degli elaboratori
gua al computer, il quale lo traduce e lo trasmette all’italiano; quest’ultimo scrive in italiano e il computer traduce in cinese. Prima
che si arrivi a questi risultati gli esperti italiani e cinesi dovranno ovviamente elaborare i necessari programmi, risultato del matrimonio tra la fisica dell’informatica e la microanalisi delle lingue.
■ La rete veicola miliardi di dati e informazioni di fronte ai quali è sempre più difficile raccapezzarsi. Come trovare una
chiave di lettura di fonte alla Babele informativa?
Nelle forme attuali di trasmissione di dati e
di informazioni via rete c’è un grande deficit
di precisazioni di linguaggio al quale tutte le
grandi aziende dell’ICT, Information and
Communication Technology, cercano di ovviare con investimenti in ricerca, per approdare a nuovi codici linguistici con cui far lavorare le macchine. Il mio tentativo si muove proprio in questa direzione: un lessico in grado di
sviluppare, standardizzare e globalizzare le attuali forme di comunicazione via rete.
■ Questo è appunto l’obiettivo del suo
Progetto Lingue disciplinate. Ce lo potrebbe illustrare in parole povere?
Per farmi capire rispondo con un’equazione.
Una lingua disciplinata sta a una lingua viva
come un frutteto sta a una foresta pluviale.
ro le Scritture del Vecchio Testamento) ai Greci, dai Romani agli
Arabi. “Questa ingente mole di scritti”, spiega padre Busa, “non
è suddivisa in voci, bensì sintetizzata in un sistema logico-scientifico rappresentante la realtà del cosmo, dalla materia prima su
su fino all’Amor che move il Sole e l’altre stelle (Dante). È un
esempio formidabile di sintesi, da tenere ben presente oggi, in
un momento in cui lo sviluppo gigantesco degli strumenti
scientifici sta frantumando e parcellizzando i saperi”.
Undici milioni di parole – I Promessi Sposi, tanto per fare un
esempio, arrivano “appena” a 230 mila, la Divina Commedia a
100 mila – sono state schedate nell’Index Thomisticus attraverso
un sistema che permette, tra l’altro, di distinguere i termini
omografi, quelli, cioè, che si scrivono nello stesso modo ma
hanno un significato diverso.
Intervista a padre Roberto Busa
elettronici – in quanto creativa
e personalizzata. Infatti l’intelligibilità distribuita delle traduzioni raggiunse al massimo
l’80 per cento, percentuale certamente considerevole, ma il
20 per cento restante era diffuso qua e là nel testo, che così
non risultava comprensibile
nel suo insieme.
Nel 1966 uscì il Rapporto ALPAC, Automatic language
processing advisory committee, opera di sette ricercatori
americani, che decretava la fine degli esperimenti di tradu-
zione automatica. In seguito a
quella ricerca infatti il Pentagono – il ministero della Difesa Usa – sospese i finanziamenti.
L’idea di uno strumento capace di tradurre automaticamente testi da una lingua all’altra
non venne però abbandonata.
Con la diffusione dei personal
computer e con il vertiginoso
sviluppo di Internet, negli ultimi decenni sono stati messi a
punto sofisticati programmi di
traduzione assistita, che hanno
portato alla definizione di
standard sempre più avanzati.
Questi software operano però
ancora su segmenti di testi,
non su un testo organico.
Non è stato infatti realizzato
fino ad oggi uno strumento
per la traduzione automatica e
simultanea di un testo articolato. Il Progetto Lingue disciplinate elaborato da padre Roberto Busa suggerisce come
colmare questa lacuna.
Il Checkpoint Charlie, unico
punto di passaggio tra Berlino
Est-Ovest, simbolo della guerra
fredda.
Chiamiamo viva qualsiasi lingua venga usata istintivamente da chiunque su qualunque
argomento. Essa punta alla ridondanza e all’ornamento: quando uno si esprime spesso
cerca di abbellire il suo discorso come fa con
la sua persona. La lingua viva non è domabile dal computer, come ha dimostrato il Rapporto ALPAC del 1966 negli Stati Uniti (vedi box). La ragione sta nel fatto che le variabili della lingua viva – parlata e scritta – sono tante quanti gli individui umani, moltiplicate per gli anni della loro vita e per il numero degli ambienti in cui essi si sono mossi:
paese, scuola, professioni, famiglia, religione, letteratura, arte, sport e via dicendo.
Chiamo invece disciplinata una lingua che
sia stata potata, cioè ridotta all’essenziale,
per finalità particolari. Esempi di potatura
dei testi sono gli indici, gli abstracts di articoli scientifici, i telegrammi, gli sms. La lingua disciplinata, a differenza di quella viva,
può essere domata dal computer.
■ Con quale procedura?
È necessaria una premessa. Nel lessico di
chiunque parli o scriva vi sono due emisferi:
poche voci di altissima frequenza (le cosiddette parti grammaticali, variabili e invariabili) presenti in ogni argomento ed esprimenti la logica; moltissime voci che specificano ciò di cui si tratta e quindi esprimono la
San Tommaso d’Aquino
(1221-1274) ritratto con un
volume in evidenza da
Francesco Solimena noto come
l'Abate Ciccio (Canale di Serino
1657 – Napoli 1747)
considerato uno degli artisti che
meglio incarnarono la cultura
tardo-barocca in Italia.
cultura o il contesto (alimentazione, trasporti, sport, musica, arte…). Prendiamo ora un
determinato testo scritto in una lingua viva,
per esempio un manuale di diritto commerciale o di produzione industriale, per sottoporlo a microanalisi e a microsintesi. Va fatto anzitutto un censimento di tutti gli elementi linguistici, di tutte le parole, classificandole senza eccezioni, con le loro frequenze sia assolute sia percentuali. Forse è utile,
per far capire questa fase, richiamare quanto
ho fatto nell’Index Thomisticus. Gli 11 milioni di parole che formano l’opera di san
Tommaso d’Aquino sono riuniti in 147.088
forme diverse di parola. Messe in ordine di
frequenza decrescente, risulta che la più alta,
la congiunzione et, ne ha 295.593, mentre
sono ben 29.637 le voci rigorosamente hapax, cioè presenti una sola volta. Le 80 parole più frequenti rappresentano insieme il 41
per cento di tutte le parole scritte da san
Tommaso, le 800 più frequenti il 66 per cento. Sulla base del censimento del nostro testo
comincia la potatura: una équipe di esperti
fa una cernita delle parole ritenute indispensabili sia del primo che del secondo emisfero e attraverso un complesso processo di
confronti e di decantazione del sistema lessicologico si arriva a una lingua semplificata,
standardizzata, potata fino al suo nucleo es-
Le parti del discorso variabili e invariabili
Ve le ricordate le parti variabili e invariabili del discorso?
Niente paura, ripassiamo la grammatica. Le parti del discorso
sono, secondo la definizione del Devoto-Oli, “le categorie in
cui sono distribuite le parole di una lingua, secondo il
significato, la funzione che assolvono nella frase, le
caratteristiche di formazione e flessione”.
In italiano sono nove
Parti variabili:
articolo, sostantivo, pronome, aggettivo,
verbo.
Parti invariabili: avverbio, preposizione, congiunzione,
interiezione.
7
Scienze linguistiche & Informatica
Bit, byte, file,
il “linguaggio”
del computer
Tutta la materia è riconducibile ai numeri, afferma padre
Roberto Busa nell’intervista. Mentre questa è una
considerazione personale di carattere filosofico, frutto di una
lunga vita tutta dedicata alla ricerca, è un dato di fatto sotto gli
occhi di tutti che ai numeri è riconducibile l’immenso lavoro
dello studioso gesuita sulle parole e sulle lingue. Bit, byte e
files altro non sono infatti che combinazioni di numeri che
vanno a formare il linguaggio informatico. Vediamo, in sintesi,
come esso si configura.
Il linguaggio informatico si fonda sulla logica binaria, basata
su due soli numeri 0 e 1, che altro non sono che la
“codificazione” di una realtà fisica ben precisa: lo stato di
senziale ed elementare. A ognuna delle parole selezionate si fa corrispondere un insieme di numeri binari.
■ E il computer a questo punto compie la
magia della traduzione automatica: lo studente di Pechino capisce così all’istante ciò
che gli scrive lo studente di Roma e viceversa…
Sia ben inteso, il computer non fa le magie
di Harry Potter. Il lavoro degli esperti, dopo
la potatura, è ancora lungo e impegnativo,
perché i sistemi lessicologici variano tra lingue, argomenti e scrittori diversi. Prima di
arrivare all’input-output italiano-cinese e cinese-italiano dobbiamo disporre di algoritmi
che ci dicano, per esempio, quale è nelle due
lingue la collocazione di un aggettivo rispetto a un sostantivo o di un verbo rispetto al
soggetto. Solo allora i due files saranno come un Giano bifronte e il computer diventerà parlatore di lingue diverse. Lo stesso testo potrà essere immediatamente leggibile in
tutte le altre lingue disciplinate.
■ Ma che necessità c’è oggi della traduzione automatica quando in tutto il mondo si
sta affermando sempre di più la lingua inglese?
È vero, tramontata l’utopia dell’esperanto e
di altri circa duecento tentativi di lingua artificiale molti considerano l’inglese come una
sorta di lingua franca planetaria. In realtà
l’inglese è già correntemente usato in tutti i
Paesi del mondo nel campo della medicina,
della chimica, della fisica, della matematica,
in genere in tutte le scienze esatte e naturali.
Il mio progetto di traduzione automatica si
rivolge invece a quella infinità di persone –
penso per esempio ai piccoli imprenditori –
che hanno necessità di un mediatore linguistico preciso e versatile in un’epoca di grande mobilità in cui le porte del mondo sono
costituite da un biglietto d’aereo.
Spero che qualche organismo internazionale
si renda conto dell’importanza del Progetto
Lingue disciplinate e voglia sostenerlo, anche perché esso sarebbe un investimento sicuro, in continua crescita e duraturo. Esso
rappresenta una straordinaria opportunità,
un’infrastruttura pubblica di comunicazione
sociale a livello mondiale capace di produrre
vantaggi duraturi e di dare un contributo per
l’abbattimento delle disuguaglianze tra i popoli.
■ Non c’è il rischio che l’intelligenza dell’uomo venga schiacciata dall’invadenza
del computer?
Sì, questo rischio effettivamente esiste, ma
la colpa è di chi usa il computer. Oggi c’è in
atto una pericolosa inflazione dell’informazione che certo non aiuta a pensare. Mi piace fare un altro esempio: mentre per quanto
riguarda il cibo ciò che sappiamo sui vari si-
Summary
Babel reversed
Jesuit Father Roberto Busa is the pioneer of computational
linguistics. He began his research on the scripts of Thomas
Aquinas in 1948 at IBM in New York, entrusting himself on
the enormous punched card computers. From the “dinosaurs”
– as he called the first valve computers – to the more recent
informatic tools, from punched cards and magnetic tapes to
bits and bytes, Father Busa has been the missionary of the
“computer in humanities” teaching at the Pontificia Università Gregoriana (Pontifical Gregorian University), at the Università Cattolica del Sacro Cuore (Catholic University of the
8
Holy Heart), at the Politecnico di Milano (Polytechnic of
Milan) and participating in hundreds of congresses and seminars all over the world. And even today, as a 95 year old man,
he continues his work in the centre he founded, the Cael
(Computerization of the hermeneutical and lexicological
analyses) which is located at the Aloisianum in Gallarate
(Varese), within the Institute of Jesuits. In this interview he
talks about the results of sixty years of research and about his
new adventure; the Progetto di traduzione automatica Lingue
disciplinate (Project of automatic translation of disciplined
Languages), a possible answer to the challenges imposed by
the globalization and by the Babel of communications.
Intervista a padre Roberto Busa
magnetizzazione di un materiale magnetizzabile, o la
presenza/assenza di carica elettrica in un condensatore.
Per capire come funziona tale linguaggio pensiamo ad una
lampadina che può essere accesa o spenta, o ad una qualsiasi
coppia di stati fisici autoescludentisi.
Questi due stati, nel computer, corrispondono – come del resto
nel caso della lampadina – al numero 1 (accesa) e 0 (spenta).
Le cifre binarie sono chiamate bit, termine che deriva
dall’inglese BInary digiT. Il bit, in pratica, è l’unità elementare
per la misura dell’informazione.
In un computer le cifre binarie vengono raggruppate in
stringhe: esse contengono un numero costante di bit che
servono per rappresentare una lettera, un numero, un simbolo
speciale. Un gruppo di otto bit forma un byte ed è la quantità
minima con la quale un computer è in grado di lavorare. Con
un byte si possono ottenere 256 combinazioni di 0 e 1,
attraverso le quali si possono rappresentare le lettere, i numeri,
i caratteri speciali e i simboli.
stemi di alimentazione e sulle specialità culinarie non ci porta a provare cento piatti in un
giorno, per via degli ovvi freni imposti dall’apparato digestivo, la curiosità del pensiero
è senza limiti e là dove ci fossero dei freni,
essi agirebbero come un invito e una sfida.
Nel Medioevo si diceva: non cercare di sapere ciò che non ti è lecito fare. È, questa, la
legge della temperanza, una legge per così
dire di igiene del comportamento umano. In
altre parole: occorre essere padroni di se stessi. Anche di fronte all’inflazione dell’informazione. Solo così potremo dire: io cerco tra
i miliardi di uomini che zampettano sulla crosta terrestre; cerco di essere la formichina che
porta qualcosa di buono agli altri.
■ Se dovesse fare una sintesi del suo lunghissimo percorso di ricerca e di studio,
che cosa metterebbe in evidenza?
Quello che mi sorprende è che tutta la materia è riconducibile ai numeri. Direi di più, è
fatta da una bufera di frequenze elementari
di numeri che sembrano consistenti solo di
energia. Comprendo soltanto ora l’importanza della definizione di Aristotele: la materia
prima non ha nessuna delle qualità delle cose
reali. Comincio a pensare – non so su quale
fondamento della fisica – che la struttura atomica o intra-atomica di tutto ciò che chiamiamo materia e corpo e dimensione sia fatta di bolle di energia piene di materia inesi-
Ludwik Lejzer Zamenhorf
(1859-1917)
Le informazioni sono codificate
con i multipli del byte come segue:
kb =
(1024 byte) = 210 byte
kilobyte
Mb = megabyte
(1024 kilobyte)
Gb =
gigabyte
(1024 megabyte)
Tb =
terabyte
(1024 gigabyte)
I dati digitali sono rappresentati dal numero di byte che li
compongono e dalla loro sequenza e vengono chiamati campi;
il record è un insieme di campi; un insieme di record va a
formare un file, che può essere un testo, un video, un brano
musicale.
stente e che quindi lo spazio e gli spazi siano
mari di briciole d’energia.
■ Padre Busa, lei alla soglia dei suoi 95 anni
è ancora in contatto con i giovani. Gli studenti, oggi, si sentono spesso disorientati: in
famiglia, nella scuola, nella società. Quale
consiglio darebbe a un ragazzo o a una ragazza che venissero a bussare alla sua porta
per esprimere il proprio disagio di fronte a
una società sempre più povera di valori?
Il disorientamento dei giovani è proprio una
conseguenza della parcellizzazione delle conoscenze, ossia della mancanza di sintesi
conseguente al bombardamento confuso dell’informazione che ci piove addosso da tutti
i punti dell’orizzonte e da tutti i continenti.
Ricordo un signore conosciuto a New York:
mi diceva che per sentirsi solo gli bastava
soffermarsi nella Times Square. A un giovane che bussasse alla mia porta per chiedere
consiglio direi: cerca di scegliere qualche
cosa di buono in qualunque settore al quale
tu ti senta portato (scienze, musica, teatro, filosofia, storia, pittura…) e di dedicarvi con
impegno il tuo tempo. Devi farlo come un
tuo percorso di crescita personale, per questo non aspettarti e non esigere nulla dagli
altri. Non farlo per ricavarne gloria, ma semplicemente perché tu senta in modo pieno la
tua dignità di uomo di fronte a te stesso.
Gino Banterla
Gli irriducibili dell’esperanto
Non esistono statistiche che
(1859-1917), figlio di un indocumentino quante persone
segnante di lingue, che amava
parlino l’esperanto nel monfirmarsi con lo pseudonimo
do: qualcuno dice che sono
Doktoro Esperanto, “colui
appena 50.000, altri azzardache spera”.
no due milioni. Questa lingua
La prima grammatica italiana
“artificiale” senza popolo né
di esperanto venne pubblicata
nazione risale alla seconda
nel 1890. Nel 1954 l’UNEmetà dell’Ottocento. A metSCO, United Nations educatere a punto le basi dell’espetional, scientific and cultural
ranto fu un oculista polacco,
Organization, riconobbe “i riLudwik Lejzer Zamenhof
sultati raggiunti dall’esperanto
nel campo degli interscambi
intellettuali internazionali e
per l’avvicinamento dei popoli del mondo”, ma nonostante
il sostegno dell’UNESCO e
l’impegno delle associazioni
esperantiste questa lingua non
ha mai avuto grande diffusione. Per saperne di più (e per
chi vuole cimentarsi direttamente on line con l’esperanto): http://it.lernu.net/
9
SAPORI & CHIMICA Storia e proprietà del pepe ro
In molti paesi del mondo diverse spezie vengono utilizzate per aromatizzare gli alimenti. Tra tutte particolarmente note
e apprezzate sono quelle che conferiscono la piccantezza come caratteristica organolettica distintiva: pepe e peperoncino. La diffusione e la notorietà di queste spezie è così rilevante che il loro nome si ritrova sia nei modi di dire
popolareschi, “è tutto pepe”, sia
nei nomi di famosi gruppi rock,
“Red Hot Chili Peppers”. La caratteristica nota piccante di queste spezie deriva dalla presenza
di molecole strutturalmente simili, piperina e capsaicina, in grado
di stimolare una intensa risposta
neuronale quando vengono in
contatto con particolari recettori
posti nel cavo orale.
Mo
le
Gianni Galaverna e Chiara Dall'Asta
e
l
o
c
Pepe e peperoncino
fanno parte delle
abitudini alimentari
in tutto il mondo.
Scopriamo insieme i segreti
di queste spezie, la cui
caratteristica deriva dalla
presenza di molecole
strutturalmente simili:
la piperina e la capsaicina.
E vediamone la storia
e gli effetti sul nostro corpo
10
…
picca n
pe roncino e del pepe
i
t
an
Summary
Hot molecules!
Spices are used worldwide to give foods a characteristic
flavour, in particular those which make a dish hot and
spicy. Following an historical introduction to spices, the
present article describes the chemistry of the molecules
which give them the hot taste. Among these we find
piperine in pepper and capsaicin in chilli.
All these substances are able to stimulate an intense
neuronal response when they get in touch with
particular mouth receptors. Hot taste is a secondary
sensation. It is not due to the interaction between a
molecule and its specific receptors, as happens for
example with bitter or sweet taste, but to a non-specific
response that some thermal receptors give in the
presence of a particular class of substances. The
piquancy of a spice or a food can be evaluated by the
Scoville scale, which measures the capsaicin equivalent
content via an organoleptic test.
In the final part of the article we find a section
dedicated to the history of the use of hot spices in
weapons: from pepper-scented suffocating smokes used
2,500 years ago in China to the modern chilli-based
sprays for personal defence.
Capsaicina,
piperina
e gingerolo
ed è subito piccante
La capsaicina è una sostanza presente nelle
piante del genere Capsicum, a cui appartengono diverse varietà di peperoncino. Insieme
alla diidrocapsaicina e ad alcuni altri analoghi detti
capsaicinoidi rappresenta la famiglia di alcaloidi isoprenoidi responsabili della “piccantezza” dei peperoncini. Chimicamente, i capsaicinoidi sono caratterizzati
da una parte della molecola simile alla vanillina (e pertanto
la molecola è classificata come vanilloide) e da una parte
classificabile come alchilammide. I capsaicinoidi sono alcaloidi molto stabili: rimangono inalterati per lungo tempo,
anche dopo cottura e congelamento.
La capsaicina fu scoperta e isolata nel 1816 da P.A. Bucholtz che, per primo, la estrasse mediante macerazione in
solventi organici. Ancor oggi questo metodo è utilizzato
per estrarre l’oleoresina dai peperoncini. Questa sostanza è
contenuta principalmente nella placenta che avvolge i semi
del peperoncino e rappresenta lo 0,005 – 0,1% in peso del
frutto essiccato.
11
Molecole…
SAPORI & CHIMICA Storia e proprietà del pepe ro
Dai dati ad oggi disponibili, non esistono
evidenze di tossicità acuta di tipo orale nell’uomo. Allo stesso modo, nonostante il
contatto con la pelle possa provocare bruciore, prurito ed eritema, questi effetti non vanno considerati come una reazione allergica
bensì come conseguenza di una semplice irritazione topica. La sensazione di bruciore
indotta dai principi attivi del Capsicum è
unica e non ha nulla in comune con altre sostanze ustionanti come acidi o basi o con il
fuoco, in quanto non inducono necrosi dei
tessuti né alcuna lesione apparente.
L’assunzione diretta di capsaicina pura può tuttavia indurre la
morte per paralisi respiratoria,
anche se per causare la morte di una
persona di 70 Kg è necessario ingerire
13 g di capsaicina pura, equivalente ad
un paio di cucchiai! Questa tossicità è identica a quella definita anche per il cloruro di sodio, cioè il comune sale da cucina!
La piperina è il principio attivo del pepe: è
una polvere giallo pallida cristallina di formula bruta C17H19O3N, peso molecolare
285,34 dalton e punto di fusione 128 –
132°C. Il suo analogo di sintesi assume una
colorazione giallo-verde. Chimicamente appartiene alla stessa famiglia della capsaicina;
più precisamente, si tratta dell’amide dell’a-
cido piperinico con la piperidina. Questo
composto, dalle caratteristiche lipofile, è solubile in alcoli e solventi apolari, mentre la
solubilità in acqua è limitata.
Nonostante il pepe sia stato usato per migliaia di anni, la piperina
è stata scoperta solo nel 1820
dal chimico e fisico danese Hans
Christian Oersted, che fu il primo ad
identificarla ed isolarla dalle bacche di
pepe nero essiccate. La sintesi del composto
natural-identico fu invece portata a termine
solo nel 1882. Nelle bacche essiccate, questo
composto rappresenta circa il 5 – 7% in peso.
Dal pepe nero sono stati isolati anche alcuni
analoghi della piperina, caratterizzati da modificazioni sullo scheletro idrocarburico (parziale idrogenazione o elongazione della catena) oppure sulla parte amminica (sostituzione della piperidina con altre ammine cicliche,
come la pirrolidina, o lineari come l’isobutilamina)
In realtà, nel pepe fresco, la nota piccante è
dovuta alla cavicina (isomero cis, cis) che durante l’essiccamento si trasforma in piperina
(isomero trans, trans). L’isomerizzazione avviene per effetto della radiazione UV durante
l’essiccamento dei peperoncini. La cavicina
è molto più pungente della piperina che risulta al nostro palato più piacevole.
▲
Christos e espiciarias! – “Per Cristo e per le spezie!”
Christos e espiciarias! – “Per Cristo e per le spezie!” – con
questo grido di esultanza i marinai di Vasco de Gama
sbarcarono in India nel 1498, consapevoli delle enormi
ricchezze che avrebbero accumulato conquistandosi una parte del
commercio delle spezie da secoli monopolio esclusivo dei
mercanti veneziani. In quel periodo, in Europa, il pepe era infatti
così pregiato che ne bastava una libbra (circa 454 grammi) per
comprare la libertà di un servo della gleba dal suo feudatario.
Il pepe si ottiene dalla pianta tropicale Piper nigrum, originaria
dell’India, ed è ancora oggi la spezia più usata e più diffusa al
mondo. La pianta è una liana robusta che cresce principalmente in
India, in Brasile, in Indonesia e in Malesia; essa produce piccole
drupe che, in seguito ad opportune fermentazioni ed essiccazioni,
si trasformano nel pepe che raggiunge poi le nostre tavole.
Il pepe era già conosciuto nella Grecia del V secolo a.C. ed era
ricercatissimo nella Roma imperiale. Le spezie venivano usate
soprattutto per la loro capacità di conservare i cibi e di esaltarne i
sapori. Roma era un grande impero, i trasporti erano lenti e
avvenivano senza refrigerazione, quindi era molto difficile
procurarsi cibi freschi. Il pepe e le altre spezie coprivano il sapore
12
di cibi rancidi e ne rallentavano il deperimento, inoltre
miglioravano il sapore dei cibi essiccati, affumicati e salati.
Nel Medioevo le spezie provenivano principalmente dai mercati
di Baghdad e di Costantinopoli, da cui venivano imbarcate verso
Venezia, che esercitò un vero e proprio monopolio sui commerci
per molti secoli.
Nel ’400 la potenza commerciale di Venezia era tale da
costringere altri stati ad intraprendere l’esplorazione di vie
alternative per raggiungere le Indie. È forse incredibile ai nostri
occhi, ma l’epoca delle grandi scoperte geografiche fu motivata in
gran parte dalla richiesta di spezie. Nel 1492 Cristoforo Colombo,
cercando una via alternativa verso l’India Orientale, scoprì il
Nuovo Mondo e diede inizio all’era moderna. Ancora una volta
grazie alle spezie.
Eppure ad Haiti, nel Nuovo Mondo, Cristoforo Colombo non
trovò il pepe bensì un’altra spezia piccante destinata a cambiare le
abitudini culinarie di moltissime popolazioni: il peperoncino
rosso.
Gli sciamani delle tribù precolombiane utilizzavano il
piccanti
pe roncino e del pepe
L’utilizzo della piperina non si
esaurisce in cucina, ma questo
composto si ritrova come principio attivo in insetticidi, alcoli e
medicine. In effetti, l’utilizzo diffuso
di questi principi attivi nella cucina dei
paesi a clima caldo non è solamente un’abitudine culturale o gastronomica, ma dipende
anche dagli effetti fisiologici indotti. La piperina stimola la traspirazione, permettendo
il raffreddamento corporeo e la termoregolazione. Nella medicina tradizionale la piperina è molte volte applicata a fini terapeutici:
in effetti, alcuni recenti studi dimostrano la
sua capacità di stimolare la termogenesi e di
migliorare l’assimilazione delle vitamine del
gruppo B, del beta-carotene e del selenio.
Il principio attivo presente nelle radici di
zenzero fresche prende il nome di gingerolo,
una sostanza oleosa gialla e molto piccante,
appartenente anch’essa alla famiglia dei vanilloidi.
avvenire sia durante le comuni pratiche di
cucina sia durante i processi industriali per
l’estrazione di oleoresine ed altri derivati. Infatti, il processo di preparazione delle oleoresine, spesso condotto in presenza di alcali,
può indurre la degradazione del composto
naturale con formazione dello zingerone.
Tale composto, ottenuto per degradazione retroaldolica, è molto
più dolce e meno persistente del principio attivo di partenza. È pertanto necessario controllare accuratamente i parametri di estrazione. Allo stesso modo,
la cottura dello zenzero in ambiente acido
può portare alla disidratazione del gingerolo,
con formazione dello shogaolo, un analogo
meno piccante e dall’aroma meno fresco e
più dolce.
zingerone
calore
▲
gingerolo
shogaolo
peperoncino, che chiamavano chili, in combinazione con cacao
e tabacco per indurre uno stato di trance allucinogeno durante i
riti magici in cui si evocavano viaggi verso il paradiso o verso la
terra dei morti.
La nuova spezia da Haiti raggiunse la Spagna e il Portogallo,
da dove in pochissimo tempo si diffuse dall’Africa fino
all’India, integrandosi nelle cucine locali. L’arrivo del
peperoncino dal Nuovo Mondo coincise con l’invasione
Ottomana: i turchi portarono il
peperoncino in tutta l’Europa
centrale. L’anno 1526 è la data
solitamente conosciuta come
quella dell’introduzione del
peperoncino in Ungheria, dove venne chiamata paprika.
A parte la paprika, che divenne di uso comune nella cucina
austro-ungarica, il peperoncino rosso non invase la cucina
europea come avvenne per quella africana ed asiatica. Per gli
europei la molecola preferita rimase la piperina.
calore
▲
Per effetto della temperatura, il
gingerolo può andare incontro a
diverse trasformazioni, dovute
principalmente alla presenza di un
gruppo beta-idrossichetonico, che può
facilmente subire disidratazione in ambiente acido oppure reazione retroaldolica in
ambiente basico. Queste reazioni possono
assicurare un ruolo più attivo all’Inghilterra nel commercio delle
spezie. I rischi associati al finanziamento del viaggio in India di
una nave che tornasse con un carico di pepe erano elevati, così
all’inizio i mercanti cercavano di finanziare solo “quote” di un
viaggio, limitando in tal modo la potenziale perdita individuale.
Quest’uso si trasformò infine in acquisto di quote della società
stessa: nacque la prima società per azioni e ancora una volta
grazie alle spezie!
Il commercio delle spezie rimase un affare
esclusivo del Vecchio continente per circa due
secoli. Nel 1780, lo statunitense Jonathan Carnes
ruppe il monopolio europeo sulle spezie
commerciando direttamente con le Indie Orientali e
portando una nave carica di pepe a Salem, Massachusetts. Fino al
1846, il pepe, che valeva molti milioni di dollari, fu trasportato a
Salem da navigatori americani che fondarono la marina
mercantile degli Stati Uniti. E questo fu l’ultimo grande regalo
che le spezie fecero al mondo occidentale.
Fu l’avvento della refrigerazione a determinare il declino del
grande commercio delle spezie a livello mondiale. Oggi le spezie
rimangono solo ingredienti speciali e un po’ esotici di molte
gustose specialità culinarie, ma continuano a mantenere intatto il
loro fascino.
Un po’ di storia…
Il dominio portoghese nel commercio del pepe durò 150 anni,
finché non subentrarono gli olandesi e gli inglesi. Amsterdam e
Londra divennero i principali mercati per il commercio del pepe
in Europa. La Compagnia delle Indie Orientali fu creata per
13
SAPORI & CHIMICA Storia e proprietà del pepe ro
Caratteristiche e virtù
del
Capsicum,
Molecole…
che “morde” la lingua
quando si mangia
14
A cosa è dovuta
la sensazione
del piccante
come avviene per il dolce
e l’amaro?
Il genere Capsicum, della famiglia delle Solanacee, comprende
varie specie di peperoncini piccanti, ornamentali e peperoni dolci, raggruppando circa 20 specie
e 300 diverse varietà. La specie più
importante e diffusa di Capsicum è il Capsicum annuum, a cui appartengono sia il chili
che la paprika. Secondo alcuni, il nome latino Capsicum deriva da capsa, che significa
scatola, e deve il nome alla particolare forma
del frutto che ricorda proprio una scatola con
dentro i semi. Altri invece lo fanno derivare
dal greco kapto che significa mordere, con
evidente riferimento al piccante che “morde” la lingua quando si mangia. La percentuale di capsaicina nella pianta dipende soprattutto dalla specie, dall’origine geografica e dalle condizioni climatiche di crescita.
Ad esempio, da 1 Kg di peperoncino di
cayenne si possono ottenere circa 2,13 g di
capsaicina, cioè circa 20 volte di più di quanto si può estrarre da 1 Kg di paprika!
La piccantezza è una sensazione
gustativa secondaria, cioè non dovuta alla specifica interazione di una
molecola con il proprio recettore (come avviene per il dolce o l’amaro), ma
alla risposta fisica aspecifica di un recettore termico in presenza di una particolare classe di composti. Questa sensazione,
detta anche chemestetica, è strettamente associata alla presenza di capsaicinoidi o di sostanze a struttura analoga: in particolare, la
sollecitazione del recettore avviene in presenza di sostanze che contengono una vanillamide alchilica ramificata. Pertanto questi
recettori prendono il nome di recettori vanilloidi.
Perché l’interazione avvenga e si abbia la
percezione del piccante, il sito attivo del recettore vanilloide deve riconoscere alcune
funzioni chimiche necessariamente presenti
sulla molecola piccante. Si è visto che la
struttura di un composto piccante deve seguire questo schema:
Il peperoncino è un condimento
molto popolare, nonostante il dolore e l'irritazione che provoca.
Diversi composti presenti nel peperoncino, tra cui i flavonoidi e i capsaicinoidi, hanno un effetto antibatterico, cosicché cibi cotti col peperoncino possano essere conservati relativamente a lungo. Questo spiega anche perché più ci si sposta in regioni dal clima caldo, maggiore sia l'uso di
peperoncino ed altre spezie.
I peperoncini sono ricchi in vitamina C e si
ritiene abbiano molti effetti benefici sulla salute umana, purché usati con moderazione
ed in assenza di problemi gastrointestinali. È
interessante sapere che la vitamina C sia stata isolata per la prima volta proprio dai frutti
del peperoncino, grazie agli studi del premio
Nobel e chimico ungherese Albert SzentGyorgy. Il forte potere antiossidante del peperoncino gli ha valso la fama di antitumorale. Inoltre, il peperoncino si è dimostrato
utile nella cura di malattie da raffreddamento come raffreddore, sinusite e bronchite, e
nel favorire la digestione. Queste virtù sono
dovute principalmente alla capsaicina, in
grado di aumentare la secrezione di muco e
di succhi gastrici.
Tanto più la molecola piccante
sarà simile a questo schema, tanto maggiore sarà la sua interazione con il recettore e, quindi, tanto più intensa e persistente sarà
la sensazione di calore indotta.
La capsaicina, che presenta una struttura totalmente analoga a quella ideale del modello
riportato, è il composto più piccante conosciuto in natura, con una soglia di percezione (la minima quantità percepibile) pari a 10
ppm.
Anche la piperina e il gingerolo, però, ricordano la struttura sopra riportata: ecco perché
piperina e gingerolo, pur essendo piccanti,
provocano sensazioni decisamente meno intense di quelle indotte dalla capsaicina.
pe roncino e del pepe
CURIOSITÁ
Il peperoncino ci fa soffrire
eppure lo amiamo: perché?
Ma perché amiamo mangiare sostanze che provocano
dolore? Capsaicina, piperina e gingerolo accrescono la
secrezione salivare nel cavo orale, facilitando la masticazione e, quindi, la successiva digestione. Inoltre, la loro
presenza sembra stimolare la motilità intestinale. Ma la
reale causa della sempre più diffusa passione per i cibi
piccanti sembra vada cercata in un altro effetto… Dopo
aver mangiato un’alimento molto piccante, noi sperimentiamo spesso un senso di soddisfazione o di appagamento;
piccanti
Di seguito sono riportate le strutture delle tre
molecole e sono evidenziate per ciascuna le
zone che possono interagire con il recettore.
Fondamentale è la presenza di un donatore e
di un accettore di legami idrogeno, che nella
capsaicina e nella piperina sono rappresentate
dalla funzione ammidica, mentre nel gingerolo si ha solo il gruppo carbonilico (in blu).
L’interazione è favorita anche dalla presenza
di un anello eteroarilico contente un gruppo
accettore di legame idrogeno opportunamente
orientato (HBA) e in grado di dare interazioni
di tipo π-π con il recettore. Questo gruppo è
presente sia nei capsaicinoidi che nella piperina e nel gingerolo (in rosso). Anche la catena
laterale lipofila (in verde) può interagire con
un sito specifico posto sulla proteina, aumentando il legame fra molecola piccante e recettore. Opportuni spaziatori (linker) servono per
favorire il posizionamento dei 3 gruppi responsabili dell’interazione all’interno del sito
attivo del recettore. In questo caso non è importante la natura dello spaziatore ma le sue
dimensioni.
queste sensazioni potrebbero essere dovute alle endorfine,
sostanze oppiodi simili alla morfina che vengono prodotte dal cervello come risposta naturale del corpo al dolore.
Questo fenomeno può spiegare quella sorta di dipendenza
che alcune persone provano verso i cibi molto piccanti.
Quanto è più piccante il chili tanto maggiore è il dolore e
quindi tanto maggiori sono le quantità di endorfine prodotte e tanto maggiore è il piacere successivo.
Ecco perché il cioccolato al peperoncino era riconosciuto
anche da Maya ed Aztechi come la bevanda degli dèi…
Entrambi stimolano fortemente la produzione di endorfine, a cui associano un’azione tonica e stimolante. Ecco
svelato il segreto di molte pozioni d’amore…
Questi studi strutturali sono molto importanti e possono portare
alla progettazione e alla sintesi
di molecole in grado di mimare
l’azione, e quindi il sapore, della
capsaicina.
Il meccanismo di interazione è piuttosto
semplice: la capsaicina viene solubilizzata
dalla saliva e, passando in soluzione, entra in
contatto con due recettori vanilloidi presenti
nel cavo orale, chiamati VR1 e VRL-1, presenti nella bocca, sulle labbra, nella gola,
sulla lingua e nella cavità nasale. Entrambi
possono essere definiti come sensori del dolore, in grado di riconoscere stimoli termici,
e servono ad avvertire il nostro cervello
quando ingeriamo cibo troppo caldo. Pertanto, VR1 e VRL-1 si attivano rispettivamente,
in condizioni "normali", alle temperature di
circa 43 °C e 52 °C.
La capsaicina, quindi, legandosi a questi recettori, li attiva favorendo l’apertura di un canale specifico per ioni Ca2+. Il trasferimento
degli ioni comporta una polarizzazione della
membrana cellulare e fa partire un segnale
nervoso che viene poi percepito dal centro
del dolore posto nel cervello. Questo fenomeno provoca una sensazione di bruciore analoga a quella che si ha quando si ingerisce un
cibo troppo caldo.
La sensazione di bruciore che percepiamo risulta tanto più intensa e persistente quanto
più il peperoncino è piccante, anche se non si
ha un vero e proprio aumento di temperatura
nella bocca. Una caratteristica che rende la
sensazione di piccante unica è che questa può
essere avvertita anche in altre parti del corpo:
diversamente dalle molecole responsabili dei
sapori primari (dolce, amaro, salato, acido e
umami) che possono essere riconosciute solo
dagli specifici recettori presenti all’interno
della bocca, i recettori del dolore in grado di
reagire con le molecole piccanti sono presenti anche in altre parti del corpo.
Avete mai provato a sfregarvi inavvertitamente gli occhi con le mani sporche di peperoncino?
15
SAPORI & CHIMICA Storia e proprietà del pepe ro
Oltre il gusto forte
ecco lo spray al
peperoncino
per
Molecole…
autodifesa
Ogni appassionato buongustaio
ha provato almeno una volta
l’indimenticabile sensazione di
piccante che permane sul palato dopo un pasto speziato e caldo. E tutti noi abbiamo almeno una
volta provato l’altrettanto spiacevole sensazione di bruciore in seguito all’incauta ingestione di un peperoncino. Sicuramente gran
parte di noi non ha però avuto modo di conoscere l’esperienza pericolosa e indimenticabile di entrare in contatto ravvicinato con
uno spray al peperoncino…
Le molecole piccanti sono usate da sempre
come armi di difesa. Il pepe, ad esempio, è
usato da 2500 anni come arma. I Cinesi erano soliti usare contenitori in cui bruciavano
pepe nell’olio: il fumo prodotto era irritante
e soffocante. I Giapponesi usavano pepe finemente macinato posto in fini sacchetti di
carta di riso e gettati sul volto dei propri avversari per accecarli temporaneamente.
La scuola di arti marziali indiane usa ancor
oggi comunemente diversi oggetti contenti
pepe o peperoncino come armi di combattimento. Anche il peperoncino era usato come
Sette diverse
salse che...
rappresentano
la scala di
Scoville.
arma di difesa dalle tribù precolombiane,
che usavano bruciarlo per ottenere fumi irritanti e velenosi. Ancor oggi, alcune tribù caraibiche sono solite bruciare peperoncino
durante le cerimonie religiose per tenere
lontani gli spiriti oppure intrecciarlo in lunghe corde da appendere alle canoe per difendersi dagli squali.
Ma oggi l’arma sicuramente più conosciuta a base di peperoncino è lo spray per autodifesa: si tratta di un agente lacrimogeno
non letale usato come arma di difesa che
causa la momentanea immobilizzazione dell’aggressore. Il principio attivo presente in
questi spray è l’estratto naturale di peperoncino denominato Oleoresin Capsicum (OC),
utilizzato ad una concentrazione del 10%.
Questo spray è solitamente proposto sia per
la difesa da molestatori che da animali feroci o molesti. Alcuni analoghi sintetici della
capsaicina, tra cui la vanillamide o la morfolide dell’acido pelargonico, sono usati in alcuni spray per autodifesa. L’efficacia di queste sostanze rispetto al principio attivo naturale non è ancora chiara e si possono avere
danni anche permanenti. In Italia gli spray al
La scala di Scoville, per misurare... la piccantezza
La Scala di Scoville è una scala di misura della piccantezza di un alimento. Poiché generamente la sensazione del piccante è legata alla presenza di capsaicina, il
numero di unità di Scoville (SHU, Scoville Heat
Units) indica la quantità di capsaicina equivalente
contenuta nell’alimento in esame.
Wilbur Scoville sviluppò un test denominato Scoville Organoleptic Test (SOT) nel 1912: una soluzione dell'estratto del peperoncino veniva diluita
in acqua e zucchero finché il "bruciore" non fosse
più percettibile ad un insieme di assaggiatori; il
grado di diluizione, posto arbitrariamente pari a
16.000.000 per la capsaicina pura, dava il valore di
piccantezza in Unità di Scoville.
Questa scala permette anche di ottenere il contenuto in
peso di capsaicina ed analoghi nell’alimento in esame: ad
esempio, uno dei peperoncini più piccanti, l'Habanero, fa misurare
un valore superiore a 300.000 sulla scala Scoville.
16
Posto 16.000.000 SHU il valore della capsaicina pura, significa che l'estratto di Habanero ha un contenuto di capsaicina equivalente pari a (300.000/16.000.000) = 1.875% in
peso.
Il valore più alto finora registrato è di 577.000 per un
Habanero della varietà Savina Rosso, ossia il 3,6% in
peso. Come sempre, va ricordato che essendo prodotti
naturali, non tutti i peperoncini Habanero Savina
Rosso hanno questo stesso valore.
Il SOT, nonostante sia un test molto diffuso e conosciuto, presenta il grave limite di dipendere dalla soggettività umana.
Pertanto, sono stati sviluppati metodi di determinazione
della piccantezza più oggettivi, basati sulla determinazione
HPLC della capsaicina e dei suoi derivati. In tal caso, la piccantezza viene definita come concentrazione di capsaicina sul prodotto secco, espressa in ppm. Si ottengono, così, le Unità di Piccantezza ASTA, che possono poi essere convertite in Unità Scoville.
pe roncino e del pepe
Oleoresine per estrarre i principi attivi
piccanti
Il processo di estrazione delle oleoresine è datato 1930 circa ed
è applicabile sia al pepe che al peperoncino per l’estrazione dei
principi attivi piccanti. Questo processo essenzialmente si basa
sulla concentrazione dell’oleoresina dal tessuto per evaporazione del solvente. L’oleoresina, come gran parte dei prodotti naturali, è termicamente sensibile: quindi, il processo deve essere
progettato in modo da minimizzare la degradazione termica del
principio attivo e di mantenere la piccantezza dell’estratto. L’oleoresina del Capsicum (OC) è quindi l’estratto dei frutti maturi essiccati e contiene una complessa miscela di oli essenziali,
cere, materiale colorato e capsaicinoidi. Inoltre, sono presenti
resine acide, esteri, terpeni e prodotti di ossidazione e polimerizzazione dei terpeni. Per ottenere 1 Kg di oleoresina è necessario lavorare circa 20 Kg di Capsicum.
Poiché i capsaicinoidi sono disponibili anche in forma sintetica,
spesso alcuni analoghi di sintesi a basso costo possono essere
aggiunti per aumentare la piccantezza degli estratti o per ricreare oleoresine. Tra questi analoghi vi sono le amidi N-vanilliche
(N-vanillil-octanamide, N-vanillil-nonanamide, N-vanillil-decanamide, N-vanillil-undecanamide e N-vanillil-acidamide paaiperica). Questi composti non solo diminuiscono il valore dei
prodotti, ma possono indurre tossicità anche gravi.
peperoncino (Oleoresin Capsicum, OC) sono considerati un’arma di autodifesa legale
solo se il principio attivo è inferiore al 10%,
mentre sono invece illegali gli spray contenenti analoghi di sintesi. Tra gli effetti comunemente attribuiti allo spray al peperoncino vi sono la temporanea cecità (15 – 30
min), la sensazione di bruciore alla pelle (45
– 60 min) e una tosse incontrollata con difficoltà respiratorie (3 – 15 min). Ovviamente
non è possibile valutare in modo certo gli effetti che l’esposizione a tale spray può indurre: infatti, esistono troppe variabili da
considerare. Ad esempio, la quantità e la durata della dose, una possibile doppia esposizione, lo stato dell’epitelio del soggetto colpito e la parte colpita (pelle, mucose, occhi…), fino alle condizioni atmosferiche al
momento dell’esposizione. Saranno questi i
fattori che decideranno per quanto tempo il
dolore persisterà! In ogni caso, in condizioni
normali, gli effetti sono totalmente reversibili e non inducono alcun danno permanente.
Gianni Galaverna e Chiara Dall’Asta
Dipartimento di Chimica Organica
e IndustrialeUniversità di Parma
CURIOSITÀ
Troppo peperoncino?
Ecco che cosa fare
Per neutralizzare il bruciore nella bocca, i metodi più efficaci sono ingerire dello zucchero, dell'olio o dei grassi;
anche masticare del pane aiuta, in quanto la mollica
rimuove per azione meccanica la capsaicina dai recettori
posti nel cavo orale. Uno dei modi più efficaci per alleviare la sensazione di bruciore è bere latte oppure mangiare yogurt o formaggi a pasta morbida: infatti, le caseine presenti sono in grado di agglutinare la capsaicina,
rimuovendola dai recettori nervosi.
Come già detto, la capsaicina non è molto solubile in
acqua, mentre lo è nei grassi e nell'alcool. Quindi è assolutamente inutile bere acqua per alleviare il bruciore,
meglio sarebbe un buon bicchiere di vino! Purtroppo però,
per le alte concentrazioni di capsaicina come quelle contenute nell'Habanero Red Savina, l’unico modo davvero
efficace per rimuovere il dolore è usare del ghiaccio come
anestetico.
Una piccantezza da… Guinness
Il contenuto in capsaicinoidi è influenzato dalla genetica, dalle condizioni climatiche, dalle condizioni di crescita e dal grado di maturazione. Bisogna considerare che ogni fattore di stress a cui è sottoposta la pianta durante la crescita corrisponde ad un aumento del contenuto di capsaicinoidi, mentre pochi giorni di caldo intenso possono
diminuirne drammaticamente il livello. Il record per la maggiore pic-
cantezza in un peperoncino è stato assegnato dal Guinness dei primati
al Bhut Jolokia indiano, che ha fatto segnare oltre 1.000.000 unità
Scoville. Nel 2006, è stata presentata la varietà Dorset Naga, derivata da quest'ultima, che ha fatto misurare anch'essa oltre 1.000.000 di
SU. In ordine crescente di piccantezza media delle specie, possiamo
dare la seguente scala:
Capsicum annuum
(~100.000 SHU)
Capsicum frutescens
(~175.000 SHU)
Capsicum chinense
(varietà Red Savina, ~580.000 SHU)
Incrocio varietale tra Capsicum chinense e C. frutescens
(varietà Bhut Jolokia, Naga Dorset e simili ~1.000.000 SHU)
A partire da 250.000 SHU, la sensazione di piccantezza cede il posto
al dolore, la cui intensità è per lo più costante a prescindere dal contenuto in capsaicina, mentre aumentano la diffusione in bocca e gola e
la persistenza nel tempo. Pertanto, assaggiare un Bhut Jolokia o un
Habanero Orange, a parte il sapore, dà la stessa sensazione di dolore,
solo che il primo induce un bruciore che dura di più!
17
Allarme inquinamento Salute, vegetazione e
ER
I
S
DOS
Un fenomeno conosciuto sin dagli albori
dell’industrializzazione, ma che negli ultimi decenni
del XX secolo ha assunto dimensioni planetarie.
Ad essere acide non sono soltanto le piogge,
ma anche la neve o la grandine o la nebbia.
La Natura si vendica con l’uomo riversando
sulla terra e nell’ambiente sostanze inquinanti
che non risparmiano nulla e nessuno.
Cerchiamo di capire insieme come nasce
e si sviluppa questo fenomeno.
E quali sono i rimedi per combatterlo
di Fulvio Zecchini
Corrosive
Parafrasando una canzone di Gianni Morandi
del 1968 potremmo chiederci “Scende la pioggia, ma che fa?”: una domanda che da un punto di
vista scientifico ha una risposta articolata.
Il fenomeno delle piogge acide era già stato scoperto e
descritto in dettaglio dal chimico scozzese Robert Angus Smith (1817-1884) nel 1852. I suoi studi finirono poi
nell’oblio fino al 1950-60 quando la pubblicazione di alcune ricerche eseguite in Svezia riportarono il fenomeno all’attenzione dell’opinione pubblica. Quindi, a partire dagli
Anni Ottanta del secolo scorso, l’interesse dei media è andato scemando, forse perché il buco dell’ozono e i cambiamenti climatici lo hanno oscurato, forse perché ne era stata
esagerata la pericolosità in precedenza.
Fatto sta che il problema ancora esiste, nonostante la legislazione internazionale abbia imposto nei successivi Anni
Novanta una riduzione dell’emissione in atmosfera dei due
principali responsabili del fenomeno: gli ossidi di zolfo e di
azoto. Due sono i motivi fondamentali della persistenza delle piogge acide: in primo luogo gli ecosistemi non rispondono in tempo reale un cambio degli input; in secondo luogo
c’è la naturale tendenza dell’uomo a semplificare e ad analizzare gli eventi in maniera separata e semplificata; ciò ha
ostacolato l’identificazione delle interconnessioni tra i vari
fenomeni d’inquinamento atmosferico.
18
In alto: un
bosco
danneggiato
dalle piogge
acide sulle
montagne
Jezera nella
Repubblica
Ceca.
Effetto delle
piogge acide
su una statua
della Westfalia
(Germania)
resa
irriconoscibile
dalla
corrosione
dovuta alle
piogge.
L’immagine
in alto è del
1908, quella
in basso
del 1968.
r
ne e monumenti a rischio
L’originale del
monumento
equestre a
Marc’Aurelio
un tempo
situato nella
piazza del
Campidoglio
a Roma.
La statua,
danneggiata
dalle piogge
acide e dagli
altri fenomeni
d’inquinamento
atmosferico, è
stata collocata
nel 1997 in
uno spazio dei
Musei
Capitolini e
sostituita da
una copia.
Summary
Corrosive rain
Today’s public has generally forgotten about the acid rain
phenomenon, nonetheless the problem still exists and rain
keeps on damaging human health, the environment (lakes
and forests), buildings and monuments.
The low pH of rain is mainly due to the emission of
sulphur (SOx) and nitrogen oxides (NOx), anhydrides
forming strong acids when dissolved in water. Sulphur
oxides are mainly due to the combustion of coal (which
naturally contains sulphur) in power plants, while nitrogen
oxides form during any combustion in the presence of air,
like that in car engines. Thus, a major source of NOx is
traffic. High temperatures allow atmospheric nitrogen (an
inert gas) to react with oxygen providing the activation
energy for the reaction.
Chemistry of acid rain with respect to its effects on health
and on natural and urban environments are in-depth
described. Finally, social costs and countermeasures are
discussed: clean coal technologies (CCTs), catalytic
converters, use of (alternative) fuels without combustion,
and environmental protection regulations.
rain
Vi siete mai soffermati a pensare
come i detti popolari talvolta si
adattino ai problemi ambientali
di portata globale? “Chi la fa l’aspetti”, per esempio, è perfetto per il
fenomeno delle piogge acide: noi
mandiamo inquinanti in atmosfera tramite
le emissioni delle ciminiere e dei tubi di
scappamento e la Terra in qualche modo si
vendica, ritornandocele sotto forma di piogge acide, in una sorta di perverso ping-pong.
In realtà non è solo la pioggia ad essere acida, anche neve e grandine possono esserlo.
Meglio, dovremmo parlare di deposizioni
acide, includendo nel fenomeno tutti i modi
in cui i composti acidi sospesi in atmosfera
raggiungono il suolo. Tra questi troviamo le
nebbie acide che sono, forse, il fenomeno
peggiore, in quanto i composti acidi acquosi rimangono sospesi e circondano a lungo
oggetti ed esseri viventi. Ma ancora possono essere acide le rugiade e le deposizioni
secche sotto forma di polveri. Comunque,
visto che il termine “piogge acide” è ormai
entrato nell’uso corrente, useremo questo
19
Allarme inquinamento Salute, vegetazione e
per descrivere il fenomeno nella sua totalità,
pur tenendo conto di queste puntualizzazioni.
Il pH rappresenta una funzione logaritmica
in base 10 della concentrazione di ioni idrogeno: da un punto di vista chimico esso è
rappresentato dall’equazione
pH = – log [H+].
La pioggia ha già di per sé un pH lievemente acido a seguito della dissoluzione dell’anidride carbonica atmosferica in acqua, secondo la nota reazione in cui si forma acido
carbonico, che a sua volta si dissocia parzialmente in ione idrogeno (protone, H+) e
ione bicarbonato:
1
CO2 (g) + H2O (l)
H2CO3 (aq) (acido carbonico)
1'
H2CO3 (aq)
H+ (aq) + HCO3 (aq) (ione bicarbonato)
1"
H+ (aq) + H2O (aq)
H3O+ (aq) (ione ossonio o idrossonio)
Dove i termini
tra parentesi
indicano lo
stato del
composto: (aq)
sta per in
soluzione
acquosa e (l)
sta per liquido
e, li vedremo
più avanti, (g)
sta per
gassoso, (s)
per solido.
–
Trattandosi di reazioni in soluzione, queste equazioni rappresentano degli equilibri come indicato dal simbolo con doppia freccia ( ), cioè la reazione può procedere sia verso sinistra che verso destra.
L’acido carbonico è un acido debole, cioè
solo un numero relativamente basso di
molecole si dissociano in ioni idrogeno
(H+) e ione bicarbonato (HCO3 ).
In tal modo l’acqua piovana viene ad
avere un pH naturale lievemente acido
(pH<7), a seguito della dissoluzione circa 5,6 a 25 °C, con valori variabili da 5 a
6. In soluzione acquosa lo ione idrogeno
si combina con una molecola d’acqua a
formare lo ione idrossonio come nell’equazione 1"), ma per semplicità d’ora in
poi ometteremo questa reazione.
Per la nostra discussione l’ulteriore dissociazione di minima parte dello ione bicarbonato (HCO3 ) in ione idrogeno e
ione carbonato (CO32 ) è trascurabile in
quanto acido molto debole (vedi di seguito). Si parla di piogge acide e, quindi,
di fenomeni dovuti ad inquinamento, a
valori di pH significativamente inferiori
a quello naturale della pioggia (pH < 5).
Essendo questa una grandezza logaritmica, sue piccole variazioni si riflettono in
elevate differenze nella concentrazione di
H+; una diminuzione di pH di una unità
rappresenta una concentrazione di H+
10 volte superiore.
Nelle piogge acide intervengono inquinanti che a contatto con l’umidità atmosferica creano acidi forti.
Al contrario di quelli deboli, questi in acqua si dissociano totalmente in ione
idrogeno e nel relativo controione a carica negativa, così aumentano di molto la
concentrazione di H+ della pioggia, abbassandone decisamente il pH.
–
Il ruolo
degli
ER di
I
S
DOS
ossidi
zolfo
Gli ossidi di zolfo, globalmente indicati come SOx, sono rappresentati dalla SO2 (anidride solforosa o biossido di zolfo) e da SO3
(anidride solforica o triossido di zolfo), che
si forma lentamente per ulteriore ossidazione a partire dalla prima e rappresenta circa
l’1-5% degli SOx. Gli ossidi di zolfo e di
azoto sono anidridi, termine che letteralmente indica degli acidi disidratati.
L’anidride solforosa (SO2) rappresenta l’ossido di zolfo più concentrato in atmosfera; è un gas incolore, irritante, non infiammabile,
molto solubile in acqua e dall’odore
pungente. Può provocare danni diretti
alla salute interagendo con gli enzimi cellulari e con alcune vitamine, distruggendo ad
esempio la tiamina; può alterare la struttura
tridimensionale delle proteine e, conseguentemente, la loro funzionalità. Essendo più
pesante dell’aria, la SO2 tende a stratificarsi
verso il basso e in contatto con l’umidità atmosferica o con la pioggia forma acidi secondo le seguenti reazioni:
–
–
20
LE PAROLE DELLA SCIENZA
Anidridi, ossiacidi e idrossidi
Gli ossidi dei nonmetalli e dei semimetalli (nuova
definizione IUPAC degli elementi prima noti come
metalloidi) sono detti anidridi, dal greco “privo di acqua”.
Se sciolti in acqua formano acidi, o meglio “ossiacidi”
(acidi contenenti ossigeno). Semplificando, questi ultimi
possono essere descritti con una formula generica HxMyOz,
dove M è l’elemento nonmetallico o semimetallico. Invece
gli ossidi dei metalli sono basici e formano idrossidi se
sciolti in acqua, alzando il valore di pH. Si possono indicare
con la formula generica Mx(OH)y, in questo caso M è il
composto metallico.
ne e monumenti a rischio
LE PAROLE DELLA SCIENZA
CURIOSITÀ
Ppm e ppb
Lo zolfo nella materia vivente
Parti per milione (ppm; 10-6) e parti per bilione (ppb; 10-9)
con riferimento all’inglese “billion”, miliardo. Sono unità
di concentrazione in peso/peso o volume/volume non più
riconosciute dal SI, Sistema Internazionale, che però
vengono ancora ampiamente usate nella pratica per la loro
comodità.
Ad esempio, nella benzina finita 100 ppm di S in peso
corrispondono a 100 mg per 1 kg di benzina, 1 ppb di SO2
in atmosfera (in volume) corrisponde a 1 mm3 di SO2
per 1 m3 di atmosfera.
Lo zolfo è un costituente comune della materia vivente
(per esempio batteri, animali, piante) in quanto fa parte dei
due aminoacidi essenziali, la cisteina e la metionina,
importantissimi - tra l’altro - per la struttura
tridimensionale delle proteine, in quanto i loro residui –SH
possono essere ossidati a formare cosiddetti “ponti
disolfuro” (-S-S-) tra due catene di aminoacidi
(polipeptidiche) adiacenti stabilizzando la struttura
tridimensionale della proteina fondamentale per la sua
funzione.
2
SO2 (g) + H2O (l)
H2SO3 (aq)
indicatore di qualità merceologica del carbone è il contenuto in ceneri che deve essere
basso per limitare il problema del particolato atmosferico. Purtroppo in Italia, nel bacino sardo del Sulcis, si trovano abbondanti
riserve di carbone di qualità scadente, con
un contenuto in zolfo del 6-8%, inutilizzabili ai sensi delle leggi vigenti, se non a seguito di costosi trattamenti. Ciò ha fatto sì che
queste riserve siano inutilizzate da un trentennio circa.
Lo zolfo è presente a livello di alcuni punti
percentuali (in peso) anche nel petrolio
grezzo, ma nei prodotti finiti – a seguito delle tecnologie produttive imposte dalle stringenti norme ambientali – la quantità di zolfo
si riduce a livello di centinaia di parti per
milione (ppm). Per cui il contributo della
combustione dei derivati del petrolio alla
emissione di SO2 in atmosfera è marginale.
Nel carbone lo zolfo è contenuto in due forme, nei minerali contaminanti (come solfuro di metalli) e in forma intimamente legata
alla microstruttura (1% in peso).
Mentre quest’ultima non può essere rimossa
se non con complessi e costosi procedimenti chimici, la parte minerale può essere ridotta per frantumazione del carbone in polvere finissima e per decantazione in opportuni liquidi come descritto più avanti.
L’anidride solforosa può essere emessa in
atmosfera tal quale o può formarsi come inquinante secondario per ossidazione dell’acido solfidrico (H2S), un gas tossico dal tipico odore di uova marce, prodotto durante
la raffinazione del petrolio e dei gas combustibili. Nei depositi naturali di gas, come
quelli di metano (CH4), l’H2S può talvolta
essere predominante in termini di quantità.
L’acido solfidrico è anche un tipico prodotto
di scarto delle cartiere. Questo composto
può essere rimosso con una reazione in cui
lo zolfo ridotto (H2S) reagisce con lo zolfo
ossidato (SO2) per dare zolfo elementare solido, poco dannoso per l’ambiente.
Per ottenere lo zolfo ossidato viene prima
bruciato un terzo dell’H2S:
(acido solforoso)
2' H2SO3 (aq)
H+ (aq) + HSO3 (aq) (ione bisolfito)
3 SO3 (g) + H2O (l)
H2SO4 (aq)
3' H2SO4 (aq)
H+ (aq) + HSO4 (aq) (ione bisolfato)
3" HSO4- (aq)
H+ (aq) + SO42 (aq) (ione solfato)
–
(acido solforico)
–
–
Gli acidi considerati in queste reazioni sono
forti, per i nostri scopi, possiamo considerare l’equilibrio tutto spostato verso destra,
con dissociazione completa.
La dissociazione dello ione bisolfito formatosi nella reazione 2') non viene considerata
in quanto acido debole.
Su scala globale le maggiori emissioni di
ossidi di zolfo sono quelle dei vulcani, che
emettono anidride solforosa. Altre emissioni naturali di minore entità avvengono a carico dell’attività biologica dei suoli che contengono naturalmente zolfo, esiste infatti il
“ciclo biogeochimico dello zolfo” (vedi riquadro sopra) in cui lo zolfo viene scambiato e riciclato in maniera biologica o chimico-fisica tra il biota e i diversi comparti del
nostro pianeta (suolo, acqua, aria).
Sul cratere Ovest
del Nyiragango,
in Congo.
Piccoli arbusti
crescono sul
bordo quando il
lago di lava si
congela, per poi
morire quando
esso ridiviene
attivo riversando
tonnellate di
anidride
solforosa.
Il maggior contributo antropico è
quello derivato dalla combustione di carbone per la produzione
di energia elettrica. Si tratta di un
combustibile fossile che si è formato
100-400 milioni di anni fa per la decomposizione di biomasse vegetali. La sua
composizione relativa in numero di atomi è
circa C (135), H (96), O (9), N (1), S (1).
Come vediamo quindi il carbone contiene
naturalmente sia azoto che zolfo; quest’ultimo contenuto in ragione dell’1-6% in peso
in base alla tipologia. In minori quantità sono presenti anche silicio e vari metalli - quali sodio, calcio, alluminio, nickel, rame, zinco, arsenico, piombo e mercurio – che possono essere volatilizzati durante la combustione. Tale composizione mostra un’ampia
variazione geografica ed è dovuta alle modalità di formazione del carbone. Un altro
4
H2S (g) +
O2 (g) → SO2 (g) + H2O (l)
21
Allarme inquinamento Salute, vegetazione e
Il ruolo
Quindi la SO2 viene fatta reagire mediante
la reazione di Claus che avviene in fase gassosa, a formare zolfo solido e acqua:
4'
degli
2 H2S (g) + SO2 (g) → 3 S (s) + 2 H2O (l)
Assieme all’H2S, vi sono anche altri tre comuni gas di zolfo, tutti di odore sgradevole:
CH3SH (metantiolo o metil mercaptano),
(CH3)2S (dimetil solfuro) e CH3S-SCH3
(dimetil disolfuro); collettivamente questi
quattro gas vengono indicati come zolfo ridotto totale.
R
E
I
S
S
O
D
Gli ossidi di azoto, noti anche come NOx, sono attori fondamentali nel fenomeno delle piogge acide quanto in quello dello smog
fotochimico, che tratteremo in futuro
su Green. Gli NOx si formano a partire
dalla forma biatomica presente in atmosfera
(N2), la cui ossidazione richiede un’elevata
energia di attivazione (vedi Green n. 6, pagg.
12-13), in quanto N2 è una molecola così stabile da essere indicata come gas inerte. Questa energia può essere fornita sotto forma termica. Pertanto gli NOx si formano alle alte
temperature raggiunte durante qualsiasi tipo
di combustione in presenza di aria, essendo
quest’ultima la maggiore fonte di azoto (rappresenta circa il 78% dei gas atmosferici).
L’energia di attivazione necessaria per la loro
formazione può anche essere apportata da
scariche elettriche. Oltre ad essere emessi dai
vulcani, gli ossidi di azoto possono formarsi
in maniera naturale anche a seguito di temporali (fulmini) e per conversione dell’ammoniaca che può essere rilasciata in atmosfera
da processi biologici o industriali.
Il 49% degli NOx di origine antropica sono
emessi dai grandi impianti per la produzione
di energia termoelettrica (a carbone, gas o derivati del petrolio).
Il 46% ha invece origine dagli scarichi dei
veicoli con motore a combustione interna. Le
alte temperature raggiunte nella camera di
scoppio favoriscono la formazione di questi
composti. Pertanto gli ossidi di azoto si ritrovano nei gas di scarico dei mezzi di trasporto,
ma sono anche inquinanti indoor che si formano a seguito di comuni attività domestiche
come la cottura sui fornelli, l’uso di caminetti
e caldaie. Questi NOx sono emessi in atmosfera dai comignoli delle nostre case. Ma i loro precursori non si trovano nei combustibili,
bensì nell’aria.
La formazione di NO (monossido di azoto,
ossido/anidride nitroso/a) avviene secondo la
seguente reazione di carattere generale:
Altre significative fonti fisse di
SO2 sono le industrie metallurgiche. I metalli in natura si trovano associati ad altri elementi (come O, S, C
e altri); quelli più preziosi sono spesso
ritrovati come solfuri, come il ferro
nella pirite (FeS2), il rame associato al ferro
nella calcopirite (CuFeS2), lo zinco nella
blenda (ZnS), il piombo nella galena (PbS),
il nichel nella millerite (NiS). In tali casi in
genere le fasi iniziali dell’estrazione dei metalli dai minerali consistono in un trattamento termico al di sotto del punto di fusione del
metallo, per liberare quest’ultimo dagli altri
elementi che vengono volatilizzati, il processo è chiamato “arrostimento”. Nel caso
del solfuro di nickel (millerite) avremo:
5
NiS (s) + 3 O2 (g) → 2 NiO (s) + SO2 (g)
Durante questi classici processi di arrostimento la concentrazione di SO2 prodotta è
elevata, essa può essere ossidata ad anidride
solforica (SO3) per via catalitica; quest’ultima viene fatta reagire con acqua secondo
l’eq. 3 sopra riportata per produrre commercialmente acido solforico concentrato, utilizzato per applicazioni industriali e di laboratorio. Per alcuni minerali, come quelli di
rame, si può operare un arrostimento in atmosfera di ossigeno puro, si forma così SO2
molto concentrata che può essere liquefatta
e venduta come sottoprodotto del processo
per il riutilizzo, ad esempio nell’industria
alimentare.
Essendo potenzialmente tossica viene aggiunta agli alimenti in dosi assolutamente
controllate e normate (D.M. 209 del 27 febbraio 1996); la dose massima giornaliera assunta deve essere inferiore ai 0,7 mg kg-1 di
peso corporeo (dati: Wageningen University, Olanda).
Ha una funzione stabilizzante ed antimicrobica, la sua sigla identificativa come additivo
alimentare è E 220 (E 220-227).
Viene usata in molti prodotti, come vini (max
200 mg l-1), aceti (max 170 mg l-1), succhi e
concentrati di frutta (fino a 350 mg l-1 in alcuni tipi), prodotti dolciari (max 50 mg kg-1
nei biscotti secchi) e svariati tipi di conserve.
22
ossidi
di azoto
6
energia + N2 (g) + O2 (g) → 2 NO (g)
Il problema scientifico si sposta quindi dal
produrre combustibili puliti a quello del controllo della combustione, condotta ad esempio a temperature meno elevate e/o in atmo-
ne e monumenti a rischio
sfera modificata contenente O2 puro. Altre
tecnologie ideali possono essere quelle di
produzione di energia dai combustibili senza
bruciarli come nel caso delle celle a combustibile (fuel cell). La combustione controllata
può essere facilmente impiegata nelle industrie con trattamenti a temperatura elevata nei
processi produttivi (ad esempio vetrerie, fonderie). Le fuel cell invece potrebbero rappresentare il prossimo futuro in termini di autotrazione ed energia per usi domestici (vedi
Green n. 1, pagg. 16-17).
Al momento attuale il sistema utilizzato per
abbattere le emissioni di NOx dovute al traffico è quello di dotare i veicoli di un’efficiente marmitta catalitica che li riconverte a N2
(vedi Green n. 6, pagg. 20-22). Si potrebbe
ipotizzare in un futuro di catalizzare anche
gli scarichi delle centrali termiche di tipo domestico o industriale con sistemi simili a
quelli delle automobili. Ciò permetterebbe di
realizzare un ulteriore abbattimento di NOx a
breve termine, in attesa dell’affinamento delle tecniche di produzione di energia senza
combustione.
Diversamente dall’azoto molecolare il monossido di azoto è molto reattivo negli strati superiori
dell’atmosfera, può reagire con l’ozono distruggendolo
(NO + O3 → NO2 + O2) al livello del
suolo dove la concentrazione di ozono è limitata, reagisce con l’ossigeno secondo la seguente equazione:
7
2 NO (g) + O2 (g)
2 NO2 (g)
Vari altri ossidi di azoto possono formarsi a
partire da NO, ma in termini di piogge acide
quello più pericoloso è senz’altro NO2, il
biossido di azoto (ossido o anidride nitrico/a),
tossico e altamente reattivo, di colore brunastro e odore molesto. La sua presenza partecipa alla formazione di quelle cappe di smog
grigio/brunastre che talvolta ben si vedono arrivando in aereo e che circondano tutte le metropoli con traffico caotico ed elevato irraggiamento solare. Anche gli NOx sono anidridi
e quindi formano acidi se disciolti un acqua.
Vista la scarsa solubilità di NO in acqua, il
contributo fondamentale degli NOx alle piogge acide si deve all’NO2 che forma acido nitrico con una reazione a più fasi rappresentata
dalla seguente equazione globale:
8
4 NO2 (g) + 2 H2O (l) + O2 (g) → 4 HNO3 (aq) (acido nitrico)
8' HNO3 (aq)
H+ (aq) + NO3– (aq) (ione nitrito)
Quello nitrico è un acido forte quindi l’equilibrio rappresentato in 8') è in pratica completamente spostato a destra.
In realtà spesso la formazione di acido nitri-
co nelle grandi metropoli avviene per via fotochimica a carico del radicale idrossido
(HO•) che si forma durante la complessa serie di reazioni coinvolte nel fenomeno dello
smog fotochimico, a partire da ozono, ossidi di azoto e idrocarburi insaturi (alcheni)
incombusti. Avremo:
8"
NO2 (g) + HO• (g) → HNO3 (l)
Ancora una volta notiamo che piogge acide
e smog fotochimico mostrano intime connessioni in quanto sono coinvolti inquinanti
comuni.
Emissioni antropiche
di SO 2 + 10%,
quelle di NOx + 20%.
Considerando trascurabile l’apporto di altri composti al problema delle piogge acide, valutiamo
ora in maniera comparativa il ruolo di
SO2 e NOx. Per quanto sopra esposto,
anche l’apporto di SO3 è trascurabile
per questa nostra discussione.
Oltre alle sorgenti naturali che emettono significative quantità di SO2 e NOx, su scala
globale le emissioni antropiche dei due inquinanti sono approssimativamente equivalenti.
Secondo dati dell’Environmental Protection
Agency (EPA) negli USA l’utilizzo di carbone per la produzione di energia assomma
all’86% delle emissioni di SO2, ma solo al
46% di quelle di NOx. Riguardo a queste ultime la maggior parte (49%) è dovuta all’utilizzo di veicoli con motore a combustione interna. Analizzando i dati di emissione in valore
assoluto a livello mondiale si vede che viene
prodotta una quantità di SO2 circa doppia rispetto a quella degli NOx, considerando solo
l’uso dei combustibili fossili gli ossidi di azoto ammontano solo al 40% del biossido di
zolfo.
Secondo alcune fonti a livello globale dal
1980 al 1990 le emissioni antropiche di SO2
sono aumentate del 10%, quelle di NOx del
20%. Mentre il trend dei grandi paesi industrializzati è in diminuzione, i paesi in via di
sviluppo sono in controtendenza. Si considerino per esempio gli USA e la Cina: nel 1970
i primi emettevano circa 30 milioni di tonnellate di SO2 per anno, la seconda solo 10.
Nel 2005 la Cina ne ha rilasciate in atmosfera
25,5 contro le circa 10 degli Stati Uniti. Fortunatamente nel 2007 l’andamento delle emissioni cinesi si è invertito. Questo è un chiaro
segno di come, alla luce delle conoscenze attuali, lo sviluppo industriale debba essere inserito in un quadro di sostenibilità.
23
Allarme inquinamento Salute, vegetazione e
Effetti delle
piogge
acide
sui
monumenti
Nel planisfero in
alto la
distribuzione
mondiale dei
valori medi di
pH della
pioggia.
Ridisegnato da:
J.H. Seinfield e
S.N. Pandis
“Atmospheric
Chemistry and
Physics”, Wiley
Editore (1998).
24
I valori di pH delle precipitazioni
nei paesi industrializzati sono da
tempo monitorati ed è ampiamente
dimostrato che sono ben al di sotto di
quelli della pioggia naturale a seguito
della rivoluzione industriale. In pratica
in tutta l’Europa il pH della pioggia è inferiore a 5, con valori che scendono in media
a 4 in Gran Bretagna e Germania (planisfero qui sopra). Uno dei record di pH acido lo
detiene la Scozia, dove nel 1974 è stata misurata pioggia con pH = 2,4! Il valore che si
ritrova frequentemente nella nebbia, nella
rugiada, e negli strati inferiori delle nuvole
è attorno a 3.
La presenza di un eccesso di ioni H+ in atmosfera causa direttamente o indirettamente danni alle cose e agli esseri viventi. Un
segno tangibile dei danni delle piogge acide
è visibile sul nostro patrimonio monumentale con i suoi edifici storici, i manufatti in
pietra calcarea e marmo, le statue in metallo
o leghe metalliche quali il bronzo. Pezzi importanti del patrimonio dell’umanità, come
le rovine Maya di Chichén Itzà, il Partenone
ad Atene (a lato) e il Taj Mahal in India, sono stati in vario grado danneggiati dal fenomeno, che d’altronde osserviamo con facilità sui monumenti delle città di tutto il
mondo.
Le piogge acide agiscono sui materiali
esposti all’aperto con un duplice meccanismo:
- un’azione chimica di corrosione;
- un’azione meccanica di rimozione del materiale stesso, reso precedentemente friabile
e solubile.
Le deposizioni atmosferiche umide e acide
si condensano sulle pareti dei manufatti,
l’acqua può così fungere da veicolo per gli
agenti inquinanti solidi, liquidi e gassosi
che possono penetrare nelle porosità. La
condensazione è maggiore sulle superfici
fredde, quali quelle di statue o di palazzi disabitati. I monumenti in pietra calcarea sono i più colpiti, perché gli acidi corrodono il
carbonato di calcio (CaCO3) di cui sono costituiti attraverso la seguente reazione:
Partenone sull’Acropoli di Atene:
sono ben evidenti (nell’ingrandimento
qui sotto) i segni del tempo e
dell’inquinamento urbano della
metropoli greca.
(Immagine di Fulvio Zecchini, 2007).
ne e monumenti a rischio
Jeeg Robot d’acciaio. Meglio se inox...
Molti di voi forse non li ricordano ma negli Anni Settanta-Ottanta
del secolo scorso erano molto di moda tra i giovani i manga
giapponesi con robot guerrieri come protagonisti, che spesso erano
“d’acciaio”, a indicare la loro robustezza e invincibilità. Ma
l’acciaio comune arrugginisce e si corrode, è una lega di ferro e
carbonio (max 2,1% in peso), con caratteristiche fisiche e
meccaniche superiori a quelle del ferro, che sostituisce in molti usi:
si pensi che la produzione mondiale di acciaio nel 2006 è stata di
circa 1.240 milioni di tonnellate (dati: International Iron and Steel
Institute, www.worldsteel.org). Se la percentuale di carbonio va
oltre il 2,1% la lega ferro-carbonio viene denominata “ghisa” e ha
proprietà e usi decisamente diversi. Vi sono vari tipi di acciai
speciali che possono contenere altri metalli. L’acciaio resistente
all’ossidazione e alla corrosione da acidi è detto acciaio
9
CaCO3 (s) + 2 H+ (aq)
inossidabile o inox per la capacità di non arrugginire se esposto
all’aria e all’acqua. È una lega ad elevato contenuto di cromo
(min 11,5%) scoperta nel 1913. Oggi si distinguono diversi tipi
identificati con sigle particolari in base al tenore in metalli,
utilizzati per applicazioni specifiche. Una buona resistenza
all’ossidazione e alla corrosione si ottiene aggiungendo un minimo
del 13% in peso di cromo, fino ad un massimo del 26% per gli
acciai ad usi particolari. Ossidandosi a contatto con l’ossigeno, il
cromo si trasforma in ossido di cromo trivalente (Cr2O3) che forma
uno strato superficiale protettivo che aderisce al pezzo, così sottile
da essere invisibile, pur impedendo un’ulteriore ossidazione.
Questo fenomeno è noto come “passivazione”. Vista la permanenza
e la diffusione del fenomeno “piogge acide” sarà meglio adeguare
anche i manga, meglio quindi “Jeeg Robot d’acciaio inox”.
Ca2+ (aq) + CO2 (g) + H2O (l)
Nel caso dell’acido solforico (H2SO4), gli ioni calcio (Ca2+) reagiscono con gli ioni solfato (SO42-) derivati dalla dissociazione dell’acido formando solfato di calcio (CaSO4, il comune gesso). Questo viene facilmente dilavato dalle acque piovane, provocando il disfacimento del manufatto.
I materiali lapidei vanno incontro a vere e proprie malattie,
tra cui le principali sono l’esfoliazione, l’alveolizzazione e la
disgregazione sabbiosa. La prima consiste in un sollevamento dello
strato superficiale (da 0,1 a qualche millimetro); questo quindi si separa dagli strati
sottostanti, formando delle placche. Al di
sotto si crea uno strato polveroso o gessoso
che viene parzialmente trascinato via
quando la placca si stacca.
Nell’alveolizzazione il materiale di superficie si distacca sotto forma di granelli sabbiosi con velocità differenziale da zona a
zona: ciò comporta la comparsa sulla pietra di “alveoli” che sono spesso visibili
guardando da vicino gli edifici storici. Nella disgregazione sabbiosa l’erosione avviene in modo simile, ma con velocità uniforme su tutta la superficie. Anche acidi prodotti da batteri e muffe sulla superficie dei
monumenti possono contribuire alla corrosione.
Altri materiali edili come i mattoni e le
malte e diversi metalli utilizzati (rame,
bronzo, ferro) sono attaccabili dagli acidi.
Gli ioni nitrato NO3 contenuti nelle piogge acide, oltre a concorrere alla corrosione
dei metalli, penetrano nelle porosità dei
mattoni e dei laterizi, determinandone lo
sgretolamento progressivo.
L’azione dell’acido solforico favorisce la
formazione di solfato pentaidrato di rame
(CuSO4 • 5 H2O) sulla superficie dei manufatti in rame e bronzo (lega di rame, stagno e zinco), formando quella sgradevole
patina verdastra che tutti conosciamo.
Una veduta a volo d’uccello della
Basilica di San Marco a Venezia.
Sulle cupole sono ben evidenti
i segni dell’inquinamento.
Il potere corrosivo delle
piogge acide ha obbligato a
ricoverare la quadriga che ornava
la balconata della facciata della
Basilica e a sostituirla con la
copia. Leggende e
ricostruzioni raccontano che i
quattro cavalli ornassero prima i
Propilei ad Atene poi l’ippodromo
di Bisanzio in epoca romana.
–
25
Allarme inquinamento Salute, vegetazione e
R
E
I
S
S
O
D
Ne sono un esempio tipico i famosi cavalli
della facciata della Basilica di San Marco a
Venezia o gli svariati monumenti equestri
delle nostre piazze.
Le piogge acide possono avere effetti negativi anche su altre strutture metalliche, come
quelle di ferro e acciaio, usate nella costruzione di palazzi moderni, ferrovie, ponti,
veicoli. In presenza di acqua e ossigeno il
ferro si ossida (arrugginisce) e si può corrodere in vario grado. Tale reazione è fortemente accelerata dalla presenza di alte concentrazioni di H+ che favoriscono questa
reazione a due fasi:
10
4 Fe (s) + 2 O2 (g) + 8 H+ (aq) → 4 Fe2+ (aq) + 4 H2O (l)
10' 4 Fe2+ (aq) + O2 (g) + 4 H2O (l) → 2 Fe2O3 (s) + 8 H+ (aq)
La reazione netta sarà:
10" 4 Fe (s) + 3 O2 (g) → 2 Fe2O3 (s)
Il ministero dei Beni Culturali
ha pubblicato delle mappe che
identificano sul territorio nazionale le zone a maggiore o
minore rischio di corrosione
per i manufatti (figura a lato). Per
salvare il patrimonio artistico molti manufatti movibili vengono spostati al chiuso
nei musei, restaurati e quindi sostituiti da
copie. Ne sono esempi le due statue marmoree del David di Donatello e di Michelangelo che impreziosiscono due piazze di
Firenze, i cavalli della Basilica di San Marco a Venezia, o ancora il monumento equestre a Marc’Aurelio nella piazza del Campidoglio (fotografie a pagina 19). In caso
ciò sia impossibile, monumenti e manufatti
esse possono essere protetti da vernici trasparenti o colorate (come nelle autovetture), che siano inerti e a basso impatto ambientale. In alternativa per gli oggetti metallici si possono usare leghe (molto costose) resistenti alla corrosione.
26
Mappa con la raffigurazione
dell’indice di pericolosità di
erosione legato al danneggiamento
del patrimonio dei beni artistici
provocato dalle piogge acide.
Le tre macroaree dell’Italia sono
mappate in zone a minore o
maggior rischio (da Classe 1 a
Classe 5). Fonte: Istituto centrale
per il Restauro.
ne e monumenti a rischio
Effetti delle
piogge
acide
sull’ambiente
Il problema delle piogge acide risulta assai complicato da studiare in quanto scatena diversi fenomeni che non è facile correlare,
così come è difficile identificare nell’insieme il rapporto causa-effetto. Infatti non è sempre possibile identificare le
sorgenti dell’acidità e tracciare l’andamento
del pH delle piogge nel tempo. Non ci sono
dati storici anteriori al 1970 per l’inconsapevolezza del problema e per la scarsa diffusione degli strumenti di misurazione. Risulta quindi incerta la collocazione nel tempo dell’inizio dell’acidificazione delle piogge, così come non sono ben note tutte le
cause. È certo, però, che ci sia stato un significativo e costante aumento dell’emissione in atmosfera di NOx e SOx a partire dal
1940, che a livello globale si è arrestato solo
nell’ultimo ventennio.
L’attuale legislazione in tema ambientale ha
imposto l’uso delle marmitte catalitiche abbattendo significativamente la concentrazione di NOx; l’uso di carbone “pulito” ha permesso di ridurre la presenza di SOx, quest’ultima oggi diminuita sempre più attraverso l’uso di fonti energetiche alternative
nelle centrali elettriche. Mentre gli effetti
positivi su salute, manufatti ed edifici sono
stati immediati, quelli sull’ambiente tarderanno a manifestarsi; si stima che ci vorranno 10-20 anni, in quanto gli ecosistemi non
rispondono immediatamente alla diminuzione delle emissioni.
Valori
massimi di
pH tollerabili
da alcuni
organismi che
abitano gli
ambienti
lacustri.
Laghi, il 10% danneggiati
Gran parte degli scienziati ritiene che una
consistente quantità di laghi e corsi d’acqua
dei paesi industrializzati siano stati danneggiati dalle piogge acide; negli USA la stima
è attorno al 10%.
Laghi e corsi d’acqua sono sensibili all’apporto di acidità. In un lago in salute il pH si
aggira attorno a 6,5, con un intervallo ideale
per il biota di 6,5-9,3 circa. Al di sotto di pH
5,5 scompare la maggior parte dei pesci,
sotto il 5 la maggior parte delle forme viventi, e a pH 4 il lago può considerarsi morto,
una mera distesa di acqua acida (vedi grafico qui sopra). Nel sud della Norvegia e della Svezia un quinto dei laghi non contiene
più pesci.
Essendo i laghi sistemi più o meno chiusi,
in cui il ricambio delle acque può essere lento, l’apporto di acidità dalle precipitazioni
può facilmente abbassare il pH. Il grado di
acidificazione dipenderà ovviamente dalla
quantità di acqua caduta e dalla sua concentrazione in H+, ma anche dalla capacità neutralizzante del lago. Quando le rocce che
circondano il lago sono di natura calcarea il
carbonato di calcio può reagire con gli H+
abbassandone la concentrazione (innalzando quindi il pH) con una reazione del tutto
simile a quella dell’equazione 9. Reazioni
ancora più importanti per la neutralizzazione sono quelle dei bicarbonati, i quali si formano per reazione del carbonato con anidride carbonica e acqua:
Smog e visibilità ridotta
Uno degli effetti visibili cui contribuiscono
le piogge acide è lo smog fotochimico, dovuto in prima istanza alla formazione di aerosol che contengono particelle fatte di acido solforico, H2SO4, ammonio solfato,
(NH4)2SO4, e ammonio idrogeno solfato (o
bisolfato di ammonio), NH4HSO4. La foschia provocata da questo fenomeno è maggiormente visibile d’estate quando la maggior insolazione accelera le reazioni fotochimiche e quando l’aria è stagnante, ciò ne
giustifica la maggior gravità nei paesi equatoriali o subequatoriali a parità d’inquinanti
emessi. Negli USA si è riscontrato - che a
causa di questi fenomeni - la visibilità media può diminuire da 100 a 40 km o meno
(con minimi anche di circa 2 km) anche in
alta montagna, dove di solito si ritiene che
l’aria sia più pulita.
11
CaCO3 (s) + CO2 (g) + H2O (l)
Ca2+ (aq) + 2 HCO3 (aq)
–
27
Allarme inquinamento
Studenti
prelevano
campioni per la
misurazione
dell’inquinamento nel corso
del programma
di rilevazioni
“Acidity in
Pennsylvania”.
A destra:
si misurano gli
effetti delle piogge
acide in una
foresta degli
Stati Uniti.
I bicarbonati reagiscono con gli H+ apportati dalle precipitazioni formando anidride
carbonica e acqua:
–
11' HCO3 (aq) + H+ (aq)
CO2 (g) + H2O (l)
I laghi circondati da altri tipi di rocce meno
reattive dei carbonati - quali quelle granitiche, di origine magmatica, a base silicea hanno una capacità neutralizzante decisamente inferiore, molto bassa, a meno che
non intervengano altri fenomeni.
L’aumento di concentrazione di ioni idrogeno non ha solo effetti negativi diretti abbassando il pH, ma può favorire indirettamente
reazioni chimiche dannose per la vita acquatica. Una di queste coinvolge gli ioni alluminio (Al3+) e danneggia l’apparato respiratorio dei pesci. L’alluminio è il terzo elemento in ordine di abbondanza nella crosta
terrestre, dopo l’ossigeno e il silicio. Il granito contiene ioni alluminio e il suolo contiene complessi di silicati di alluminio per
loro natura poco solubili in acqua. La loro
solubilità viene però enormemente aumentata dalla presenza di acidi, un abbassamento del pH da 6,0 a 5,0 può aumentare di
1.000 volte la concentrazione di alluminio
disciolto. In tali condizioni attorno alle
branchie dei pesci si forma uno spesso strato di muco che non permette più lo scambio
di ossigeno, così i pesci muoiono per soffocamento.
Inoltre l’alluminio reagisce con l’acqua formando ioni idrogeno, esacerbando il problema:
12 Al3+ (aq) + H2O (l) → H+ (aq) + [Al(OH)]2+ (aq)
A seguito della diminuzione della concentrazione di SOx e NOx in atmosfera è però
possibile cercare di recuperare i laghi acidificati ripristinandoli ad uno stato di salute
accettabile. In Svezia, sono stati effettuati
interventi sperimentali spandendo polvere
di idrossido di calcio sulla superficie che
hanno dato risultati incoraggianti.
28
Simili reazioni di neutralizzazione avvengono in atmosfera e in natura. Idrossido e
carbonato di calcio e altri composti basici di
calcio, magnesio, sodio e potassio sono diffusi non solo nei suoli, ma anche nelle ceneri rilasciate dalle ciminiere industriali durante le combustioni.
Queste particelle alcaline possono interagire con le goccioline di acido sospese in atmosfera neutralizzandolo parzialmente. Per
quanto possa sembrare ironico, i sistemi di
riduzione per le emissioni di particolato
hanno contribuito a diminuire la capacità
neutralizzante dell’atmosfera, abbassando
di conseguenza il pH delle deposizioni.
Foreste senza foglie...
Una delle questioni più controverse in merito alle piogge acide
è il loro effetto negativo sulle foreste. La scomparsa di porzioni più o
meno estese di foreste è indiscutibile,
ma ancora non si capisce se il loro declino sia naturale o artificiale, dovuto alle
piogge acide o, più probabilmente, ad una
concomitanza di fattori.
Nel Nord Europa il fenomeno fu inizialmente descritto a partire dal 1960 e da allora sembra essere in costante espansione.
Gli abeti di alta montagna sono gli alberi
più colpiti. Dapprima si verifica un indebolimento dei rami, poi l’ingiallimento con
diminuzione dell’attività fotosintetica e la
seguente caduta degli aghi. Il fenomeno si
espande poi a tutta la pianta che alla fine,
indebolita, muore a causa di siccità, gelate,
forte vento o infestazioni. Danni alle foreste si sono segnalati un po’ in tutta Europa
(vedi la foto in apertura del nostro dossier),
ma il fenomeno è di portata mondiale. In
Germania e Regno Unito il problema è particolarmente grave in quanto il 50% circa
delle foreste risulta danneggiato.
Nel 1988 uno studio su vasta scala ha indicato che fino ad allora l’Italia aveva perso
il 10% del suo patrimonio boschivo.
Sebbene i danneggiamenti delle foreste sia-
Salute, vegetazione e monumenti a rischio
Effetti delle
R
E
I
S
S
O
D
no più frequenti nelle regioni più soggette al
fenomeno delle piogge acide precedentemente indicate, non è semplice dimostrare
la relazione di causa-effetto, soprattutto
quando sono coinvolti molti fattori e varie
sono le possibili cause. In alcune regioni
delle alte latitudini gli stress climatici sembrano essere la causa principale. In altre regioni le infestazioni da parassiti, l’ozono
troposferico e/o altri inquinanti atmosferici
potrebbero essere i maggiori indiziati.
Recenti osservazioni hanno ridimensionato il fenomeno della distruzione delle foreste,
forse in precedenza ingigantito
dai mass-media. Ci sono comunque prove circostanziate che le piogge acide stiano parzialmente contribuendo;
esiste un’evidente correlazione tra precipitazioni acide, acidità delle acque superficiali e moria di alberi. Sempre più si sta accreditando una teoria secondo la quale i
danni alle foreste sarebbero dovuti ad un
effetto sinergico di SOx, NOx e ozono troposferico. Secondo questa teoria gli ossidi
di azoto e ozono attaccherebbero direttamente il rivestimento ceroso delle foglie,
permettendo agli ioni idrogeno di penetrare più facilmente e degradare i tessuti, facilitando anche l’ingresso di agenti patogeni.
L’acidificazione del suolo circostante agirebbe invece in modo indiretto, mobilizzando metalli (soprattutto alluminio) che
possono danneggiare le radici e inibendo
l’assorbimento di acqua e di minerali. Questi ultimi – tra cui potassio, calcio, magnesio ed altri – sono parzialmente rimossi dagli strati superficiali del terreno dall’effetto
lisciviante della pioggia acida.
L’insieme di questi effetti lascerebbe le
piante esposte ad avversità ambientali quali malattie, infestazioni, siccità o tempeste
di vento. A questo va aggiunto che in alta
montagna le vette sono speso avvolte da
nubi basse che hanno sovente un pH più
acido di quello delle piogge, lasciando gli
alberi immersi a lungo in questa sorta di
aerosol corrosivo.
piogge acide
sulla salute
e strategie
di controllo
L’inalazione degli aerosol contenenti i solfati e l’acido solforico
può provocare danni diretti alla
salute, in modo più o meno grave, fino anche alla morte. Il danneggiamento avviene sopratutto a carico
delle prime vie aeree, dove attaccano direttamente gli epiteli più sensibili provocando
bronchiti ed enfisemi. Gli anziani, i malati e
coloro i quali soffrono di preesistenti disturbi
respiratori (asma, bronchite, enfisema) sono i
più esposti.
Uno dei casi più significativi è quello del
1952 a Londra. In quel tempo l’ampio uso di
carbone ad alto tenore di zolfo causò una nebbia acida tale da causare in cinque giorni circa 4.000 vittime. Un episodio meno grave si
verificò in Pennsylvania (USA) nel 1948 con
20 vittime. Sebbene questi siano episodi limite, l’Organizzazione Mondiale della Sanità
stima che 625 milioni di persone siano esposte a livelli eccessivi di SO2, con costi rilevanti per la sanità pubblica.
Un ulteriore oggetto di preoccupazione per
la salute sono i possibili danni indiretti delle
piogge acide. Alcuni metalli tossici - come il
piombo, il cromo, il cadmio ed altri - sono legati ai minerali che costituiscono le rocce e la
parte inorganica dei suoli. L’abbassamento di
pH aumenta la mobilità di questi metalli che
si solubilizzano parzialmente nell’acqua acidificata e possono raggiungere le falde usate
a scopo potabile. Simili effetti sono stati evidenziati in alcuni acquiferi dell’Europa occidentale. Inoltre pesci che vivono in acque acide potrebbero per lo stesso motivo accumulare questi inquinanti e trasferirli all’uomo attraverso l’alimentazione.
La legislazione, sia nazionale che
sopranazionale, regola in maniera stringente le emissioni dovute
ai trasporti (NOx) e alle centrali e fornaci a carbone (SOx). Nel caso dei veicoli a motore, per rientrare nei limiti di emissioni, ci si affida all’adozione obbligatoria di
marmitte catalitiche. L’uso della marmitta catalitica accelera la decoposizione di NO che
avviene molto lentamente in ambiente natu29
Allarme inquinamento Salute, vegetazione e m
La mobilità transfrontaliera degli inquinanti
Visti i molteplici effetti su manufatti, ambienti naturali e salute, si pone sempre più l’accento sui costi socio-economici delle piogge acide. Negli USA si stima che a causa delle piogge
acide vengano spesi oltre 5 miliardi di dollari all’anno. Il
maggior problema è quello di dover escogitare soluzioni a livello globale. Infatti gli inquinanti atmosferici non conoscono frontiere e possono essere trasportati anche a lunga distanza: le emissioni cinesi possono raggiungere il Giappone e, addirittura, la costa occidentale degli USA, mentre quelle statunitensi sono state ritrovate in Groenlandia! Alla mobilità transfrontaliera a lunga distanza bisogna aggiungere che, a livello
globale, si prevede che le emissioni di SO2 continueranno ad
aumentare fino al 2020, soprattutto nei paesi in rapido sviluppo. Dati dell’Agenzia Europea per l’Ambiente (European En-
vironmental Agency, EEA) indicano che il 38% delle emissioni di zolfo in Italia (media sul periodo 1985-1995) sono di
origine straniera. La percentuale sale al 69% per la Norvegia
e al 72% per la Svezia, paesi pesantemente afflitti dalle piogge acide. La normativa internazionale, soprattutto in Nord
America, Europa e Giappone, sta cercando di arginare il problema ponendo dei limiti restrittivi alle emissioni globali di
NOx e SOx, ma per poter essere davvero efficace tale legislazione ambientale deve essere più ampiamente condivisa e applicata. Nel 1979 l’Europa ed il Nord America hanno firmato
la “Convenzione sul Trasporto a lunga distanza degli Inquinanti atmosferici” mirata a ridurre l’emissione di composti
coinvolti nel fenomeno delle piogge acide e dello smog fotochimico (ozono troposferico).
rale, quando i gas di scarico si raffreddano. Il
catalizzatore può favorire la combinazione di
NO e CO per formare azoto molecolare e anidride carbonica. Il catalizzatore permette tre
reazioni: la conversione del monossido di carbonio ad anidride carbonica, quella degli idrocarburi incombusti ad anidride carbonica e
acqua e quella degli ossidi di azoto ad azoto
molecolare e anidride carbonica.
rende quindi possibile lavare il carbone con
un liquido di densità intermedia facendo sì
che le particelle di carbone galleggino e quelle di zolfo sedimentino. In alternativa a questo
processo sono stati proposti metodi biologici
o chimici che ossidino il ferro della pirite a
Fe3+ solubile e/o che mineralizzino lo zolfo
organico contenuto nel carbone. Altre CCT
prevedono la purificazione del carbone durante la combustione, in modo da catturare gli inquinanti immediatamente dopo la loro formazione.
Nei sistemi “a letto fluido” il carbone polverizzato è miscelato con carbonato di calcio,
anch’esso in polvere, e quindi sospeso (fluidificato) su getti d’aria nella camera di combustione. Virtualmente tutta la SO2 formatasi
reagisce con il carbonato a formare solfito e
solfato di calcio con reazioni simili a quelle
che presiedono alla bonifica dei fumi di ciminiera che vedremo a breve (eq. 13).
Questa procedura permette di procedere a
temperature di combustione meno elevate sfavorendo così anche la formazione di ossidi di
azoto. Quando l’anidride solforosa viene
emessa in forma diluita dalle ciminiere degli
impianti di produzione di energia elettrica non
è possibile eliminarla per ossidazione ad anidride solforica e poi ad acido solforico, secondo il procedimento utilizzato per la produzione commerciale dell’acido, descritto nelle
equazioni 2 e 3). Vengono quindi usati dei
processi cosiddetti di “scrubbing” o di “desolforazione” dei gas di scarto.
Essi consistono in una reazione acido-base a
umido fra la SO2 e carbonato (CaCO3) o ossido (CaO) di calcio in forma di solidi finemente granulari sospesi in acqua (slurry).
Con tali processi è possibile eliminare fino al
90% degli SOx con una reazione del tipo:
Purtroppo però oggigiorno anche
la sola emissione di anidride carbonica rende l’uso di carburanti
fossili nei motori poco sostenibile, a causa dell’effetto serra; è
sempre più pressante la necessità di adottare nuovi sistemi di propulsione.
Grazie al numero limitato di sorgenti e alla loro immobilità, il controllo degli SOx risulta di
più facile approccio. Tre sono le strategie di
possibile applicazione: a) passare all’uso
esclusivo di carbone naturalmente povero di
zolfo (contenuto di S = 1% circa); b) pulire e
desolforizzare il carbone prima o durante l’uso; c) eliminare chimicamente gli ossidi di
zolfo dai fumi. La prima strategia è applicabile, ma deve tenere conto del fatto che il contenuto energetico e di zolfo del carbone nelle
varie zone geografiche è ampiamente variabile; impedire ad una nazione di usare/esportare
il proprio carbone vale a dire arrecarle un grave danno economico.
Il primo sistema usato per ridurre l’impatto
degli SOx emessi da centrali elettriche a carbone è stato quello di costruire ciminiere molto alte (fino anche a 400 m!); ciò ha parzialmente ridotto i problemi a livello locale, ma
ha esacerbato il già citato problema della mobilità transfrontaliera delle emissioni, favorendo il loro trasporto da parte dei venti dominanti.
La pulizia del carbone può essere fatta abbastanza facilmente e la tecnologia è già disponibile (Clean Coal Technologies, CCTs). Il
carbone viene frantumato fino a polverizzarlo. Lo zolfo è solitamente associato a particelle minerali pesanti, spesso pirite (FeS2). Si
30
13
CaCO3 (s) + SO2 (g) → CaSO3 (s) + CO2 (g)
Il solfito di calcio può essere ossidato con
aria a solfato, disidratato e rivenduto come
gesso:
13' 2 CaSO3 (s) + O2 (g) → 2 CaSO4 (s)
ne e monumenti a rischio
Inquinante Tipo di limite
SO2
Valori limite
Limite per la protezione della salute 350 µg/m3, media 1 h (da non superare più di 24 volte per anno)
umana (in vigore dal 1° gennaio
2005)
125 µg/m3, media 24 h (da non superare più di 3 volte per anno)
Limite per gli ecosistemi (in vigore
dal 19 luglio 2001)
Soglia di allarme
20 µg/m3, media anno civile e semestre invernale
500 µg/m3, media 3 h consecutive
NO2
Limite per la protezione della salute 200 µg/m3, media 1 h (da non superare più di 8 volte per anno )
umana (1° gennaio 2010)
40 µg/m3, media anno civile
Soglia di allarme
400 µg/m3, media 3 h consecutive
NOx
Limite per la protezione della vegetazione (19 luglio 2001)
30 µg/m3, media anno civile
Oltre ai composti del calcio, la desolforazione dei fumi può essere effettuata con solfito
di sodio, ossido di magnesio o ammine (monoetanolammina, diglicolammina, dietanolammina, diisopropanolammina, metildietanolammina e trietanolammina).
In Europa è stato proposto un processo detto SNOX per la rimozione degli ossidi di
zolfo ed azoto, già in funzione anche in alcune raffinerie italiane. Prima i gas di scarto
vengono raffreddati e mescolati con ammoniaca (anch’essa gassosa in condizioni normali) in presenza di un catalizzatore che rimuove NO secondo la reazione:
14
3 NO + 2 NH3 → 2,5 N2 + 3 H2O
Quindi i gas sono quindi nuovamente riscaldati e la SO2 è ossidata cataliticamente a SO3
che viene fatto reagire con acqua per formare
acido solforico. Per abbatterne le emissioni
acidificanti, il carbone può anche essere convertito in combustibili gassosi (gassificazione) per trattamento con vapore; il prodotto
(syngas) viene purificato ed usato in turbine a
gas per produrre elettricità. Il carbone gassificato può essere anche compresso per formare
combustibili liquidi per autotrazione.
Ovviamente l’abbattimento di SOx si può ottenere anche sostituendo all’uso del carbone
quello di altri combustibili quali gas naturali
o prodotti petroliferi, che spesso però sono
più costosi del carbone (soprattutto di quello
meno pregiato ad alto tenore di zolfo). La miglior soluzione è quella di utilizzare, ogniqualvolta sia tecnicamente possibile, fonti
energetiche alternative rinnovabili ed ecocompatibili, come energia solare ed eolica.
La politica di controllo delle piogge acide
non è semplice da attuare. Le case produttrici
di veicoli e le industrie che producono carbone e combustibili o energia elettrica detengono un grande potere economico e di conseguenza una grande influenza politica. Negli
USA, ad esempio, tali aziende osteggiano la
pubblicazione di normative ulteriormente
cautelative e restrittive in merito all’emissione di SOx ed NOx, in quanto queste compor-
terebbero un impatto economico notevole.
Pertanto chiedono che si investa per effettuare
ulteriori ricerche al fine di confermare ciò che
oggi ritengono solo un fondato sospetto, non
essendoci una prova definitiva che gli ossidi
di azoto e zolfo siano la causa principale delle
deposizioni acide. Le aziende statunitensi sono riuscite a rientrare nei limiti della normativa attuale con costi accettabili grazie alla disponibilità di carbone a basso tenore di zolfo
(1%) a buon mercato. In Italia la normativa
recente recepisce la corrispettiva direttiva comunitaria in merito di emissioni industriali di
SOx ed NOx; il Decreto Ministeriale 2 aprile
2002 n. 60, prevede l’adozione di limiti gradualmente più restrittivi al fine della tutela
della salute e degli ecosistemi (vedi tabella
qui sopra). Inoltre bisogna valutare il carico
delle sostanze acidificanti e il loro andamento
nei confronti degli obiettivi nazionali e internazionali di riduzione (D. Lgs. 171/04, Protocollo di Göteborg e Direttiva europea National Emission Ceilings, NEC).
Pertanto gli inquinanti atmosferici sono monitorati in continuo
dalle centraline fisse e mobili gestite
dalle Agenzie Regionali per la Protezione Ambientale (ARPA) che molti di
noi avranno visto passeggiando in
città. Così si ottengono informazioni relative, tra l’altro, a ozono (O3), particolato
PM10, biossido di zolfo (SO2), biossido di
azoto (NO2), monossido di carbonio (CO) e
benzene (C6H6). Secondo il rapporto ambientale annuale del 2006 pubblicato dall’Agenzia per la Protezione dell’Ambiente e dei
servizi tecnici (APAT), in Italia le emissioni
di sostanze acidificanti sono in diminuzione,
soprattutto nel settore energetico e nei trasporti; il loro andamento è in linea con gli
obiettivi prefissati (vedi tabella qui sopra).
Nell’ambito della Direttiva NEC, l’Italia ha
l’impegno di ridurre le emissioni nazionali
annuali di biossido di zolfo a 0,475 Mt (milioni di tonnellate), quelle di ossidi di azoto a
0,990 Mt e quelle di ammoniaca a 0,419 Mt
entro il 2010.
Fulvio Zecchini
31
Scienza e innovazione tecnologica
La ricerca sui magneti abbraccia
oggi le aree più diverse:
dall’industria automobilistica,
dai nuovi sistemi di refrigerazione
ai “farmaci intelligenti”, dalla Tac
ai computer e ai magneti molecolari.
Esaminiamo i risultati raggiunti
dagli studiosi e le applicazioni
pratiche che hanno cambiato
la vita di ogni giorno di tutti noi.
di Dante Gatteschi
Dalla seconda metà del secolo scorso c’è
stato un rapido sviluppo di nuove classi di
materiali che hanno portato vantaggi tecnologici enormi e, in alcuni casi, hanno invaso anche
il nostro vivere quotidiano. Per citarne qualcuno, i
nuovi materiali ceramici ed elettroceramici, che, tra
l’altro, hanno avuto notevole importanza per favorire i voli spaziali, nuove leghe con prestazioni superiori, materiali compositi a base inorganica, fibre di carbonio. Ma
forse lo sviluppo più tumultuoso si è avuto nei cosiddetti
materiali molecolari: quelli cioè che hanno una struttura
molecolare, o che sono ottenuti usando approcci di sintesi molecolare. Che poi è un modo più sofisticato di dire chimica.
Il primo settore a svilupparsi fu quello delle materie plastiche, che vennero essenzialmente sfruttate per le loro
proprietà strutturali. In questo particolare settore, il ruolo
della chimica italiana è stato determinante, come dimostrato dal premio Nobel per la Chimica assegnato nel
1963 a Giulio Natta (Imperia,1903 – Bergamo,1979) insieme al tedesco Karl Waldemar Ziegler (Helsa,1898 –
Mülheim,1973). Dal punto di vista pratico fu lo sviluppo
del Moplen®, una materia plastica sulla quale furono costruite le fortune, purtroppo effimere, della Montecatini.
Attrazioni
32
Nuovi materiali
Magnetismo ed elettricità nel sincrotrone
Il sincrotrone è un acceleratore
di particelle circolare e ciclico,
in cui il campo magnetico (che
serve a curvare la traiettoria
delle particelle) e il campo
elettrico variabile (che accelera
le particelle) sono sincronizzati
con il fascio delle particelle
stesse.
Esistono due tipi distinti di
sincrotrone con diverso utilizzo.
I sincrotroni come l’Elettra di
Trieste qui rappresentato in una
foto aerea, servono per lo studio
della fisica dello stato solido e
delle superfici, attraverso lo
studio dell’interazione della
materia con particolari
radiazioni elettromagnetiche
(luce di sincrotrone). Altri
sincrotroni servono per lo studio
della fisica nucleare attraverso
l’accelerazione e la collisione
di particelle nucleari e
subnucleari.
Summary
Magnetic attraction
Ancient Greeks tried to describe magnetism in the past,
but they did not come close to finding a suitable
explanation. As a matter of fact, this phenomenon can be
correctly explained only by “quantum mechanics”, a
branch of physics born in the first half of the twentieth
century. Its laws describe phenomena at an atomic and
subatomic dimension, at which those of classic mechanics
are inapplicable.
Following the studies of Hans Christian Ørsted
(1777–1851), André-Marie Ampère (1775–1836), and
finally James Clerk Maxwell (1831–1879), today we know
that magnetism is mainly due to the motion of electrons,
namely their spin, which is actually a quantum property. A
magnetic momentum is also associated with the atomic
nucleus, but it usually has little influence on the global
magnetic properties of atoms and molecules.
After describing the several existing types of magnetism,
technologies based on new magnetic inorganic/organic
materials such as single-molecule magnets are reported:
“spintronic” and innovative computer data storage, new
cooling systems, and “magic bullets” which carry drugs
directly to damaged tissues, such as carcinogenic cells.
magnetiche
33
Scienza e innovazione tecnologica
Già
Plinio il Vecchio
provò a spiegare
i segreti del
magnetismo
Altri materiali molecolari largamente usati sono i cristalli liquidi, scoperti per caso nel XIX secolo e ripresi negli Anni
50, che ora sono negli schermi (display) delle televisioni,
dei telefonini, eccetera.Tuttavia, l’aspetto più innovativo è
stato forse la scoperta della possibilità di fabbricare dei conduttori usando molecole organiche. In effetti, pensando alla
materia organica, ci viene piuttosto in mente un isolante, nel
caso dei conduttori immaginiamo immediatamente i metalli, il rame tra i primi. Comprendere le ragioni per le quali il
poliacetilene conduce la corrente elettrica ha richiesto lo
sviluppo di nuovi modelli teorici e un approccio interdisciplinare, permettendo la sintesi di nuovi materiali, che dopo
un lungo periodo di incubazione stanno per arrivare sul mercato. Sebbene non si tratti di una vera e propria rivoluzione
tecnologica, è comunque un contributo significativo alla ricerca di base.
Si prevede che nel XXI secolo i materiali molecolari acquisteranno nuovi spazi, trovando nuovi tipi di applicazioni legati alla loro lavorabilità, alla possibilità di modularne le
proprietà con tecniche di chimica molecolare e supramolecolare. Il modello da imitare è ancora una volta la Natura,
che riesce a fabbricare, in condizioni molto blande di temperatura e pressione, materiali con proprietà straordinarie. I
risultati brillanti ottenuti nel settore dei conduttori (e dei superconduttori) organici sono alla base della convinzione che
i materiali molecolari possano essere progettati e costruiti
per avere proprietà prestabilite. In particolare si pensa alla
possibilità di ottenere materiali compositi polifunzionali,
che presentano proprietà solitamente assenti nei costituenti
di partenza.
Una proprietà che è particolarmente difficile da mettere a
punto in sistemi molecolari è quella del magnetismo, perché le condizioni per ottenere materiali magnetici usando le
molecole sono molto stringenti. Anche se ancora non ci sono state scoperte epocali, la ricerca di base ha fatto numerosi passi in avanti e in alcuni settori esistono già delle applicazioni pratiche.
Lo scopo di questo articolo è presentare un quadro esauriente di un settore rilevante in cui la ricerca italiana ha un ruolo
apprezzato a livello internazionale. In particolare, i temi
concernenti i magneti fatti di una sola molecola, discussi
più avanti, sono stati imposti all’attenzione di numerosi
gruppi di ricerca internazionali dall’attività svolta presso il
Laboratorio di Magnetismo Molecolare dell’Università di
Firenze e il Centro di Riferimento INSTM.
Il tema del magnetismo è piuttosto complesso e spesso poco insegnato. Per questo si cercherà di fornire i concetti di
base necessari ad illustrare i risultati più recenti.
34
Un’antica e
curiosa
bussola cinese
utilizzava un
cucchiaio in
cui veniva
versata acqua
sulla quale
galleggiava un
ago
magnetizzato.
I magneti hanno attirato l’attenzione del genere umano sin dai
tempi antichi. Già i greci raccontavano storie riguardanti la scoperta del magnetismo: una di queste narra di come il
pastore Magnes fosse rimasto attaccato
ad una pietra tramite i sandali suolati con
chiodi di ferro. Oggi possiamo dire che la
magnetite contenuta nella roccia aveva attratto il ferro. Ci possiamo poi immaginare la
sorpresa quando si scoprì che l’effetto di attrazione continuava anche se il ferro e la magnetite non erano a contatto, ma si trovavano
a qualche centimetro l’uno dall’altra. L’azione a distanza era un concetto difficile da spiegare. D’altra parte ora noi sappiamo che
un’azione a distanza si esplica anche con la
gravitazione, ma nessuno si meraviglia quando vede un sasso cadere: è una cosa del tutto
naturale per noi. In effetti ci sono volute migliaia d’anni di storia dell’umanità per arrivare alle rivoluzionarie scoperte di Galileo Galilei e Isaac Newton a cavallo fra XVI e XVII
secolo; secondo la legge della gravitazione
universale formulata da quest’ultimo, due oggetti si attraggono con una forza proporzionale direttamente al prodotto delle masse e
inversamente proporzionale al quadrato della
distanza.
Un aspetto che diversifica notevolmente le
forze magnetiche da quelle gravitazionali è
che le prime possono essere attrattive o repulsive mentre le seconde sono solo attrattive. E le forze magnetiche repulsive possono
anche contrastare l’attrazione gravitazionale, come nel caso dei moderni treni a levitazione magnetica.
Hans
Christian
Ørsted
(Rudkøbing,
1777 –
Copenhagen,
1851
Nuovi materiali
Dal
moto degli
elettroni
nascono
i campi
magnetici
La stampa
settecentesca
illustra
l’autentica
mania (con
regolari dispute
scientifiche) che
si diffuse nella
società francese
nell’ultimo
ventennio del
Settecento e che
perdurò
tenacemente
fino a primi
decenni del
secolo
successivo: il
mesmerismo,
che prese il
nome dal suo
ideatore, il
medico francese
Franz Mesmer
(1734-1815).
Essa
si basava
sull’idea
dell’esistenza di
un fluido vitale,
di natura
principalmente
magnetica,
che era
sprigionato da
ogni essere
vivente.
Chiaramente la spiegazione delle proprietà magnetiche era ben
al di là delle possibilità di un pastorello della Grecia antica, ma
anche i più grandi sapienti del
tempo non riuscivano a comprendere appieno il fenomeno. Plinio
il Vecchio ci provò, ma non riuscì a trovar
nulla di meglio che spiegare che il ferro e la
magnetite sono attratti da un vuoto per abbracciarsi. Bisognerà arrivare al principio del
XIX secolo per avviarsi sulla strada giusta.
Nel 1820 il fisico e chimico danese Hans
Christian Ørsted (Rudkøbing, 1777 – Copenhagen, 1851) nota che una corrente elettrica interagisce con l’ago magnetico di una
bussola, aprendo la via alle ricerche sull’elettromagnetismo. André-Marie Ampère
(Lione, 1775 – Marsiglia, 1836) scopre che
correnti elettriche generano campi magnetici
e suggerisce che quelle interne ai materiali
siano responsabili del ferromagnetismo e
fluiscano perpendicolari all’asse del magnete: le correnti devono essere quindi fenomeni molecolari piuttosto che macroscopici. La
completa formalizzazione teorica dei fenomeni elettromagnetici arriva poi alla metà
del XIX secolo, grazie a James Clerk
Maxwell (Edimburgo, 1831 – Cambridge,
1879): il fisico scozzese mostra quanto sia
profondo il legame tra campi elettrici e magnetici, unificandoli in un unico campo, detto elettromagnetico, che si propaga nello
spazio sotto forma di onda. Tale onda viaggia nel vuoto alla velocità della luce e, a seconda della lunghezza d’onda, è classificata
come onda radio, luce, radiazione X.
André-Marie
Ampère
(Lione, 1775
– Marsiglia,
1836)
James Clerk
Maxwell
(Edimburgo,
1831 –
Cambridge,
1879)
Ora sappiamo che le proprietà
del ferro e della magnetite sono
legate al moto dei loro elettroni,
che sono particelle di carica negativa e quindi, muovendosi, generano campi magnetici. In realtà,
oltre a questo, è presente anche un campo
magnetico associato ai nuclei atomici. Tale
campo è però molto meno intenso di quello
elettronico e, nel descrivere le proprietà macroscopiche del ferro, lo possiamo trascurare.
Le cose cambiano se si fanno esperimenti
per caratterizzare le proprietà magnetiche
dei nuclei. Allora è necessario sviluppare
una strumentazione adatta a “vedere” i nuclei. Un noto esempio è la Risonanza Magnetica Nucleare, più spesso detta Risonanza Magnetica tout court per evitare turbamenti associati all’aggettivo. In pratica si
usa un campo magnetico esterno per osservare la risposta a tale campo del momento
magnetico dei protoni dell’acqua dei vari
tessuti, che possono essere così differenziati
gli uni dagli altri, fornendo fotografie molto
dettagliate della materia molle degli organismi viventi. Il vantaggio rispetto ad altre
tecniche, come quelle che adoperano raggi
X, è l’assenza di radiazioni ionizzanti: servono solo un campo magnetico e un generatore di onde radio (in maniera analoga funziona la Risonanza Paramagnetica Elettronica, EPR, dove vengono osservati gli spin
elettronici e non quelli nucleari).
Oltre alle applicazioni mediche, la Risonanza Magnetica Nucleare è lo strumento di
elezione per l’indagine della struttura delle
sostanze chimiche in soluzione, tra cui le
proteine. Va ricordato che nel 2002 il Premio Nobel per la Chimica è stato assegnato
allo svizzero Kurt Wüthrich (Aarberg,
1938) per aver messo a punto metodi molto
efficienti per la determinazione della struttura delle proteine in soluzione, basati sulla
spettroscopia di Risonanza Magnetica Nucleare.
Ritornando all’origine del magnetismo delle sostanze, possiamo individuare cinque
comportamenti fondamentali, che sono brevemente illustrati di seguito.
35
Scienza e innovazione tecnologica
La memoria magnetica
dei computer e la spintronica
La lettura dell’informazione contenuta nei minuscoli elementi
di memoria si effettua con delle testine magnetiche che
sfruttano il principio della cosiddetta magnetoresistenza
gigante (GMR), per il quale il fisico francese Albert Fert
(Carcassonne, 1938) e quello tedesco Peter Grünberg (Plzec̀,
1939) hanno ricevuto il premio Nobel per la Fisica del 2007.
Magnetoresistenza significa che la capacità di trasportare la
corrente elettrica di un conduttore, come ad esempio il ferro,
è influenzata dalla presenza di un campo magnetico. La
variazione è però piccola ed è necessario avere notevoli
quantità di materiale per leggere l’informazione contenuta nel
bit. Fert e Grünberg hanno scoperto indipendentemente nel
1988 che se invece di un conduttore massivo si usava un
materiale nanostrutturato, consistente di due strati di
conduttore ferromagnetico separati da uno strato di
conduttore non magnetico, tutti dello spessore di qualche nm,
l’effetto della presenza di un campo magnetico poteva far
variare la resistenza del conduttore anche del 100%. Si capì
subito che questo effetto consentiva di usare elementi di
memoria molto piccoli e testine di lettura miniaturizzate.
IBM si lanciò subito su questa traccia e nel 1996 mise sul
mercato le testine a GMR, che consentono di avere densità di
informazione estremamente elevate.
L’altro aspetto fondamentale di questa ricerca è che ha aperto
le conoscenze su fenomeni in cui l’elettronica è accoppiata al
magnetismo: questo nuovo settore scientifico avanzato viene
denominato “spintronica” (vedi più avanti nel testo).
Un elettrone in un atomo è caratterizzato da
un moto orbitale e da un moto intrinseco,
detto moto di spin, che combinati danno
luogo ad un momento magnetic , la quantità
vettoriale che caratterizza le proprietà del
sistema, in termini di intensità, direzione e
verso nello spazio. Semplificando, lo spin
viene visualizzato come movimento di rotazione attorno al proprio asse (o, più correttamente, attorno al proprio centro di massa),
ma in realtà questa proprietà è di natura puramente quantistica e non appartiene alla
meccanica classica. Siccome in molte sostanze il moto orbitale è smorzato, viene sovente trascurato e, quindi, il momento magnetico dell’elettrone viene originato dal solo moto di spin. Quest’ultimo in meccanica
quantistica è associato a due stati caratterizzati da numero quantico ±1/2 . Pertanto,
in genere lo spin lo si indica con una freccia, che può essere orientata su o giù come
mostrato in figura, assieme alla corrispondente polarità a livello macroscopico (polo
Nord e Sud).
In un materiale non si hanno elettroni liberi, ma legati a nuclei in
atomi e molecole. In generale gli
elettroni vanno in coppie come documentato dalle formule chimiche che
vengono scritte tramite segmenti che
descrivono due elettroni non condivisi (coppie non di legame) o condivisi (coppie di legame) tra due atomi. Secondo il principio di
Pauli (vedi Green n. 5, pag. 24), per accoppiarsi gli elettroni devono avere spin differente: le due frecce hanno verso diverso come mostra il disegno a lato. In tal caso, il
momento magnetico risultante è nullo. Tuttavia, se immerso in un campo magnetico
esterno, il moto orbitale degli elettroni è
modificato, generando un campo opposto a
quello applicato e quindi una debole repulsione. Questo comportamento è detto diamagnetismo ed è presente in tutte le sostanze. In genere il comportamento diamagnetico non dà particolari informazioni sulla natura della sostanza.
In alcune molecole, invece, esiste un nume36
ro dispari di elettroni, il che comporta che
almeno un elettrone non abbia un partner
con cui appaiare gli spin. Un esempio è
l’ossido di azoto (NO), uno dei famigerati
membri della banda degli NOx, responsabili dello smog fotochimico e delle piogge
acide. L’elettrone spaiato avrà 50% di probabilità di avere lo spin su e 50% di avere lo
spin giù. In assenza di un campo magnetico
esterno, perciò, a livello macroscopico ci
saranno tanti elettroni con lo spin su (↑) e
altrettanti con lo spin giù (↓), pertanto la risultante sarà nulla.
L’applicazione di un campo esterno cambia
le popolazioni relative dei due tipi di allineamento di spin aumentando la popolazione delle coppie parallele al campo e diminuendo le altre. Il risultato è che l’aggiunta
di un campo magnetico esterno genera una
magnetizzazione non nulla, che tuttavia dipende dalla temperatura. Essendo questa
una misura macroscopica dell’energia cinetica di atomi e molecole, ad un aumento di
temperatura corrisponde un moto sempre
più disordinato, pertanto maggiore sarà la
temperatura minore sarà la magnetizzazione. Un tale comportamento viene definito
paramagnetismo. Si deve anche notare che
la magnetizzazione del paramagnete oscilla
nel tempo: possiamo immaginare che uno
spin passi dall’orientazione (↑) a quella inversa (↓) con un tempo caratteristico che
viene detto tempo di rilassamento, indicato
con la lettera greca “tau”, τ. A temperatura
ambiente nei paramagneti τ oscilla tipicamente tra 10-6 e 10-13 s (da un milionesimo
a un decimo di un bilionesimo di secondo).
Il paramagnete più comune è la molecola di
ossigeno. Nonostante la molecola abbia un
numero pari di elettroni, ha due elettroni
spaiati che generano un campo magnetico
associato al loro spin.
Spin
dell’elettrone e
magneti
elementari
I sistemi magnetici usati per le
applicazioni pratiche, infine, sono i ferromagneti e i ferrimagneti. La differenza fondamentale tra questi ultimi e i paramagneti è che essi hanno una magnetizzazione permanente e
Nuovi materiali
Le principali
classi di
magneti
(a sinistra)
L’isteresi
(a destra)
possono essere quindi usati per numerose applicazioni che verranno illustrate in seguito.
Nei ferromagneti esistono delle interazioni tra
i centri paramagnetici isolati che tendono a
orientare gli spin paralleli gli uni agli altri (figura in alto a sinistra). Naturalmente la tendenza ordinatrice è contrastata dall’agitazione
termica cha favorisce lo stato disordinato paramagnetico. Quest’ultimo stato sarà favorito
dalle alte temperature, mentre lo stato ordinato ferromagnetico si instaurerà al di sotto di
una temperatura critica detta “temperatura di
Curie”. La temperatura di Curie per il ferro è
di 770 °C. Uno schema della struttura ordinata è riportato nella figura in alto a sinistra: tutti i momenti elementari (gli spin) sono paralleli gli uni agli altri e bloccati in una posizione. In questa condizione la magnetizzazione
risultante è diversa da zero e il sistema si comporta come un magnete permanente, pronto
per le applicazioni più svariate.
In realtà se prendiamo un pezzo di ferro non
trattato vediamo che non è magnetizzato. Per
renderlo permanentemente magnetizzato è
necessario esporlo ad un campo magnetico
esterno che lo attivi. La ragione di questo
comportamento è che il nostro pezzo di ferro
minimizza la propria energia, cioè tende allo
stato più stabile, attraverso l’organizzazione
in domini. Questi sono porzioni di spazio all’interno delle quali tutti gli spin sono orientati paralleli, essendo però diversa la direzione
tra un dominio e l’altro. A livello macroscopico, la risultante della magnetizzazione massiva è nulla; l’aggiunta di un campo magnetico
esterno aumenterà il numero di domini magnetizzati lungo la direzione e verso del campo, raggiungendo così la magnetizzazione
massima, detta magnetizzazione di saturazione, MS. Questa si raggiunge quando tutti i domini (e gli spin) sono orientati paralleli.
Il magnetismo cooperativo non è
limitato al ferromagnetismo, ma
ci sono almeno altri due classi di
materiali importanti. La differenza
fondamentale tra questi e il ferromagnetismo è nel tipo di interazione. Se
l’interazione tende a mettere coppie di elet-
troni vicini antiparalleli nel sistema ordinato
ci saranno tanti spin su e altrettanti spin giù,
con annullamento del momento globale. Il sistema si chiama antiferromagnete ed è schematizzato in alto a sinistra. Non ha magnetizzazione spontanea, in assenza di campi esterni.
Se l’interazione tra spin vicini è tale che si dispongono a 180° come mostrato in alto, nello
stato ordinato si avrà non compensazione dei
momenti diversi. Il sistema si chiama ferrimagnete e ha magnetizzazione spontanea. La
magnetite è un ferrimagnete.
Una proprietà importante dei magneti ordinati è l’isteresi (in alto).
Immaginiamo che la magnetizzazione
tenda ad essere allineata lungo un certo
asse detto asse facile. Saturiamo la magnetizzazione e poi diminuiamo il
campo applicato: la magnetizzazione diminuisce, ma quando si arriva a campo nullo
non va a zero a causa dell’irreversibilità nella
formazione dei domini. Questa magnetizzazione misurata a campo nullo prende il nome
di magnetizzazione rimanente, MR. Perché la
magnetizzazione ritorni uguale a zero è necessario applicare un campo negativo detto
campo coercitivo. Continuando ad incrementare il campo negativo si raggiunge il valore
minimo della magnetizzazione. Allora si inverte di nuovo il campo e lo si fa crescere verso valori positivi. Di nuovo a campo nullo la
magnetizzazione è diversa da zero con un valore M0 = -MR. A campo nullo quindi la magnetizzazione può avere due valori diversi in
dipendenza dalla storia del campione.
Questo consente di definire un bit nelle memorie magnetiche dei computer dove uno dei
due valori della magnetizzazione corrisponde
a 0 e l’altro a 1. Magneti con campo coercitivo piccolo sono detti magneti morbidi, quelli
con campo coercitivo grande sono detti magneti duri. Le due classi si prestano a tipi diversi di applicazioni. Negli elementi di memoria sono necessari materiali non troppo
morbidi per evitare che si smagnetizzino e
non troppo duri per non dover usare campi
troppo forti per scrivere l’informazione.
37
Scienza e innovazione tecnologica
Materiali
magnetici
infinitamente
grandi
infinitamente
piccoli
La moderna ricerca sui magneti
abbraccia un numero impressionante di aree diverse, dall’infinitamente grande all’infinitamente
piccolo. Per il primo aspetto si può
pensare a fenomeni come l’aurora (boreale o australe) che è dovuta all’interazione
di particelle cariche dotate di momento magnetico, contenute nel vento solare, con il
campo magnetico terrestre, la cosiddetta
magnetosfera. Certamente fenomeni affascinanti, ma che lasciano poco spazio alla
chimica. In effetti gli oggetti della chimica
vanno trovati su scale molto più piccole, ma
non per questo meno interessanti. Uno dei
settori importanti è legato allo studio dei tipici materiali magnetici che entrano nella
nostra vita di tutti i giorni.
Questi sono tutti sistemi tipicamente inorganici, come metalli, composti intermetallici e
leghe, e composti ionici. Un esempio di materiale magnetico metallico è certamente il
ferro, mentre fra i composti intermetallici si
possono citare il samario cobalto (lega di
composizione SmCo5) o il neodimio ferro
boro (Nd2Fe14B), che, se pure meno noti al
grande pubblico, sono largamente usati anche in oggetti di uso comune come i microfoni e i pick up delle chitarre elettriche.
Uno degli oggetti più usati nella
vita di tutti i giorni è certamente
l’automobile. Ebbene, una macchina
di media cilindrata ha circa 30 kg di
magneti, che servono per motorini vari
o per attuatori (le famose centraline) e
sono presenti dall’abitacolo al motore. Nuovi tipi di magneti potrebbero portare a diminuire il carico, consentendo risparmi energetici.
Un aspetto, per così dire, “ecologico” dei
magneti è legato agli studi di nuovi sistemi
magnetici di refrigerazione. In effetti, i magneti sono stati usati già da decine di anni
per questi scopi, ma solo a basse temperature. Ad esempio refrigeranti a base di un sale
di gadolinio paramagnetico sono comunemente usati per avvicinarsi allo zero assoluto (-273,15 °C), sfruttando l’effetto magne38
...e in questo
caso molto
simpatici:
viene
dall’America
questo colpo di
genio
magnetico!
tocalorico (sotto). Recentemente si è scoperto che certe leghe di gadolinio con silicio e
germanio hanno un alto effetto magnetocalorico vicino a temperatura ambiente. Si spera di mettere a punto una nuova linea di refrigeranti che sfruttino questo effetto che
non richiede gas potenzialmente inquinanti.
Effetto magnetocalorico
L’effetto magnetocalorico, scoperto dal fisico tedesco Emil
Gabriel Warburg (Altona, 1846 – Bayreuth, 1931) nel 1881
e chiarito in dettaglio dagli scienziati Peter Debye
(Maastricht, 1884 – 1966) e William Francis Giauque
(Niagara Falls, 1895 – Berkeley, 1982) negli Anni Venti del
secolo scorso, è un processo magneto-termodinamico in cui
si ha una variazione reversibile di temperatura mediante una
variazione di campo magnetico applicato. La diminuzione
d’intensità di un campo magnetico applicato causa il
parziale disorientamento dei domini magnetici, all’interno
dei quali l’agitazione termica tende a distruggere la
struttura ordinata. Se al sistema non è permesso scambiare
energia con l’esterno (processo adiabatico), l’energia
termica viene assorbita dai domini per riallinearsi, causando
una diminuzione della temperatura del sistema.
Tra le leghe, una ampiamente usata anche
nei calcolatori fino a qualche anno fa è il
permalloy, che contiene il 20% di nichel e
l’80% di ferro. Viene usato per la sua facilità a magnetizzarsi e smagnetizzarsi, per
sua alta permeabilità e per la resistenza agli
urti.
Altri materiali magnetici vanno menzionati:
gli ossidi, tra i quali il più importante è la
magnetite, Fe3O4, la sostanza da cui cominciò la storia del magnetismo sulla terra, la
maghemite, Fe2O3 ecc. Tutti questi esempi
devono aver convinto che l’interesse chimico nei materiali magnetici deve essere limitato all’uso di tecniche metallurgiche o comunque quelle che si attribuiscono alla chimica dello stato solido, ma, come vedremo,
non è proprio così.
Nuovi materiali
Il “Transrapid”,
il treno a
lievitazione
magnetica in
servizio in
Germania.
Come volare a
pochi millimetri
dal suolo...
Attualmente ha
superato anche il
traguardo dei
500 km/h.
Magneti
in natura.
La magnetite si trova
anche negli
esseri
viventi
È noto che i
piccioni
viaggiatori
ritrovino la
colombaia in
cui sono stati
allevati anche
se trasportati
a centinaia
di chilometri
seguendo
probabilmente
il campo
magnetico.
Questa
facoltà venne
sfruttata
militarmente
nel 1898: il
tedesco Julius
Neubronner
iniziò a
costruire una
serie di
leggerissime
macchine
fotografiche
da fissare sul
petto dei
volatili, un
apparato del
peso di soli
70 grammi
che poteva
fissare
un’immagine
del terreno
sorvolato su
un negativo
quadrato da
quattro
centimetri di
lato. Era nata
la “pigeon
camera” che
venne
brevettata nel
1903.
Quanto detto prima è vero in parte, ma l’esempio di seguito descritto ci deve convincere che ci
sono notevoli aspetti in cui la chimica molecolare può svolgere un
ruolo importante: essa si sviluppa in
soluzione a temperature non troppo alte ed
evita i forni che sono invece strumenti tipici della chimica dello stato solido.
La magnetite è un minerale che si è formato in condizioni geologiche e come tale si
trova in natura. Si trova magnetite anche
negli esseri viventi, sotto forma di monocristalli avvolti da membrane cellulari, nei
cosiddetti magnetosomi. I magnetosomi
vengono formati all’interno degli organismi, con il limite di temperatura che questo comporta, usando tecniche che chiameremo di chimica molecolare o di chimica biologica, secondo la propensione del
momento.
Magnetosomi sono stati trovati in batteri
magnetotattici che usano la magnetite come una bussola. Si tratta di batteri anaerobi che devono evitare di lasciare i fondali
degli stagni in cui vivono per non incontrare, risalendo verso la superficie, troppo
ossigeno che li ucciderebbe. La strategia
ovvia per organismi pesanti per individua-
Aprile 1941,
sul fronte
libicoegiziano.
Un gruppo di
soldati
dell’esercito
italiano
durante la
guerra in
Africa
oerientale
Si notano,
appese alla
parete, le
colombaie per
i piccioni
viaggiatori.
re l’alto e il basso è sfruttare la gravità, ma
l’esigua massa dei batteri rende impossibile questo sistema. Allora la selezione naturale ha “scoperto” che il campo magnetico terrestre ha una componente verso il
basso che può essere sfruttata se si dispone di un sensore adatto. I magnetosomi
hanno esattamente questa funzione, di far
andare il batterio verso il basso. Le dimensioni dei magnetosomi sono tipicamente
di 30-40 nm. Si ricordi che 1 nm (nanometro) è pari a un miliardesimo di metro e
che la ricerca contemporanea ha sviluppato un grande interesse per oggetti di queste dimensioni.
Il settore scientifico corrispondente, che
ha generato grandi aspettative, è quello
delle nanotecnologie. In un certo senso il
batterio Aquaspyrillum magnetotacticum
è stato il primo nanotecnologo.
Una volta individuata una soluzione efficiente, la Natura la sfrutta a fondo: così
troviamo magnetosomi in organismi molto più complessi come i piccioni viaggiatori. Poiché sembra appurato che per
orientarsi sfruttino il campo magnetico
terrestre, la tentazione di associare questo
comportamento con la presenza di magnetosomi è grande.
39
Scienza e innovazione tecnologica
Il
nanomagnetismo
e le applicazioni
in campo
biomedico
Il passaggio da dimensioni macroscopiche a dimensioni di qualche nanometro ha una grossa influenza sulle proprietà di un ferromagnete (ma anche di un ferrimagnete).
Supponiamo di prendere un pezzo di ferro e
ridurlo in piccoli pezzi. La magnetizzazione
tende a disporsi lungo l’asse facile, di cui
abbiamo parlato in precedenza in relazione
al fenomeno dell’isteresi, e può orientarsi su
o giù.
Esso può riorientarsi, cioè passare da su a
giù superando una barriera energetica la cui
altezza è direttamente proporzionale al volume della particella. Quindi per le particelle grandi questa sarà alta e la magnetizzazione non riesce a muoversi rimanendo
bloccata. Quando il volume diminuisce l’energia termica è sufficiente a superare la
barriera e la magnetizzazione può passare
facilmente da su a giù. Il risultato è che
avremo una sorta di equilibrio, con metà
delle particelle che saranno con magnetizzazione su e l’altra metà giù: nell’insieme le
particelle si comporteranno come un paramagnete. Ma come un paramagnete con un
valore dello spin molto grande, perché dato
dall’addizione dei singoli. Per questo si indica come superparamagnete. Ad alta temperatura il sistema è disordinato, a bassa
temperatura la magnetizzazione non ce la fa
più a superare la barriera e il sistema si
blocca. La temperatura di bloccaggio dipende dalla tecnica usata per misurare la magnetizzazione, in particolare dal tempo di
scala della misura.
La strategia di usare materiale
inorganico come la magnetite insieme a materiale organico, come
le membrane dei magnetosomi, si sta
sviluppando sempre più negli ultimi
anni e trova applicazioni importanti in
parecchi campi, tra cui quello dei farmaci
intelligenti è uno dei più promettenti. In
realtà particelle magnetiche vengono già
ampiamente usate per separazione cellulari.
Si tratta di predisporre nanoparticelle magnetiche, NPM, spesso di maghemite, rive40
Buche di
potenziale
per particelle
magnetiche
ed effetto
tunnel
(freccia
verde).
Uno
strumento
diagnostico
ampiamente
usato: la
Risonanza
Magnetica.
stite di molecole che possano interagire con
le cellule bersaglio. Una volta legate possono essere separate dalle altre sfruttando un
campo magnetico esterno che trascina selettivamente le cellule marcate.
Sullo stesso principio si basa l’uso di NPM
che vadano selettivamente a intercettare ad
esempio cellule cancerose. Una volta arrivate sull’obiettivo si inviano delle microonde che inducono oscillazioni nelle particelle
magnetiche solamente.
Queste quindi si riscaldano e riscaldano selettivamente le cellule malate cui sono legate, provocandone la morte. Il vantaggio di
usare NPM superparamagnetiche è dovuto
al fatto che non hanno una magnetizzazione
spontanea che potrebbe interferire con varie
molecole biologiche.
Infine, tra le applicazioni biomediche delle NPM, si può citare il
loro uso come mezzo di contrasto in risonanza magnetica. Come accennato la Risonanza Magnetica
(Nucleare) è uno strumento diagnostico ampiamente usato con il quale si misura la risposta dei protoni dell’acqua a un campo magnetico pulsato. La risposta dei protoni è diversa
a secondo della natura del tessuto in cui si trovano, quindi si possono evidenziare i tessuti
diversi. Le differenze sono in genere piccole
come in una fotografia in bianco e nero mal
esposta che è una scala indistinta di grigi.
L’immagine che si ottiene ha quindi poco
contrasto e per renderla leggibile è necessario
aumentarlo. Un modo è quello di aggiungere
particelle o molecole magnetiche che interagiscono con i protoni dell’acqua modificandone la risposta. Tra le molecole quelle più
comunemente usate sono quelle a base di gadolinio, ma anche le NPM sono usate.
Nuovi materiali
Le tre condizioni
per ottenere
magneti
molecolari
Se si usano solo composti organici è difficile ottenere magneti,
cioè sistemi ordinati che abbiano
magnetizzazione spontanea. Il
problema è che per ottenere un magnete è necessario: 1) avere a disposizione
“mattoni” con elettroni spaiati; 2) poter disporre di una malta che favorisca l’orientazione parallela dei momenti individuali; 3)
poter formare con questi mattoni un edificio
tridimensionale.
Sembra facile ma non lo è. Mattoni organici
con elettroni spaiati sono molto spesso instabili: gli elettroni spaiati tendono ad accoppiarsi formando un legame covalente.
Esistono alcuni radicali stabili, come il nitronilnitrossido mostrato (vedi figura a in alto a destra) Un elettrone spaiato è delocalizzato essenzialmente sui due gruppi NO. La
presenza di ingombranti gruppi CH3 rendono difficile la formazione di legami, che
coinvolgano gli elettroni spaiati, tra due
gruppi NO appartenenti a molecole diverse.
Nel 1991 un gruppo giapponese riuscì a sintetizzare un derivato, quello mostrato che
ordina come ferromagnete (cioè i cui spin si
allineano come in un ferromagnete) a 0,6 K
(temperatura di ordine), ovvero a -272,6 °C
Venti anni di ricerca successiva hanno permesso di innalzare questa temperatura fino
al record di 37 K (-236 °C). Il radicale mostrato qui sopra (b) in realtà si comporta come un debole ferromagnete: questo vuol dire che gli spin di molecole vicine si dispongono non paralleli, come in un ferromagnete normale, ma quasi antiparalleli come in
un antiferromagnete. In realtà l’angolo tra
Spin “storti”
generano una
risultante
diversa da
zero.
Ferromagneti
organici
gli spin non è di 180° ma più piccolo, come
mostrato nello schema qui sotto. Il risultato
è che invece di annullarsi i momenti individuali danno una risultante diversa da zero,
anche se molto più piccola di quella di un
momento intero.
Temperature di ordine più alte sono state ottenute con sistemi misti, in cui ad una grossa componente organica si aggiungono degli ioni metallici. Ad esempio il composto
V(TCNE)2, dove TCNE è il tetracianoetilene, ordina come ferrimagnete ben oltre la
temperatura ambiente. Magneti molecolari
sono quindi possibili.
Magneti di una sola molecola
Una molecola
contenente 12
Mn che
a bassa
temperatura
si comporta
come un
minuscolo
magnete.
Gli aspetti più interessanti del
magnetismo molecolare si sono
rivelati più tardi, quando si è scoperto che una molecola contenente dodici
ioni manganese, a bassa temperatura,
si comporta come un piccolo magnete,
o, come si dice, come un nanomagnete. La
struttura della molecola è mostrata nella figura qui sopra.
Ci sono otto ioni manganese (III), ciascuno
con 4 elettroni spaiati, che si dispongono su
un anello esterno, e quattro ioni manganese
(IV), ciascuno con 3 elettroni spaiati, che si
dispongono sui vertici di un tetraedro centrale.
Gli ioni metallici sono connessi da ioni os41
Scienza e innovazione tecnologica
LE PAROLE DELLA SCIENZA
Microscopia a scansione di sonda (SPM)
La microscopia a scansione di sonda è tecnica generale di
microscopia che produce immagini delle superfici attraverso l’utilizzo di una sonda fisica che muovendosi
“esplora” (scannino) la superficie del campione. Include
molte tecniche di microscopia, tra cui la microscopia ad
effetto tunnel (STM) o la microscopia a forza atomica
(AFM).
Spettroscopia di fotoelettroni (PES)
La spettroscopia di fotoelettroni è una tecnica per deterL’isteresi a
gradini e la
firma degli
effetti
quantistici.
sido che fanno assomigliare il nocciolo della molecola a un pezzetto di ossido di manganese a valenza mista. Nella pratica, la crescita a formare un ossido massivo è bloccata
dalla presenza di carbossilati (gruppi contenenti COO-), che bloccano la ripetizione regolare. Nel caso in questione l’agente bloccante è semplicemente lo ione acetato,
CH3COO-. Vedremo che è facile sostituire
uno ione acetato con un altro carbossilato,
variando in maniera fine le proprietà magnetiche del composto, che chiameremo
Mn12Ac, dove Ac sta per acetato. Gli ioni
metallici interagiscono magneticamente tra
di loro in modo tale che tutti gli spin dei
manganesi trivalenti (III) siano paralleli tra
di loro e antiparalleli a quelli dei manganesi
tetravalenti (IV).
Le forze di interazione dominano a bassa
temperatura e il sistema si stabilizza in uno
stato con spin totale S = 10, con venti elettroni spaiati (ciascuno con spin = + ).
Si tratta di un ferrimagnete molecolare, che è caratterizzato dal
fatto che la magnetizzazione a
bassa temperatura si blocca, come abbiamo descritto sopra per
un superparamagnete. Il tempo di
rilassamento della magnetizzazione, τ, che
precedentemente abbiamo detto essere dell’ordine di 10-6-10-13 s nei paramagneti normali, in Mn12Ac a 2 K diventa dell’ordine
di mesi e una molecola si comporta come un
nanomagnete! In effetti le dimensioni della
molecola sono di circa 1 nm.
La causa del rilassamento lento è data dalla
barriera di energia che la magnetizzazione
deve superare per riorientarsi, come mostrato (a pag. 40) per un superparamagnete. L’origine della barriera è legata al fatto che gli
ioni manganese (III) hanno una forma tridimensionale elongata: i momenti magnetici
locali per riorientarsi devono passare per il
piano perpendicolare all’asse facile spendendo energia.
Misure spettroscopiche varie mostrano che
l’altezza della barriera è corrispondente ad
una temperatura di circa 60 K (vedi Green
42
8, pag. 32). Il rilassamento lento della magnetizzazione dà luogo a un’isteresi magnetica analoga a quella descritta per i magneti
massivi, ma questa volta limitata ad oggetti
di dimensioni di un nanometro (qui sopra).
Sfruttando l’isteresi si può immagazzinare
informazione e una molecola diventa un
elemento di memoria di 1 nm! Per queste
caratteristiche Mn12Ac è stato chiamato
Magnete di una Sola Molecola, Single Molecule Magnet, SMM.
Ma l’interesse maggiore suscitato da Mn12Ac è legato al fatto
che ha mostrato effetti quantistici in sistemi mesoscopici (vedi di
seguito).
La frase precedente è senz’altro oscura, ma andava scritta per introdurre l’argomento. La nostra comprensione della materia è basata su quella che si chiama fisica
classica che si è sviluppata da Galileo in poi
e ha fornito il paradigma per la descrizioni
di tutti i fenomeni: dal moto degli astri all’elettromagnetismo. Lo studio della struttura atomica mostrò invece che, a quei livelli, la fisica classica non era valida, i nuovi
fenomeni descritti necessitavano di una diversa spiegazione: la meccanica quantistica
permette proprio di giustificare fenomeni
così diversi come gli spettri degli atomi, la
superconduzione e il magnetismo.
Tutto questo però richiede di ammettere fenomeni che a livello macroscopico, quello
della fisica classica, non sono possibili. Un
esempio è l’effetto tunnel, un fenomeno di
natura quantomeccanica in cui un oggetto,
che in un sistema classico o è in una buca di
potenziale o nell’altra di (a pag. 40), può essere contemporaneamente in entrambe, e
oscillare tra l’una e l’altra.
Negli anni 90 del secolo scorso
c’era un’intensa attività di ricerca per evidenziare la possibilità
di osservare effetti quantistici in
oggetti di maggior dimensione rispetto a quella atomica e molecolare, in
Nuovi materiali
minare le energie di legame degli elettroni in una sostanza, attraverso la misurazione dell’energia cinetica degli
elettroni emessi per effetto fotoelettrico (cioè per stimolazione elettromagnetica).
Spettroscopia di massa
La spettroscopia di massa è una tecnica cromatografica
che permette di analizzare qualitativamente le sostanzepresenti in una miscela di reazione.
particolare si studiò proprio il tunnel quantistico della magnetizzazione in sistemi mesoscopici, una dimensione di confine tra
quella dove i fenomeni sono descritti dalla
meccanica classica (dimensione macroscopica) e quella descritta dalla meccanica
quantistica (livello atomico e molecolare).
Mn12Ac arrivò al momento giusto e riuscì
dove si era fallito con tanti altri tipi di particelle. Queste ultime soffrivano del fatto di
non essere mai tutte uguali, ma di avere una
distribuzione di dimensioni.
Siccome il manifestarsi di effetti quantistici
diminuisce rapidamente al crescere delle dimensioni del sistema, studiare un insieme di
oggetti di dimensioni diverse portava a raccogliere un insieme di risultati diversi, assolutamente illeggibile. Mn12Ac fu l’uovo di
Colombo: le molecole sono per definizione
tutte uguali, quindi studiare le proprietà magnetiche di un cristallo molecolare fotografa
le risposte di oggetti tutti uguali che esaltano la risposta quantistica.
La pistola fumante, come direbbero gli americani, la prova dell’effetto tunnel della magnetizzazione, fu ricavata dalla misura
dell’isteresi magnetica, mostrata
nella figura a pagina 37. La peculiarità
di questa curva è che sono presenti scalini, che
si osservano a valori precisi del campo magnetico applicato, HSn= n H0, dove n= 0, 1,
2... e H0 è una costante. Questa dipendenza da
numeri interi è indicativa di effetti quantistici,
si pensi ai numeri quantici usati per descrivere
la struttura elettronica degli atomi (figura in
alto a sinistra). Il successo ottenuto attrasse
numerosi gruppi di chimici e di fisici, intenzionati a indagare ogni possibilità di ottenere
SMM con prestazioni superiori.
Gli aspetti da ottimizzare sono la temperatura
al di sotto della quale la magnetizzazione rimane bloccata in una delle due buche di potenziale (vedi pagina 40) e la temperatura alla
quale gli effetti quantistici diventano osservabili. Il settore è ancora molto attivo e sono già
state ottenute molecole magnetiche con quasi
un centinaio di ioni magnetici accoppiati.
Un polimero
di ioni
cobalto e
radicali si
comporta
come un filo
magnetico a
bassa
temperatura.
Magneti fatti da una catena di molecole
Nella ricerca applicata ai magneti
molecolari risulta assai interessante la scoperta del rilassamento lento della magnetizzazione
anche in sistemi polimerici che dà luogo a Magneti di una sola catena, Single Chain Magnet, SCM. Un esempio è mostrato qui sopra: si tratta di un polimero in
cui ioni cobalto (II) sono legati a due ossigeni provenienti da due nitronilnitrossidi
(vedi pagina 41) e ogni nitronilnitrossido si
lega a due ioni cobalto formando una catena. Intorno ad ogni ioni cobalto ci sono due
ioni esafluoroacetilacetonato, che ne compensano le due cariche positive. L’accoppiamento tra gli spin del cobalto e quello del radicale è antiferromagnetico, ma siccome lo
spin del cobalto è più grande il risultato è un
ferrimagnete monodimensionale.
Inoltre lo ione cobalto ha una spiccata preferenza per una direzione dello spazio, come succedeva con gli ioni manganese (III)
in Mn12Ac e il rilassamento della magnetizzazione diventa molto lento a bassa temperatura. Anche in questo caso si osserva isteresi legate alle molecole polimeriche, che a
bassa temperatura si comportano come nanofili magnetici. Si conta per questa via di
ottenere sistemi che blocchino la magnetizzazione a temperature più alte di quelle raggiungibili con SMM.
43
Scienza e innovazione tecnologica
Che cosa è la
spintronica
molecolare
Matrici
magnetiche
organizzate
supportate su
varie
superfici.
Oro
a
I sistemi magnetici molecolari ora vengono
molto studiati sia per gli aspetti applicativi riguardanti le memorie miniaturizzate, tipo
SMM o SCM, che per gli aspetti quantici cui
possono dar luogo. In quest’ultimo settore vengono condotti studi per lo sviluppo di memorie destinati
ai calcolatori quantistici. Il principio su cui questi si basano
è il cosiddetto qu-bit. Come ricordato nel box sopra un bit
classico può valere 1 o 0, mentre un qu-bit può assumere
tutti i valori tra 0 e 1. Magneti molecolari (MM) possono
dar luogo a sistemi a due livelli che sono la base per generare qu-bit.
L’altro aspetto di punta della ricerca sui MM è quello di inserirli in sistemi spintronici, sistemi in cui il passaggio della
corrente elettrica risente dell’influenza di campi magnetici
esterni. Questa branca di ricerca risente degli sviluppi che
partirono con la GMR (vedi box pagina 36). In questo nuovo tipo di elettronica si sfrutta non solo la carica dell’elettrone, ma anche il suo momento magnetico; perciò, unendo le
parole spin ed elettronica, è stato coniato il termine spintronica. Perché i MM siano utilizzabili è necessario poter organizzare le singole molecole per poi interrogarle una per volta. La molecola più sfruttata è Mn12, con opportuni carbossilati al posto dell’acetato. Alcuni esempi di molecole orga-
nizzate sono mostrati nella sequenza in alto. Una possibilità
è quella di organizzare le molecole su superfici, ad esempio
di oro, (figura a): per ottenere l’attacco del Mn12 vengono
introdotti gruppi –SR, sfruttando così l’affinità dello zolfo
per l’oro. Un’altra tecnica usata è quella cosiddetta di Langmuir-Blodgett con la quale si formano monostrati di molecole sfruttando la tendenza all’autoassemblaggio di sistemi
con lunghe code alifatiche (idrocarburi lineari, figura b. Infine si è molto sfruttata la possibilità di organizzare le molecole in matrici polimeriche (figura c).
Una volta organizzate le molecole, è necessario mettere a punto tecniche di indagine che ne
determinino la struttura e poi le proprietà. Per
questo si adoperano tecniche di indagine complesse,
come le tecniche di Microscopia a scansione di sonda
(Scanning Probe Microscopy, SPM) che consentono di
misurare la topografia e le dimensioni delle molecole organizzate. Modifiche di queste tecniche consentono di ottenere
anche informazioni sulle proprietà magnetiche.
Informazioni sulla struttura degli strati si ottengono anche
con tecniche di spettroscopia di massa, di spettroscopia di
fotoelettroni, di tecniche magneto-ottiche, di tecniche di dicroismo circolare magnetico ai raggi X, che richiedono l’uso
di luce di sincrotrone.
Un transistor
innovativo basato su
una molecola Mn12
Il transistor (o transistore) è un
dispositivo a stato solido formato da
semiconduttori.
Le sue peculiari caratteristiche di
conduzione della corrente elettrica
ne permettono l’uso in ambito
elettronico (es. nelle radioline
portatili), principalmente come
amplificatore di segnali elettrici o
come interruttore elettronico comandato da
segnali elettrici.
Ve ne sono diversi tipi, quello qui rappresentato
è un Field Effect Transistor o FET
(letteralmente “transistor ad effetto campo”)
innovativo in quanto basato sull’uso di una
molecola magnetica a 12 atomi di manganese
Mn12 simile a quella citata nel testo.
(a) Veduta laterale della molecola Mn12:
[Mn12O12 (O2C-R-SAc)16 (H2O)4].
44
Gli atomi sono rappresentati con colori diversi:
manganese in arancio, ossigeno in rosso scuro,
carbonio in grigio, zolfo in giallo. I ligandi sono
appositamente studiati, contengono tioli
(molecole con residui –SH) terminali protetti
da gruppi acetile –CO-CH3 (abbreviati con
Ac, sostituiscono l’idrogeno di un tiolo legandosi
allo zolfo).
(b) Disegno schematico che mostra la molecola
Mn12 intrappolata tra i due elettrodi di oro
(Au) detti rispettivamente Source (“sorgente”) e
Drain (“pozzo”).
Un Gate (“porta”) in alluminio/ossido di
alluminio (Al/Al2O3) cambia il potenziale
elettrostatico sulla molecola.
(c) Foto al microscopio elettronico a scansione
dei due elettrodi, lo spazio fra di essi non è
risolvibile a causa delle minuscole dimensioni.
La barra della scala corrisponde ad una
lunghezza di 200 nm (nanometri).
Da Heersche et al., Phys. Rev. Lett. 2006, 96,
206801.
Nuovi materiali
Matrici polimeriche
Film di idrocarburi
b
A Firenze un laboratorio
aperto ai giovani ricercatori
di tutta Europa
L’autore di questo articolo è professore ordinario di Chimica
generale ed inorganica all’Università di Firenze è
internazionalmente riconosciuto come uno dei maggiori
esperti di Magnetismo molecolare, un settore di ricerca che si
estende dallo studio delle proprietà magnetiche di sistemi di
interesse biologico alla messa a punto di nuovi dispositivi per
calcolatori che si basano su effetti quantistici. L’interesse per
la sua attività di ricerca è dimostrato dal fatto che il professor
Gatteschi è uno dei pochi italiani inserito nella lista dei
chimici più citati nel mondo. Il laboratorio di Magnetismo
molecolare, LAMM, da lui diretto è uno dei centri di
riferimento del Consorzio Interuniversitario per la Scienza e
Tecnologia dei Materiali (INSTM). Il laboratorio ha a
disposizione una strumentazione di prim’ordine per misurare
le proprietà magnetiche e di risonanza paramagnetica
elettronica (EPR) dei materiali. In particolare possiede uno
spettrometro EPR operante a 95 GHz, unico in Italia.
Recentemente sono state messe a punto anche strumentazioni
Un altro aspetto importante dei magneti molecolari è rappresentato dalla possibilità di
usarli in dispositivi che possono essere considerati come transistor di un sola molecola. Il
primo passo consiste nel progettare opportune molecole per farle aderire a due elettrodi di dimensioni di
qualche nanometro, e poi organizzarle tra due elettrodi.
Questo è stato fatto ad esempio usando un derivato del
Mn12 con la struttura mostrata qui a sinistra.
Il magnetismo molecolare è un settore scientifico che ha
avuto uno sviluppo molto rapido negli ultimi anni e che si
caratterizza per un’elevatissima interdisciplinarietà. Il chimico sintetico si avvale dell’aiuto del chimico computazionale per fare previsioni sulle molecole che progetta e sintetizza e organizza. Il fisico sperimentale effettua misure e
predispone strumentazione d’avanguardia per ottenere
informazioni dettagliate e complesse che richiedono lo sviluppo di teorie che vengono elaborate dagli specialisti. Cominciano a svilupparsi utili interazioni con biologi e medici per verificare le possibilità applicative di questa nuova
classe di materiali in medicina. Un altro esempio della necessità della ricerca scientifica di base, le cui scoperte possono trovare sempre nuovi e impensati sbocchi per l’applicazione pratica.
Dante Gatteschi
Dipartimento di Chimica, Università degli Studi di Firenze
Presidente del Consorzio INSTM
c
che consentono di misurare le proprietà magnetiche di singole
molecole. Per la complessità delle strutture a disposizione, e
per le competenze scientifiche, il LAMM è riconosciuto
come istituzione ospitante dalla Commissione Europea.
Studenti da tutta l’Europa possono svolgere parte della loro
attività di dottorato presso il laboratorio fiorentino.
Le attività più importanti del LAMM riguardano la sintesi e
lo studio delle proprietà di nuovi tipi di magneti basati su
strutture molecolari, come i magneti a singola molecola e
quelli a singola catena. Per la scoperta dei magneti a singola
molecola e per la misura della coesistenza di effetti
quantistici e classici in questi sistemi, Dante Gatteschi e
Roberta Sessoli del LAMM hanno ricevuto l’Agilent
technologies Europhysics Prize nel 2002, uno dei premi
internazionali più prestigiosi.
Attualmente gli sforzi del LAMM sono concentrati sullo
sviluppo di tecniche sperimentali per ancorare questi nuovi
tipi di magneti su supporti idonei che consentano di misurare
le proprietà delle molecole e di sviluppare quella che viene
indicata come spintronica molecolare. Quest’ultima è attesa
dare uno sviluppo rivoluzionario nell’elettronica fondendo la
spintronica, che fa riferimento a nuovi sistemi in cui si sfrutta
non solo la carica ma anche lo spin degli elettroni,
e l’elettronica molecolare.
LE PAROLE DELLA SCIENZA
Dicroismo circolare
magnetico ai raggi X (XMCD)
Dante
Gatteschi e
Roberta
Sessoli
Il dicroismo circolare magnetico ai
raggi X rappresenta la differenza negli
spettri di assorbimento ottenuti irradiando composti o materiali con radiazione
X con polarizzazione circolare verso
destra o verso sinistra. Tale effetto viene
utilizzato per determinare le proprietà
magnetiche, quali il momento magnetico orbitale o di spin.
Luce di sincrotrone
La luce di sincrotrone è la radiazione
elettromagnetica generata deviando la
traiettoria di particelle cariche (quindi
accelerandole) mediante un sincrotrone,
cioè un particolare tipo di acceleratore
di particelle. La generazione di radiazione elettromagnetica da parte di una particella carica accelerata è prevista dalle
leggi dell’elettromagnetismo.
45
Futuro
le news
di Green
&
)
futuribile
Questo flebile epilogo di un
passato glorioso potrebbe
non essere del tutto preciso
però; a farcelo notare è Suzaku, l’“occhio” ai raggi X
nippo-americano, che ha recentemente osservato pulsazioni di raggi X provenienti
da AE Aquarii, una nana
bianca distante più di 300
anni luce dal nostro pianeta.
Un fenomeno tipico di un
altro tipo di stella, definita
pulsar, in quanto caratterizzata dalle emissioni pulsate
estremamente regolari di radiazione elettromagnetica. I
due tipi di stella, nana bianca e pulsar, sono due possibili evoluzioni finali di una
stella, che dipendono dalla
massa della stella stessa.
La nana bianca è un corpo
stellare con un raggio molto
corto (circa un centesimo di
quello solare, che è di circa
700.000 km), ma con una
massa paragonabile, caratte-
Le inattese
“pulsazioni”
di una
nana bianca
distante 300
anni luce
Strana fine quella di alcune
stelle: dopo miliardi di anni
di attività nucleare destinate
a restringersi e a spegnersi
lentamente, emettendo luce
bianca a bassissima densità
per altrettanti anni. Una
nana bianca appunto,
secondo la definizione degli
astrofisici.
PER APPROFONDIMENTI
Elettrodi
ad effetto…
Madeleine
È celebre il passo proustiano
de “À la recherche du temps
perdu” (“Alla Ricerca del
tempo perduto”) in cui al
protagonista torna in mente
il ricordo vivo di un episodio
passato; la memoria riaffiora
assaporando una madeleine,
un dolce che era solito
mangiare da bambino.
46
La radiazione termica
La nana bianca nel sistema AE: i due coni di luce
nell’illustrazione raffigurano i fasci di radiazione
elettromagnetica X emessi dal corpo celeste.
La radiazione termica è la radiazione elettromagnetica
emessa da un oggetto a causa della sua temperatura, ovvero dell’energia cinetica dei suoi costituenti. La relazione tra lunghezza d’onda più probabile della radiazione emessa e la temperatura dell’oggetto irraggiante è
espressa dalla legge di Wien, secondo la quale la lunghezza d’onda è inversamente proporzionale alla temperatura.
http://www.nasa.gov/centers/goddard/news/topstory/2007/whitedwarf_pulsar_prt.htm
La Madeleine del futuro
sarà probabilmente meno
dolce e meno artigianale, e
più simile a dei minuscoli
elettrodi: le capacità mnemoniche del nostro cervello, infatti, sembrano aumentare in seguito a piccole stimolazioni elettriche di
precisi circuiti neurali nel
cervello, precisamente nell’ipotalamo.
Questo quanto pubblicato
sulla rivista scientifica Annals of Neurology dal team
canadese di neurologi del
Toronto Western Research
PER APPROFONDIMENTI
LE PAROLE DELLA SCIENZA
Institute dell’Università locale, che hanno scoperto
casualmente l’effetto durante un trattamento terapeutico sperimentale su di
un paziente affetto da obesità.
Mentre le prestazioni mentali generali sono rimaste
pressoché immutate, i medici hanno riscontrato un
sostanziale miglioramento
nelle capacità del paziente
di ricordare gruppi di parole e situazioni passate, tanto più grande quanto intensa la corrente applicata.
L’ipotesi del team canadese, capitanato dal neurochirurgo Andres Lozano (nella
fotografia), è che gli elettrodi stimolino inavvertitamente un gruppo di neuroni conosciuto come fornice, che attraversa l’ipotalamo verso l’ippocampo.
Nonostante lo
studio riguardi
s o l a mente
un paziente,
http://www.nature.com/news/2008/080129/full/news.2008.538.html
rizzata quindi da una densità
molto più elevata (si pensi
che la stessa massa è racchiusa in un volume un milione di volte più piccolo di
quello del Sole) e un’accelerazione di gravità colossale:
7.000.000 m/s2 a fronte dei
circa 10 m/s2 di quella terreste. In una nana bianca, la
forza gravitazionale che tende a comprimere la massa è
contrastata da una pressione
degli elettroni conseguente
al principio di esclusione di
Pauli (vedi Green numero 5,
pag. 24), che rende la stella
estremamente stabile; l’alta
temperatura che le caratterizza (dell’ordine dei
100.000 K) è responsabile
dell’emissione di radiazione
elettromagnetica bianca (vedi qui a lato).
La pulsar (pulsating radio
source), invece, è una stella
formata da neutroni compressi ad una densità straordinaria: quella che si otterrebbe comprimendo una
portaerei nel volume di un
granello di sabbia! Nel caso
della pulsar, infatti, la massa, equivalente a quella del
Sole, è racchiusa in un volume 1014 volte più piccolo:
un nucleo atomico di soli
neutroni esteso per decine di
chilometri insomma. Il tratto distintivo di questo tipo di
stella è l’emissione di onde
radio e raggi X che vengono
Lozano puntualizza l’importanza delle
implicazioni:
“Per la prima
volta abbiamo
una finestra
affacciata sul
circuito neurale della memoria umana
– della quale
si conosce poco – che possiamo ora raggiungere e
modificare”. Immediata arriva l’idea di applicazioni
terapeutiche, per migliora-
misurati dal nostro pianeta
come fasci di radiazione di
geometria simile ai coni di
luce emessi da un faro (l’effetto è dovuto al disallineamento tra l’asse di rotazione
e l’asse del campo magnetico della pulsar).
La scoperta del team di
scienziati della JAXA (l’ente aerospaziale giapponese)
e della NASA, che avvicina
il comportamento delle nane
bianche a quello delle pulsar, è particolarmente importante poiché alle pulsazioni delle pulsar sono collegati i campi magnetici responsabili delle accelerazioni nello spazio dei raggi cosmici, cioè l’insieme delle
radiazioni energetiche a cui
sono esposti tutti i corpi celesti, compresa la Terra.
“AE Aquarii sembra essere
l’equivalente per le nane
bianche di una pulsar,” dice
Yukikatsu Terada, dell’Università giapponese di Saitama coinvolta nelle osservazioni.
“Poiché le pulsar sono sorgenti di raggi cosmici, questo vuol dire che le nane
bianche dovrebbero essere
silenziosi acceleratori di
particelle, che contribuiscono a molti dei raggi cosmici
di bassa energia presenti
nella nostra galassia”.
Lorenzo De Angeli
re la memoria di individui
affetti da morbo di Alzheimer, prima che lo stato
avanzato della malattia distrugga i circuiti neurali.
.
GIAPPONE
Un composto per l’ immagazzinamento
dell’idrogeno in autoveicoli
Japan Steel Works Ltd, insieme alla Tohoku University,
ha realizzato un nuovo sistema per la fornitura di idrogeno ai motori delle auto “pulite”. Il prototipo di “serbatoio” realizzato ha la dimensione di una scatola di fiammiferi ed è riempito con uno speciale composto di idrogenato di alluminio in grado di adsorbire idrogeno e di
rilasciarlo quando riscaldato a 80 °C, di rilasciare idrogeno. Nella versione attuale il sistema è in grado di rilasciare il 43% in più di idrogeno rispetto a quello prodotto dalla “classica” lega di lantanio-nickel.
Rispetto, inoltre, ai serbatoi a 350 atm, che necessitano di
strutture metalliche molto robuste e pesanti, attualmente
utilizzati per immagazzinare idrogeno sulle autovetture,
il nuovo sistema evidenzia una capacità di immagazzinamento che è 3,6 volte superiore; esso fornisce quindi alla
vettura, equipaggiata con un serbatoio da 90 litri dal peso
di 100 Kg, un’autonomia di circa 650 Km.
Japan Steel Works sta proseguendo le ricerche soprattutto nella direzione di abbassare a 60 °C la temperatura
richiesta al composto per rilasciare idrogeno.
Angelo Volpi (RISeT )
COREA
Nuovo processo
per il trattamento-smaltimento
di rifiuti alimentari
Un nuovo processo di trattamento/smaltimento di rifiuti
organici di origine alimentare è stato messo a punto
all’Università KAIST (Istituto avanzato coreano di
Scienza e Tecnologia di Daejeon) da un team di ricerca
guidato dal prof. Chang Ho-nam. Il processo, denominato HEROS (Hygienic and hands-free, Energy-saving,
Residuefree, Odor-free, Space-saving system), è a basso
impatto ambientale e consiste in una iniziale fase di separazione differenziata di fanghi e matrice secca attraverso
sistemi filtranti. Il rifiuto alimentare viene quindi avviato
a un processo biologico e di compattazione, con la eliminazione finale della componente umida ed una riduzione
del BOD (Domanda Biochimica di Ossigeno, cioè una
misura del contenuto di materia organica “biodegradabile”) dei fanghi acquosi separati sotto il valore di 180
mg/litro, contestualmente ad una riduzione della concentrazione dei solidi sospesi sotto il valore di 50 mg/litro.
Entrambi i valori risultano compatibili con uno smaltimento sicuro. L’intero processo è attuato con attrezzature che trovano spazio nelle abitazioni /edifici (richiesti 16
mq), per un trattamento/smaltimento del rifiuto fin dall’origine. Il nuovo processo elimina i problemi di inquinamento generato dalle analoghe attrezzature tradizionali di
trattamento di rifiuti in ambiente domestico.
Il processo HEROS sarà montato in prova in 500 abitazioni private coreane e si valuta che il solo mercato nazionale
possa avere un valore rilevante, corrispondente a 1.000
miliardi di won (1,06 miliardi di dollari statunitensi).
Antonino Tata (RISeT )
47
!
Futuro
&
Regala un
abbonamento
a Green
Dieci numeri al prezzo
scontato di 20 euro
futuribile
CURIOSITÀ
Svelato finalmente il meccanismo per il quale la menta è
fredda, ovvero trovato il recettore TRPM8 coinvolto nella
sensazione di freddo che interagisce con il mentolo! Il
merito è del gruppo del professor David McKemy dell’Università della Southern California, che ha utilizzato
un topo geneticamente modificato nel quale i neuroni che
esprimono le molecole di TRPM8 includevano anche un
tracciante fosforescente che illuminasse le fibre nervose
sensibili al freddo, che corrono dai neuroni sensoriali spinali alle terminazioni cutanee. “Gli esseri umani e altri
mammiferi sembrano condividere lo stesso meccanismo” ha detto McKemy. La piacevole freschezza di una
caramella alla menta, di una lozione antidolorifica o la
puntura del ghiaccio sulla pelle avrebbero dunque tutte a
che fare con lo stesso recettore. La rimozione di tale proteina, tuttavia, non elimina completamente la percezione
di freddo: quello estremo, infatti, attiva anche circuiti
dolorifici di allarme. Lo studio, pubblicato sulla rivista
scientifica Journal of Neuroscience, ha come obiettivo a
lungo termine quello di studiare i meccanismi molecolari associati agli organi di senso, nella speranza di sviluppare farmaci che allevino gli stati cronici di dolore, come
quello dell’artrite o dell’infiammazione. “Se capiamo
come i neuroni percepiscono il dolore normalmente – ha
affermato McKemy – allora forse possiamo capire perché percepiamo il dolore quando non dovremmo”.
I verbi
evolvono
come gli
organismi
“La matematica è un
linguaggio” diceva Willard
Gibbs (1839-1903), uno dei
padri della termodinamica e
della moderna chimica fisica.
particolare i verbi – siano
soggette ad un forte processo
di “normalizzazione”, proprio come i geni e gli organismi. Lo studio, pubblicato
sulla prestigiosa rivista scientifica Nature, ha analizzato la
dipendenza tra la “regolarità”
(nel senso grammaticale del
termine) dei verbi inglesi e la
frequenza con cui essi vengono utilizzati: il risultato è
che l’emivita (vedi box) di un
verbo irregolare è direttamentente proporzionale alla
radice quadrata della sua frequenza d’uso. In altre parole,
un verbo usato 100 volte meno di un altro, diventa regolare con una velocità dieci volte maggiore. Una parola
molto comune come “be” ha,
ad esempio, un’emivita di
38.800 anni, sufficienti per
esentarla sostanzialmente dal
processo di regolarizzazione;
L’idea potrebbe rivoluzionare
l’approccio terapeutico al
cancro, una delle malattie
che maggiormente affligge il
genere umano: veicolare,
attraverso nanoparticelle
(1 nanometro = 10-9 m),
farmaci chemioterapeutici da
rilasciare esattamente dove
necessario, evitando così gli
effetti collaterali del
trattamento tradizionale e
incrementandone l’efficacia.
http://www.usc.edu/uscnews/stories/14678.html
“E il linguaggio ha delle leggi matematiche” aggiungerebbe Martin A. Nowak, professore di biologia e matematica all’Università di Harvard, che ha racchiuso in una
formula matematica il processo evolutivo dei verbi irregolari di lingua inglese, analizzando il loro comportamento durante i 1200 anni
passati. La convinzione di
base è che le parole – e in
PER APPROFONDIMENTI
48
Gli scienziati dell’Università
della California di Los Angeles (UCLA), organizzati
all’interno del Centro nanomacchine dell’Istituto di Nanosistemi (CNSI), stanno
sviluppando la tecnologia
già da diversi anni. Soltanto
recentemente hanno tuttavia
firmato un contratto con la
società privata NanoPacific
Holdings per introdurre tali
nanomacchine sul mercato
entro tre anni e rendere, dunque, le terapie basate su di
esse maggiormente utilizzate. Le strutture veicolari includono nanovalvole a forma di nido d’ape che possono essere aperte o chiuse
mediante l’interazione con
un fotone di una data frequenza oppure un agente
chimico, a seconda che il tumore sia localizzato vicino
alla superficie della pelle o
no, rispettivamente. Nel primo caso vengono utilizzate
molecole “ventola”, che
“soffino” il farmaco fuori
dalla nanoparticella. “Inseriamo molecole come l’azobenzene dentro la struttura”
– spiega Jeffrey Zink, codirettore del centro di ricerca
– “quando vengono esposte
alla luce, esse cominciano
ad oscillare causando l’espulsione del farmaco”. Per
le neoplasie situate a maggior profondità, invece, sono
utilizzate sostanze chimiche
che inneschino l’apertura
della nanomacchina in pre-
Nanovalvole
contro
il cancro
Ecco perché
la menta è fredda
PER APPROFONDIMENTI
Offerta speciale per gli studenti
e i docenti:
10 numeri a soli 15 euro
Il modulo di abbonamento
è scaricabile all’indirizzo
www.incaweb.org/green/abbonamenti/index.htm
http://www.nature.com/nature/journal/v449/n7163/abs/nature06137.html
senza di particolari enzimi o
variazioni di pH nell’area
interessata. I punti di forza
della terapia sarebbero la
drastica riduzione della dose
di farmaco somministrata ai
pazienti, che verrebbe ridotta di cento o addirittura
mille volte, e l’inattività nei
confronti delle cellule sane.
Tuttavia, a questi vantaggi
potrebbero aggiungersene
anche altri: lo sviluppo della
tecnologia potrebbe permet-
tere infatti l’impiego di
alcuni farmaci antitumorali
fino ad ora inutilizzabili, come la camptotecina, al momento di difficile somministrazione in quanto di bassa solubilità nel sangue.
Oltre a tali promettenti applicazioni, la collaborazione
si propone di estendere le
competenze sviluppate anche ad altri campi di
utilizzo, quali la cosmetica
o l’elettronica.
Olio combustibile “bunker”
Il carburante utilizzato per la propulsione delle navi è generalmente definito olio combustibile “bunker”, dal nome
dei contenitori nei quali è depositato nei porti. Il combustibile “bunker” appartiene alla famiglia dei distillati pesanti ottenuti dal petrolio e viene classificato in varie categorie, in base alla lunghezza della catena di atomi di
carbonio che lo costituiscono, da 20 a 70 circa (C20-C70).
Per avere un termine di confronto, la benzina è formata
per la maggior parte da C6-C8, il gasolio (altrimenti detto
nafta), invece, prevalentemente da C13-C18.
PER APPROFONDIMENTI www.cnsi.ucla.edu
http://stoddart.chem.ucla.edu
E la nave va…
Un immenso
aquilone
che fa
risparmiare
fino al 50 %
di carburante
“The answer, my friend, is
blowing in the wind”
cantava un tempo Bob
Dylan, ispirando e dando
speranza agli animi di
beatniks e pacifisti. Quasi
cinquant’anni dopo è lo stesso
vento ad infondere un po’ di
ottimismo sul futuro
energetico del nostro pianeta,
adesso che l’energia eolica può
essere impiegata anche nel
trasporto marittimo grazie
alla tecnologia sviluppata
dall’azienda tedesca SkySails.
il verbo “shrive”, invece, ha
un’emivita di soli 300 anni,
vale a dire verrà regolarizzato tra non molto tempo. “L’analisi matematica di questa
evoluzione linguistica - ha
affermato Erez Liebermann,
collaboratore di Nowak - rivela che i verbi irregolari si
comportano in modo tale da
permetterci previsioni sui futuri stadi della loro traiettoria
evolutiva”.
Il vento del cantautore americano era un soffio consolatore che suggeriva risposte
sul futuro dell’umanità,
quello di SkySails è il vento
che potrebbe dare risposta
parziale al problema energetico globale, un vento potente e veloce di alta quota
che viene utilizzato per il
traino di navi mercantili,
tramite un gigantesco aquilone di dimensione variabile dai 150 ai 600 metri quadrati, dispiegato tra i 100 e i
300 metri di altezza.
L’idea è semplice ma d’impatto: affiancare al motore
principale a combustione la
propulsione eolica, molto
più economica e ad impatto
ambientale nullo. Con risultati tutt’altro che trascurabili: riduzione dei costi dal 10
al 35% e del consumo di
carburante fino al 50%, secondo quanto dichiarato
Che cos’è
l’emivita
Il concetto di emivita, qui
utilizzato in campo linguistico-matematico, deriva dal
linguaggio della fisica ed indica il tempo occorrente
perché la metà degli atomi
di un campione puro di un
elemento radioattivo decada
in un altro elemento. Pertanto, è una misura generale
della stabilità di tale elemento: maggiore l’emivita,
maggiore è la stabilità.
dall’azienda. La portata della tecnologia SkySails non è
di impatto ambientale trascurabile, se si tiene in
considerazione, seguendo
quanto detto dalla casa tedesca, che il trasporto marittimo, con un consumo annuale di circa 200-250 milioni di tonnellate di petrolio e un’emissione di circa
di 600-800 milioni di tonnellate di anidride carbonica, contribuisce a circa il
5% delle emissioni globali,
il doppio rispetto a quelle
provenienti dal trasporto aereo.
Utilizzare l’energia eolica
come propulsione per una
nave non è certo un’invenzione dei tempi moderni:
ciò che è innovativo e che
rende competitiva la tecnologia, rispetto alla navigazione a vela tradizionale, è
di utilizzare un aquilone dispiegato in alta quota, dove
i venti sono più veloci di circa il 10-20%, a causa dell’assenza di frizione con la
superficie marina e terre-
stre. La velocità del vento è
particolarmente rilevante
dal momento che il potere
di trazione di un aquilone è
proporzionale al quadrato di
tale quantità: questo significa, ad esempio, che laddove
la velocità delle raffiche raddoppia, il potere trainante
dell’aquilone quadruplica!
Non è finita qui: la tecnologia sviluppata permette di
utilizzare vele relativamente
poco estese, minimizza l’inclinazione dello scafo e
consente, attraverso un profilo aerodinamico apposito,
l’utilizzo del sistema non
soltanto con vento di poppa,
ma anche con vento laterale.
All’azienda amburghese
non sono mancati i riconoscimenti: primo fra tutti il
“Premio per l’Innovazione
dell’Economia Tedesca”,
che vanta una giuria presieduta dal premio Nobel per
la Fisica 1985 Klaus von
Klitzing e dal Presidente
dell’Istituto
Fraunhofer
Hans-Joerg Bullinger.
Lorenzo De Angeli
49
Futuro
le news
di Green
&
)
futuribile
Ecosistemi
a rischio:
verso il punto
di non ritorno?
Si pensi ad un pesante
pullman che, uscito di strada,
rimanga sospeso in perfetto
ma precario equilibrio
sull’orlo di un precipizio; e si
immagini ora di aggiungere
soltanto un sassolino molto
leggero dalla parte che si
affaccia sullo strapiombo.
Anche un ciottolo così
minuscolo sarebbe sufficiente
a sbilanciare il veicolo, che
precipiterebbe
irrimediabilmente.
Simile potrebbe essere il destino di alcuni ecosistemi
del nostro pianeta, secondo
lo studio pubblicato sulla rivista scientifica statunitense
Proceedings of the National
Academy of Sciences Journal da un team internazionale di esperti, tra cui Tim
Lenton, professore di Scienze Ambientali all’Università
di East Anglia, nel Regno
Unito.
L’opinione si discosta da
quella generale del Pannello
sui Cambiamenti Climatici
(IPCC) che tende (con eccezioni) a vedere il cambiamento di stato dei sistemi
ambientali terrestri come un
processo graduale, lineare
in termini matematici, cioè
con una risposta proporzio-
PER APPROFONDIMENTI
L’intrusa
della Via
Lattea
tradita dalla
giovane età:
“solo” 35
milioni di anni
Si pensava che fosse una delle
nostre, che appartenesse anche
lei come il nostro Sole alla
Via Lattea, ma alla fine è
stata smascherata: He 04375439, la stella scoperta nel
2005 dagli astronomi
dell’Osservatorio Europeo
Meridionale (ESO), è
un’intrusa.
50
fenomeni naturali (quali
temperatura o livello del
mare) mediati su lunghe
scale spaziali e temporali,
http://researchpages.net/ESMG/people/tim-lenton/tipping-points
L’ha tradita la sua giovane
età, “solo” 35 milioni di anni, e l’enorme velocità con
cui si sposta verso lo spazio
intergalattico, 2,6 milioni di
chilometri l’ora. La stella ha
una massa pari a circa otto
volte quella del Sole e dista
circa 200.000 anni-luce (distanza percorsa dalla luce in
un anno, circa diecimila miliardi di chilometri) dal pianeta Terra. In seguito al primo avvistamento di He
0437-5439, gli astronomi
avevano ritenuto che provenisse dal centro della Via
Lattea; ciò era tuttavia in
contraddizione col fatto che
la nostra “straniera” avrebbe dovuto impiegare 100
milioni di anni per viaggiare
dal centro della galassia al
PER APPROFONDIMENTI
nale alla causa che lo genera.
Questo poiché l’IPCC considera, nelle proprie analisi,
punto in cui è stata osservata, un tempo ben tre volte
superiore alla sua età. Da
qui lo scetticismo e l’esame
della composizione della
stella, analizzando lo spettro
di radiazione elettromagnetica proveniente dal corpo
celeste per determinarne la
composizione chimica. È
l’attesa scoperta, fatta dagli
astronomi americani della
Carnegie Institution in collaborazione con la Queen's
University di Belfast: He
0437-5439 ha una composizione più simile a quella
delle stelle che popolano la
Grande Nube di Magellano.
Questa galassia nana è visibile ad occhio nudo, un flebile corpo luminoso nel cielo notturno dell’emisfero
http://www.ciw.edu/news/hyperfast_star_proven_be_alien
australe, lontano 157.000
anni-luce. I ricercatori, coordinati da Alceste Bonanos
e Mercedes Lopez-Morales,
hanno pubblicato sulla rivista Astrophysical Journal
Letters, oltre alle osservazioni sperimentali, anche
un’ipotesi che spiega l’incredibile velocità della stella: l’accelerazione dovuta
all’interazione con un buco
nero supermassivo (SMBH), un corpo celeste con
massa pari a oltre un milione di volte quella del Sole.
La stella, in altre parole,
avrebbe fatto parte di un sistema binario che, interagendo con il presunto buco
nero, si sarebbe disgregato:
He 0437-5439 sarebbe stata fiondata nelle vastità
Circolazione
termoalina
Circolazione globale delle
masse d’acqua oceaniche a
causa della variazione della
densità delle stesse, determinata dalla loro temperatura
(termo-) e salinità (-alina).
che non evidenziano il potenziale carattere esplosivo
di alcuni specifici eventi,
antropogenici (vale a dire
causati dall’uomo) e non,
responsabili di una possibile mutazione repentina.
Le componenti del sistema
Terra che possono passare
ad uno stato qualitativo differente in seguito a piccole
perturbazioni sono definite
“elementi di capovolgimento” (tipping elements) e il
punto critico a cui avviene
la transizione tra i due stati
“punto di capovolgimento”
(tipping point).
Esempi “storici” sarebbero
il Massimo Termico del Paleocene-Eocene, in cui la
temperatura media si innalzò di 4-5 °C all’Equatore
dello spazio, mentre la sua
sfortunata compagna sarebbe stata inghiottita dall’enorme massa gravitazionale. L’ipotesi è particolarmente interessante in quanto indicherebbe l’esistenza
di un buco nero supermassivo nella Grande Nube di
Magellano, una delle galassie più vicine alla nostra.
e 8-10 °C ai Poli in seguito
al rilascio di 1.500-4.500 Pg
(1 Pg = 1 petagrammo =
1015 g, cioè 1.000 miliardi
di kg) di carbone fossile, o
la Grande Ossidazione, vale
a dire il primo grande aumento di ossigeno atmosferico, avvenuto 2,4 miliardi
di anni fa.
Un caso recente di tipping
element, invece, sarebbe il
buco dell’ozono, dal momento che il disgregarsi dello strato procede rapidamente una volta sorpassata
una soglia critica di concentrazione di cluorofluorocarburi rilasciati in atmosfera.
Molti ambienti terrestri, come i ghiacci della Groenlandia, la foresta amazzonica o
la circolazione termoalina
atlantica, sarebbero già a rischio: per tali ambienti, infatti, l’aumento di temperatura previsto per i prossimi
cento anni sarebbe sufficiente a raggiungere il tipping point, come mostrato
nel grafico a lato, in cui sono riportati gli “elementi di
capovolgimento” nel sistema climatico terrestre e le
stime di surriscaldamento
globale che li potrebbe innescare.
Quale che sia la provenienza della nostra intrusa,
non rimarrà con noi a lungo: si muove così velocemente che l’attrazione gravitazionale della Via Lattea è troppo debole per
contenerla al proprio interno e per evitare il suo allontanamento nello spazio
intergalattico.
Lorenzo De Angeli
Il nome delle stelle…
L’unica organizzazione a cui è riconosciuto dalla comunità scientifica internazionale il diritto di nominare
le stelle è l’Unione Astronomica Internazionale
(IAU). Alcune società private rilasciano tuttavia, sotto
pagamento, certificati che dimostrerebbero l’assegnazione di un determinato nome ad una particolare stella; tale pratica non è riconosciuta dall’IAU e pertanto
tali nomi non vengono utilizzati dagli astronomi.
Errata corrige
Su gentile segnalazione dei nostri lettori,
poniamo qui rimedio alle seguenti imprecisioni apparse sugli scorsi numeri di
Green:
n. 11 Gennaio-Febbraio 2008
A pag. 42, colonna di sinistra. La didascalia della foto
è ovviamente errata. Quello di Albert Sabin è un vaccino antipolio vivo somministrato per via orale. Lo
scienziato che sta iniettando il vaccino antipolio inattivato al “piccolo eroe” Randall Kerr è quindi il suo
stesso scopritore: Jonas Salk.
n. 9 Ottobre 2007
A pag. 27 nel box in basso nella colonna di destra si
parla degli enantiomeri dell'acido lattico: "capacità di
ruotare il piano della luce polarizzata (verso destra,
forma D, o verso sinistra, forma L)".
In realtà ci sono diverse definizioni di enantiomeri
corrispondenti: la forma D o L è definita in base alla
geometria e simmetria della molecola basata su semplici molecole chirali che fungono da modello come la
gliceraldeide (per gli zuccheri) e la serina (per gli aminoacidi). Le forme + o – (più o meno), che non hanno
corrispondenza con le precedenti, sono definite in
base alla rotazione del piano della luce polarizzata,
per convenzione saranno + se la rotazione è in senso
orario e – nel caso opposto.
Esistono ancora altre definizioni che qui tralasciamo.
n. 4 Marzo 2007
A pag. 47 nel riquadro “Le Parole della Scienza” è
necessario un breve chiarimento per quanto concerne
gli omega-3.
Si tratta di una categoria di acidi grassi insaturi essenziali presenti nelle membrane cellulari e necessari al
loro corretto funzionamento ed integrità. Il residuo
carbossilico (-COOH), tipico degli acidi, per definizione legato al carbonio iniziale (detto “alfa”, dalla
prima lettera dell’alfabeto greco, α), il doppio legame
carbonio-carbonio (C=C), caratteristico degli acidi
grassi insaturi omega-3, si trova nella terminazione
opposta della molecola al terzo carbonio a partire da
quello terminale (detto “omega”, dall’ultima lettera
dell’alfabeto greco, ω).
In un omega-3 con 18 atomi di carbonio, quindi, il
doppio legame si troverà tra il quindicesimo e il sedicesimo carbonio. Considerazioni simili valgono per
gli acidi grassi essenziali omega-6.
n. 3 Gennaio- Febbraio 2007
A pag. 16 e 17 quella indicata come “reazione di Friedel Craft”, dal nome dei due scienziati che l’hanno
descritta nel 1877, Charles Friedel and James Crafts,
deve essere correttamente indicata come “reazione di
Friedel-Crafts”.
51
“
“
Io affermo che quando voi potete misurare ed esprimere in numeri ciò di cui state parlando,
solo allora sapete effettivamente qualcosa; ma quando non vi è possibile esprimere
numericamente l’oggetto della vostra indagine, insoddisfacente ne è la vostra conoscenza
e scarso il vostro progresso dal punto di vista scientifico
Lord William Thomson Kelvin (Belfast 26 giugno 1824 - Netherhall 17 dicembre 1907)
Karl Blechen (Cottbus 1797 - Berlino 1840) - Costruendo il ponte del diavolo, 1833, olio su tela, Neue
Pinakothek, Monaco