bassa risoluzione 72dpi

Transcript

bassa risoluzione 72dpi
la Scienza al servizio
dell’Uomo e dell’Ambiente
green
28
DICEMBRE 2012
Periodico quadrimestrale on-line d’informazione edito dal Consorzio Interuniversitario Nazionale “La Chimica per l’Ambiente” (INCA) anno VII - N.28 dicembre 2012 - distribuzione gratuita
www.green.incaweb.org
TRA DUE CULTURE
Arte e scienza
NUOVE BIOTECNOLOGiE
Insetti e biocarburanti
COSMETICI ECO-BIO
Scelta consapevole
green
ANTIBIOTICI IN ZOOTECNIA
Abuso e farmacoresistenza
SPECIALE
Olimpiadi della Scienza
Premio Green Scuola 2011/2012
Ecco i tre vincitori
Editoriale
Editoriale
di Fulvio Zecchini
I giovani, la scienza
e il futuro dell’umanità
Cari lettori,
è ormai chiaro a tutti che il pianeta sta vivendo una profonda crisi sociale, economica e ambientale. E come recita la citazione
di Albert Einstein sulla quarta di copertina
dell’ultimo numero di Green: “Non possiamo pretendere di risolvere i problemi
pensando allo stesso modo di quando li
abbiamo creati”. Urge nella popolazione
mondiale, soprattutto a livello di governanti, un cambio di mentalità che consideri
come priorità assoluta lo sviluppo sostenibile. Perché questa possa pervadere il tessuto della nostra società nel prossimo futuro,
non possiamo prescindere dall’educazione
dei giovani e dalla scienza e tecnica.
Proprio questa motivazione sta alla base
della realizzazione stessa della nostra rivista Green, la quale in primo luogo intende
essere una fonte d’informazione rigorosa e
piacevole da leggere per i giovani studenti (e anche per tutti i cittadini interessati).
Affinché essi possano farsi una propria
opinione in materia di tutela dell’ambiente e della salute, senza preconcetti e non
seguendo ciecamente l’opinion leader del
momento. Anzi, approfondendo in maniera autonoma o coi propri insegnanti i temi
scientifici legati alla quotidianità, essi potranno sviluppare una vera passione per
queste affascinanti discipline che sembrano
del tutto astratte ai profani.
La stessa filosofia sta alla base delle Olimpiadi della Scienza - Premio Green Scuola
organizzato da Green in collaborazione col
nostro editore, il Consorzio INCA, e con il
Ministero dell’Istruzione, dell’Università e
della Ricerca (Miur) - Dipartimento Istru-
zione, Direttorato Generale per gli Ordinamenti Scolastici e per l’Autonomia Scolastica. Questo nostro concorso per le scuole
superiori di secondo grado è accreditato dal
programma ministeriale Io Merito di valorizzazione delle eccellenze scolastiche e ha
ottenuto l’adesione del Presidente della Repubblica negli ultimi cinque anni.
Anche la settima edizione (OdS-PGS7,
a.s. 2011/2012), che si concluderà con la
cerimonia di premiazione a Roma presso
il Miur-Dipartimento Istruzione a fine gennaio 2013, ha centrato lo scopo. Il tema del
concorso, “Prevenire è meglio che curare.
La tutela dell’ambiente e della salute attraverso l’analisi del ciclo di vita dei composti
chimici e dei processi produttivi”, era decisamente difficile ma si tratta di un aspetto
fondamentale per il raggiungimento dello
sviluppo sostenibile. Nonostante ciò, gli
elaborati pervenuti, anche se meno numerosi degli anni precedenti, sono parimenti
di elevata qualità e hanno contribuito alla
sensibilizzazione di studenti e insegnanti,
amici e familiari (la graduatoria è scaricabile dal link: http://www.incaweb.org/green/
pgsVIIed/index.htm).
In questo numero vogliamo rendere ulteriore merito ai vincitori con uno speciale sulle
OdS-PGS7, volto a far conoscere il risultato
del loro impegno a tutti i nostri lettori. I tre
lavori premiati sono stati trasposti in articoli dagli autori stessi, con la supervisione dei
loro docenti coordinatori. Uno sforzo in più
chiesto a questi studenti che lo hanno svolto con entusiasmo. Anche se per loro era la
prima volta che si cimentavano nella scrit-
tura di
un vero
articolo
divulgativo, il
risultato ci sembra
decisamente buono. Così
abbiamo cercato di essere
il più conservativi possibile nella revisione editoriale, anche se in questo
modo, talvolta, la trasposizione - che soffre
anche di una maggior limitazione di spazio
disponibile - non rende del tutto onore alla
qualità dei tre elaborati originali, la cui forma era infatti diversa e più completa, trattandosi di due presentazioni multimediali e
di un sito Internet. I lavori sono stati giudicati per l’approfondimento scientifico, la
completezza, l’originalità e, infine, proprio
per la tecnica espressiva.
I tre pezzi di questo speciale - intitolati “Riciclo oli esausti” (1° classificato), “Faccia a
faccia con l’anidride carbonica” (2°), “La
sfida dell’ambiente per la chimica. Una
sintesi green del polistirene” (3°) - rappresentano il cuore di questo numero natalizio,
che comprende altri pezzi interessanti su:
la curiosa collaborazione tra arte e scienza,
l’uso e l’abuso di antibiotici in zootecnia,
enzimi da insetti xilofagi per la produzione
di bioetanolo, la moda dei cosmetici “ecobio” e la potenziale pericolosità dell’aspartame, il dolcificante più diffuso al mondo.
Non mi rimane che augurarvi buona lettura
e buone feste.
Ecco l’ottava edizione delle
Olimpiadi della Scienza Premio Green Scuola
(a.s. 2012/2013)
Inquinanti senza frontiere
La diffusione transfrontaliera dei contaminanti atmosferici
e i suoi effetti sull’ambiente e sulla salute*
Il bando e la relativa documentazione sono scaricabili dal sito: http://incaweb.org/green/OdS-PGS8
La scadenza per l’invio degli elaborati è il 31 maggio 2013
*: dedicato agli inquinanti regolati dalla Convenzione di Ginevra del 1979 (http://www.unece.org/env/lrtap/lrtap_h1.html)
la Scienza al servizio dell’Uomo e dell’Ambiente
green
28
DICEMBRE 2012
green
SOMMARIO
Chiodi, martelli e conigli verdi
Arte e scienza: un collaborazione curiosa e talvolta difficile
tesa ad ampliare gli orizzonti della nostra conoscenza
g
Nuove biotecnologie: insetti e biocarburanti
Consorzio INCA
green
(Scuola Normale di Pisa)
Presidente della SCI
17
Primo classificato - Olimpiadi della Scienza
26
Antibiotici in zootecnia: abuso e farmacoresistenza
29
• Quando il pericolo è dolcissimo
• Inquinanti senza frontiere
(Università di Parma)
Consiglio Scientifico del Consorzio INCA
Corrado SARZANINI
35
(Università di Torino)
Presidente della Divisione di Chimica
dell’Ambiente e dei Beni Culturali della SCI
Ferruccio TRIFIRÒ
42
La zootecnia fa un uso massiccio di antibiotici,
con ripercussioni significative sulla salute e sull’ambiente
News - Futuro & Futuribile
(Università di Verona)
Presidente del Consorzio INCA
Giovanni SARTORI
Terzo classificato - Olimpiadi della Scienza
Impazza il trend della cosmesi “eco-bio”.
Ecco come scegliere consapevolmente
(Università “La Sapienza” di Roma)
Past-President della SCI sezione Lazio
Franco CECCHI
Secondo classificato - Olimpiadi della Scienza
La natura ti fa bella (e sana) Comitato scientifico
Armandodoriano BIANCO
INSERTO SPECIALE
Riciclo oli esausti
Una sintesi green del polistirene
Fulvio Zecchini
Vincenzo BARONE
Gli insetti xilofagi come fonte di enzimi
per ottenere bioetanolo da biomasse lignocellulosiche
Faccia a faccia con la CO2 Direttore responsabile
4
11
Periodico quadrimestrale on-line d’informazione
edito dal Consorzio Interuniversitario Nazionale
“La Chimica per l’Ambiente” (INCA)
in collaborazione con
la Società Chimica Italiana (SCI)
51
Buone
Feste
(Università di Bologna)
Direttore de “La Chimica e l’Industria”
edita dalla SCI
Luigi CAMPANELLA
(Università “La Sapienza” di Roma)
Consulente esterno, Coordinatore del
Consiglio Scientifico del Consorzio INCA
Direzione, redazione e amministrazione
Rivista Green c/o Consorzio INCA
Via delle Industrie, 21/8
30175 Venezia - Marghera
Tel.: (+39) 041 532-1851 int. 101
Fax: (+39) 041 259-7243
Registrazione al Tribunale di Venezia
n° 20 del 15 luglio 2006
Progetto grafico e impaginazione
Publileo s.r.l.
[email protected]
Distribuzione gratuita
Per informazioni
www.green.incaweb.org
[email protected]
Fax: (+39) 041 259-7243
© Consorzio INCA, 2006 - 2012
Tutti i diritti sono riservati. La presente pubblicazione,
tutta o in parte, non può essere riprodotta o trasmessa
in nessuna forma e con nessun mezzo, senza l’autorizzazione scritta dell’editore, ad eccezione delle immagini
tratte da Wikipedia Commons che sono distribuite con
la licenza Creative Commons per uso non commerciale
(http://creativecommons.org).
L’editore, nell’ambito delle leggi sul copyright, è a disposizione degli aventi diritto che non si sono potuti
rintracciare.
“L’adorazione dei pastori”, Giorgione (olio su tavola 91 x 111 cm, 1500-1505 ca.), National Gallery of Art, Washington, D.C.
Xxxx Xxx
Arte e scienza: una collaborazione curiosa
e talvolta difficile tesa ad ampliare
gli orizzonti della nostra conoscenza
Chiodi, martelli
e conigli verdi
di Silvia Casini
Potrà sembrare
un paragone ardito, ma
in ambito lavorativo l’artista
e lo scienziato sono accomunati in
primo luogo dall’uso della fantasia. Così
come l’arte moderna reinventa oggetti della
quotidianità e persino rifiuti facendone opere, più
o meno concettuali, che allietano i nostri sensi,
così, oggi, la scienza porta le sue tecnologie fuori
dal laboratorio, applicandole ad altri settori dello
scibile umano in maniera prima impensabile. Ecco
un curioso esempio di collaborazione tra arte e
scienza.
The Free Universal Construction
Kit di Golan Levin e Shawn Sims.
Tra due culture Arte e scienza
Arte, scienza, impresa:
nasce Arscientia
In senso orario:
un particolare di Skull II, specchio di bronzo ricavato da risonanza magnetica;
fotografia di Skull II, monolite in
bronzo, scultura di Marc Didou;
immagine tratta dal film “Weighing... and Wanting” di William
Kentridge, cortesia del Museo di
Arte Contemporanea di San Diego;
immagine sagittale del cervello
ottenuta tramite risonanza magnetica.
Il neuroscienziato Steven Rose sostiene
che quando stringiamo tra le mani un martello, ogni cosa finisce per sembrare un
chiodo: l’uso che facciamo dello strumento, cioè, plasma il mondo e talvolta semplifica in modo riduttivo la nostra percezione
di esso (Rose, 2005). Questo esempio facilmente intuibile è esteso da Rose a tutti
quegli strumenti che fanno parte della quotidianità dello scienziato all’interno di un
laboratorio.
Si pensi a una tecnologia complessa proveniente dall’ambito biomedicale, la risonanza magnetica nucleare (RMN),
capace di generare immagini che
permettono di accedere in modo
non invasivo alla morfologia e
fisiologia del corpo umano, cervello compreso. La RMN viene usata
per scopi di ricerca o diagnostico-terapeutici: le immagini prodotte sono
perciò interpretate come prove di una
condizione di normalità o deviazione rispetto alla norma.
Cosa accadrebbe se, contrariamente all’uso
prescritto, togliessimo quello stesso strumento dal suo contesto originario e lo usassimo in maniera alternativa all’uso abituale? Nella maggior parte dei casi, questo è il
punto di partenza per avviare esperimenti
a cavallo tra arte e scienza. Un utilizzo
diverso delle tecnologia della risonanza
magnetica e delle immagini prodotte è, per
esempio, al centro di alcuni progetti avviati
da numerosi artisti, più o meno noti a livello internazionale. Alcuni hanno utilizzato
la RMN per ripensare il loro modo di fare
scultura (Marc Didou), altri hanno usato la
tecnologia e le immagini per indagare
questioni legate all’identità personale e alla pratica del ritratto (Justine
Cooper, Angela Palmer, Suzanne Anker), alcuni, infine, hanno utilizzato
le immagini della RMN per esplorare
5
n.28 | Dicembre 2012
la corrispondenza tra paesaggi esterni e interiori (William Kentridge).
Nella scienza odierna, gli strumenti tecnologici giocano un ruolo fondamentale
non solo nella pratica quotidiana del laboratorio, ma anche nella elaborazione delle
teorie scientifiche, al punto che è usuale
parlare di tecno-scienza. Questo termine
è stato coniato alla fine degli anni Settanta
dal filosofo belga Gilbert Hottois e poi approfondito criticamente da sociologi della
scienza come Bruno Latour e dalla filosofa
femminista Donna Haraway, autrice del famoso Manifesto Cyborg (1985). Negli ultimi anni, tecnologie anche molto diverse
tra loro stanno convergendo: un
esempio sono le nanotecnologie a cui lavorano non
soltanto scienziati di
ambiti disciplinari
diversi (chimici, fisici,
biologi, ingegneri ecc.)
ma anche esperti delle scienze umane e
sociali (filosofi, sociologi, bioeticisti).
La conoscenza scientifica sempre più specialistica
e
le innovazioni tecnologiche
mettono l’umanità di fronte a sfide (e,
talvolta, vere e proprie controversie)
che riguardano la salute, l’ambiente, l’economia, il corpo umano, la
relazione tra le persone. Per affrontare queste sfide non basta il sapere
scientifico da solo, né quello umanistico-artistico.
Questo è il terreno da cui nasce Arscientia - Arte, Scienza e Impresa,
una nuovo format, creato da due
aziende veneziane, Picapao e Fondaco, per incrociare i territori di
arte, scienza e impresa e apprezzarne le potenzialità d’innovazione.
Attraverso un concorso a premi
e momenti di dialogo su tendenze e scenari tra arte e scienza, si
vuole esortare i giovani creativi
a credere nelle proprie idee e a
strutturarle perché diventino progetti reali. Arscientia si sviluppa
attraverso due formule principali:
i Dialoghi a Venezia e gli Eventi in
diverse città del Nordest. Nei Dialoghi si conversa
con i creativi
(scienziati, impren-
Tra due culture Arte e scienza
ditori, artisti locali e internazionali) nella
prestigiosa cornice dell’Istituto Veneto di
Scienze, Lettere e Arti di Venezia. Negli
Eventi, che si svolgono a Treviso, Vicenza, Verona e Trieste nelle filiali di Veneto
Banca, sponsor principale del progetto, ci
si mette alla prova in prima persona grazie
a un business game e ci si prepara al meglio
per partecipare al Premio Arscientia.
Particolare dell’installazione Zero
@Wavefunction, opera frutto
della collaborazione tra l’artista Victoria Vesna e lo scienziato
esperto di nanotecnologie James
Gimzewski.
Una collaborazione
storica
L’esistenza di un rapporto tra arte e scienza
non desta sorpresa né costituisce una caratteristica unica del nostro tempo, nonostante
un certo scetticismo da sempre accompagni i tentativi di dialogo tra i due saperi.
The two cultures (Le due culture) fu il titolo
dato alla Rede Lecture pronunciata a Cambridge nel 1959 da Charles Percy Snow,
scienziato e scrittore britannico. In quella
circostanza, Snow circoscrisse le sue considerazioni alla scienza e alla letteratura,
tralasciando le arti, sottolineando quanto la
cultura letteraria del suo tempo fosse ignorante di scienza e come ciò costituisse una
sorta di vanto per gli intellettuali umanisti.
In seguito alle reazioni polemiche suscitate
dalla sua prima conferenza, dopo qualche
anno egli ipotizzò - senza spiegare in che
cosa di fatto consistesse - una “terza cultura” capace di favorire il dialogo tra scienziati e letterati. Oggi l’espressione “le due
culture” è entrata nel vocabolario comune
per designare sia la scienza che le arti, intese in senso ampio.
Per comprendere la situazione attuale, è
utile inquadrare storicamente la relazione tra arte e scienza. Solo dal 1800 in poi
arte e scienza sono diventate due ambiti
di sapere autonomi. Prima di allora, arte e
scienza, pur essendo due attività distinte,
condividevano lo stesso orizzonte epistemologico. La scienza, infatti, non costituiva un campo di sapere a sé stante, ma
coincideva con la filosofia naturale, come
ha sottolineato Pickstone (2000). L’arte
faceva a sua volta parte della filosofia naturale come testimoniano, per esempio, il
trattato De humani corporis fabrica redatto
nel 1543 da Vesalius, anatomista fiammingo, le cui dissezioni e descrizioni del corpo
umano contribuirono a gettare le basi della
anatomia moderna. Le incisioni su legno
delle tavole anatomiche di Vesalius, che
coniugano precisione scientifica, valore
estetico e rimandi allegorici, sono forse il
primo frutto tangibile della collaborazione
tra artisti e scienziati. Nel Rinascimento,
6
n.28 | Dicembre 2012
Tra due culture Arte e scienza
Goccia di ferro fluido del diametro di 3 cm su superficie di vetro
e foglio di carta gialla, sette magneti sotto al foglio danno forma
alla goccia.
[Immagine: foto di Felice Frankel]
7
architetti, artisti e umanisti come Filippo
Brunelleschi, Leonardo da Vinci e Leon
Battista Alberti si confrontano in modo sistematico soprattutto con la scienza della
percezione visiva, come testimoniano le
loro opere, in cui è evidente l’impiego della prospettiva e di macchine per la visione.
È a partire dalla seconda metà dell’Ottocento che arte e scienza si affermano come
due distinte modalità di approccio al mondo e conoscenza dello stesso. La concezione romantica dell’art pour l’art e il periodo
delle avanguardie storiche di inizio Novecento hanno sì permesso alle arti di coltivare la ricerca dell’originalità e dell’indipendenza più radicali, ma le hanno allontanate
dalla scienza che, sola, vanta un primato
di tipo epistemologico. In questo periodo,
infatti, è alla scienza che si richiede di dare
risposte efficaci alle questioni più urgenti.
L’arte, pur indispensabile in quanto attività culturale e capace talvolta di anticipare
cambiamenti socio-politici, ha un ruolo conoscitivo marginale, offre cioè suggestioni
e non soluzioni alle questioni che solo la
tecno-scienza sembra in grado di affrontare: la spiegazione dei fenomeni fisici, il
funzionamento del cervello e così via.
A partire dal 1990, si sono moltiplicate
iniziative sulla fertilizzazione tra scienza e
arte: mostre, festival, borse di studio, percorsi di dottorato, collaborazioni tra scienziati e artisti. Nel 1998 venne creato nel
Regno Unito il NESTA, il Fondo Nazionale per la Scienza, la Tecnologia e l’Arte; l’anno successivo fu creato il consorzio
arte-scienza. Il rapporto Immaginazione e
Comprensione pubblicato nel 2001 mo-
n.28 | Dicembre 2012
stra, dati alla mano, come la separazione
tra arte, scienza ed educazione sia causa di
rallentamento economico, incoraggiando
perciò progetti di collaborazione tra artisti,
scienziati e università capaci di produrre
risultati innovativi.
Gli artisti nel laboratorio
Nasce così una categoria di artisti che lavora a stretto contatto con gli scienziati nei
laboratori di ricerca, utilizzando la strumentazione scientifica messa a disposizione. Gli anglosassoni, i primi a promuovere
queste collaborazioni, li definiscono come
artists in the lab. Essi collaborano con gli
scienziati spinti da motivazioni diverse che
qui possiamo provare a riassumere.
Innanzitutto, entrare nel laboratorio di uno
scienziato è l’unico modo per poter accedere a strumenti e immagini altrimenti non
facilmente disponibili. Le immagini svolgono un ruolo sempre più importante nella
routine degli scienziati, al punto che si è
parlato di una “svolta visiva” della scienza a partire dal 1990. Questo accade anche
quando non di immagini vere e proprie si
tratta, quanto piuttosto di modelli capaci di
descrivere fenomeni scientifici non percepibili a occhio nudo. Lo storico dell’arte
James Elkins, uno dei primi a interessarsi
della relazione tra arte e scienza, sostiene
che oggi le immagini più interessanti sono
create dagli scienziati e non dagli artisti,
portando come esempio le immagini ottenute dai microscopi a forza atomica o a
scansione di sonda utilizzati nelle nanotecnologie.
In secondo luogo, le opere nate da una collaborazione tra artisti e scienziati possono
sviluppare nel pubblico non soltanto una
migliore comprensione di alcuni fenomeni
scientifici, ma anche una riflessione critica circa le implicazioni sociali della ricerca scientifica. Infine, una delle ragioni del
successo di queste sinergie consiste nella
fragilità del singolo nell’affrontare le sfide
e la complessità dei problemi del nostro
mondo sotto la spinta della tecnologia.
Da un lato, nel laboratorio l’attenzione si
concentra su dettagli singoli e il procedere scientifico per ipotesi da verificare con
esperimenti ben definiti può ridurre la tensione artistica generata dal confronto con
la complessità del mondo. Dall’altro, la
collaborazione con l’artista aiuterebbe lo
scienziato a esplorare metodi ibridi e addirittura a mettere in discussione il sistema
sperimentale medesimo. Grazie alla collaborazione con gli artisti, infatti, gli scienziati possono sperimentare uno spazio di
Tra due culture Arte e scienza
Fotografia di Patrick Bolger,
particolare
dell’installazione “Hyperbolic Crochet Coral
Reef” creata da Margaret Wertheim, cortesia della Science
Gallery Dublin.
8
libertà lontano dal rigoroso, e sovente necessario, processo di scrutinio scientifico.
Gli artisti indicano nuovi comportamenti,
applicazioni inattese capaci di mettere in
discussione l’oggetto di indagine del sistema sperimentale stesso. Il metodo scientifico è un sistema chiuso e delimitato, adatto
alla semplificazione di fenomeni complessi
da analizzare, ma esso, al tempo stesso,
deve sempre poggiare sull’orizzonte epistemologico di altri sistemi e sfondi che
potrebbero contribuire a ridefinire l’oggetto dell’esperimento e, di conseguenza, il
metodo con cui viene studiato (Rheinberg,
1997).
È opportuno sottolineare come alcuni di
questi artisti nel laboratorio non vogliano
essere definiti tali, poiché convinti che arte
e scienza siano e debbano rimanere distinte. “Suggerire che l’arte e la scienza siano
correlate potrebbe risultare pericoloso. Le
immagini scientifiche possono essere molto belle e probabilmente artistiche, ma non
sono arte, e l’arte non è scienza” sostiene
la fotografa scientifica americana Felice
Frankel, le cui immagini ricche di dettagli,
quasi tattili, hanno conquistato le copertine
di prestigiose riviste scientifiche tra cui Nature e Scientific American.
Sostenere lo sviluppo di collaborazioni
tra arte e scienza non significa, tuttavia,
cancellare le specificità e metodi di que-
n.28 | Dicembre 2012
sti saperi. Significa piuttosto essere aperti
alla possibilità che da queste collaborazioni nascano processi e prodotti non facilmente identificabili come scienza o come
arte, dei veri e propri ibridi, insomma. La
Science Gallery del Trinity College di Dublino, diretta da Michael John Gorman e il
Le Laboratoire di Parigi, fondato nel 2007
da David Edwards con la collaborazione
dell’Università di Harvard, sono due fiori
all’occhiello nell’ambito della sperimentazione tra scienza, arte e, talvolta, impresa.
Entrambi sono spazi di incontro e progettazione culturale condivisa dove professionisti di ambiti diversi lavorano a stretto contatto per arrivare a mostre e prodotti finiti.
Alcune creazioni sono state brevettate, è il
caso di Le Whif, definito da Edwards come
un “approccio nuovo e delizioso al cibo,
un fischietto-aereosol per degustare gli alimenti respirandoli”.
Esempi eclatanti di prodotti e processi ibridi sono quelli provenienti dalla ricerca genomica che offre agli artisti la possibilità
di lavorare con materiali e tessuti viventi.
Nel 2000 il brasiliano Eduardo Kac realizza un coniglio con un gene di medusa, GFP
Bunny, che diventa verde se esposto a un
certo tipo di luce e che costituisce uno dei
primi esempi di arte transgenica, ossia “la
creazione di un essere vivente organico, totalmente artificiale, a scopi artistici” (P. L.
Tra due culture Arte e scienza
Particolare dell’installazione per
la mostra dedicata a “Le Whif”
al Le Laboratoire, Paris.
Fotografia dello spray al cioccolato “Le Whif” inventato da
David Edwards, sfrutta la tecnologia dell’aerosol e assomiglia a
un fischietto.
9
Capucci). Il coniglio
verde di Kac è solo
una delle creazioni
realizzate da un esponente della BioArt,
o arte transgenica.
Esistono infatti sempre più centri specializzati nel binomio
arte/biotecnologia:
SymbioticA, ad esempio, fondato da Oron
Catts e Ionat Zurr
presso la University
of Western Australia,
opera all’interno della
facoltà di anatomia e
biologia umana e organizza residenze per artisti, scienziati e filosofi. A
sottolineare l’importanza della collaborazione tra professionisti diversi
è Paola Antonelli, senior curator del
dipartimento di Architettura e Design
del MoMa di New York che nel 2008
ha ospitato la mostra Design and the
Elastic Mind:
“La maggior parte dei biodesigner non
corrisponde alla figura dello scienziato
pazzo che, in emulazione di Dio, si impegna a creare un nuovo essere, personificazione dell’imminente scontro finale: alcuni
lavorano con organismi visibili come piante e animali, altri con batteri e cellule, altri
ancora perseguono la creazione di nuovi sistemi viventi manipolando il Dna. Nessuno
di loro, tuttavia, opera da solo in una terra
di nessuno dell’etica, preferendo lavorare
in gruppo e far parte di team che comprendono fisici, matematici, tecnici informatici,
ingegneri, chimici e specialisti in bioetica.
A volte anche economisti e filosofi”.
Il collettivo SymbioticA sostiene ed ospita,
tra gli altri, Tissue Culture, un progetto artistico di ricerca sull’uso delle tecnologie del
tessuto organico come mezzo per una nuova espressione artistica e come strumento
per migliorare la qualità della vita. Per descrivere i loro strumenti di lavoro, Catts e
Zurr hanno coniato il termine semi-vivente.
“Se le cose di cui ci circondiamo ogni giorno fossero nello stesso tempo prodotti ed
entità viventi, in crescita, cominceremo ad
assumere un atteggiamento più responsabile nei confronti del nostro ambiente, e
a tenere a freno il nostro consumismo distruttivo” afferma l’artistico duo.
Ciò detto, molti esperimenti del nostro tempo nati dalla collaborazione arte-scienza in
realtà non influiscono o non lasciano tracce
durature sulla pratica dell’artista o su quella dello scienziato. Troppo spesso collaborazioni di questo tipo non si sviluppano in
n.28 | Dicembre 2012
esperienze autonome e vitali - scientifiche
o artistiche - indipendenti da risultati commerciali e scientifici o, in caso affermativo,
quei risultati non sono facilmente rintracciabili al di fuori di mostre o simposi temporanei (Dorfles, 2001).
L’osservatore aggiunto
L’osservatore-aggiunto (dall’espressione
inglese attached-observer) - una professionalità presa dall’antropologia e dalla
ricerca etnografica sul campo - rappresenta
il tentativo di comprendere il processo e
non solamente i risultati di queste collaborazioni. L’introduzione di un terzo agente
tra l’artista e lo scienziato ha il merito di
focalizzare l’attenzione sulle forme della
collaborazione stessa non solo in maniera
retrospettiva, ma mentre la collaborazione
è in corso nel laboratorio (Leach, 2006:
447-451). Le parole chiave sono processo
- non risultato - e interazione tra le persone
coinvolte. L’osservatore-aggiunto agisce
da testimone e a volte anche da partecipante al progetto: stimola le domande, mette
in discussione l’interazione stessa, esplora nuove possibili direzioni di ricerca per
l’artista e per lo scienziato come singoli,
una volta conclusa la collaborazione a un
progetto specifico (Mandelbrojt, 1994).
Come afferma l’antropologo sociale James
Leach: “quelle nuove direzioni, forse più
di qualsiasi risultato fisico finito, sono un
prodotto genuino della collaborazione, impensabile senza il rapporto particolare tra i
partecipanti” (2006: 449).
Arte e scienza:
le nuove sfide
Il dibattito che sta infervorando le discussioni tra lettori e autori della rivista Leonardo - The Journal of Art, Science and Technology del gruppo SEAD (Network for
Sciences, Engineering, Arts and Design)
riguarda le sfide che dovranno affrontare
quanti vogliano esplorare il territorio di
intersezione tra arte e scienza e cimentarsi
in prima persona con un progetto o una ricerca in questo settore. Tra gli italiani che
partecipano al dibattito (pochissimi, per la
verità), vi è Michele Emmer, insigne matematico e regista, autore di numerosi libri
che esplorano i concetti di spazio e forma
tra scienza e arte.
Queste sono alcune delle sfide più urgenti,
in rigoroso ordine sparso:
Tra due culture Arte e scienza
Piccola biblioteca per
orientarsi tra arte e scienza
• ARENDS, BERGIT and THACKARA, DAVINA. (Eds.). 2004. Experiment: Conversations in Art and
Science. London: Wellcome Trust.
• DORFLES, GILLO. 2001. Ultime Tendenze nell’Arte Oggi: dall’Informale al Neo-Oggettuale. Milano: Feltrinelli.
• EDE, SIÂN. 2005. Art and Science. London: I.B. Tauris & Company.
• EDWARDS, DAVID. 2008. Artscience. Creativity in the post-Google Generation. Harvard University Press.
• ELKINS, JAMES. 2008. Six Stories at the End of Representation. Chicago: Chicago University
Press.
• EMMER, MICHELE. 2006. Visibili armonie. Teatro, cinema, arte, matematica. Bollati Boringhieri.
• LEACH, JAMES. 2006. ‘Extending Contexts, Making Possibilities: An Introduction to Evaluating
the Projects’. Leonardo. 39.5. 447-451.
• MANDELBROJT, JACQUES. 1994. ‘Art and Science: Similarities, Differences and Interactions’.
Leonardo. 27.3. 179-180.
• RHEINBERGER, HANS-JÖRG. 1997. ‘Experimental Complexity in Biology: Some Epistemological
and Historical Remarks’. Philosophy of Science. December Supplement 64. 245-254.
• ROSE, STEVEN. 2005. The 21st Century Brain. Explaining, Mending and Manipulating the Mind.
London: Jonathan Cape-Random House.
• SNOW, CHARLES P. 1998. The Two Cultures. Cambridge: Cambridge UP.
Fotografia di GFP Bunny, opera
d’arte transgenica realizzata da
Eduardo Kac mediante una mutazione sintetica del gene GFP
della fluorescenza della medusa
Aequorea victoria. Il coniglio
albino, se esposto a una luce
particolare, diviene verde fluorescente.
10
1. La valutazione delle collaborazioni
tra artisti e scienziati. Quando è possibile giudicare se una collaborazione
ha avuto successo o meno? È sempre
necessario arrivare a un risultato, a
un’opera finita, oppure è meglio concentrarsi sul processo, sulla collaborazione nel suo svolgersi? Qui entra in
gioco la necessità di valutare le collaborazioni stesse senza irrigidirle in un
protocollo e garantendo la massima
libertà di sperimentazione e creazione.
2. Il ripensamento del sistema formativo nella sua totalità. L’innovazione
pedagogico-educativa riguarda l’insegnamento interdisciplinare e le diverse
modalità di apprendimento. In Italia,
per esempio, dalla Riforma Gentile del 1932 la separazione tra sapere umanistico e scientifico continua a prevalere nei programmi
formativi della scuola dell’obbligo e
della formazione universitaria. Anche
quando ciò non dovesse
accadere - esistono,
infatti, alcuni
programmi di
n.28 | Dicembre 2012
dottorato inter-disciplinari - i concorsi
accademici per ricercatori sono promulgati seguendo rigorosamente i settori disciplinari.
3. Il ruolo dell’impresa nei progetti tra
arte e scienza nella situazione di crisi globale economico-sociale. L’impresa deve semplicemente esercitare
un ruolo di facilitatore e sostenitore di
questi progetti (principalmente attraverso sponsorizzazioni), oppure è possibile un ripensamento delle modalità
di fare impresa grazie allo sviluppo di
collaborazioni tra arte e scienza?
4. Proprietà intellettuale e diritti d’autore. Le scienze, l’ingegneria, l’arte,
il design e le discipline umanistiche
hanno sviluppato approcci molto diversi tra loro per affrontare il nodo
della proprietà intellettuale, dei diritti
d’autore, dei brevetti. A volte queste
diversità d’approccio possono causare
ostacoli alla condivisione delle informazioni se non, addirittura, controversie vere e proprie. Una delle questioni più annose riguarda l’attribuzione
della proprietà intellettuale ai fini di
eventuali applicazioni commerciali e
dell’individuazione di criteri per promuovere o meno la carriera lavorativa
dei singoli all’interno delle organizzazioni di appartenenza.
Lasciando al lettore il compito di riflettere
su queste piccole grandi sfide, ritorniamo,
in conclusione, all’affermazione di Rose
che ha aperto questo articolo: se abbiamo
in mano un martello, tutto ci apparirà più o
meno in termini di chiodo. Se l’utilizzo artistico di uno strumento scientifico non è di
per sé in grado di conservare la complessità
del fenomeno investigato, tuttavia, le collaborazioni tra artisti e scienziati potrebbero
risultare un modo efficace per stringere in
mano il martello senza ridurre il
mondo a un semplice chiodo.
Silvia Casini
Coordinatore scientifico
progetto Arscientia
Picapao srl
Xxxx Xxx
Gli insetti xilofagi come fonte di enzimi
per ottenere bioetanolo da biomasse
lignocellulosiche
Nuove biotecnologie:
insetti e biocarburanti
di Gabriella Butera
Australia centrale. A sinistra la
grande torre di un termitaio.
I biotecnologi sono sempre alla ricerca di
enzimi dalle fonti più disparate, utilizzabili
per ottenere sintesi pulite e innovative con
le quali produrre beni di largo consumo. Gli
insetti xilofagi si nutrono di legno. Sebbene
alcune specie siano decisamente dannose
per i manufatti realizzati con questo
materiale, sono importanti nel ricambio del
carbonio organico e dalla flora intestinale
di alcuni di essi si possono ottenere enzimi
utilizzabili per produrre biocarburanti
di seconda generazione da biomasse
legnose. In questo modo si possono usare
fonti energetiche rinnovabili, evitando
l’inopportuna competizione con le colture
alimentari.
Nuove biotecnologie Insetti e biocarburanti
Gli insetti xilofagi
Gli insetti xilofagi si nutrono di un particolare tessuto delle piante vascolari chiamato xilema o, più comunemente, legno.
È facile intuire che si tratti di insetti che
da un punto di vista ecologico giocano un
ruolo molto importante nel processo di turnover del carbonio, in quanto nutrendosi di
tutti i detriti vegetali presenti nelle lettiere
dei boschi (ma anche nei nostri giardini di
casa!) consentono il “riciclo” della materia
organica. Alcune specie però, proprio per
la loro capacità di nutrirsi della cellulosa
presente nel legno, causano gravi danni
Struttura della lignocellulosa.
[Immagine: Edward M. Rubin; alle infrastrutture in legno in tutto il mondo, specialmente in quei Paesi in cui le case
2008 Nature 454, 841-845].
sono costruite interamente in legno.
Questi animaletti non sarebbero così efficienti nel degradare i residui vegetali
se non ospitassero all’interno
del loro intestino
una vasta comunità
microbica che - oltre a contribuire alla
Reticulitermes lucifugus: opera- fissazione dell’azoia (sinistra) e soldato (destra).
to - gioca un ruolo
determinante nella
degradazione di tutti
i polimeri che compongono i materiali vegetali,
primo fra tutti la
cellulosa che costituisce circa il
12
n.28 | Dicembre 2012
50% del totale in peso secco di una pianta
adulta.
La flora intestinale degli insetti xilofagi include organismi appartenenti a tre domini
differenti: batteri, archeobatteri ed eucarioti. Quest’ultimo dominio è rappresentato
principalmente dai protozoi. Tra di loro si
instaura un rapporto di simbiosi così complesso che è stato oggetto di studio da parte
di molti scienziati, non soltanto perché è
alla base dell’efficienza della degradazione
della lignocellulosa, ma per capire i meccanismi della simbiosi stessa.
La termite (pronuncia: tèrmite) è uno degli insetti xilofagi più studiati. Appartiene
all’ordine Isoptera, famiglia Rhinotermitidae. Presenta una complessa organizzazione sociale e si nutre della cellulosa
presente nel legno. Crea delle ampissime
colonie sotto terra in ambienti umidi e
bui. Per spostarsi all’esterno alla ricerca
di cibo, le termiti operaie costruiscono dei
tunnel formati da terra ed escrementi entro
i quali si muovono. Col nome di termite si
indica un gruppo di specie che si possono
distinguere in lower (il termine anglosassone è qui usato nell’accezione di inferiori,
meno evolute) e higher (superiori, più evolute). Le prime ospitano nel loro intestino
una vasta popolazione di batteri e protisti
flagellati (organismi eucarioti unicellulari
che per spostarsi nell’ambiente in cui vivono muovono i flagelli di cui sono dotati).
L’apparato digerente di tutte le termiti che
si nutrono di lignocellulosa produce una
glico-idrolasi (un enzima idrolitico) che
viene secreta ed è attiva nella parte anteriore dell’intestino. Questo rappresenta un
importante ecosistema che ospita numerosi
microorganismi e le molteplici relazioni
simbiotiche che si instaurano tra di essi e
il loro ospite stanno alla base dell’efficienza della degradazione della lignocellulosa.
Studi recenti hanno chiarito che importanti enzimi idrolitici vengono prodotti dai
batteri qui presenti. A supporto di questa
ipotesi vi sono alcune
evidenze sperimentali:
l’osservazione di batteri
strettamente attaccati a
particelle di legno all’interno dell’intestino e la scoperta di un gene codificante
per una endoxylanasi
nel Dna batterico prelevato dal tratto intestinale di una specie di
termite.
Questo ecosistema è
uno dei più affascinanti esempi di simbiosi tra un animale
Nuove biotecnologie Insetti e biocarburanti
loro ospite.
I protozoi presenti nell’intestino delle termiti lower sono responsabili della digestione della lignocellulosa in questo gruppo di
insetti. Essi sono specifici per il tipo di termite che le ospita, in quanto si è in presenza di un’associazione simbiotica obbligata.
La loro relazione evolutiva non è stata ancora adeguatamente descritta a causa della
diversità e dell'elevata abbondanza specifica della microflora.
Biocarburanti
da biomasse
Xilema e Floema
Lo xilema o, più semplicemente, il legno è il complesso costituito da vasi, fibre e cellule parenchimatiche presente nelle angiosperme, piante superiori dette anche “vascolari”, caratterizzate dalla formazione di fiori.
Il floema, o libro, rappresenta il complesso dei tubi cribrosi, cellule parenchimatiche e
fibre (quest’ultime non sempre presenti) delle angiosperme.
I vasi ed i tubi cribrosi sono i due tipi di “condotti” del sistema vascolare delle piante
superiori che è specializzato nel trasporto dei nutrienti: lo xilema porta l’acqua e i
sali minerali, necessari alla pianta per sintetizzare sostanza organica, dal terreno alle
foglie; nel floema, invece, scorre la linfa elaborata dalle foglie, dove si concentra l’attività fotosintetica, che così raggiunge il resto della pianta.
Termiti operaie e soldato della
specie Reticulitermes lucifugus.
R. lucifugus, Kalotermes flavicollis e Cryptotermes brevis sono
le specie di termiti presenti in
Italia. R. lucifugus è una specie
molto dannosa che ha causato ingenti danni al patrimonio storico
e artistico nazionale.
[Immagine: Gabriella Butera].
e microbi e tra le diverse specie di questi
ultimi. La microflora intestinale delle termiti viene comunemente scambiata tra i
membri di una colonia e trasmessa alle
generazioni future attraverso la trofallassi,
un tipo di nutrizione molto comune negli
isotteri in cui il cibo viene distribuito ai
diversi individui della colonia mediante il
rigurgito bocca a bocca. Questo meccanismo di nutrizione può promuovere meccanismi di co-evoluzione tra i simbionti e il
La cellulosa è il biopolimero più
diffuso. Si tratta di un polisaccaride costituito da 300-3.000 molecole di glucosio, unite tra loro
da un legame β-1,4 glicosidico.
Il monomero è rappresentato
più precisamente dal cellobiosio
che è il dimero (disaccaride) del
glucosio. La catena polimerica
non è ramificata. Come si vede
nello schema tridimensionale
(in basso), tra catene adiacenti
si formano numerosi legami a
idrogeno (tratti celesti) grazie
alla presenza dei numerosi residui -OH. Ciò conferisce alla cellulosa una struttura cristallina
compatta.
13
n.28 | Dicembre 2012
La cellulosa è il maggiore componente delle biomasse di origine vegetale. È un polimero costituito da molecole di glucosio
(uno zucchero monosaccaride a sei atomi di
carbonio) unite da legami 1,4 β-glicosidici
in lunghissime catene lineari che costituiscono un sistema di fibre intrecciate tra
loro su diversi piani all’interno della parete
cellulare delle cellule vegetali. Il legame
β-1,4 conferisce alla cellulosa una struttura
cristallina molto compatta che la rende resistente agli attacchi degli agenti biologici.
Questa organizzazione spaziale è responsabile dell’elevata resistenza della cellulosa
che svolge un ruolo meccanico di tessuto di
sostegno. La consistenza viene aumentata
dalla presenza nella parete cellulare di altri
biopolimeri: lignina, emicellulose e pectine che riempiono gli spazi tra le molecole
di cellulosa. Nelle piante adulte la cellulosa costituisce più del 50% del peso secco,
motivo per cui è il polimero più diffuso nel
regno vegetale.
Per la sua ampia disponibilità e per il rapido processo di formazione, la cellulosa è
considerata una materia prima rinnovabile.
In questi ultimi decenni è stata studiata con
grande attenzione la possibilità di utilizzarla come fonte di glucosio per la produzione
di bioetanolo, oggi ampiamente usato nel
settore del trasporto come carburante alternativo a quelli di origine fossile. Attualmente, la maggior parte di esso è prodotta
Nuove biotecnologie Insetti e biocarburanti
Biomasse
lignocellulosiche
Biomassa
pre-trattata
globale, ma questa esigenza si scontra con
le difficoltà tecniche legate alla loro produzione, dovute soprattutto alla resistenza
strutturale della lignocellulosa.
Nel caso della cellulosa si ottiene etanolo
per fermentazione alcolica dei monomeri
di glucosio ottenuti dall’idrolisi delle catene polisaccaridiche. La fermentazione è
un processo mediato dai lieviti oppure dai
batteri che possiedono questa via metabolica. L’idrolisi delle catene di glucosio nei
singoli monomeri può essere realizzata per
diverse vie: enzimatiche, chimiche o fisiche. I trattamenti chimici comprendono
l’utilizzo di acidi o basi o liquidi ionici.
Il processo di fermentazione utilizzato nella produzione industriale del bioetanolo è
ben consolidato e prevede comunemente
l’utilizzo del lievito Saccharomyces cerevisiae, noto fin dall’antichità per la panificazione e la produzione di birra e vino. La
Le biomasse
Glucosio
Bioetanolo
Schema della produzione di bioetanolo da biomasse lignocellulosiche.
[Immagine : modificato da HahnHagerdal et al., Trends Biotech.
2006].
1) Pretrattamento. La biomassa
viene triturata e fortemente
riscaldata mediante vapore.
Si ottengono così le emicellulose idrolizzate e la lignina
parzialmente solubilizzata.
2) Idrolisi. La biomassa pretrattata contiene cellulosa e lignina e viene sottoposta a idrolisi
mediante appositi enzimi per
formare glucosio. Si scartano
la lignina e la cellulosa residua non idrolizzata.
3) Fermentazione. Il glucosio così
formatosi ed eventuali altri
zuccheri (es. pentosi) possono
essere fermentati da opportuni
microrganismi per produrre
bioetanolo, utilizzabile tra l’altro per autotrazione.
14
dall’amido o da altri zuccheri provenienti
da vegetali coltivati per questo scopo (colture energetiche); in genere si tratta di frumento, mais, canna da zucchero e soia.
Questa pratica però porta con sé tutta una
serie di svantaggi di natura socio-economica che comprendono la competizione con
le colture alimentari per i campi fertili, con
conseguente aumento dei prezzi del cibo e
carenza di foraggio per il bestiame. Inoltre,
i benefici ambientali derivanti dall’utilizzo
dei carburanti provenienti da colture (biocarburanti di prima generazione) non sempre sono evidenti e in certi casi l’impatto
ambientale ad esso connesso è più alto di
quello del petrolio, a causa delle coltivazioni che richiedono dispendio energetico
e consumo di acqua per l’irrigazione, oltre
all’utilizzo di fertilizzanti e altre sostanze
di sintesi.
Di contro, i biocarburanti derivanti da scarti agro-forestali (biocarburanti di seconda generazione) non presentano gli stessi
svantaggi, anzi non sottraggono terre fertili alle colture alimentari e il loro utilizzo
implica il riuso di materiali che altrimenti
sarebbero scartati. Infine, un grande vantaggio derivante dall’utilizzo dei biocarburanti di seconda generazione è rappresentato dalla riduzione delle emissioni di gas
serra, come disposto dalla European Waste
Framework Directive (European Commission, 2006).
L’utilizzo di biocarburanti di seconda generazione è, quindi, una priorità a livello
n.28 | Dicembre 2012
Se ne sente parlare molto ormai, ma cosa vuol
dire biomassa? Si tratta di un termine generico
che negli ultimi decenni ha assunto una nuova
valenza, soprattutto alla luce del grande interesse per la possibilità di utilizzarle come fonti
rinnovabili per la produzione di energia termica ed elettrica. Secondo il decreto legislativo
29 dicembre 2003 n.387 (che recepisce a livello nazionale la Direttiva europea 2001/77/CE
sulla promozione di energia elettrica prodotta
da fonti rinnovabili) per biomassa si intende
“la parte biodegradabile dei prodotti, rifiuti
e residui provenienti dall’agricoltura, dalla silvicoltura e dalle industrie connesse, nonché
la parte biodegradabile dei rifiuti industriali e
urbani”. Quindi, in ambito energetico, la biomassa è qualsiasi sostanza organica, di origine
vegetale o animale, da cui sia possibile ricavare energia attraverso uso diretto oppure previa trasformazione in un combustibile solido,
liquido o gassoso.
fase di idrolisi della cellulosa che precede
lo stadio di fermentazione è invece ancora oggetto di studio al fine di identificare i
meccanismi più efficaci per migliorare le
rese in glucosio e per abbattere i costi ambientali e/o di produzione.
Il contributo
dell’ingegneria genetica
La sfida dei prossimi anni sarà quella di incrementare la produzione di biocarburanti
di seconda generazione, la quale è strettamente connessa ai progressi tecnico-scientifici necessari per il trattamento sostenibi-
Nuove biotecnologie Insetti e biocarburanti
Cellule di Saccharomyces cerevisiae osservate mediante le tecnica di microscopia ottica nota
come DIC (Differential Interference Contrast microscopy). Il
loro diametro si aggira attorno ai
5-10 micrometri.
le da un punto di vista sia economico che
ambientale delle biomasse lignocellulosiche. In ambito microbiologico l’obiettivo
della ricerca in questi ultimi decenni è stato
quello di trovare microorganismi capaci di
utilizzare gli scarti di tale natura per generare etanolo, una proprietà non comune tra
gli organismi viventi.
Il lievito Saccharomyces cerevisiae è il microorganismo più comunemente utilizzato
in ambito industriale per la fermentazione
del glucosio in etanolo. Contrariamente
alla produzione basata sull'uso di saccarosio o amido, quella che impiega biomasse
lignocellulosiche è una fermentazione che
avviene a carico di un mix di zuccheri differenti e in presenza di composti che inibiscono la reazione - acidi organici a basso
peso molecolare, composti fenolici e inorganici - rilasciati durante i pretrattamenti o
durante il processo di idrolisi della materia
di partenza.
I ceppi wild-type di Saccharomyces cerevisiae (quelli esistenti in natura non mutati
geneticamente) non metabolizzano gli zuccheri pentosi (a cinque atomi di carbonio).
Altri tipi di lieviti sì, come Candida utilis
che cresce in terreni di coltura che contengono xiosio (pentoso) come unica fonte di
carbonio, ma questo lievito è strettamente
15
n.28 | Dicembre 2012
aerobico e non produce etanolo. Nei primi
anni Ottanta, in seguito alla scoperta che
Saccharomyces cerevisiae, Schizosaccharomyces pombe e altri lieviti erano capaci
di fermentare D-xilulosio in etanolo, ulteriori studi rivelarono che alcuni di essi
sono capaci di convertire direttamente lo
xilosio in etanolo, sia in condizioni aerobiche che in presenza di basse concentrazioni
di ossigeno. Allora i ricercatori focalizzarono l’attenzione sulle specie Pachysolen
tannophilus, Candida shehatae e Pichia
stipitis, i lieviti più conosciuti tra quelli naturalmente capaci di fermentare lo xilosio.
Il metabolismo e l’utilizzo degli zuccheri
pentosi sono essenziali per la bioconversione della lignocellulosa in biocarburanti
e altri composti chimici. Così, Saccharomyces cerevisiae è stato ingegnerizzato
geneticamente attraverso l’introduzione
nel suo patrimonio genetico di tutti quei
geni codificanti per gli enzimi necessari
per il metabolismo dello xilosio, affinché
questo lievito fosse capace di fermentare
anche questo pentoso per formare etanolo.
Negli anni successivi la priorità della ricerca in ambito biotecnologico è stata quella
di “creare” attraverso tecniche di ingegneria genetica dei microorganismi che possedessero sia la capacità di produrre determi-
Nuove biotecnologie Insetti e biocarburanti
nati substrati che di metabolizzarli.
Per raggiungere questa finalità sono stati
segui due tipi di strategie. Nella prima si
ingegnerizzano ceppi batterici naturalmente capaci di idrolizzare la cellulosa per
aumentare la loro capacità metabolica. La
seconda prevede l’inserimento dei geni che
codificano per cellulasi (particolari enzimi
deputati all’idrolisi della cellulosa) di microrganismi cellulosolitici in altri che non
le producono ma che, di contro, sono caratterizzati da elevate produzioni enzimatiche, ovvero vie metaboliche molto attive,
con lo scopo di trasformare questi ultimi in
organismi capaci di metabolizzare in maniera efficiente la cellulosa.
Negli ultimi decenni numerosi altri microorganismi sono stati ingegnerizzati per
produrre selettivamente etanolo. I maggiori
successi in questo campo sono stati ottenuti
con i batteri Gram negativi (vedi Green n.
L’ingegneria genetica
Viene definita ingegneria genetica la manipolazione del materiale genetico mediante
la tecnologia del Dna ricombinante. Attraverso quest’ultima un gene di una determinata specie può essere inserito all’interno del genoma di un’altra specie. Affinché ciò
avvenga il frammento di Dna in questione viene tagliato attraverso particolari enzimi
(enzimi di restrizione) e inserito (attraverso particolari enzimi detti Dna-ligasi) nel Dna
di batteri o di altri organismi capaci di riprodursi rapidamente.
È possibile anche isolare geni, modificarli e reinserirli di nuovo nell’organismo originario o in organismi differenti. Il primo caso rientra nella così detta terapia genica nella
quale uno o più geni normali vengono inseriti nelle cellule somatiche di un organismo
per correggere un’anomalia che può causare una grave malattia genetica nell’uomo.
In altri casi il gene codificante per una determinata proteina di grande interesse medico o industriale viene inserito nel Dna di altri organismi (nella maggioranza dei casi
batteri) al fine di produrne in grandi quantità.
10, pag. 27), in particolare con Escherichia
coli, Klebsiella oxytoca e Zymomonas mobilis. I primi due sono capaci naturalmente
di usare un ampio spettro di zuccheri e il
lavoro dei ricercatori è stato focalizzato
sull’ingegnerizzazione di questi ceppi per
produrre selettivamente etanolo. Z. mobilis
invece produce etanolo in grandi quantità,
ma è capace di fermentare soltanto il glucosio (esoso) e il fruttosio (pentoso); il lavoro dei ricercatori su questo organismo è
stato finalizzato all’introduzione delle vie
metaboliche per la fermentazione dei due
pentosi arabinosio e xilosio.
Da quanto detto finora appare evidente che
tutti gli sforzi della ricerca in questo ambito scientifico sono stati indirizzati sull’ottenimento di ceppi batterici e di lieviti adatti
al miglioramento di tutto il processo industriale per la produzione di etanolo. In alcuni casi sono stati testati metodi fisici e chimici per incrementare la produzione degli
enzimi idrolitici da parte dei ceppi cellulo16
n.28 | Dicembre 2012
solitici, ma con scarso successo. La comprensione dei meccanismi molecolari che
stanno alla base della degradazione biologica della lignocellulosa e l’individuazione
degli organismi più efficienti sono passi
fondamentali da compiere per una proficua applicazione dell’ingegneria genetica
(tecnologia del Dna ricombinante). Per
esempio, il clonaggio e il sequenziamento
dei vari geni codificanti per enzimi idrolitici potrebbe migliorare economicamente la
resa del processo industriale di produzione
delle cellulasi. Si tratta di strumenti molto
promettenti che ci consentiranno di progredire nella comprensione dei meccanismi
molecolari che stanno alla base della bioconversione della lignocellulosa e nell’ingegnerizzazione sempre più efficiente di
microrganismi preposti alla produzione
industriale di bioetanolo.
Enzimi idrolitici
da insetti xilofagi
Nuovi organismi, che possano essere potenziale fonte di enzimi utilizzabili per la
sintesi di bioetanolo sopra descritta, possono convenientemente essere ricercati
nei sistemi ecologici in cui la degradazione della lignocellulosa avviene naturalmente. Tra questi hanno sicuramente
un posto rilevante gli insetti xilofagi, la
cui microflora intestinale rappresenta una
ricca riserva di enzimi tutta da esplorare.
Oggi l’interesse principale della ricerca è
quello di individuare nuovi enzimi - oltre
ai molti già scoperti, isolati e caratterizzati
- che siano particolarmente resistenti alle
alte temperature e all’ampia variabilità dei
valori di pH utilizzati durante i processi di
pretrattamento delle biomasse, i due principali fattori limitanti dell’intero processo.
Inoltre dovrebbero essere più efficienti,
meno costosi e più semplici da estrarre e
purificare (soprattutto in termini di tempo
necessario).Per tale ragione sarebbe opportuno trovare un singolo microrganismo o
un consorzio capace nello stesso tempo di
idrolizzare zuccheri complessi e fermentarli formando bioetanolo.
Gabriella Butera
Unità di Ricerca Palermo 2
Consorzio INCA
c
la
1
o
inserto speciale
Olimpiadi della Scienza – Premio Green Scuola 2011/2012
ssificat
2
Riciclo Oli Esausti
Ecco l’elaborato classificatosi al primo posto
inserto speciale
Olimpiadi della Scienza – Premio Green Scuola 2011/2012
c
l
3
o
as
t
trasposizione a cura degli autori e dei docenti coordinatori
sifica
inserto speciale
L’attività di rigenerazione
o
c
Olimpiadi della Scienza – Premio Green Scuola 2011/2012
degli oli usatilpresenta finalità
as
at
ecologiche oltre
economiche,
sche
ific
sottraendo all’ecosistema
un rifiuto pericoloso per
trasformarlo in un prodotto
riciclato di alta qualità,
contribuisce alla riduzione delle
importazioni di greggio, materia
prima proveniente da fonte
non rinnovabile.
Il progetto, qui sintetizzato,
è stato realizzato in forma di
sito web da alcuni membri
dell’Ecocomitato del nostro
Liceo Scientifico "L. Da Vinci"
di Umbertide (Perugia). La
scelta della tecnica espressiva
è basata sulla sua sinteticità
e semplicità, una forma di
comunicazione più efficace e
attuale. Trattando del caso
concreto del riciclaggio
degli oli esausti, abbiamo
cercato di approfondire la
tematica del rapporto tra
uomo e ambiente con un
approccio interdisciplinare
e olistico.
Speciale OdS-PGS7 Primo classificato
Introduzione
Il progresso della società industriale, con
il conseguente abuso di prodotti chimici e
l’aumento esponenziale della produzione
di rifiuti, hanno ancor più evidenziato il
depauperamento e il deterioramento delle
risorse naturali. Per questo diventa necessario intervenire sull’attuale modello produttivo, attraverso l’utilizzo di strategie
operative alternative atte a ridurre le componenti merceologiche causa del forte impatto ambientale.
Il progetto nasce, quindi, dall’analisi della
questione ambientale, che viene trattata in
diversi ambiti disciplinari: filosofia, biologia, lettere, chimica, scienze della terra,
inglese, storia e diritto. L’approccio pluridisciplinare si è rivelato il migliore per
affrontare questa tematica. La nostra indagine ha il suo focus sull’attività di recupero e rigenerazione degli oli usati che sono
prodotti di scarto, per ridurre le importazioni di materie prime come, ad esempio, il
petrolio che sta via via esaurendosi. Questo
lavoro descrive e analizza principalmente
il tema dello smaltimento dei lipidi o grassi
(soprattutto olio o burro) che vengono usati
nella preparazione di fritture: tale rifiuto è
solitamente rappresentato da un fluido viscoso e denso, il cui colore varia da giallo a rosso-bruno con un odore abbastanza
sgradevole.
Oli: se li buttiamo,
siamo fritti
Dopo la frittura, l’olio modifica la sua
struttura polimerica originaria, si ossida
e assorbe le sostanze inquinanti dalla carbonizzazione dei residui alimentari. La
18
n.28 | Dicembre 2012
densità aumenta col grado di ossidazione,
ma rimane normalmente inferiore a 1.000
g/dm3, e questo comporta il galleggiamento del residuo sull’acqua quando viene scaricato in fognatura o sversato in un corpo
idrico, ed è per questo motivo che gli oli
alimentari esausti sono possibile causa di
inquinamento ambientale e del cattivo funzionamento degli impianti di depurazione,
laddove esistenti.
La corretta raccolta e il successivo trattamento degli oli usati permettono di riutilizzarli in alcuni processi industriali; ad
esempio, per produrre lubrificanti, bio-diesel, saponi, tensioattivi e altri beni. Quando
gli oli e grassi alimentari esausti provengono da una qualsiasi attività produttiva
(come le cucine di alberghi, ristoranti,
pizzerie, mense), sono considerati come
rifiuti speciali non pericolosi da destinarsi
al recupero ai sensi dell’art. 184 comma 2
del D. Lgs. 152/2006. Pertanto tale residuo
di lavorazione va stoccato in appositi contenitori che devono poi essere consegnati
periodicamente ad appositi consorzi, autorizzati dalle autorità competenti, che ne effettueranno il ritiro, il trasporto e il recupero. Quest’ultimo è di centrale importanza
se si considerano gli effetti negativi causati
negli ecosistemi da tali sostanze.
L’inquinamento da oli e idrocarburi delle
acque superficiali è generato da numerosi
fattori, quali gli scarichi diretti o indiretti
di attività industriali o delle normali attività umane, come i liquami domestici che
giungono nei fiumi, laghi e mari dai grandi
centri urbani senza un efficace trattamento.
Tale contaminazione è di natura sia dolosa
che accidentale. Il primo caso è quello delle petroliere e di altri tipi di cargo che vengono portate al largo di soppiatto (ad esempio nei giorni di nebbia o di notte), dove le
stive vengono lavate e il residuo del carico
viene così sversato sciaguratamente in ac-
Speciale OdS-PGS7 Primo classificato
qua. Arrivando poi a casi limite - che rappresentano dei veri e propri crimini, molto
più frequenti di quanto si possa comunemente pensare - come lo sversamento deliberato nei mari o nei fiumi di scarti dell’industria petrolchimica per evitare costosi
smaltimenti. L’inquinamento può, però, essere di natura accidentale e verificarsi a seguito di un evento inaspettato che causa il
rilascio in mare di considerevole quantità
di inquinanti. Gli incidenti più gravi sono
quelli dovuti al naufragio delle superpetroliere, a seguito dei quali enormi quantità di
greggio si trovano a galleggiare su vastissime aree marine con danni inestimabili sia
per l’ecosistema che per l’economia. Vi è,
infine, una forma sistematica di contaminazione delle acque superficiali dovuta alla
cattiva gestione e/o progettazione di impianti industriali come oleodotti, impianti
di trivellazione e raffinerie.
Gli uccelli e i mammiferi marini rimangono facilmente invischiati dalle masse oleose che si accumulano sulle coste o che stratificano sulla superficie del mare. Gli effetti
Cause, conseguenze e possibili rimedi all’inquinamento del
suolo.
CAUSE
•Accumulo di rifiuti solidi,
contenenti materiali non
biodegradabili (plastica,
lattine, ecc).
•Uso di pesticidi, diserbanti
e concimi chimici in agricoltura.
CONSEGUENZE
•Raccolta differenziata dei
rifiuti e riciclaggio.
•Diminuzione della biodiver- •Limitare l’uso di prodotti
sità.
chimici in agricoltura.
•Contaminazione della
catena alimentare.
•Inquinamento dell’aria e
dell’acqua, in quanto spesso le sostanze inquinanti si
depositano nel terreno.
devastanti che ha provocato la marea nera
nelle isole Galapagos ha tenuto il mondo
in ansia per parecchio tempo. Il petrolio si
stratifica sulla superficie del mare formando una pellicola che cambia di spessore e
di composizione a seconda della temperatura e del movimento dell’acqua. Alla evaporazione dei composti tossici volatili si
aggiungono processi di emulsione, aerosol,
fotossidazione che portano alla formazione
di una sottile pellicola superficiale e piccoli
accumuli di catrame che galleggiando arrivano sulla costa, fino alle rive e alle spiagge.
Solitamente si assiste ad una lenta biodegradazione naturale degli idrocarburi da
parte dei microorganismi marini, che di
solito è troppo lenta per evitare il disastro
e deve quindi essere aumentata e integrata da opportune tecnologie di disinquinamento. I danni causati agli ecosistemi dagli
n.28 | Dicembre 2012
RIMEDI
•Tossicità diretta per l’uomo e l’ambiente.
•Seppellimento di rifiuti tossici e radioattivi nel terreno.
19
sversamenti di petrolio dipendono da molti
fattori, tra cui vi sono la quantità, le caratteristiche chimico-fisiche del greggio (che
ne determinano anche la tossicità) e la sua
distribuzione. Quest’ultima dipende spesso
da fattori incontrollabili come i venti o le
correnti.
I principali effetti dell’inquinamento del
suolo sono caratterizzati da tre aspetti
principali. Il primo comporta l’alterazione dell'ecosistema, dovute a modificazioni
della componente abiotica (pH, struttura
del suolo, composizione chimica) e della
componente biotica (microrganismi, flora e
fauna) con perdita di biodiversità, riduzione della fertilità e del potere autodepurante
del suolo, come effetti primari. In secondo
luogo va considerata la contaminazione
globale dovuta all’immissione di sostanze
tossiche e persistenti, che possono entrare
nelle catene alimentari e dare origine a fenomeni di bioaccumulo. Infine troviamo la
mobilità degli inquinanti che possono raggiungere, ad esempio, le falde acquifere,
con evidenti rischi per la salute umana.
•Leggi più severe per lo
smaltimento dei rifiuti
nocivi e tossici.
•Contrastare l’inquinamento dell’aria e dell’acqua.
Dalla padella
all’automobile
L’importanza del recupero degli oli esausti
è evidente anche se si considera che l’olio
esausto può essere impiegato per ottenere
biodisel, in alternativa al gasolio ottenuto
dal petrolio. Si potrebbe pensare di creare un ciclo chiuso che, a partire dalla loro
raccolta (sia dalle utenze domestiche che
da quelle commerciali) e attraverso un opportuno trattamento, ne consenta il riuso,
come combustibile, utilizzabile sia per autotrazione che per il riscaldamento, il quale
avendo una natura vegetale e rinnovabile
contribuirebbe alla diminuzione di emissioni di anidride carbonica. Nonostante nei
veicoli prodotti prima del 1992 si potrebbe
avere una degradazione delle parti in gom-
Speciale OdS-PGS7 Primo classificato
ma, a causa del maggior poter solvente del
prodotto bio rispetto a quello ottenuto dal
greggio, qualsiasi motore diesel moderno
può essere adattato per utilizzare biodisel
puro (indicato con la sigla BD100 o B100).
Nonostante ciò, viene ancora utilizzato in
miscela per migliorare il potere lubrificante.
Questo biocarburante è ottenuto attraverso
l’utilizzo di oli vegetali vergini (soia, colza
e girasoli) o di scarto e altri grassi di origine
animale, grazie all’uso di specifici processi
chimici. Il suo utilizzo produce numerosi
effetti positivi per l’ambiente. Innanzitutto
non contribuisce all’effetto serra, poiché come accennato - restituisce all’aria solo
la quantità di anidride carbonica utilizzata da colza, soia e girasole durante la loro
crescita; riduce le emissioni di monossido
di carbonio (-35%) e di idrocarburi incombusti (-20%) emessi nell’atmosfera. Non
contenendo zolfo, il biodiesel non produce
SOx, gli ossidi di zolfo coinvolti in diversi fenomeni atmosferici, tra cui le piogge
acide (vedi Green n. 12, pagg. 18-31), e
consente una maggiore efficienza delle
marmitte catalitiche. Inoltre diminuisce la
Il processo di transesterificazione dei trigliceridi
contenuti gli oli per ottenere biodiesel (miscela di
esteri metilici).
R1, R2 e R3 sono solitamente differenti tra loro.
La stessa reazione può
aver luogo partendo dai
mono- e digliceridi degli
oli qui non rappresentati.
20
fumosità dei gas di scarico e dagli impianti
di riscaldamento (-70%). Protegge il motore grazie ad un superiore potere detergente
che previene le incrostazioni. Non presenta
pericoli, come l’autocombustione, durante
la fase di trasporto e di stoccaggio. Infine,
cosa da non sottovalutare, esso non contiene sostanze assai pericolose per la salute,
quali gli idrocarburi aromatici (benzene,
toluene ecc.) o policiclici aromatici (IPA)
che spesso risultano cancerogeni.
n.28 | Dicembre 2012
La sua diffusione determina l’attivazione
di un circuito virtuoso che promuove lo
sviluppo di tecnologie per il riutilizzo di
rifiuti e di biomasse. Il biodiesel si può ottenere da oli di colza, soia, girasole tramite
una reazione detta di transesterificazione,
in cui una molecola di mono-, di- o trigliceride reagisce rispettivamente con una, due
o tre molecole di etanolo per formare uno,
due o tre esteri e una molecola di glicerolo
(si vedano anche Green n. 4, pagg. 10-19, e
n. 5, pagg. 34-41).
Chimica dei lipidi
Dal punto di vista chimico il termine lipidi indica sostanze organiche insolubili in
acqua e solubili in solventi organici come
etere e benzolo che nel linguaggio comune
vengono indicate come grassi. Si dividono
in semplici e composti. I primi sono costituiti solo da idrogeno, ossigeno e carbonio.
Nei secondi sono presenti anche azoto, fosforo e zolfo.
I lipidi semplici sono costituiti dall’unione
di una molecola di glicerolo e da una, due
o tre molecole di acidi grassi, per formare
i rispettivi mono-, di- e trigliceridi. È necessario, soprattutto da un punto di vista
dietetico, approfondire brevemente la loro
trattazione. Infatti non si tratta solo di alimenti altamente calorici (9 kcal/g) di cui
non bisogna abusare, ma alcuni tipi di queste molecole possono essere dannose per la
salute. A prescindere da ogni altra considerazione biochimica, è fondamentale com-
Speciale OdS-PGS7 Primo classificato
prendere le implicazioni della suddivisione
degli acidi grassi in insaturi e saturi.
I primi hanno uno o più legami doppi
carbonio-carbonio che possono rompersi e legare altri atomi di idrogeno (da
-CH=CH- si forma -CH2-CH2- ). I secondi,
come suggerisce il loro nome, non possono
andare incontro a questa reazione di addizione e questa caratteristica si manifesta in
una maggiore densità. Così, gli acidi saturi sono in genere solidi (burro, margarina
ecc.), mentre quelli insaturi sono liquidi
(olio d’oliva, di semi ecc.). Ne consegue
che i primi, essendo “più pesanti”, hanno
un maggior tendenza a uscire dal circolo
sanguineo e a depositarsi lungo i vasi, formando placche ateromatose e dando seri
problemi coronarici (aterosclerosi). Sono
presenti nel tuorlo dell’uovo, nel latte e nei
suoi derivati e nei grassi animali, specie
nelle frattaglie. Nel mondo vegetale sono
presenti nell’olio di palma e nella margarina.
I grassi insaturi si dividono, a loro volta,
in monoinsaturi (un solo doppio legame,
come nell’olio d’oliva) e polinsaturi (due o
più, come nell’olio di girasole). Il loro consumo è un toccasana per la salute (soprattutto quello dell’olio EVO), combattendo
le patologie cardiache e la colesterolemia,
ma l’uomo per esigenze produttive/economiche è riuscito a farli diventare meno salutari o, addirittura, nocivi in qualche caso.
Infatti, in alcune preparazioni viene, usato
un processo, detto di idrogenazione, per cui
si rompe artificialmente un doppio legame,
aggiungendovi due atomi di idrogeno. In
tal modo si innalza il punto di fusione e
il grasso idrogenato appare di “maggiore consistenza”. Nella preparazione della
margarina o di oli di semi (girasole, mais,
soia) viene effettuata una parziale idrogenazione di doppi legami C=C coniugati ottenendo dei grassi trans insaturi, la cui tos-
Il punto di fumo degli oli
Il punto di fumo è la temperatura minima alla quale un olio o un grasso comincia ad
emettere fumi visibili e corrisponde all’inizio della decomposizione delle molecole che
lo compongono. Quando si frigge, man mano che la temperatura cresce, si ha prima una decomposizione parziale dei trigliceridi in acidi grassi liberi e glicerolo (anche
noto come glicerina); a valori più alti e con tempi più lunghi quest’ultima si decompone (formalmente si disidrata perdendo una molecola d’acqua) formando acroleina,
composto altamente tossico, specie per il fegato, e irritante gli occhi, tanto da essere
usato ad alte concentrazioni come gas lacrimogeno. In definitiva, per le fritture, è da
preferire l’olio di arachide a quello degli altri oli
Acroleina.
di semi, eccezion fatta, specie per fritture prolungate e ripetute, per l’olio di oliva, che, pur
avendo un punto di fumo leggermente inferiore, è però più ricco di acidi grassi monoinsaturi
(più stabili) e di sostanze antiossidanti, e meno
ricco di acidi grassi polinsaturi (meno stabili), e
pertanto più resistente alle alte temperature.
21
n.28 | Dicembre 2012
sicità è tale da meritare un articolo a parte!
Fra i lipidi semplici particolare importanza
rivestono gli acidi grassi essenziali (EFA,
essential fatty acid), otto in tutto, divisi
in due classi, gli omega-3 e gli omega-6,
spesso raggruppati sotto il nome di vitamina F. La descrizione delle loro proprietà
esula dagli scopi di questo articolo e viene lasciata all’approfondimento del lettore, qui basterà ricordare che presiedono
alla produzione degli eicosanoidi “buoni”
e “cattivi”, superormoni che controllano
molte funzioni dell’organismo, e che già
dal 1970 Dyerberg aveva mostrato la correlazione fra il consumo di pesce, che ne
è ricco, e la bassa incidenza di cardiopatie
negli eschimesi.
I lipidi composti invece sono rappresentati da trigliceridi legati ad altre molecole.
Si possono citare i fosfolipidi, costituenti
essenziali della membrana cellulare, e le
lipoproteine che svolgono la fondamentale funzione di trasportare i lipidi nel sangue. Le lipoproteine a bassa densità (LDL)
distribuiscono il colesterolo alle cellule e
depositandosi sulla parete delle arterie formano placche ateromatose; quelle ad alta
densità (HDL) rimuovono il colesterolo in
eccesso dalle cellule e lo riportano al fegato dove viene impiegato per la produzione
della bile.
La produzione
degli oli di semi
Gli oli di semi si estraggono dalle piante di
arachide, girasole, mais, soia, e altre ancora,
mediante macinatura e uso di solventi. Tra
questi, quello più usato è l’esano grazie alle
sue caratteristiche chimico-fisiche ottimali
(punto di ebollizione, selettività, tossicità
acuta limitata, ecc.). Dopo l’estrazione, si
ottengono due frazioni: una miscela di olio
e esano, e un residuo solido, detto farina
di estrazione, usata per preparare mangimi.
Dalla miscela olio-esano si recupera per distillazione l’esano, che viene utilizzato per
successive estrazioni, e si ha come residuo
l’olio di semi grezzo. Quest’olio viene successivamente sottoposto a raffinazione, per
togliere le mucillagini, per neutralizzare
l’acidità, per deodorarlo, per decolorarlo, e
per togliere le ultime tracce di esano (che
per legge deve essere completamente eliminato).
Vediamo ora assieme le principali caratteristiche degli oli di semi più diffusi.
Speciale OdS-PGS7 Primo classificato
Olio di arachidi
Viene estratto dai semi dell’arachide (Arachis hypogaea, famiglia Fabaceae), è uno
degli oli di semi migliori per gusto, stabilità e composizione chimica particolarmente
equilibrata in acidi grassi. Contiene circa il
55% di acido oleico, il 25-30% di acido linoleico e il 15% circa di acidi grassi saturi.
Adatto soprattutto per fritture. Infatti, il suo
punto di fumo (220 °C) è il più alto in assoluto tra gli oli di semi, di poco superiore
a quello dell’olio di oliva di buona qualità.
Olio di girasole
Estratto dai semi di girasole (Helianthus
annuus, famiglia Asteraceae) piante di
facile coltura ed elevata resa, è molto
simile come composizione a quello di
mais, avendo il 50-65% di acido linoleico
ed il 5-13% di acidi grassi saturi. L’olio che
si trova in commercio, limpido e chiaro, è
ottenuto per chiarificazione e sedimentazione di quello grezzo, che ha un colore
variabile dal giallo al rossastro.
Olio di mais
In realtà non è un olio di semi, provenendo
in maggior parte dal germe del mais (Zea
mays, famiglia Poaceae) di cui costituisce
circa il 15-20% in peso). Si ricava per
spremitura o per estrazione con solventi. È un prodotto abbastanza stabile per
l’elevato contenuto in tocoferoli (antiossidanti naturali) e dal gusto gradevole.
Presenta una percentuale elevata di acido
linoleico (50-60%) e pochi acidi grassi
saturi, pertanto è particolarmente adatto
alla preparazione di oli dietetici, indicati
soprattutto per coloro che hanno livelli elevati di colesterolo nel sangue, che devono
contenere almeno il 45% di acido linoleico ed essere addizionati di vitamine (E, A,
B6).
Olio di soia
Si ottiene dai semi di soia (Glycine max,
famiglia Fabaceae), un’altra leguminosa
al pari dell’arachide. È l’olio più usato al
mondo, vista l’enorme diffusione di
tale tipo di coltura nei diversi continenti, oggi soprattutto negli Stati
Uniti, anche se veniva prima chiamata fagiolo giapponese per l’origine di tale coltivazione. Secondo la
varietà, il seme contiene dal 15 al 20% di
lipidi estratti per pressione a caldo o con
solventi. L’olio commerciale è ottenuto per
raffinazione, deodorazione e decolorazione di quello grezzo. Presenta, a volte, un
odore sgradevole che diventa più intenso
con la stagionatura. Poiché sembra che ciò
sia dovuto alla presenza di acidi altamente
22
n.28 | Dicembre 2012
insaturi, si è cercato di porvi rimedio, idrogenando selettivamente l’olio, in modo da
ridurne il contenuto. Contiene, in media,
circa il 50% di acido linoleico e
l’8% di acido linolenico. Gli
acidi grassi saturi sono intorno al 15%. È uno degli
oli maggiormente impiegati nell’industria per la
preparazione delle margarine.
Olio di vinacciolo
È ottenuto per estrazione con
solventi dai vinaccioli, cioè dai
semi dell’uva, il frutto della vite (Vitis vinifera, famiglia Vitaceae). È l’olio con il
maggior tenore di acido linoleico (70%).
Gli acidi grassi saturi sono intorno al 10%.
Olio di palma e di cocco
L’olio è ricavato dai semi oleosi dei frutti
della palma da olio (Elaeis guineensis, famiglia Arecaceae),
caratteristica delle regioni
costiere dell’Africa Orientale. Dalla palma da cocco
(Cocos nucifera, famiglia
Arecaceae), si ottiene
invece olio per spremitura della polpa
del frutto spaccato
ed essiccato al sole.
Contengono entrambi
quantità elevate di acidi grassi saturi, (circa l’80%), sono quasi solidi a temperatura
ambiente, e vengono usati per la produzione di margarine.
Olio di colza
L’olio di colza (Brassica napus o Brassica napus oleifera, famiglia Brassicaceae)
è estratto dai semi della pianta dai tipici
fiori gialli, parente della senape e dei cavoli. Avendo un costo molto contenuto e
una bassa acidità, si è rapidamente diffuso. L’uso alimentare come prodotto puro è
sconsigliato, però, per l’elevata presenza
(circa il 45%) di un acido grasso particolare, l’acido erucico, ritenuto responsabile di
alcuni effetti tossici sulla salute. Per questo viene utilizzato in miscela con altri oli
di semi, in modo da evitare una presenza
elevata (non più del 15%) di acido erucico,
oppure viene estratto dai semi di
una varietà di crocifera geneticamente selezionata, che
non contiene acido erucico (canbra). Il contenuto
in acido linoleico è intorno al 15%.
Speciale OdS-PGS7 Primo classificato
Dalla bioetica
ambientale...
Analizzando i diversi ambiti disciplinari in
relazione a questo argomento, si è evidenziato come il riciclaggio degli oli esausti
rappresenti una necessità per la sostenibilità ambientale a cui ognuno di noi può contribuire, mettendolo in pratica in famiglia.
Esso comporta non soltanto l’abbattimento
dell’inquinamento ambientale, ma l’utilizzo di fonti energetiche rinnovabili per la
produzione di combustibili.
Di seguito riportiamo alcune considerazioni sul rapporto tra filosofia e ambiente e tra
letteratura e ambiente che ci hanno guidato
nella nostra riflessione, da cui è scaturita la
realizzazione dell’elaborato inviato al concorso.
La principale discriminante tra i diversi approcci filosofici alla tutela ambientale consiste nella considerazione di quali soggetti
siano dotati di diritti intrinseci (o inerenti).
Generalizzando, si possono individuare le
tre posizioni brevemente descritte di seguito.
Posizione antropocentrica
Rappresenta il pensiero di chi ritiene l’uomo al vertice dell’universo ed unico detentore di diritti intrinseci. Questa posizione
filosofica può però essere suddivisa in due
grandi categorie, una rappresentata da
un’interpretazione rigida dell’impostazione antropocentrica (antropocentrismo
forte) e l’altra che ne modera considerevolmente la durezza, in base a considerazioni comunque prevalentemente
improntate all’idea di una salvaguardia
dell’habitat umano (antropocentrismo
debole o moderato).
Posizione biocentrica
Secondo la corrente biocentrista,
ogni essere vivente possiede un proprio valore intrinseco. Tale atteggiamento cerca di dirimere la controversia tra il mondo animale e quello
vegetale, suscitato dalla posizione
sensiocentrica, estendendo a tutti il diritto di vedere rispettata la
propria esistenza. All’interno della
posizione biocentrista, si possono scorgere
due orientamenti principali: il biocentrismo moderato e il biocentrismo radicale.
Ogni essere vivente può essere soggetto
di diritti (all’interno c’è chi sostiene una
posizione sensiocentrica per la quale sono
soggetti solo gli esseri senzienti).
L’Uomo Vitruviano, realizzato
nel 1490 circa da Leonardo Da
Vinci, rappresenta la perfezione
delle proporzioni dell’uomo che
nel pensiero dominante a quel
tempo rifletteva quella di Dio, a
riprova della centralità dell’uo- Posizione ecocentrica
mo nell’universo.
Un’impostazione profondamente
23
n.28 | Dicembre 2012
diffe-
rente dall’antropocentrismo viene introdotta dalla prospettiva che mette al centro
dell’interesse etico gli ecosistemi, definita ecocentrismo o, a volte, biocentrismo
olistico. Tale atteggiamento trova il suo
maggior supporto teorico nella prospettiva
aperta dalle scienze ecologiche, attraverso le quali è stato possibile comprendere
meglio il valore indispensabile non solo
dei singoli organismi, delle popolazioni e
delle comunità, all’interno dell’ecosistema (approccio atomistico), ma anche delle
mutue relazioni che si instaurano tra essi,
che apportano delle qualità superiori, dette
“emergenti” o “sistemiche”, in quanto danno appunto origine ai sistemi (approccio
olistico).
Capostipite dell’etica ecocentrica è comunemente ritenuto Aldo Leopold (18871948), fondatore della “Land Ethic”, secondo cui “una cosa è giusta quando tende
a preservare l’integrità, la stabilità e la
bellezza della comunità biotica; è ingiusta
quando tende altrimenti”. Il suo principio
guida è ritenere che l’uomo sia parte integrante di una Terra in equilibrio; gli altri organismi viventi sono suoi compagni
di viaggio e quindi hanno diritto a tutto il
suo rispetto. Alcuni pensatori contemporanei (fra cui il professor Brunetto Chiarelli,
antropologo dell’Università di Firenze) ne
fanno discendere una bioetica globale, per
cui il criterio decisivo è il mantenimento
della configurazione ecologica empiricamente indagabile.
In questa prospettiva radicale, l’etica non
è più considerabile una scienza normativa, ma le leggi dell’ecologia descrittiva o
empirica vengono ribaltate in norme etiche
(passaggio diretto dall’essere al dover essere). In una prospettiva ecocentrica, dunque, l’uomo è solo parte dell’intera natura:
è questa che ha valore in sé. Non gli individui, ma i gruppi di individui hanno dignità
morale; essi valgono sempre più del singolo, in quanto questo, da solo, non avrebbe possibilità di sopravvivenza. Sebbene
l’uomo sia il solo soggetto in grado di darsi
autonomamente delle norme comportamentali, si ritiene che non ci sia motivo per
considerare moralmente solo la sua sfera:
anche se è considerabile come l’unico
Speciale OdS-PGS7 Primo classificato
“misuratore”, non necessariamente deve essere l’unica
“misura” degli atti etici.
Anche all’interno di questo approccio si possono osservare posizioni
contrastanti in merito
a questioni decisive: ad esempio, vi è
chi sostiene che l’uomo non è indispensabile per la sopravvivenza della Terra,
ma la maggior parte, pur abbracciando la
posizione ecocentrica, ritiene che la sua
scomparsa frustrerebbe gli innumerevoli
tentativi della natura (da un punto di vista
evoluzionistico) per arrivare alla massima
Il logo della quercia che nasce espressione della complessità biologica, la
dalla Terra della 17th Conferen- quale rappresenta di per sé un grande vace of the Parties (COP17) to lore.
the United Nations Framework
Convention on Climate Change
(UNFCCC) and the 7th Session of
the Conference of the Parties serving as the Meeting of the Parties
(CMP7) to the Kyoto Protocol Il movimento dell’ecologica profonda
del 2011.
(deep ecology) vuole rappresentare un
...Alla deep ecology
superamento dei concetti precedenti, situandosi su un piano differente. Il termine è stato coniato dal filosofo norvegese
Arne Næss nel 1973, in contrapposizione
alla cosiddetta “ecologia superficiale”, che
viene considerata un semplice adattamento
del pensiero antropocentrico, pur con diversi tipi di sensibilità. Tale impostazione
etica non è riconducibile ad una scuola precisa o una corrente di pensiero ben delineata, ma ad un atteggiamento avente diverse
declinazioni, con differenti possibili esiti.
In comune, tuttavia, vi è l’esigenza non
solo di voler superare l’antropocentrismo,
ma anche di andare oltre la stessa teoria
del valore intrinseco, che, alla fine, colloca
sempre al centro l’uomo in quanto soggetto
di responsabilità etica e che non prende in
nuova considerazione il tipo di atteggiamento esistenziale verso certe realtà.
Anziché ricercare un’etica basata su un
fondamento ontologico, volto a definire
nuovi doveri e nuovi destinatari della nostra responsabilità, pretende una rivoluzione copernicana dell’approccio dell’uomo
con la natura, chiedendo di modificare in
profondità gli stessi modelli percettivi. I
principi della piattaforma del movimento
dell’ecologia profonda, stilati da Naess e
George Sessions nel 1984, sono i seguenti:
1. Il benessere e la prosperità della vita
umana e non umana sulla Terra hanno un valore proprio (sinonimi: valore
intrinseco, valore inerente). Questi valori sono indipendenti dall’utilità che
il mondo non umano ha per soddisfare
gli scopi umani.
24
n.28 | Dicembre 2012
2. La ricchezza e la diversità delle forme
di vita contribuiscono alla realizzazione di questi valori e sono inoltre valori
per se stessi.
3. Gli uomini non hanno il diritto di ridurre questa ricchezza e diversità tranne che per soddisfare i bisogni umani
vitali.
4. La prosperità della vita e delle culture
umane è compatibile con una sostanziale diminuzione della popolazione
umana. La prosperità della vita non
umana richiede tale diminuzione.
5. L’attuale interferenza umana nei confronti del mondo non umano è eccessiva e la situazione sta rapidamente
peggiorando.
6. I comportamenti devono quindi essere modificati. Questi comportamenti
hanno influenza sulle strutture economiche, tecnologiche e ideologiche
di base. La situazione risultante sarà
profondamente differente da quella
odierna.
7. Il cambiamento ideologico è principalmente quello di apprezzare la qualità della vita (vivere in condizione di
valore inerente) piuttosto che cercare
un tenore di vita sempre più alto. Ci
sarà, così, una consapevolezza profonda della differenza tra il grande fisico
(big) e il grande metafisico (great).
8. Coloro i quali sottoscrivono i punti
precedenti hanno l’obbligo di cercare,
direttamente o indirettamente, di attuare i necessari cambiamenti.
Una versione tipica di questa prospettiva
viene denominata Transpersonal Ecology
(W. Fox), attraverso la quale si cerca di aiutare l’uomo ad ampliare progressivamente
la propria coscienza, fino alla percezione
della natura e degli individui come parte del
proprio io. Se si raggiunge questo stato di
coscienza olistica, un atteggiamento “ecofilosofico” di comprensione di sé come
parte di un tutto in divenire, si raggiunge
la convinzione che sia spontaneo per ciascuno cercare di proteggere, tutelare e rispettare la natura. È abbastanza immediato
osservare che tale visione - nella quale è
riconoscibile una forte presenza di panteismo, o comunque nella quale ci si spoglia
della propria individualità per raggiungere
la meta della totalità -, trovi numerosi punti
di contatto con molti pensieri filosofici o
religioni orientali, quali induismo, buddismo, taoismo, così come con molti atteggiamenti spirituali tipo New Age.
Speciale OdS-PGS7 Primo classificato
Letteratura e ambiente
Il protocollo
di Kyoto
Dal punto di vista storico,è d’obbligo ricordare il protocollo di Kyoto. Esso è un
trattato internazionale in materia ambientale riguardante il riscaldamento globale
sottoscritto nella città giapponese di Kyoto l’11 dicembre 1997 da più di 160 paesi
in occasione della Conferenza COP3 della
Convenzione quadro delle Nazioni Unite
sui cambiamenti climatici (UNFCCC). Il trattato è entrato in vigore il 16 febbraio 2005,
dopo la ratifica anche da parte della Russia.
Il 16 febbraio 2007 si è celebrato l’anniversario del secondo anno di adesione al protocollo di Kyoto, e lo stesso anno ricorre il
decennale dalla sua stesura.
Comunicare, raccontare, divertire, fare
arte, istruire, conservare la memoria, denunciare: tante sono le finalità che la letteratura si pone. L’intento pedagogico si
è rivelato preminente in epoche come il
Medioevo o in movimenti quali il Romanticismo italiano, mentre nel Rinascimento
si impose la tendenza edonistica che celebrava il principio di “arte per l’arte”.
Divertire o Istruire?
L’uno scopo può non essere disgiunto
dall’altro: Dante con la Divina Commedia vuole indicare all’umanità la via per la
quale pervenire alla liberazione dal peccato, ma lo fa attraverso una narrazione avvincente e straordinaria. Ariosto realizza
il suo capolavoro, l’Orlando Furioso, per
il piacere di narrare, di proiettare il lettore
in un mondo fantastico e avventuroso, ma,
ottava dopo ottava, illumina anche un percorso etico e un ideale umano di assoluta
compostezza ed equilibrio sul modello dei
classici greci e latini.
Istruire Divertendo
Una stampa francese dei primi
anni del Novecento prevede nel
2000 l'utilizzo di metodi d’insegnamento, ovvero di apprendimento, davvero fantasiosi.
25
Questo può essere considerato il senso più
profondo ed efficace del testo letterario.
Ed è proprio questa la concezione che fu
alla base di tante opere del Romanticismo
italiano - prima tra tutte il capolavoro manzoniano de “I promessi sposi” - che contribuirono a indirizzare le coscienze verso
la formazione o il consolidamento di un
comune sentimento nazionale. L’impegno
letterario ha sempre risposto alle esigenze
delle varie epoche, fornendo il suo contributo alle battaglie culturali che hanno caratterizzato i vari contesti: l’impegno letterario ha sposato cause religiose, politiche,
civili e intellettuali in genere e tra le più recenti questioni che la letteratura ha deciso
di affrontare, in termini di impegno civile,
c’è quella della difesa dell’ambiente.
I disastri sono ormai triste quotidianità e
l’emergenza ecologica è sulla bocca di tutti;
il comportamento dell’uomo ha provocato
gravi danni alla natura e la risoluzione di
certe emergenze viene affidata quasi esclusivamente
alla scienza.
La questione
ambientale va
però affrontata in altro
modo e cioè
principalmente richiamandosi alla
responsabilità
individuale
n.28 | Dicembre 2012
e collettiva, attraverso un’attenta opera di
informazione e di educazione dei cittadini. Negli Stati Uniti d’America è nato, ed
è ormai ben collaudato, il concetto di ecocriticism: termine derivato dalla fusione
di “ecologia” e “critica letteraria”, sotto
il quale si raggruppano gli studi umanistici rivolti all’indagine interdisciplinare del
rapporto tra l’uomo e l’ambiente nelle varie
culture del pianeta. Esso origina da un saggio di William Rueckert del 1978 intitolato
Literature and Ecology: An Experiment in
Ecocriticism. Da allora le pubblicazioni
sull’argomento sono aumentate in maniera
esponenziale e il mondo accademico - dapprima quello statunitense, seguito da quello
europeo, per poi arrivare a quello mondiale - ha dato nascita ad un vero e proprio
movimento critico espressione delle nuove
emergenze del XXI secolo.
“L’idea di un discorso congiunto di letteratura e filosofia dell’ambiente scaturisce
dalla persuasione che sia possibile un uso
etico-ambientale dei testi letterari (classici
vecchi e nuovi), che essi possano cioè contribuire a un’evoluzione del modo in cui ci
orientiamo eticamente nel nostro rapporto
con il mondo non umano. A questa idea,
implicita già in decenni di esercizi creativi e interpretativi, è stato dato di recente
il nome di ecocriticism, o ecologia letteraria...” (da “Ecologia letteraria. Una strategia di sopravvivenza” -, Serenella Iovino,
Ed. Ambiente).
Sempre più scrittori statunitensi quindi,
soprattutto a partire dagli anni Novanta,
come illustra lo studioso italiano A. Liparoto, hanno deciso di impugnare armi
molto speciali per combattere la battaglia
contro l’incoscienza ambientale: la penna,
la macchina da scrivere o, più frequentemente nei tempi moderni, il computer per
scrivere poesie, romanzi, racconti. Gli Usa
hanno mostrato la loro sensibilità in materia istituendo le prime cattedre di “Letteratura e ambiente”, alle quali fece riscontro
la nascita di alcune associazioni volte allo
studio e all'insegnamento di questa tematica. Ma la letteratura italiana era veramente
rimasta estranea alla questione ambientale
fino a quel momento, anche se potremmo
considerare autori come Pasolini, Calvino
e persino lo stesso Leopardi anticipatori di
un impegno letterario in ottica ecologista.
A cura degli allievi: Martina Ubaldi e
Andrea Levi Codovini della classe 4aA
e Jessica Cardinali della classe 3aA, sezione Liceo Scientifico, dell’IIS “CAMPUS L. da Vinci” di Umbertide (PG),
con la supervisione della prof. Paola Ricci
c
la
1
o
inserto speciale
Olimpiadi della Scienza – Premio Green Scuola 2011/2012
ssificat
2
inserto speciale
Olimpiadi della Scienza – Premio Green Scuola 2011/2012
c
la
o
Ecco l’elaborato classificatosi al secondo posto
ssificat
3
Faccia a faccia
con la CO2
c
la
o
inserto speciale
Olimpiadi della Scienza – Premio Green Scuola 2011/2012
ssificat
trasposizione a cura degli autori e dei docenti
coordinatori
Nell’ambito del progetto didattico “Dare per salvaguardare
l’ambiente”, gli alunni delle classi prime e seconde dell’indirizzo
“Istituto tecnico tecnologico: informatica e telecomunicazioni”
dell’Istituto d’istruzione superiore statale “Sandro Pertini” di Genzano
di Roma hanno analizzato il ciclo vitale dell’anidride carbonica,
tracciandone una vera e propria “carta d'identità” e realizzando un
elaborato dal titolo “A faccia a faccia con l’anidride carbonica, più
siamo meglio è” dal taglio decisamente divulgativo, volto in primo
luogo al coinvolgimento emozionale del lettore.
Speciale OdS-PGS7 Secondo classificato
La carta d’identità
dell’anidride carbonica
Studiando da dove si produce, dove è presente e qual è la sua funzione ci siamo resi
conto che l’anidride carbonica nasce da tutte le combustioni: dalla respirazione cellulare agli impianti industriali, dagli autoveicoli ai vulcani. È presente nell’atmosfera
dove intrappola la radiazione infrarossa,
permettendo così di mantenere sulla Terra un clima temperato e vivibile. Durante
la fotosintesi clorofilliana viene assorbita
dalle piante che la utilizzano per produrre
gli zuccheri necessari per il loro nutrimento
con liberazione di ossigeno nell’aria. Anche gli oceani ne sono un immenso serbatoio sotto forma di ioni carbonato e bicarbonato. Ci ha meravigliato apprendere che
in natura il suo ciclo è perfettamente equilibrato: tanta se ne produce e altrettanta se
ne assorbe. Ci chiediamo come mai, allora,
negli ultimi anni ne sentiamo parlare sempre in termini allarmistici?
Il motivo è semplice. Siamo noi che ne
abbiamo aumentato la produzione fino ad
alterare questo equilibrio, con l'uso spropositato di combustibili fossili, la continua e crescente cementificazione, con gli
incendi boschivi dolosi mirati ad ottenere
nuovi terreni agricoli. Questo eccesso di
CO2 nell’atmosfera comporta un aumento
dell’effetto serra che causa il surriscaldamento del pianeta con tutta una serie di
conseguenze negative.
Oggi in pratica tutto richiede un consumo di energia elettrica, tanto che ad ogni
bene o servizio si può associare una misura
dell’impatto ambientale da esso generato,
la cosiddetta impronta climatica misurata
in anidride carbonica equivalente. Ci siamo
quindi chiesti se fosse possibile risolvere il
problema con l’uso di fonti energetiche pulite e di prodotti a basso impatto ambientale. E la nostra risposta è stata: no. Perché a parità di fonti energetiche pulite e di
prodotti a basso impatto ambientale, il fatto
stesso che la popolazione è in continuo aumento comporta un aumento dei consumi e
di conseguenza dell’inquinamento. Deve
quindi entrare in gioco un'altra
contromisura di cui la nostra
insegnante di chimica ci ha mostrato il valore: il risparmio energetico. Anche dei piccoli gesti miranti a diminuire gli sprechi, anche
se in maniera molto limitata, acquistano un enorme rilievo se compiuti
da molte persone.
Per esempio in Italia, per produrre un
kilowatt, le centrali termoelettriche a
27
n.28 | Dicembre 2012
olio combustibile emettono nell’atmosfera in media 0,75 kg di anidride carbonica
con un costo per il consumatore di circa
0,20 euro. Calcolando quanto si risparmia
spegnendo una lampadina da 60 watt per
cinque ore ogni giorno per un anno e quanta anidride carbonica si evita di immettere
nell’atmosfera, abbiamo verificato che si
risparmiano 21,90 euro con un taglio delle
emissioni di CO2 pari a 82,12 chilogrammi.
Ma lo stesso risultato si può ottenere con
365 persone che spengono tale lampadina
una sola volta l’anno per cinque ore, oppure con 1.825 persone una sola volta per
un’ora o, ancora, con 109.500 persone una
volta per un solo minuto.
Come dice Sergio Rondinara, docente di
Etica ambientale della Pontificia Università Gregoriana: “Non basta il nostro impegno personale per non sporcare il pianeta,
però occorre cominciare. Cominciamo noi,
poi coinvolgiamo la nostra classe e arriveremo all’intera scuola. Piccole cose fatte da
tanti diventano una cosa grande”.
Oltre a cambiare stile di vita, per diminuire gli sprechi è necessaria anche una ridistribuzione dei beni. Leggendo un articolo
di Giorgio Nebbia - Professore emerito di
Merceologia dell’Università di Bari - ne
abbiamo avuto una conferma. Ne riportiamo uno stralcio:
“Tutti i volti delle violenze contro la natura sono associati alla produzione delle
merci, al possesso di crescenti quantità di
beni materiali, alla disponibilità di crescenti quantità di energia (…) È necessario un
rallentamento della crescita dei consumi
nei Paesi industriali e una più equa distribuzione dei beni della Terra e dei manufatti
fra Paesi ricchi e poveri.”
Allora che fare? La nostra risposta in qualità di studenti è stata aderire ad un progetto
didattico ambientale in cui la salvaguardia
dell’ambiente va a braccetto con la cultura
del dare, intitolato “Dare per salvaguardare
l’ambiente”, come propostoci dalla nostra
insegnante di chimica. In questo progetto piccole azioni volte al
risparmio energetico
Speciale OdS-PGS7 Secondo classificato
compiute da noi ragazzi dei Paesi ricchi
si sono trasformate in borse di studio per i
ragazzi dei Paesi poveri. La partecipazione
è stata travolgente e interessante, ci ha aiutato a capire quanto siamo fortunati, visto
che nel mondo ci sono persone che soffrono e in confronto a noi non hanno nulla.
Tutto si è basato sulla semplicità delle azioni che si possono fare, da cui però si ricava
un enorme risultato e la soddisfazione che
si aiuta collaborando, anche nel nostro piccolo, a rendere il mondo migliore.
Il nostro patto
con la scuola
Siamo partiti da un accordo con la scuola: “Il patto di risparmio energetico”. Noi
ci siamo impegnati a risparmiare energia a
scuola facendo piccoli atti come:
• spegnere le luci accese inutilmente;
• spegnere lo stand-by degli apparecchi;
• chiudere il rubinetto dell’acqua;
• riciclare la carta;
• mantenere in buono stato le cose della classe, dato che ogni oggetto ha un
suo costo in termini di energia, acqua
e inquinamento.
Da parte sua l’Istituto ha messo a disposizione il corrispondente in denaro di quanto
abbiamo risparmiato per donarlo a ragazzi
che vivono situazioni di disagio. Abbiamo
Le varie classi firmano il patto
di risparmio energetico con la
scuola.
Le magliette disegnate dagli studenti stessi che hanno aderito al
progetto “Dare per salvaguardare l’ambiente” per partecipare
alla staffetta per la pace “Run 4
Unity”.
Ecco un collage dei momenti più
belli della nostra partecipazione
a Run 4 Unity.
28
scelto di inviare una borsa di studio alla
scuola Petite Flame del Congo (attraverso
i progetti di School-Mates) perché lì non
solo non si possono permettere di sprecare
luce, carta, acqua, ma non hanno neanche i
banchi su cui scrivere.
Ogni classe aveva a disposizione un cartellone su cui segnare gli atti di risparmio
energetico. È iniziata una corsa al risparmio entusiasmante che ha coinvolto sei
classi per una settimana. Un giorno nella
classe 2aC, che alla fine ha vinto la gara, si
sono messi tutti d’accordo e, tra lo stupore degli insegnanti, hanno spontaneamente
spento tutti i cellulari.
Abbiamo raccontato questa nostra esperienza a centinaia di ragazzi il 12 maggio
n.28 | Dicembre 2012
2012 ad Anagni durante Run 4 Unity, una
manifestazione del movimento mondiale
Ragazzi per l’Unità, alla quale abbiamo
partecipato con le magliette del progetto
che ci siamo fatti da soli per testimoniare così il nostro sì alla pace, al rispetto
dell’ambiente.
In quell’occasione ci siamo resi conto
che davvero c’è una grande connessione
tra pace ed ecologia perché, come afferma Chiara Lubich, premio Unesco per la
Pace:“ L’ecologia è la base della pace. La
pace, la fraternità si possono fare stando su
un pianeta che c’è.”
Ora siamo davvero convinti che se l’uomo
distrugge l’ambiente distrugge se stesso.
Se tutti facessero anche piccole azioni,
come quelle fatte da noi, queste diventerebbero davvero grandi e importanti per la
salvaguardia del nostro pianeta.
A cura degli allievi: Petru Stefan Maer,
Paolo Martini e Valerio Fanfarillo della
classe 2aC, Lorenzo Fresilli della 1aB
e Francesco Lettieri della 2aA, Davide
Perciballi, Francesco Biondi e Mattia
Lattanzi della 1aC, Alessandro Sardelli
della 1aA ed Emanuele Caracci della
2aB dell’ITT IISS “Sandro Pertini” di
Genzano di Roma, con la supervisione
della professoressa Elena Pace (docente
di chimica) e con la collaborazione delle
classi 1aA, 1aB, 1aC, 2aA, 2aB, 2aC.
Ecco l’elaborato classificatosi al terzo posto
inserto speciale
Olimpiadi della Scienza – Premio Green Scuola 2011/2012
c
la
1
o
c
la
ssificat
2
o
inserto speciale
Olimpiadi della Scienza – Premio Green Scuola 2011/2012
ssificat
La sfida dell’ambiente per la chimica
3
Una sintesi "green"
c
la
o
inserto speciale
Olimpiadi della Scienza – Premio Green Scuola 2011/2012
ssificat
del polistirene
trasposizione a cura degli autori e dei docenti coordinatori
Nell’ambito del progetto dal titolo “Dai polimeri sintetici alle plastiche
biodegradabili” del Piano dell’Offerta Formativa a. s. 2011/12 dell’ITI
“Basilio Focaccia” di Salerno, alcuni alunni del triennio dell’indirizzo
chimico hanno realizzato in laboratorio la sintesi del polistirene in
emulsione acquosa e ne hanno evidenziato i vantaggi ambientali,
ma anche economici, rispetto alle tecniche tradizionali utilizzate nei
processi industriali di produzione di questo polimero di largo impiego.
Il processo si inquadra nel contesto delle applicazioni della chimica
eco-compatibile a supporto dello sviluppo sostenibile, oggi nota come
“chimica verde”.
Speciale OdS-PGS7 Terzo classificato
Lo sviluppo sostenibile
ieri e oggi
Il nostro elaborato è stato realizzato
nell’ambito di un progetto didattico che
aveva come finalità l’acquisizione di una
“coscienza ambientale” da parte degli studenti e di competenze specifiche nel settore
di indirizzo di studio, utili, considerato lo
sviluppo crescente delle applicazioni della
chimica verde, per l’inserimento nel mondo del lavoro e per la scelta del curriculum
universitario.
Lo sviluppo sostenibile, inteso come progresso delle attività umane nel rispetto
dell’ambiente e delle possibilità di fruizione delle risorse da parte delle generazioni future, era una percezione comune
per l’uomo del passato che viveva a stretto
contatto con la natura. Si tratta di un concetto antico, una cui testimonianza ci è pervenuta attraverso il detto della tribù degli
indiani Cherokee del Nord America: “Non
abbiamo ereditato il mondo dai nostri padri, lo abbiamo preso in prestito dai nostri
figli”.
Questa percezione dell’ambiente come un
“bene comune” e la volontà di preservarlo si sono perdute nel corso della storia,
a causa della progressiva antropizzazione
del territorio e delle trasformazioni economiche e sociali che hanno caratterizzato
lo sviluppo della società umana, a partire
dall’era industriale, nel XVIII secolo, fino
ai giorni nostri. Il progresso inteso come
esigenza di miglioramento delle condizioni di vita della popolazione, associato
ad un continuo aumento demografico, si è
realizzato con scarsa coscienza dei rischi
che l’industrializzazione forzata e pervasiva poteva determinare per l’ambiente e
Lo tre dimensioni dello sviluppo per la salute dell’uomo. Una presa di cosostenibile.
scienza degli effetti negativi ha cominciato
[Immagine: Johann Dréo; Wiki- ad affermarsi nell’opinione pubblica nel
pedia Commons, traduzione di
corso del secolo appena concluso, favorita
Floriano Scioscia]
dall’emozione suscitata dal verificarsi di
gravi incidenti industriali, quali quello di
Seveso (1976), quello di Bophal (1984) e
quello di Chernobyl (1986). Già nel 1972
la comunità internazionale aveva affrontato i problemi dello sviluppo nella
conferenza di Stoccolma, definendo
i principi di uno sviluppo equo e
attento all’ambiente. La prima
definizione di sviluppo sostenibile, tuttavia risale al 1987
ed è stata data dalla Commissione di studio internazionale per l’analisi dei rapporti
tra ambiente e sviluppo incaricata
dalle Nazioni Unite e presieduta dall’On.
30
n.28 | Dicembre 2012
Sig.ra Gro Brundtland, ex primo ministro
norvegese. Il rapporto “Il nostro futuro comune”, detto anche rapporto “Brundtland”,
ha definito come sostenibile lo “sviluppo in
grado di soddisfare i bisogni della presente
generazione senza compromettere la capacità delle generazioni future di soddisfare i
propri”, manifestando la gravità e urgenza
del problema e riconoscendone la valenza
economica e sociale: “La Terra è unica ma
non il mondo. Noi tutti dipendiamo da una
singola biosfera che sostiene le nostre vite.
Tuttavia ogni comunità, ogni nazione, si
batte per la sopravvivenza e la prosperità
con la minima considerazione del proprio
impatto sugli altri. Alcune consumano le
risorse del pianeta ad una velocità tale da
lasciarne una piccola quantità alle prossime generazioni. Altre, molto più numerose, consumano troppo poco e vivono con
prospettive di fame, squallore, malattia e
morte prematura”.
La comunità internazionale si è nuovamente espressa a favore dello sviluppo sostenibile in occasione della Conferenza di Rio
de Janeiro del 1992, ribadendo la necessità
di avviare azioni concrete. Ne è scaturito
il programma di azione “Agenda 21”, una
sorta di manuale per lo sviluppo sostenibile
del pianeta per il ventunesimo secolo, un
piano da realizzare su scala globale, nazionale e locale. Gli obiettivi previsti nel
documento sono stati recepiti dai vari Stati che lo hanno ratificato attraverso Piani
Nazionali, i quali prevedono interventi nei
settori produttivi quali l’industria, l’agricoltura e il turismo, nelle infrastrutture di
base (energia e trasporti) e nel settore dei
rifiuti.
L’interpretazione della definizione di
sviluppo sostenibile comporta la ricerca
di un'equità di tipo intergenerazionale,
con un implicito riferimento al fatto che
nell’ambito della stessa generazione persone appartenenti a diverse realtà politiche,
economiche, sociali e geografiche hanno
gli stessi diritti (equità intragenerazionale).
Ne deriva, pertanto che la sostenibilità dello sviluppo richiama la necessità di coniugare tre dimensioni fondamentali e inscindibili, quella ambientale, quella economica
e quella sociale.
La sostenibilità economica è intesa come
capacità di generare ricchezza, soprattutto
in termini di reddito e di lavoro. Quella
sociale riguarda la capacità del modello
di sviluppo di garantire uguali condizioni
di accesso al benessere umano, anche in
termini di sicurezza, salute, istruzione, per
tutta la popolazione indistintamente. Infine
l’ambientale è intesa come la capacità di
mantenere qualità e rinnovo delle risorse
Speciale OdS-PGS7 Terzo classificato
naturali. La definizione di modelli di sviluppo in grado di coniugare le tre dimensioni è compito della politica.
Anche la scienza è stata chiamata a fare
la sua parte, e ogni Paese si è organizzato
attraverso delle Piattaforme Tecnologiche
Nazionali, che hanno il compito di predisporre un’agenda per la ricerca, pubblica e
privata, che risponda a esigenze di sostenibilità. Per quanto riguarda l’industria chimica, questo implica l’impegno allo studio
e alla realizzazione di processi e prodotti
che riducano al minimo le conseguenze
negative di carattere ambientale, sociale o
economico, sia immediate che differite.
La chimica verde
La chimica verde (in inglese: green chemistry) è uno strumento fondamentale
per conseguire lo sviluppo sostenibile in
ambito chimico. Si tratta di un approccio
etico fatto di criteri e di priorità basati su
concetti della chimica, la cui applicazione
richiede una profonda conoscenza scientifica dei composti e dei processi coinvolti
nella produzione, utilizzo e smaltimento
dei rifiuti. Tale approccio risulta utile per
guidare le applicazioni della chimica, in
particolare quelle industriali, verso modalità sostenibili dal punto di vista ambienta-
I 12 principi della Green Chemistry
di Anastas e Warner
1. È meglio prevenire l’inquinamento che trattare o riciclare i prodotti nocivi ottenuti.
2. I metodi di sintesi dovrebbero essere progettati per includere tutti gli atomi utilizzati nel prodotto finale.
3. Laddove possibile, le metodologie di sintesi devono essere progettate per generare composti chimici che hanno tossicità minima o nulla per l’uomo e per l’ambiente.
4.I composti chimici dovrebbero essere disegnati per rimanere adatti al loro scopo,
pur presentando una tossicità ridotta.
5. Occorre ridurre per quanto possibile l’uso di sostanze chimiche aggiuntive (solventi, mezzi di separazione) o limitarlo a sostanze innocue.
6.Occorre considerare tutte le richieste energetiche della produzione dei composti
chimici, per ridurre il loro impatto economico e ambientale.
7. Laddove possibile, i composti chimici di partenza provenienti da fonti esauribili dovrebbero essere sostituiti con sostanze di origine rinnovabile.
8.Nelle sintesi andrebbero evitate derivatizzazioni (es. inserimento di gruppi protettivi, modifiche temporanee delle condizioni chimico-fisiche dei processi).
9.Occorre preferire reazioni catalitiche a quelle stechiometriche.
10.I prodotti chimici devono essere progettati in modo tale che alla fine della loro funzione essi non persistano nell’ambiente e si degradino a formare prodotti innocui.
11.Occorre sviluppare delle metodologie analitiche in grado di controllare in tempo
reale i processi per evitare la formazione di sostanze pericolose.
12.I composti chimici e i loro derivati utilizzati nei processi industriali devono essere
scelti in modo da minimizzare il rischio di incidenti chimici.
31
n.28 | Dicembre 2012
le, economico e sociale. Tra i cardini della
green chemistry vi è la prevenzione dell’inquinamento, che richiede la progettazione
di processi chimici industriali che puntino
all’eliminazione o alla riduzione dell’uso
e della produzione di sostanze nocive per
l’ambiente o per la salute e che favoriscano il risparmio energetico. Queste esigenze sono state codificate negli Stati Uniti
da Anastas e Warner nel 1998 in 12 punti.
La polimerizzazione in emulsione acquosa
dello stirene, che sarà presentata in seguito
rappresenta un esempio di applicazione di
alcuni di questi punti.
La polimerizzazione
del polistirene
Le tecniche di polimerizzazione normalmente impiegate nei processi industriali
di produzione del polistirene sono la polimerizzazione in soluzione, in sospensione,
in massa e in emulsione. Nella tecnica in
soluzione, poiché la reazione viene condotta in un solvente, in cui sia l’iniziatore
che il monomero (lo stirene H2C=C-Ph,
vedi box) sono solubili, c’è quello dello
smaltimento del solvente esausto. Invece,
in quella in sospensione c’è il problema
dell’eliminazione degli stabilizzanti, necessari a disperdere il monomero nel liquido, solitamente acqua, in cui esso non
è solubile. La tecnica di polimerizzazione
in massa, di gran lunga la più utilizzata, ha
il vantaggio di richiedere il numero minimo di reagenti necessari per l’ottenimento
del polimero, infatti non si usano solventi o
mezzi disperdenti, ma ha una serie di svantaggi. Tra questi c’è la bassa resa, dovuta al
fatto che durante la crescita della catena il
monomero viene inglobato fisicamente nel
polimero, sottraendosi così alla reazione.
Ciò significa anche che il polimero ottenuto deve essere ulteriormente processato per
allontanare lo stirene che non ha reagito.
Inoltre l’assenza del solvente o disperdente
porta ulteriori inconvenienti: 1) il polimero prodotto risulta essere caratterizzato da
catene ramificate e di lunghezza variabile;
2) la massa di reazione all’avanzare della
polimerizzazione diventa estremamente viscosa; 3) è necessario condurre la reazione
con efficienti sistemi di smaltimento termico in quanto il calore prodotto dalla reazione, fortemente esotermica, non è assorbito
dal solvente o dal disperdente stesso, che
ne mitigherebbe gli effetti termici. Tutti
questi inconvenienti si manifestano come
costi economici e ambientali per questo
processo.
Speciale OdS-PGS7 Terzo classificato
Sopra: fase iniziale della polimerizzazione dello stirene in emulsione acquosa.
Sotto: fase avanzata della polimerizzazione.
Nella tecnica di polimerizzazione in emulsione il sistema di reazione è formato dal
monomero, da un mezzo disperdente polare, generalmente acqua, da un iniziatore
radicalico, che è solubile in acqua e insolubile nel monomero, e da un tensioattivo.
Nel caso della sintesi del polistirene, il tensioattivo, solitamente il dodecilbenzensolfonato di sodio, viene aggiunto all’acqua,
che funge da disperdente, fino al raggiungimento del valore della concentrazione
micellare critica. Al di sopra di questa
concentrazione le molecole di tensioattivo si aggregano formando le micelle, le
caratteristiche strutture sferiche nelle quali
il tensioattivo espone la testa polare verso
l’acqua e la coda apolare verso l’interno.
Successivamente si aggiunge il monomero, che va a sistemarsi all’interno delle
micelle. L’iniziatore radicalico, persolfato
di potassio, può così essere aggiunto al sistema di reazione, che viene riscaldato fino
a 80 °C per indurre la scissione omolitica
del legame perossidico e la conseguente
formazione dei radicali iniziatori di catena.
L’iniziatore radicalico pur essendo praticamente insolubile nel monomero, ha una
probabilità di entrare nella micella diversa
da zero. La reazione di polimerizzazione
parte, appunto, quando una molecola di
iniziatore migra all’interno della micella e
reagisce con il monomero.
Generalmente la reazione procede con un
unico radicale polimerico per micella e,
quindi con una sola catena in crescita, prevalentemente lineare, in ogni micella. Per
questo motivo le reazioni di terminazione
per accoppiamento tra catene radicaliche
sono sfavorite. La micella si comporta
come un “nano-reattore”, in cui il monomero non ha “concorrenti”, in tal modo la
reazione terminerà quando tutto il monomero contenuto nella micella avrà reagito.
Questo determina rese prossime al 100%
con la produzione di una catena polimerica
per micella di peso molecolare dipendente
dalla quantità di monomero inizialmente
presente al suo interno. Il polimero prodotto risulta pertanto molto omogeneo e può
essere processato (stampato, colorato ecc.)
senza ulteriori trattamenti di purificazione.
In conclusione, la polimerizzazione dello
stirene in emulsione rispetta i principi della
chimica verde, in quanto è una polimerizzazione che utilizza l’acqua come solvente
e nella quale il reagente più inquinante (lo
stirene) viene completamente trasformato
in polimero direttamente utilizzabile, ovvero senza richiedere ulteriori trattamenti
di purificazione.
Il polistirene
Il polistirene è un polimero di addizione ottenuto per polimerizzazione radicalica vinilica
dello stirene.
La reazione necessita di un iniziatore radicalico, perossido o persolfato (ROOR, es. persolfato di potassio), che sottoposto a riscaldamento si decompone per dare origine a specie radicaliche (RO•), che possono iniziare la catena addizionandosi ad una molecola di stirene con
la formazione di un radicale benzilico. La reazione prosegue attraverso lo stadio di propagazione, in cui un radicale benzilico si addiziona, a catena, ad altre molecole di monomero. La
reazione si conclude con lo stadio di terminazione, in cui la crescita della catena polimerica
si interrompe per l’accoppiamento di due radicali.
Nella polimerizzazione per addizione radicalica si ottengono di regola polimeri atattici, ovvero polimeri in cui i centri stereogeni, prodotti durante gli stadi di propagazione, hanno
configurazione casuale (stereorandom). Polimeri stereoregolari si ottengono, invece, mediante l’utilizzo di catalizzatori Ziegler-Natta o a base di metalloceni.
A causa della sua struttura irregolare il polistirene atattico si presenta amorfo e non può
impaccarsi per formare cristalli.
Polistirene atattico.
32
n.28 | Dicembre 2012
Reazione di polimerizzazione
dello stirene.
Speciale OdS-PGS7 Terzo classificato
La nostra sintesi verde
del polistirene
La reazione di polimerizzazione dello stirene in emulsione acquosa è stata effettuata
seguendo un protocollo di sintesi proposto
tra le attività laboratoriali del Piano Lauree
Scientifiche dell’Università di Salerno, per
l’anno scolastico 2011/2012. Di seguito è
riportata la sequenza delle operazioni.
Lavaggio dello stirene.
Lavaggio dello stirene
Reazione di polimerizzazione.
Operazione preliminare è il lavaggio dello stirene, necessario per
eliminare gli inibitori radicalici che
vengono aggiunti come stabilizzanti allo stirene commercializzato.
Queste molecole hanno la funzione
di catturare radicali che possono
generarsi spontaneamente dal monomero per effetto del calore. Nel
contenitore di reazione era presente
come stabilizzante il 4-ter-butilcatecolo,
solubile in acqua. L’operazione di lavaggio è stata effettuata dibattendo lo
stirene (10,0 ml) in un imbuto separatore in presenza di 2,0 ml di una
soluzione acquosa di NaOH al 5%
in peso saturata con NaCl. Dopo
l’allontanamento, attraverso il rubinetto, della soluzione acquosa, lo
stirene è stato conservato nell’imbuto separatore, tappato per evitare
esalazioni nocive.
Preparazione del tensioattivo
e dell’iniziatore radicalico
A sinistra l’aspetto del polistirene fornito dal Dipartimento
di Chimica dell’Università di
Salerno ottenuto mediante polimerizzazione in massa. A destra quello ottenuto nel laboratorio della nostra scuola con
polimerizzazione in emulsione.
33
La soluzione acquosa al 3,6% p/p di tensioattivo è stata preparata solubilizzando
0,75 g di dodecilbenzensolfonato di sodio
in 20 ml di H2O.
La soluzione acquosa al 0,7% p/p di iniziatore radicalico è stata preparata solubilizzando 0,14 g di persolfato di potassio in
20 ml di H2O.
dodecilbenzenesolfonato al 3,6% in peso e
4,0 ml del monomero lavato. Per favorire
l’ingresso del monomero nelle micelle, il
sistema è stato agitato per circa dieci minuti su una piastra magnetica.
Nel pallone di reazione sono stati aggiunti
2,0 ml della soluzione acquosa di iniziatore
radicalico e il sistema è stato nuovamente
agitato per qualche istante.
Reazione di polimerizzazione
Dopo avere collegato il tubo refrigerante
sul collo del pallone e dopo aver avviato il
flusso nel refrigerante, il pallone di reazione è stato immerso in un bagno ad acqua
termostatato a 80 °C, la temperatura di attivazione dell’iniziatore radicalico. Il sistema è stato lasciato a reagire per 30 minuti.
Work up della reazione
Alla fine della reazione il pallone, ben chiuso, è stato conservato per 3 giorni in freezer, consentendo alle basse temperature di
rompere le micelle e liberare il polimero.
Dopo scongelamento, il lattice contenuto nel pallone è stato filtrato su imbuto
bukner. Il residuo sul filtro è stato lavato
con acqua distillata ed essiccato in stufa a
90 °C.
Risultati
La procedura eseguita in laboratorio ha fornito un prodotto dall’aspetto bianco e granulare (figura in basso, a destra) che è stato
confrontato con un prodotto di una reazione di polimerizzazione in massa fornito dal
Dipartimento di Chimica dell’Università
di Salerno, il quale, presentandosi come
un aggregato solido (in basso, a sinistra),
dovrà necessariamente subire ulteriori processi di purificazione.
Questi risultati dimostrano la maggior ecocompatibilità della sintesi del polistirene in
emulsione acquosa realizzata in laboratorio.
Caratterizzazione del prodotto di poPreparazione del sistema di reazione limerizzazione
In un pallone ad un collo da 100 ml, provvisto di ancoretta magnetica, sono stati
introdotti nell’ordine 8,0 ml di acqua distillata, 6,0 ml della soluzione acquosa di
n.28 | Dicembre 2012
Il polistirene prodotto nel laboratorio della
scuola è stato caratterizzato mediante spettrofotometria all'infrarosso per confronto
con lo spettro IR dello stirene riportato in
letteratura. A conferma dell’avvenuta reazione di polimerizzazione, la comparazione mostra la presenza nello spettro del
polistirene degli stretching dei legami C-H
alifatici che, invece, risultano assenti nello
spettro del monomero.
La caratterizzazione del prodotto di sintesi
è stata fatta anche mediante spettroscopia
in risonanza magnetica nucleare 1H e 13C in
CDCl3 (per maggiori dettagli su questa tec-
Speciale OdS-PGS7 Terzo classificato
nica analitica si vedano Green n. 20, pagg.
10-15, e n. 21, pagg. 32-37).
Dagli spettri NMR protonici si evince che,
essendo il prodotto di reazione formato da
unità polimeriche di peso molecolare diSpettro IR dello stirene riportato verso, lo spettro in soluzione a temperatura
in letteratura.
ambiente non dà risultati facilmente interpretabili. Infatti l’accavallamento dei segnali nella stessa zona dello spettro, dovuSpettro infrarosso del polistirene
realizzato con spettrofotometro
Bio-Rad FTS, in film liquido su
bromuro di potassio (KBr).
to alla coesistenza di catene polimeriche di
diversa lunghezza e alla casuale stereochimica dei centri di asimmetria, non fa evi13
Spettro C-NMR del polistirene.
denziare la molteplicità di spin. Ma l’attribuzione dei segnali è comunque possibile
sulla base dei chemical shifts caratteristici.
Sicuramente spettri migliori si sarebbero
potuti ottenere ad alta temperatura con solventi ad
alto punto di ebollizione,
oppure registrando lo spettro allo stato solido.
Dal confronto dello spettro
1
H-NMR del polistirene
con lo spettro 1H-NMR
dello stirene, riportato in
letteratura, risulta che solo
nel primo sono presenti i
segnali a campi alti associati alla presenza di pro1
toni
alifatici
tipici
del polimero, risultando
Spettro H-NMR dello stirene riassenti i segnali a campi bassi, indicanti la
portato in letteratura.
risonanza di protoni vinilici e aromatici e
presenti nello spettro 1H-NMR dello stirene.
In particolare, l’assenza, negli spettri NMR
del polimero ottenuto, di segnali attribuibili alla presenza di stirene fanno ritenere
che la reazione sia andata a completezza,
ovvero che non sia rimasto del monomero
Spettro 1H-NMR del polistirene.
34
n.28 | Dicembre 2012
che non ha reagito.
Questi risultati sono confortati anche dallo
spettro 13C-NMR del prodotto di polimerizzazione.
Conclusioni
Nella reazione riportata è stato adottato un
processo di polimerizzazione in emulsione
che partendo da stirene commerciale ha
prodotto del polistirene utilizzando esclusivamente solventi acquosi, in condizioni
che non hanno richiesto particolari accorgimenti per il controllo termico e con una
completa conversione del monomero. Tutto questo a riprova dell'eco-compatibilità
del processo utilizzato.
A cura degli allievi: Marco Irno della
4aM, Antonio Maffeo e Pietro Raimondi
della 4aI, Anita Caiazzo, Rosario Cavallo,
Maria Teresa Della Fera e Domenico
Salerno della 3aI e Simona Ferrara e
Graziano Scorzeto della 3aM, dell’indirizzo chimico dell’ ITI “B. Focaccia” di
Salerno, con la supervisione dei professori Anna Maria Madaio, Tullia Aquila,
Marco Romano e Maddalena Colucci.
Analisi strumentale
Gli spettri IR sono stati registrati con spettrofotometro Bio-Rad FTS, in film liquido su KBr.
Gli spettri NMR sono stati realizzati presso
il reparto di Risonanza Magnetica Nucleare
dell’ICB-CNR di Pozzuoli. Gli spettri 1H-NMR
sono stati registrati con uno spettrometro
operante a 600 MHz (14.1 Tesla) Bruker Avance
spectrometer (Bruker BioSpin GmbH, Rheinstetten, Germany) equipaggiato con CryoProbe™, a temperatura ambiente, usando CDCl3
come solvente e la risonanza del protone di
CHCl3 come riferimento interno. Gli spettri
13
C-NMR sono stati registrati a 150 MHz (14.1
Tesla), usando la risonanza del CHCl3 come riferimento interno.
Xxxx Xxx
Impazza il trend della cosmesi “eco-bio”.
Ecco come scegliere consapevolmente.
La natura
ti fa bella
(e sana)
di Giovanna Lodato
Prendersi cura di sé
senza danneggiare
l’ambiente. Con quante
sostanze entriamo
ogni giorno in contatto
svolgendo la nostra
toeletta quotidiana?
Creme, lozioni, saponi,
make-up, tutti prodotti
fondamentali per la cura
della persona, spesso
con ingredienti possono
avere effetti nocivi sulla
salute. Questo motivo
sta alla base del boom di
mercato dei cosiddetti
cosmetici eco-bio:
vediamo di cosa si tratta
e come li possiamo
riconoscere tra gli scaffali.
35
n.28 | Dicembre 2012
Cosmetici eco-bio Scelta consapevole
L’Aloe vera (famiglia Aloeacee)
è una delle piante oggi più utilizzata come ingrediente naturale di
prodotti cosmetici e nutraceutici.
La cosmetica eco-bio
Vuoto legislativo
Come possiamo essere sicuri di utilizzare
prodotti cosmetici che oltre ad apportare
benefici reali alla nostra pelle, siano anche
amici dell’ambiente? Proviamo a rispondere assieme a questa domanda.
«Parlare di eco-dermocosmesi significa una
cosmesi eco-compatibile e dermo-compatibile, rigorosamente scientifica e avanzata
tecnologicamente», spiega la professoressa
Riccarda Serri, specialista in Dermatologia
dell’Università di Milano, nonché presidente di Skineco, l’Associazione Internazionale di Dermatologia Ecologica. Un
nuovo tipo di approccio nella cura della
persona che inizia a prendere sempre più
piede anche sul mercato, con i cosmetici
cosiddetti “eco-bio”. Soltanto dieci anni
fa l’ICEA, l’Istituto di Certificazione Etica
e Ambientale, certificava in Italia il primo
eco-bio cosmetico. Oggi sono ben 2.560 i
prodotti a pregiarsi di tale riconoscimento.
«Negli ultimi anni si registra, a livello
europeo e mondiale, un aumento di pelli
sensibili; pelli reattive; dermatosi cosmetogene, causate o slatentizzate da cosmetici
(dermatite seborroica, rosacea, acne adulta,
dermatite irritativa da contatto) dermatite
atopica; cute asfittica; “pori dilatati”; comedoni; iperpigmentazioni post-infiammatorie. Sono anche in aumento le pelli che
non migliorano, nonostante l’uso di prodotti cosmetici e la comparsa di secchezza
e desquamazione», continua la Serri per
spiegare questo nuovo trend di mercato.
Affezioni riconducibili a varie cause, tra
le quali si riconosce l’utilizzo di prodotti
contenenti ingredienti cosmetici nocivi
per la pelle. Sempre secondo la presidente
di Skineco molti ingredienti, pur essendo
atossici e ipoallergizzanti, si rivelano sulla
lunga distanza poco “dermo-compatibili”.
Allo stesso tempo tali ingredienti sono
spesso poco ecocompatibili, ma un’alternativa c’è
ed è rappresentata dai
prodotti naturali.
Un’opzione senz’altro allettante quella di
impiegare cosmetici in linea con ciò che
Madre Natura ci ha donato. Eppure, nonostante la disponibilità di alcuni prodotti, non è così semplice per il consumatore
districarsi tra le proposte presenti in commercio. Come conferma Skineco, ad oggi,
manca un disciplinare standard, un regolamento unico europeo.
Insomma la norma non prevede nel merito una definizione vera e propria. E ne dà
notizia, in una nota, anche l’associazione
italiana di consumatori Altroconsumo: «La
normativa in vigore definisce in modo preciso quali sono gli ingredienti consentiti
(naturali e chimici) e le quantità massime
perché i cosmetici siano sicuri e non
abbiano conseguenze sulla salute».
Una mancanza che può
essere subito compresa:
«L’attenzione posta
dal legislatore sugli
ingredienti - tiene
a precisare la Serri
- trova ragione nel
bisogno esistente di
proteggere il consumatore da possibili
effetti negativi dovuti
alla presenza di specifiche sostanze o preparazioni che possano danneggiare
l’uomo in relazione a proprietà
intrinseche di pericolosità».
Resta, tuttavia, irrisolta la necessità di
maggior chiarezza per riuscire a distinguere tra ciò che è realmente naturale e
ciò che si professa tale, magari sulla scia
dell’imperante green economy. Come testimonia Altroconsumo: «Non essendoci una
legge che stabilisca quantità e qualità degli
ingredienti naturali perché un cosmetico
possa definirsi “naturale”, tutto è lasciato
all’onestà e alla trasparenza dei produttori
e quindi c’è chi ne approfitta. Gli slogan
ingannevoli si sprecano, ma basta girare la
confezione per scoprire che nella lista degli
ingredienti resta ben poco della natura vantata in etichetta».
Una questione
di etichetta
Per questo è così importante interpretare
l’INCI, l’International Nomenclature of
Cosmetic Ingredients, la denominazione
internazionale utilizzata per indicare in
36
n.28 | Dicembre 2012
Cosmetici eco-bio Scelta consapevole
etichetta i diversi ingredienti del prodotto cosmetico. Viene usata in tutti gli stati
membri dell’UE e in molti altri Paesi nel
mondo, tra cui Usa, Russia, Brasile, Canada e Sudafrica.
Ai sensi della Direttiva 96/335/CE, in Europa dal 1997 è obbligatorio che ogni cosmetico immesso sul mercato riporti sulla confezione l’elenco degli ingredienti, trascritti
in ordine decrescente di concentrazione al
momento della loro incorporazione. Perciò
al primo posto si indica l’ingrediente contenuto in percentuale più alta, a seguire gli
altri, fino a quello contenuto in percentuale
più bassa. Al di sotto dell’1% gli ingredienti possono essere indicati in ordine sparso.
La nomenclatura INCI contiene alcuni termini in latino (riferiti ai nomi botanici e a
L’olivo è oggi molto sfruttato per quelli di ingredienti presenti nella farmala preparazione di cosmetici nacopea), mentre la maggioranza è in
turali.
inglese. Nel caso dei coloranti si
utilizzano le numerazioni secondo
il Colour Index, ad esclusione dei
coloranti per capelli, che vanno sempre indicati con il loro
nome chimico inglese.
Finalità dell’INCI è
quella di permettere alle persone con
allergie di identificare nell’immediato
la presenza di sostanze
potenzialmente dannose
all’interno di un prodotto
prima del suo impiego.
Qualità certificata
Le certificazioni di settore danno senz’altro una mano a scegliere prodotti di qualità,
consentendo di distinguere i prodotti “naturali” e operare una scelta
I marchi di qualità certificata
eco-bio per cosmetici rilasciati responsabile.
Da alcuni anni sono diversi i
da ICEA e AIAB
sistemi di certificazione volontari per la cosmesi biologica e naturale. All’estero
si distinguono marchi di
certificazione come Bdih,
Ecocert, Soil Association,
Cosmos e Na True. In Italia
AIAB, l’Associazione Italiana per l’Agricoltura Biologica, ha creato il marchio
Bio Eco Cosmesi, assegnato ai prodotti
realizzati con materie prime da agricoltura
biologica o da raccolta spontanea, privi di
sostanze a rischio (come gli allergizzanti)
e che non contengono materiali potenzialmente nocivi, anche nell’imballaggio.
Una certificazione Eco Bio Cosmesi è rila37
n.28 | Dicembre 2012
sciata anche da ICEA. I prodotti riportanti
tale denominazione S sono ottenuti utilizzando materie prime vegetali provenienti
da coltivazioni biologiche o da raccolta
spontanea certificate ai sensi del Regolamento CE 834/07. Tra i requisiti principali
che lo standard vuole garantire, compaiono l’assenza di materie prime non vegetali
considerate “a rischio”, ovvero allergizzanti, irritanti o ritenute dannose per la salute
dell’uomo e dell’ambiente, senza trascurare le performance del prodotto, ma anche
l’ecosostenibilità del packaging.
Dal 2011, inoltre, è entrato in vigore Cosmos - Cosmetics Organic Standard, disciplinare che definisce e regolamenta il
cosmetico biologico e naturale, condiviso
e approvato da tutti i principali certificatori
europei (Icea, la tedesca Bdih, le francesi
Ecocert e Cosmebio, l’inglese Soil Association). I nuovi standard europei prevedono due livelli distinti di certificazione:
una per il prodotto biologico, una per il
prodotto naturale. Per il primo, impone
che sia bio almeno il 95% degli ingredienti
vegetali ottenibili con semplici metodologie fisiche di estrazione, e almeno il 20%
sul totale del prodotto finito, considerando
anche l’acqua. Inoltre il cosmetico naturale non dovrà avere più del 2% di materie
prime di sintesi.
Buoni e cattivi
Cerchiamo ora di capire, in concreto, quali
sono gli ingredienti più o meno compatibili
per pelle e ambiente. Ad oggi una letteratura che interpreti la questione in maniera
univoca non c’è. I maligni sostengono che
si tratti di una scelta voluta, orientata dalle
leggi del mercato: prodotti di marche bla-
sonate, con ingredienti aggressivi e scarsamente biodegradabili, a basso costo e
magari derivati dal petrolio. Un circolo che
- comunque sia - dà linfa vitale a una porzione sostanziosa dell’economia mondiale.
Una consapevolezza ben affermata, tuttavia, esiste: quello che fa bene oggi può
Cosmetici eco-bio Scelta consapevole
far male domani. «Non esiste alcuna
indicazione circa la biodegradabilità e
la ecocompatibilità degli ingredienti stessi,
come altresì non esiste la valutazione degli
effetti cutanei a lunga distanza. Un esempio concreto è dato dall’uso continuativo
di prodotti filmanti e occlusivi (siliconi e
petrolati), che favorisce la comparsa di pori
dilatati e cute “asfittica”», dichiara la Serri.
Per questi motivi Skineco parla di un’ecodermocosmesi che vada a braccetto con la
limitazione dei seguenti ingredienti (che
verranno descritti di seguito nell’apposito box):
• petrolatum, paraffinum liquidum,
mineral oil;
• siliconi (ciclometicone, dimeticone, etc);
• polietilenglicoli (PEG), poiché
contengono ossido di etilene che può
formare diossano;
• cessori di formaldeide (diazolydinyl urea, imidazolidinyl urea,
DMDM hydantoin, bronopol, etc);
• ammine (DEA, MEA, TEA,
MIPA);
• EDTA: ittiotossico;
• nonoxynol, poloxamer e nonilfenoli: in quanto disturbatori endocrini;
• triclosan, antibatterico tossico se
presente in concentrazioni eccessive;
• trimonium e dimonium: ittiotossici, non biodegradabili.
Secondo la suddetta associazione,
una percentuale massima dello 0,52% è ottimamente tollerata e migliora
la performance del prodotto. Valori superiori possono creare delle situazioni di reUn sapone liquido a base di olio
attività locale, secchezza, desquamazione,
d’oliva (detto in inglese “castil
oil”), certificato eco-bio, com- possono portare ad un’acutizzazione delle
dermatiti seborroiche e alla formazione di
mercializzato negli Usa.
microcisti.
Un’interpretazione in linea anche con i
principali sistemi di certificazione. Infatti
il disciplinare Icea-Aiab per garantire un
prodotto eco-bio prescrive una lista di sostanze da bandire, tra cui compaiono le seguenti, alcune delle quali saranno descritte
nel box di seguito:
• PEG, PPG derivati (tensioattivi, solubilizzanti, emollienti, solventi ecc.);
• composti etossilati (tensioattivi, emulsionanti, solubilizzanti ecc.);
• tensioattivi notoriamente aggressivi e
poco dermocompatibili;
• sostanze che possono provocare danni
ambientali ed ecologici;
• composti che possono dare origine a
nitrosammine (sostanze cancerogene);
• derivati animali come collagene, sego
38
n.28 | Dicembre 2012
e placenta;
• siliconi e derivati siliconici;
• polimeri acrilici (emulsionanti, modificatori reologici, filmanti, agenti antistatici ecc.);
• conservanti come la formaldeide e i
suoi cessori, tiazolinoni, derivati del
fenilmecurio, carbanilidi, borati, fenoli alogenati, cresoli alogenati;
• coloranti di origine sintetica;
• derivati dell’alluminio e del silicio di
origine sintetica.
Indicazioni pratiche
Per i consumatori poco avvezzi alla chimica - oltre che affidarsi alle certificazioni - non resta che seguire le indicazioni
delle associazioni di consumatori, alcune
delle quali hanno realizzato dei veri e propri prontuari per leggere la lista degli ingredienti. «Se ai primi posti ci sono tanti
componenti in latino, il prodotto è in buona
parte naturale. Anche se non sono in latino, sono ingredienti di qualità: tocopherol
o tocopheryl acetate (vitamina E), panthenol (vitamina B5), titanium dioxide o zinc
oxide, glucoside», indica Altroconsumo,
secondo la quale per definizione un “cosmetico naturale” deve essere:
• senza parabeni come conservanti (si
può tollerare una piccola quantità di
etyle methyl paraben anche se non è
naturale);
• senza antimicrobici: BHT, BHA e triclosan;
• senza conservanti che possono rilasciare formaldeide: DMDM hydantoin, midazolidinyl urea, diazolidinyl
urea, formaldehyde, sodium hydroxymethylglycinate;
• senza petrolio e suoi derivati e senza
silicone (tutti gli ingredienti che terminano in -one o che contengono la
parola siloxane);
• senza PEG e senza coloranti chimici
(CI più un numero);
• senza profumi chimici (vanno bene gli
oli essenziali indicati con parfum, oil e
il nome latino dell’essenza).
Per aiutare il lettore a orientarsi in questa
selva di composti chimici, naturali e non,
nel box che conclude questo articolo descriviamo brevemente le caratteristiche di
alcuni dei componenti più diffusi nei cosmetici che le donne (ma oggi anche molti
uomini) usano quotidianamente.
Giovanna Lodato
Cosmetici eco-bio Scelta consapevole
I PRINCIPALI COMPONENTI DEI PRODOTTI COSMETICI
Paraffina
Petrolatum, paraffinum liquidum o mineral oil sono i possibili nomi riportati nell’INCI per definire più
comunemente la paraffina. Si tratta di una miscela di idrocarburi solidi, in prevalenza alcani, le cui molecole presentano catene con più di 20 atomi di carbonio.
È ricavata dal petrolio e si presenta come una massa cerosa, biancastra, insolubile in acqua e negli acidi.
I suoi principali impieghi sono nella fabbricazione di candele, lubrificanti, isolanti elettrici, per la patinatura della carta e per produrre cosmetici, oli e creme per bambini, gomme da masticare.
Composti a rilascio di formaldeide
Formaldeide
Vi sono alcuni conservanti adoperati in cosmesi che possono rilasciare formaldeide, come DMDM
hydantoin, midazolidinyl urea, diazolidinyl urea, formaldehyde, sodium hydroxymethylglycinate.
La formaldeide o aldeide fòrmica (CH2O) in soluzione acquosa al 37% è nota in commercio anche con
il nome di formalina. Rappresenta un potente battericida: per questo trova largo impiego in campo
domestico come disinfettante e nella produzione di tessuti a livello industriale.
L’Agenzia Internazionale per la Ricerca sul Cancro (AIRC), sin dal 2004, ha inserito la formaldeide
nell’elenco delle sostanze considerate con certezza cancerogene per la specie umana. Inoltre la formaldeide è considerata in grado di interferire con i legami tra Dna e proteine.
Anche se l’uso nei prodotti finiti è da tempo caduto in disuso in Europa, è opportuno osservare come
invece siano tollerati dei succedanei della formaldeide. Infatti le due molecole imidazolidinil-urea e
diazolidinil-urea sono permesse e diffuse come conservanti antimicrobici nei cosmetici ma fungono
da “cessori di formaldeide”. «Ciò significa che, durante la vita del prodotto, esse cedono formaldeide
inibendo la crescita batterica all’interno del prodotto» spiega il dottor Massimo Perrone, chimico cosmetologo, in una nota diffusa dalla società scientifica ISPLAD, l’International-Italian Society of PlasticAesthetic and Oncologic Dermatology. «Il loro uso, sebbene spesso oggetto di critiche e di valutazioni di
esperti, è per ora ancora considerato sicuro. Sebbene le concentrazioni in gioco di formaldeide siano
sensibilmente più basse di quelle usate anni fa, secondo alcuni autori un rischio per la salute umana
potrebbe teoricamente esistere ancora, soprattutto nell’uso prolungato (si pensi ai prodotti di uso
quotidiano) e/o se i prodotti vengono in parte inalati».
DMDM hydantoin
Etanolammine
L’etanolammina è un prodotto chimico ottenuto per reazione dell’ammoniaca acquosa con l’ossido di
etilene. Il prodotto si presenta in tre forme: monoetanolamina (MEA), dietanolamina (DEA), trietanolammina (TEA).
Le etanolammine sono utilizzate principalmente come sostanze tensioattive, nonché per la purificazione dei gas e per la preparazione di metalli e di prodotti tessili. Presenti in cosmetici, detergenti,
shampoo e condizionatori, queste sostanze si trovano combinate sia fra loro, sia con altri tensioattivi o
emulsionanti e vengono facilmente assorbite dalla pelle.
La monoetanolammina è prodotta facendo reagire l’ossido di
etilene con ammoniaca (NH3) acquosa, la reazione produce anche
dietanolammina e trietanolammina. Il rapporto dei prodotti può
essere controllato cambiando la
stechiometria dei reagenti.
PEG e PPG
PEG e PPG, rispettivamente glicole polietilenico e
polipropilenico, rientrano nei polietilenglicoli, una
classe di composti presenti nella maggior parte dei
prodotti cosmetici in commercio. Sono di derivazione sintetica, ottenuti tramite processo di polimerizzazione dell’ossido di etilene.
In campo cosmetico e farmaceutico vengono impiegati in qualità di emulsionanti per la preparazione di
unguenti e creme, ma anche, shampoo e detergenti
per il corpo. Se negli ultimi due preparati i PEG consentono di ottenere emulsioni viscose, nelle creme
assicurano emulsioni ad effetto emolliente e umettante.
Il polietilen glicol (PEG), un polimero di sintesi ampiamente usato nei prodotti cosmetici.
39
n.28 | Dicembre 2012
Cosmetici eco-bio Scelta consapevole
Tensioattivi
Tensioattivo o surfattante è quella sostanza che, disciolta in acqua, consente ad un prodotto di rimuovere lo sporco. La sua composizione chimica è complessa ma sono i fosfolipidi a garantire la detersione.
I moderni tensioattivi presenti nei cosmetici vengono impiegati in miscele costituite da molecole con
caratteristiche chimiche differenti. Ne esistono di diversi tipi:
• Tensioattivi anionici. Si chiamano così perché, immessi in soluzione acquosa, generano anioni carichi
negativamente. I tensioattivi anionici puliscono molto bene e producono schiuma abbondante: per
questo sono tra i tensioattivi più usati nei detergenti. Tuttavia si tratta di sostanze assai sgrassanti,
con un pH che in acqua diventa alcalino, mentre quello della nostra pelle è acido, con un valore intorno al 5.5. Per beneficiare delle buone qualità detergenti dei tensioattivi anionici si uniscono a questi
dei tensioattivi non ionici; mentre, per neutralizzare il pH, si aggiungono acidi deboli tipo acido lattico o acido citrico. I più noti tensioattivi anionici sono gli alchilsolfati, alcoilsarcoinati, alchilsemisolfuccinati, condensati tra acidi grassi e aminoacidi. Invece, tra i tensioattivi anionici di origine naturale, si
segnalano coco glucoside, decyl glucoside e sodium lauroyl glutamate.
• Tensioattivi non ionici. Sono definiti in tal modo perché non si ionizzano in soluzione con l’acqua. Il
loro pH è neutro (7) e, di solito, vengono adoperati come tensioattivi da addizionare ad altri perché
addolciscono l’azione detergente dei tensioattivi anionici. I più noti tensioattivi non ionici sono gli
alchiloamidi, esteri del glucosio e del saccarosio, alchilaminossidi, derivati etossilati.
• Tensioattivi anfoteri. Hanno la proprietà di modificare, a seconda della soluzione in cui sono immessi,
la loro carica elettrica e quindi le loro caratteristiche acide e alcaline. Pertanto in una soluzione alcalina si comportano da tensioattivi anionici con carica negativa o pH alcalino; mentre in soluzione acida
si comportano come tensioattivi cationici con carica positiva e pH acido. Questo tipo di tensioattivi
trova molte applicazioni perché non irrita gli occhi o la cute, grazie ad un’azione detergente delicata,
ed è spesso miscelato con tensioattivi anionici. Tra i principali tensioattivi anfoteri ci sono le imidazoline e le betaine.
• Tensioattivi cationici. In soluzione acquosa producono cationi, con carica elettrica positiva e pH acido. Si tratta di un tipo di tensioattivo scarsamente usato, a causa del basso potere detergente. Di
vengono mischiati con quelli non ionici e con gli anfoteri. Tra i tensioattivi cationici più noti ci sono i
sali quaternari di ammonio, sali di piridinio quaternario, sali di isochinolinio quaternario.
Tra i tensioattivi più utilizzati nei detersivi tradizionali, gli etossilati la fanno senza dubbio da padrone.
Si tratta di composti di origine naturale a cui in modo artificiale è stata aggiunta una parte di origine
petrolchimica, per renderne la lavorazione più semplice ed economica.
Rientrano in questo gruppo anche i laurilsolfati, in particolare di sodio - tra cui sodium lauryl sulfate
(SLS) e sodium laureth sulfate (SLES) - utilizzati comunemente nell’industria cosmetica ma anche nei
prodotti per la pulizia industriale.
L’SLS rappresenta un prodotto storico nel campo della detergenza. Da alcuni anni gli si è preferito
l’SLES, che porta ad ottenere formulazioni sì meno economiche ma anche meno irritanti sulla cute. In
barba alle diverse critiche mosse, ad oggi, non esistono in letteratura dati riguardanti una loro eventuale pericolosità. Anche la Commissione della Comunità Europea per la sicurezza dei prodotti cosmetici li ha,
di recente, definiti sicuri sotto tutti i profili.
Unici inconvenienti a cui si potrebbe andare incontro
utilizzando detergenti etossilati sono una maggiore secchezza dei capelli o della cute, irritazioni degli occhi e
della pelle e, in rari casi, irritazioni del tratto respiratorio
superiore (ma solo se utilizzato in elevate quantità e in soggetti predisposti). Le case produttrici cercano comunque di ovviare a questi inconvenienti aggiungendo alle formulazioni sostanze emollienti e
nutritive oppure utilizzando miscele di tensioattivi, in modo ridurne gli effetti indesiderati.
Sodio lauril solfato (SLS)
In ogni caso «Utilizzare detergenti poveri di tensioattivi, quindi poco schiumogeni, per non alterare il
film idrolipidico di superficie e non ridurre il suo effetto-barriera» rientra tra I 10 comandamenti della
bellezza suggeriti dagli esperti della già citata ISPLAD per le pelli di ogni età.
Siliconi
Comparsi sulla scena soltanto agli inizi degli anni Novanta, sono diventati tra i protagonisti indiscussi
delle preparazioni cosmetiche. Si tratta di composti prodotti in laboratorio, a base di silicio, capaci di
formare numerose molecole, caratterizzate da lunghe catene con proprietà chimico-fisiche anche molto diverse tra loro.
Per quanto concerne i siliconi cosmetici ne esistono diversi tipi come ci spiegano gli esperti di Skineco: da quelli ciclici, con struttura ad anello, che sono assai poco untuosi ed evaporano in poco tempo
(cyclomethicone, cyclopentasiloxane, cyclohexasiloxane), a quelli mediamente unti e che non evapo-
40
n.28 | Dicembre 2012
Cosmetici eco-bio Scelta consapevole
rano (dimethicone e suoi derivati), a quelli molto untuosi e pesanti (come il dimethicone copolyol). Il
loro ampio utilizzo deriva del fatto che sono sostanze con ottime caratteristiche per le formulazioni
cosmetiche: sono leggeri e non danno la stessa sensazione di untuosità dei grassi vegetali; conferiscono un’impareggiabile tocco setoso sulla pelle; sono resistenti al calore e all’ossidazione, e non rappresentano un buon terreno di coltura per i batteri; abbattono la schiuma, ovvero evitano il formarsi
della scia bianca mentre si spalma una crema, anche in percentuali molto basse; non danno allergie,
non penetrano all’interno della pelle; sono idrorepellenti; aumentano la performance dei filtri solari sia
chimici che fisici.
I siliconi, perciò, sono largamente impiegati nelle creme solari resistenti all’acqua, nelle creme viso a “effetto seta”, creme corpo vellutanti, prodotti lucidanti per capelli, fondotinta con ottima resa cosmetica.
Buone prestazioni ma solo all’apparenza: «Spesso vengono utilizzati per mascherare formulazioni scadenti, povere di principi attivi - chiarisce Skineco - danno appagamento immediato con la sensazione di
pelle setosa, ma il cosmetico altro non fa. Utilizzati sui capelli danno buoni risultati estetici alle prime
applicazioni, poi la chioma, appesantita da siliconi che si depositano e non riescono ad essere lavati via,
diventa floscia e senza corpo».
Secondo l’Associazione non sono un granché neppure le loro prestazioni ambientali. Non sono assolutamente biodegradabili, finiscono negli scarichi fognari tal quali e poi si accumulano nell’ambiente.
Inoltre per quanto concerne la loro nocività, fino a una concentrazione del 2% circa i siliconi sono tollerabili e migliorano le perfomance delle formulazioni cosmetiche, in percentuali troppo elevate (quando
si trovano tra i primi posti dell’INCI) non sono dermo-compatibili e producono una situazione di ingannevole soddisfazione cosmetica.
Parabeni
Metilparabene
Sono una classe di composti organici aromatici, esteri dell’acido 4-idrossibenzoico, utilizzati da oltre
50 anni come conservanti nell’industria cosmetica, farmaceutica e alimentare per le loro proprietà battericide e fungicide. La loro efficacia combinata ad costo contenuto senz’altro spiega il perché siano
tanto utilizzati.
I parabeni più comuni sono metilparabene (methylparaben, E218), etilparabene (ethylparaben, E214),
propilparabene (propylparaben, E216) e butilparabene (butylparaben). Meno diffusi sono isobutilparabene (isobutylparaben), isopropilparabene (isopropylparaben), benzilparabene (benzylparaben) e
loro rispettivi sali.
L’allarme sulla presunta pericolosità dei parabeni è nato dopo uno studio di Philippa Darbre, oncologa dell’università di Reading del Regno Unito, pubblicato nel gennaio del 2004 sul Journal of Applied
Toxicology. Nello studio eseguito su 20 campioni prelevati da donne affette da neoplasia al seno, si evidenzia come nella maggior parte dei campioni (18) vi sia un’elevata presenza di parabeni, in particolar
modo di metilparabene. Un’indagine tuttavia limitata in termini di numerosità del campione - che non
ha avuto seguito vista la mancanza di fondi - che, perciò, non dimostra inequivocabilmente il nesso tra
insorgenza di tumore e impiego di parabeni.
Se la Danimarca ha deciso di vietare i parabeni nei prodotti destinati a soggetti di età inferiore ai 36
mesi, il Comitato Scientifico per la Sicurezza del Consumatore (Scientific Committee on Consumer Safety
- SCCS) dell’Unione Europea ha comunque preso in esame la questione nel dicembre 2010. Si è stabilito
che l’utilizzo di butilparabene e propilparabene è da considerarsi sicuro fino a una concentrazione pari
allo 0,19%, anche se le attuali direttive cosmetiche permettono un utilizzo di tali tipi di parabeni a concentrazioni più elevate (0,40% per gli esteri e 0,80% per le miscele di esteri).
Relativamente ad altri parabeni, nella fattispecie il metilparabene e l’etilparabene, il Comitato ha affermato che essi sono da considerarsi sicuri alle massime concentrazioni attualmente consentite. Il
Comitato, infine, non ha espresso pareri su altri composti quali l’isopropilparabene, l’isobutilparabene
e il fenilparabene in quanto i dati a disposizione sono ritenuti insufficienti.
Il nickel: un caso a parte
L’allergia ai metalli pesanti, nickel in primis, è un fenomeno sempre più frequente nella società di oggi
(si veda anche Green n. 25, pagg. 10-17). Il nichel è presente in natura ed è contenuto anche nel nostro
organismo come microelemento. È l’esposizione cronica in persone particolarmente sensibilizzate a
provocare allergia, che si manifesta con eczemi ed eritemi sulla pelle esposta. Non rientra tra gli ingredienti dei prodotti cosmetici ma può essere presente come impurezza derivante dalla lavorazione e lo
si può trovare anche nei gioielli, nei detersivi e negli alimenti.
Secondo le indicazioni di Skineco è responsabile del 25% delle allergie da contatto scatenate dai cosmetici perché la pelle è un organo di deposito nel quale il nickel si accumula ma difficilmente si elimina.
Nei soggetti sani la pelle tollera valori di 100 ppm, parti per milione, mentre in quelli già sensibilizzati la
soglia per riaccendere una reazione è di 1 ppm. Nei prodotti di aziende che controllano la sua presenza
si osservano livelli di nichel inferiori 1 ppm. In caso di pelle sensibile, è consigliabile scegliere cosmetici
testati che garantiscano un contenuto del metallo inferiore allo 0,00001%.
41
n.28 | Dicembre 2012
Xxxx Xxx
La zootecnia fa un uso massiccio di antibiotici,
con ripercussioni significative sulla salute e sull’ambiente
Antibiotici
in zootecnia:
abuso e
farmacoresistenza
di Carmen C. Piras
Quando si usano antibiotici per il
trattamento dei malattie infettive,
la maggior parte dei batteri viene
uccisa, ma una piccola percentuale
di microrganismi può sopravvivere
essendo divenuta resistente
all’antibiotico utilizzato. Si tratta
di un fenomeno in crescente
espansione, a seguito del quale
farmaci considerati in passato di
prima scelta per il trattamento di
specifiche infezioni attualmente
non sono più efficaci e la
farmacoresistenza è diventato un
problema di estrema importanza
nella tutela della salute pubblica.
Nonostante la principale causa sia
l’utilizzo umano (o meglio l’abuso),
la metà circa degli antibiotici oggi
prodotti è destinata alla zootecnia,
con importanti implicazioni di tipo
sanitario e ambientale.
42
n.28 | Dicembre 2012
Antibiotici in zootecnia Abuso e farmacoresistenza
Un po’ di storia
Usi zootecnici
L’impiego di antibiotici in agricoltura è
cominciato a partire dagli anni Quaranta
in via del tutto sperimentale. Infatti, studi condotti in Gran Bretagna e Stati Uniti
mostrarono che basse dosi di penicillina e
tetraciclina fossero in grado di facilitare la
crescita di suini e polli e che, in generale,
la somministrazione di questi farmaci agli
animali permettesse di renderli più produttivi. Proprio per questo motivo, a partire
dagli anni Cinquanta, fu consentito in Gran
Bretagna l’utilizzo di questi farmaci come
promotori di crescita. Da allora, grazie alla
possibilità di controllare la diffusione di
infezioni negli allevamenti e di stimolare
la crescita e la produttività, l’utilizzo degli
antibiotici in zootecnia si espanse rapidamente, raggiungendo quantitativi elevatissimi. Nel 1995, oltre il 90% dei siti degli
In zootecnia gli antimicrobici trovano diverse applicazioni. Il principale impiego è
rappresentato dal trattamento terapeutico
di patologie o infezioni, che richiede dosi
alte di farmaci per periodi di tempo relativamente brevi. Gli antibatterici, però,
possono anche essere utilizzati a scopo
preventivo per evitare la diffusione di malattie tra gli animali; in questo caso vengono somministrati a basse dosi e per periodi
di tempo prolungati. Infine, possono essere utilizzati come promotori di crescita e,
in quest’ultimo caso, la somministrazione
avviene a dosi bassissime e per periodi di
tempo molto lunghi, che spesso durano per
gran parte della vita dell’animale.
L’impiego di tali farmaci in zootecnia presenta, di conseguenza, numerosi vantaggi
per i produttori. Infatti, permette il mantenimento degli animali in buona salute,
grazie alla prevenzione della diffusione
delle infezioni. In secondo luogo, garantisce qualità ed efficienza nella crescita degli
animali e nella produzione, costi contenuti
grazie alla riduzione delle spese sostenute
per curare comuni malattie di natura batterica e la possibilità di offrire ai consumatori
prodotti ad un prezzo vantaggioso e competitivo.
Tuttavia, l’utilizzo non terapeutico di questi farmaci, spesso attuato con dosi inferiori rispetto a quelle che sarebbero necessarie in terapia, è correlato alla diffusione di
ceppi batterici resistenti, non soltanto tra
gli animali, ma anche tra gli umani, che
possono venire direttamente in contatto
con queste specie microbiche attraverso
capi infetti (una categoria a rischio è quella
degli allevatori stessi), l’ambiente (acqua,
suolo contaminati dalle deiezioni degli animali) o l’assunzione di cibo contaminato.
Diversi studi hanno dimostrato che gli allevamenti intensivi potrebbero essere la causa dominante della proliferazione di ceppi
batterici resistenti alla terapia antibiotica.
Infatti, le condizioni in cui vengono tenuti
gli animali in questo tipo di allevamenti,
durante tutto il corso della loro vita, conducono ad uno stato di salute precario e facilitano la diffusione di malattie e infezioni,
che richiedono un tale trattamento terapeutico. Negli allevamenti intensivi di polli
e suini, ad esempio, gli animali vengono
cresciuti in condizioni di sovraffollamento,
di solito senza possibilità di muoversi liberamente allo scopo di ottenere il maggior
rendimento possibile, per farli crescere
rapidamente o produrre più carne, latte o
uova. Chiaramente in queste condizioni, la
loro salute e il sistema immunitario sono
Contaminazione da antibiotici.
Stati Uniti destinati alla produzione di pol[Immagine: Ministero della Sa- lame aveva impiegato mangimi contenenti
lute]
antibatterici. Nel 1999 il 70% degli alimen-
ti della dieta dei suini da allevamento conteneva antibiotici. Nel 2001, The Union of
Concerned Scientists ha stimato che circa
il 70% della quantità totale di farmaci antibatterici degli Usa fosse destinata al trattamento non terapeutico del bestiame, un
utilizzo circa otto volte superiore rispetto
a quello osservato nella medicina umana.
43
n.28 | Dicembre 2012
Antibiotici in zootecnia Abuso e farmacoresistenza
Gli allevamenti intensivi
Gli allevamenti intensivi sono nati negli Stati Uniti dopo la seconda guerra mondiale
allo scopo di garantire cibo alla popolazione nel periodo postbellico. Così, i produttori avevano la possibilità di allevare gli animali a costi contenuti e di vendere carne
e derivati a prezzi bassi, in tempi brevi e in grosse quantità. Tutto questo a spese delle povere bestie, che negli allevamenti di questo tipo vivevano, e vivono ancor’oggi,
in condizioni di sovraffollamento (basti pensare alle galline ovaiole che dentro alle
loro gabbie non possono neanche aprire le ali), respirano le esalazioni dei loro stessi
escrementi, contenenti elevati residui di ammoniaca nel caso delle galline e metano
nel caso dei bovini, possono compiere soltanto movimenti limitatissimi, con conseguente indebolimento di ossa e muscoli, e sono esposti per periodi di tempo prolungati durante tutto l’arco della giornata alla luce artificiale. Questi animali, sottoposti
a delle condizioni di vita completamente diverse da quelle che avrebbero in natura,
sono fortemente predisposti all’insorgenza di patologie, spesso di origine batterica.
L’utilizzo di antibiotici negli allevamenti, quindi è divenuto necessario per evitare la
trasmissione di malattie e l’insorgenza di infezioni, che in condizioni naturali avrebbero un’incidenza molto più bassa.
Il rapporto “Rischio sanitario degli allevamenti intensivi - Resistenza agli antibiotici
e nuove malattie”, realizzato dalla LAV (Lega AntiVivisezione) nel 2010, ha messo
in evidenza le condizioni degli animali in questo tipo di allevamenti. Dal rapporto è
emerso che ogni gallina ovaiola vive in uno spazio medio di 550 cm2, dove gli è impossibile compiere qualunque tipo di movimento, con conseguente fragilità delle ossa,
che possono facilmente rompersi. I polli da carne, invece, devono sopravvivere in uno
spazio addirittura inferiore. Basti pensare che ogni metro quadrato è occupato da
circa venti polli, che durante i mesi estivi rischiano di perdere la vita a causa del surriscaldamento e dello stress provocato dal caldo.
I vitelli, dopo essere stati prematuramente allontanati dalle mamme per essere trasferiti in stalle dove possono compiere solo movimenti molto limitati, vengono alimentati con una dieta povera di ferro, per far sì che la carne resti bianca e tenera. Le condizioni igieniche sono molto precarie e, spesso, si ammalano a causa dell’ammoniaca
che esala dagli escrementi accumulati sui pavimenti. Le bovine lattifere vengono costrette a produrre quantità sproporzionate di latte rispetto a quelle che produrrebbero in condizioni normali (fino a 40 litri di latte al giorno) e questo porta spesso alla
comparsa di mastiti, che richiedono trattamenti terapeutici farmacologici. Costrette
anch’esse a vivere in spazi ridottissimi, sviluppano fragilità muscolare e, sottoposte
a forti condizioni di stress per tutta la vita, queste bestie, che in natura vivrebbero
fino a 40 anni, sopravvivono solo per 7/8 anni, dopodiché vengono avviate al macello.
Queste condizioni di vita fortemente stressanti per gli animali portano necessariamente ad un cattivo stato di salute e fanno sì che per la sopravvivenza degli animali,
farmaci come gli antibiotici, che in condizioni migliori di allevamento sarebbero inutili,
divengano assolutamente indispensabili.
Un allevamento intensivo di polli in
Florida, Usa.
44
n.28 | Dicembre 2012
compromessi, questo favorisce lo sviluppo e la diffusione di malattie infettive e,
di conseguenza, senza l’aiuto dei farmaci
somministrati a scopo preventivo, non sarebbe possibile mantenere la produttività
dell’allevamento.
Il nostro Ministero della Salute riporta
le seguenti raccomandazione in merito
all’uso zootecnico corretto degli antibiotici
(dal manuale “ Biosicurezza e uso corretto
e razionale degli antibiotici in zootecnia”):
• l’antibiotico dovrebbe essere scelto in
base alla sensibilità della specie batterica bersaglio e somministrato a dosi e
per le vie indicate nel foglietto illustrativo, come da registrazione;
• la scelta dei farmaci e delle vie di somministrazione dovrebbero essere basate su diagnosi certa, antibiogramma e
sulle indicazioni fornite nel foglietto
illustrativo, nonché da eventuali ulteriori informazioni disponibili aggiornate in relazione a farmacocinetica e
farmacodinamica;
• gli antibiotici dovrebbero essere usati
in funzione dell’esito previsto come
ad esempio l’eliminazione di un agente infettivo;
• monitorare periodicamente la sensibilità in vitro e la risposta terapeutica,
specialmente per la terapia di routine;
• usare l’antibiotico a spettro più stretto
e con la più alta efficacia in vitro nei
confronti della specifica specie batterica;
• gli antibiotici dovrebbero essere usati
nella posologia più appropriata e per
il tempo necessario affinché il sistema
immunitario possa eliminare il patogeno;
• gli antibiotici che non vengono utilizzati in medicina umana dovrebbero essere quelli di prima scelta in medicina
veterinaria, rispetto a molecole della
stessa classe di quelle usate in medicina umana;
• utilizzare sempre prodotti registrati
per il trattamento della malattia specifica;
• la contemporanea somministrazione
empirica di farmaci diversi e in particolare dei “cocktail di antibiotici” dovrebbe essere evitata;
• l’uso locale dell’antibiotico deve essere generalmente preferito a quello
sistemico ogni volta che ciò è terapeuticamente appropriato;
• il trattamento di casi cronici dovrebbe
essere evitato, qualora si prevedano
scarse possibilità di successo;
• evitare l’uso di antibiotici quando non
Antibiotici in zootecnia Abuso e farmacoresistenza
è necessario (es. malattie non infettive,
infezioni virali, infezioni autolimitanti);
• i protocolli chirurgici dovrebbero enfatizzare l’utilizzo di rigide procedure
di asepsi in luogo della profilassi medica basata sull’impiego degli antibiotici.
Residui nell’ambiente
Il problema della gestione dei reflui zootecnici contaminati da residui di farmaci è di
fondamentale importanza nella conduzione
di un allevamento ed esistono delle specifiche normative in materia. In particolare, le
disposizioni nazionali sono dettate nel D.
Lgs. 152 del 1999 sulla tutela delle acque
dall’inquinamento e dalle direttive comunitarie 91/271/CEE e 91/676/CEE. Di notevole importanza è anche il D. Lgs. 372
del 1999, che prevede l’adozione di misure aventi lo scopo di ridurre le emissioni
nell’ambiente e nelle acque da parte di
impianti adibiti ad allevamenti intensivi di
suini e pollame. Questo decreto legislativo
prescrive anche l’acquisizione di apposita
autorizzazione da parte dell’organo competente per gli impianti destinati al trattamento dei reflui.
Per un corretto smaltimento, è fondamentale per l’allevatore conoscere la quantità
di letame prodotta dalla propria azienda;
in questo modo può ottimizzare le proprie
capacità di stoccaggio e trattamento ai sensi della normativa vigente. È necessario
quantificare la produzione dell’allevamento a seconda della sua tipologia e della stabulazione a cui sono sottoposti gli animali.
In secondo luogo, è importante determinare le caratteristiche chimiche dei liquami e
del letame al fine di scegliere le tecnologie più adatte. I fattori che influenzano la
composizione dei reflui sono rappresentati
principalmente da alimentazione, condizioni fisiologiche dell’animale e razza.
Esistono diverse tecniche di trattamento,
tra cui:
1. Stoccaggio. Questa tecnica richiede
un periodo di tempo di 180 giorni (il
tempo di permanenza dei liquami nei
contenitori deve essere almeno di 90
giorni) ed è molto utile per gli allevatori, tenendo conto dell’impossibilità
di effettuare lo spandimento in certi
periodi dell’anno per impraticabilità
del terreno o presenza di colture. Se
i tempi sono rispettati, lo stoccaggio
comporta un abbassamento della carica patogena dei liquami.
45
n.28 | Dicembre 2012
2. Vagliatura + Stoccaggio. Anche in
questo caso è necessario un periodo di
tempo di 180 giorni, ma il processo di
stoccaggio è preceduto da una fase di
vagliatura, che permette di separare le
frazioni solide grossolane. Esistono tre
tipi di vagli: i vagli rotativi, che permettono di avere una rimozione del
20-25% della frazione solida; i vibrovagli, che hanno un’efficienza simile
ai vagli rotativi; i vagli statici, che consumano una minor quantità di energia,
ma sono più lenti e spesso soggetti ad
occlusione delle fessure della griglia.
3. Vagliatura + Sedimentazione + Stoccaggio. In questa tecnica di trattamento, in seguito alla vagliatura viene
effettuato un processo di separazione
delle particelle fini per sedimentazione, che permette di ottenere una
frazione densa sotto forma di fango.
Possono facilitare la sedimentazione
prodotti chimici come calce, cloruro
ferrico e di alluminio e polielettroliti
organici.
4. Centrifugazione + Stoccaggio. In questo caso lo stoccaggio è preceduto da
una separazione meccanica delle frazioni solide per centrifugazione, che
presentano un tenore di sostanza secca
del 20-28%, che contiene il 20-35%
dell’azoto e il 60-70% del fosforo presenti nel liquame di partenza.
5. Centrifugazione + ossigenazione +
stoccaggio. Questa tecnica prevede,
invece, che sul residuo della centrifugazione venga effettuata un’ossigenazione discontinua della durata di 4-8
ore al giorno per la deodorazione e la
parziale stabilizzazione del liquame.
6. Vagliatura + Sedimentazione + Ossigenazione + Stoccaggio. In questo
caso è previsto un processo di sedimentazione dopo la vagliatura.
7. Centrifugazione + Depurazione +
Stoccaggio. Sul liquame chiarificato
viene effettuato un trattamento depurativo caratterizzato da una serie di
reazioni di ossidazione, nitrificazione,
denitrificazione e fosfatazione, per ridurre il carico di carbonio, di azoto e
fosforo. Segue un periodo di stoccaggio di 180 giorni, seguito da fertirrigazione.
8. Compostaggio dei solidi. Questa tecnica permette il recupero produttivo
dei residui di natura organica, che
vengono trasformati in un prodotto
stabilizzato. Questo avviene grazie
alla decomposizione ossidativa della
sostanza organica ad opera di microrganismi aerobi a carico di un substrato
Antibiotici in zootecnia Abuso e farmacoresistenza
di partenza, ottenuto con l’aggiunta di
residui cellulosici detti coformulanti,
come paglia, segatura, trucioli, residui
legnosi, che permettono di aumentare
il contenuto di sostanza secca e di carbonio. Questo processo è composto da
due fasi. La prima è definita fase biossidativa o termofila ed è caratterizzata
da un attacco da parte dei microbi alle
molecole più facilmente degradabili.
Questo causa un aumento della temperatura interna della massa fino a 60-70
°C e permette così l’igienizzazione del
prodotto. La seconda fase è definita,
invece, di maturazione o stabilizzazione e procede più lentamente.
La farmacoresistenza
Tutto questo ha delle conseguenze sulla salute umana. La diffusione della resistenza
ai farmaci antibatterici, infatti, può portare,
nel caso in cui, ad esempio, venga contratta un’infezione, al fallimento della terapia
antibiotica iniziale e ad una più limitata disponibilità di farmaci efficaci e, quindi, a
infezioni che risultano più gravi e difficili
da trattare. Inoltre, questo comporta una
maggiore probabilità di contrarre malattie
infettive, che vengono trattate con farmaci
meno mirati, più costosi e con effetti collaterali potenzialmente gravi per il paziente.
Particolarmente a rischio sono i bambini e
pazienti affetti da altre malattie, con un sistema immunitario indebolito.
Oltre ciò, l’utilizzo di farmaci antimicrobici negli allevamenti facilita l’insorgenza di
infezioni di origine alimentare resistenti al
trattamento con antibatterici. Infatti, l’uso
eccessivo di antibiotici favorisce la crescita
di batteri antibioticoresistenti, tra cui quelli dei generi Campylobacter, Salmonella
e alcuni Escherichia
che possono provocare gravi intossicazioni
alimentari (vedi anche
Green n. 24, pagg. 3441). Questo ha anche
portato a nuovi ceppi
batterici resistenti a più farmaci, che in passato non avevano legami con l’alimentaStafilococchi MRSA visti al microscopio elettronico a scansione zione. A titolo esemplificativo si può citare
il caso dello Staphylococcus aureus Metiin falsi colori.
cillino-Resistente (MRSA) che può essere
trasmesso all’uomo attraverso il contatto
con gli animali o l’ingestione di alimenti
contaminati.
46
n.28 | Dicembre 2012
Da questo punto di vista, la situazione è
più grave di quanto si pensi. La Commissione europea stima che ogni anno circa
25mila pazienti muoiano a causa di infezioni causate da microrganismi resistenti,
con costi sanitari che ammontano a più di
1,5 miliardi di euro all’anno. Negli Stati
Uniti sono, invece, circa 60mila i decessi
annuali dovuti a queste infezioni che solitamente sono più severe, durano più a lungo
e hanno maggiori probabilità di portare al
ricovero ospedaliero e, in alcuni casi, anche alla morte.
Il problema è particolarmente grave nei
Paesi più poveri, dove le condizioni igieniche sono precarie e non sono disponibili
laboratori di microbiologia che possano
effettuare analisi in maniera efficiente e
in tempi brevi. Studi condotti in Brasile e
Messico hanno dimostrato come bambini
che non erano mai stati precedentemente
trattati con antibiotici avessero acquisito infezioni di origine alimentare causate
da batteri resistenti, molto probabilmente
come risultato dei residui di antibiotici presenti nel pollame.
Inoltre, ceppi batterici resistenti a farmaci
antimicrobici utilizzati esclusivamente negli animali, si sono rivelati in grado di resistere anche a trattamenti terapeutici con antibiotici usati nell’uomo (vedi Green n. 25,
pagg. 18-31). Un esempio è rappresentato
dai fluorichinoloni. Fa parte di questa famiglia l’enrofloxacin, che viene utilizzato
per trattare le infezioni del tratto respiratorio e digestivo nel pollame. La sua somministrazione nei polli a scopo preventivo è
responsabile dell’aumento della resistenza
batterica ad un altro composto della stessa
famiglia, il ciprofloxacin, utilizzato invece
nell’uomo per il trattamento di infezioni
severe da Campylobacter spp. e Salmonella spp.
Un esempio analogo è quello del ceftiofur,
una cefalosporina di terza generazione impiegata per combattere le infezioni batteriche nei suini. L’utilizzo di questo farmaco
negli animali da allevamento è correlato
allo sviluppo di resistenza nei confronti di
altri due farmaci appartenenti alle cefalosporine di terza generazione, il cefotaxime e il ceftriaxone, usati come farmaci di
prima scelta per il trattamento di infezioni
severe causate da Salmonella spp. nei bambini.
Altri medicinali che possono essere presi
in considerazione a titolo esemplificativo
sono la spiramicina e la tilosina, che fanno
parte della famiglia dei macrolidi. Questi
due antibiotici venivano utilizzati in passato come promotori di crescita e attualmente
la tilosina è ancora utilizzata nell’Unione
Antibiotici in zootecnia Abuso e farmacoresistenza
europea per la prevenzione, il controllo
e il trattamento delle infezioni nei maiali. La somministrazione di questi farmaci
agli animali sembra sia stata responsabile
dell’insorgenza di ceppi batterici resistenti all’eritromicina, farmaco che nell’uomo
viene utilizzato per il trattamento di infezioni del tratto respiratorio o di intossicazioni alimentari come quelle causate da
Campylobacter spp.
Misure di contenimento
I rischi legati all’utilizzo di farmaci antibatterici negli animali da allevamento sono
emersi già a partire dagli anni Sessanta,
L’esempio della Svezia
Il problema della resistenza ai farmaci antibatterici è fortemente sentito in Svezia, che
già dal 1980 ha raccolto dati sul consumo di antibiotici in ambito veterinario e che nel
1986 è stata il primo Paese europeo a vietare l’utilizzo degli antibiotici come promotori di crescita. Il divieto è stato emanato in seguito alla pubblicazione di un report nel
1984 in cui si affermava che l’utilizzo di questi farmaci negli allevamenti ammontava a
circa 30 tonnellate annue ed è stato espressamente richiesto dagli allevatori svedesi.
Questo divieto, dagli anni Ottanta al 2009 ha portato ad una tangibile riduzione
dell’impiego di antimicrobici, che è sceso da 45 a 15 tonnellate. Uno dei fattori chiave
del successo della Svezia in questo campo è sicuramente rappresentato dal fatto che
vengano continuamente raccolti e aggiornati i dati relativi all’utilizzo degli antibatterici in zootecnia; infatti, in questo modo, la situazione viene costantemente monitorata
e questo permette di rendersi conto facilmente e in tempi brevi se è necessario prendere dei provvedimenti e quali.
L’Istituto Veterinario Nazionale svedese (The National Veterinary Institute, SVA) ha
raccolto dati sull’utilizzo veterinario degli antibiotici a partire dagli anni Ottanta ed
è attualmente anche responsabile dei controlli sull’antibiotico-resistenza e della promozione dell’utilizzo razionale di tali farmaci. I dati raccolti dallo SVA vengono pubblicati dal 2000 su SVARM - Swedish Veterinary Antimicrobial Resistance Monitoring, un
report annuale liberamente scaricabile dal sito internet dell’Istituto. Questi dati sono
molto precisi e includono quasi il 100% degli antibiotici venduti, ma non comprendono
i farmaci per uso umano che possono essere somministrati anche agli animali.
Anche in Svezia, così come in Italia, i farmaci antibiotici destinati agli animali possono
essere venduti solo dietro prescrizione medica, tuttavia, in Svezia le prescrizioni vengono effettuate elettronicamente. Il veterinario (o il medico nel caso dei medicinali
per uso umano) inserisce i dati della prescrizione su un sistema nazionale computerizzato e li rende così disponibili a tutte le farmacie nazionali. L’acquirente può quindi
ritirare il medicinale prescritto in qualunque farmacia. Questo, oltre ad essere molto
comodo per tutti i pazienti, permette anche alle farmacie di fornire allo SVA, giornalmente e in maniera semplice e rapida, i dati relativi alle vendite di antibatterici, che
vengono poi utilizzati per effettuare studi ed elaborare statistiche.
Le industrie responsabili della produzione di mangimi possono aggiungere antibiotici
ai mangimi prodotti solo dopo essere stati autorizzati dal Consiglio Svedese dell’Agricoltura (The Swedish Board of Agriculture, SBA), che controlla ogni anno le quantità
di antimicrobici utilizzate. Lo SBA può rilasciare la stessa autorizzazione, dopo aver
effettuato dei controlli, anche ad aziende agricole; il produttore munito di autorizzazione (più la prescrizione veterinaria, nel caso di aziende) può normalmente acquistare i medicinali in farmacia.
Oltre alla continua raccolta di dati sul consumo di antibiotici, allo scopo di ridurre la
trasmissione di malattie infettive tra gli animali e la diffusione della resistenza agli antibatterici, sono state messe a disposizione di agricoltori e allevatori delle linee guida
sulle condizioni di allevamento, l’alimentazione, la salute e l’igiene degli animali negli
allevamenti.
47
n.28 | Dicembre 2012
quando gli scienziati scoprirono che la resistenza agli antibiotici può essere trasferita
da una specie all’altra e questo fu un primo
campanello d’allarme. Con il passare del
tempo, studi più approfonditi hanno condotto ad una preoccupazione sempre maggiore e dal 1990, gli allevatori e le autorità
di regolamentazione sono stati messi sempre più sotto pressione da parte di esperti e
cittadini affinché l’uso di antibiotici negli
animali da allevamento venisse monitorato
e ridotto.
La Direttiva CEE 524/70 autorizza l’impiego degli antibiotici negli animali da
allevamento, purché il livello di additivo
presente non possa risultare dannoso o
rischioso per la salute degli animali stessi e/o dell’uomo. Tuttavia, a seguito delle
crescenti preoccupazioni legate all’utilizzo improprio ed eccessivo di tali sostanze,
nel 1998 con il regolamento CE 2821/98,
la Comunità europea ha deciso di mettere
al bando l’utilizzo di quattro antibiotici
come promotori di crescita: virginiamicina, spiramicina, fosfato di tilosina e zinco
bacitracina. Successivamente, nel 2003,
il Regolamento CE 1831/2003 ha sancito
il divieto dell’uso di antibiotici a fini non
terapeutici dei restanti antimicrobici usati
come promotori di crescita (divieto applicato a partire dal 2006).
Gli organismi di tutela
Attualmente diversi Organismi internazionali intervengono nel controllo dell’utilizzo di antibatterici negli animali da allevamento; uno di questi è l’OIE, la World
Organization for Animal Health, un’agenzia intergovernativa responsabile della sanità animale nel mondo. Accanto a questo,
svolge un ruolo importantissimo l’EMA,
l’European Medicines Agency, che ha istituito al suo interno il SAGAM, lo Scientific Advisory Group on Antimicrobials, il
quale è formato da esperti di microbiologia
clinica e biologia molecolare e fornisce
all’Agenzia supporto scientifico per la valutazione di aspetti relativi alle procedure
di autorizzazione riguardanti medicinali
veterinari contenenti antibiotici come principi attivi.
La Direttiva CE 2003/99, recepita con il D.
Lgs. 191/2006, ha sancito inoltre l’obbligo
di attivare dei sistemi di sorveglianza della
resistenza agli antibatterici e della diffusione delle zoonosi. Per questo motivo, i
dati relativi alle zoonosi vengono raccolti
dall’EFSA, l’Autorità Europea per la Sicurezza Alimentare con sede a Parma, che
redige un report annuale. I dati relativi al
Antibiotici in zootecnia Abuso e farmacoresistenza
consumo umano di farmaci antibiotici e
alla diffusione della resistenza sono, invece, raccolti dall’ECDC, lo European Centre for Disease Prevention and Control, di
cui fa parte il sistema EARS-Net (Sistema
Europeo di Sorveglianza dell’antibioticoresistenza), che monitora la diffusione del
problema nei diversi Paesi europei, mentre
L’ECDC, l’European Center for l’EMEA, fornisce dei report annuali sul
Disease Control, ha sede a Stoc- consumo di antibiotici in zootecnia.
colma, in Svezia.
In Italia il compito di verificare l’applica-
zione della legislazione europea per quanto
riguarda la somministrazione di antibiotici
agli animali da allevamento, spetta al Ministero della Salute, che ha pubblicato un
manuale contenente delle linee guida per
il corretto utilizzo dei farmaci antibiotici in zootecnia (http://www.salute.gov.it/
imgs/C_17_pubblicazioni_1683_allegato.
pdf) e che sta coordinando l’attività di raccolta dei dati di vendita dei medicinali veterinari da parte dei titolari di autorizzazione all’immissione in commercio (AIC). La
valutazione della resistenza agli antibiotici
viene, invece, effettuata dagli Istituti Zooprofilattici Sperimentali, che offrono anche
servizi diagnostici per quanto riguarda le
malattie degli animali e le zoonosi.
Attualmente in Italia sono disponibili, in
diverse forme di somministrazione, numerose categorie di antibiotici per uso veterinario (tra cui amminoglicosidi, cefalosporine, chinoloni, macrolidi, penicilline,
amfenicoli, pleuromutiline, polipeptidi,
ionofori, sulfamidici e tetracicline), che
possono essere somministrati agli animali
sotto forma di boli, aggiunti all’acqua o al
mangime, iniettati o applicati topicamente.
A livello legislativo, ai sensi dell’art. 108
48
n.28 | Dicembre 2012
comma 9 del D. Lgs. 193/2006, vi è l’obbligo di impiegarli in maniera responsabile
e solo dietro prescrizione medica veterinaria; infatti l’uso improprio dei medicinali
veterinari (inteso anche come abuso o utilizzo non corretto) è sanzionabile.
Consumo di antibiotici
in zootecnia
Considerando la recente introduzione del
divieto comunitario sull’utilizzo di farmaci
antibatterici come promotori di crescita e
le diverse politiche legislative statali applicate precedentemente nei Paesi europei,
c’è da chiedersi quale sia effettivamente
l’attuale impiego di questi medicinali negli
animali da allevamento.
In realtà, non si hanno a disposizione dati
precisi sulle tendenze del consumo complessivo di antibiotici in Europa. Tuttavia,
nell’ottobre del 2011, la Commissione per
l’Ambiente del Parlamento Europeo ha dichiarato che, nonostante il divieto dell’uso
degli antibiotici come promotori di crescita, non sembrerebbe esserci stata una significativa riduzione dell’impiego di antibiotici in ambito veterinario, che continuano ad
essere utilizzati a scopo di profilassi. Nel
2011 le stime pubblicate dall’EMEA per
Repubblica Ceca, Danimarca, Finlandia,
Francia, Paesi Bassi, Norvegia, Svezia,
Regno Unito e Svizzera - che tengono degli appositi registri sull’utilizzo dei farmaci
antimicrobici - hanno mostrato una riduzione media del consumo dal 2005 al 2009
solo dell’8,2%; riduzione molto bassa se si
considera la gravità della situazione.
Inoltre, si è contemporaneamente osservato uno scambio dei ruoli: un aumento degli
impieghi “terapeutici” di alcuni farmaci
solitamente utilizzati a scopo preventivo,
mentre per quest’ultimo fine recentemente sono stati impiegati composti precedentemente classificati come promotori di
crescita. Uno di questi è la tilosina, che è
stato vietato dall’Unione europea, ma che
altrove è ancora somministrato ai suini per
prevenire e controllare l’enterite e ai polli
per prevenire infezioni respiratorie. Altri
antimicrobici, invece, come il lasalocid,
monensin e salinomicina - definiti coccidiostatici (farmaci in grado di inibire la
crescita dei protozoi) - vengono aggiunti
agli alimenti degli animali per lunghi periodi e possono ugualmente contribuire alla
diffusione dell’antibiotico-resistenza, senza considerare il fatto che negli stabilimenti dove vengono prodotti questi medicinali
possono contaminare anche altri mangimi
Antibiotici in zootecnia Abuso e farmacoresistenza
Numero medio di prescrizioni
di antibiotici per allevamento in
Italia nel 2010.
[Immagine: Ministero della Salute]
(contaminazione crociata).
L’utilizzo dei promotori di crescita, in realtà rimane un problema diffuso anche negli
Stati Uniti, oltre che nei Paesi meno industrializzati.
Riflessioni conclusive
Consumo di antibiotici ad uso veterinario. Numero delle prescrizioni registrate in Italia nel 2010. Nonostante gli antibatterici possano venire
[Fonte: Ministero della Salute]
somministrati impropriamente agli animali
Prescrizioni per
mangimi medicati
Prescrizioni per animali da reddito
"Art. 11
D. Lgs.
193/2006
(uso in
deroga)"
"Artt. 4 e
5 D. Lgs.
158/2006"
Altre
Totale
Uso in
deroga
Altre
Totale
Emilia R.
125
47
67.826
67.998
4.429
11.017
15.446
Toscana
203
11
24.360
24.574
1.468
1.468
Liguria
Val d'Aosta
0
11
0
4
15
da allevamento, in caso di necessità è giusto utilizzare questi farmaci, purché lo si
faccia in maniera responsabile. L’uso degli
antibiotici, infatti, dovrebbe avvenire dopo
aver effettuato un antibiogramma dai batteri isolati o basandosi su informazioni epidemiologiche relative alla sensibilità dei
batteri patogeni. Sarebbe anche preferibile
impiegare medicinali che non trovano applicazioni nella medicina umana; da questo
punto di vista bisognerebbe porre particolare attenzione quando si somministrano
cefalosporine di terza o quarta generazione
o fluorochinoloni e chinoloni. Oltre ciò,
per ridurre la diffusione di ceppi batterici
resistenti e preservare l’efficacia di alcuni medicinali sarebbe preferibile evitare
l’utilizzo di streptogramine o glicopeptidi
efficaci in maniera specifica nei confronti
di MRSA. È anche fondamentale evitare l’utilizzo di farmaci ad ampio spettro
d’azione, ma preferire quelli più selettivi,
per ridurre l’esposizione a queste sostanze
di microrganismi che non sono il bersaglio
principale, e rispettare sempre la posologia,
i tempi e le modalità di somministrazione indicati nel foglietto illustrativo. L’uso
topico, qualora possibile, ad esempio, andrebbe preferito alla somministrazione per
Prescrizioni per scorte
di strutture di cura
veterinarie
Prescrizioni per scorte
per impianti d'allevamento
Farmaci
per uso
umano
Altre
Totale
Da
reddito
Da
compagnia
Ippodromi,
maneggi,
scuderie
Altro
Totale
Totale
per
regione
212
16.314
16.526
10.505
668
210
3.380
14.763
114.733
232
11.381
11.613
1.065
210
341
486
2.102
38.289
661
2.200
2.861
63
36
2
55
156
0
0
0
4.500
18.923
Lombardia
Piemonte
1.700
160
54.245
56.105
5.960
17.140
23.100
825
13.676
14.501
5.812
192
258
12.904
19.166
112.872
5.734
50
1.209
6.993
2.065
2.757
4.822
4
577
581
1.216
95
28
0
1.339
13.735
4.537
4.540
6
6
1.860
1.860
58
1
0
59
6.465
Veneto
Friuli V.G.
Trento
Bolzano
3
Lazio
8
Umbria
19
17.580
17.607
23
11.140
11.163
568
651
651
754
10.424
11.178
934
124
764
0
1.822
31.258
735
1.303
36
773
809
395
74
7
1.318
1.794
15.069
15.689
Marche
61
29
11.649
11.739
177
918
1.095
44
2.168
2.212
610
30
3
0
643
Abruzzo
3
3
9.357
9.363
359
588
947
70
1.232
1.302
421
105
1
0
527
12.139
Campania
591
300
5.098
5.989
245
1.025
1.270
102
1.049
1.151
1.756
1.112
61
145
3.074
11.484
16
6.122
6.138
6
113
119
0
243
243
112
110
1
0
223
6.723
18.945
Molise
Calabria
Puglia
392
5
12.341
12.738
99
461
560
393
3.996
4.389
1.091
83
69
15
1.258
Basilicata
625
29
7.683
8.337
0
469
469
0
378
378
191
17
30
0
238
9.422
Sicilia
12.925
12.925
588
588
849
849
45
45
14.407
Sardegna
42.585
42.585
496
496
2.156
2.156
Totale
nazionale
9.445
692
290.125 300.262
49
13.919
36.968 50.887
n.28 | Dicembre 2012
3.333
69.276 72.609
199
24
0
0
223
45.460
13.923
2.213
1.565
18.348
47.432
490.113
Antibiotici in zootecnia Abuso e farmacoresistenza
Esemplari di mucche (Bos taurus, famiglia Bovidae) della razza Simmental, originaria della
Svizzera, allevate all’aperto.
[Immagine: Richard Bartz, Makro Freak Munich, Wikipedia
Commons, 2007]
50
via sistemica. Infine è importante segnalare
immediatamente alle autorità competenti la
mancata risposta dell’animale ad un trattamento terapeutico.
Inoltre, per ridurre la necessità di somministrare farmaci antibiotici in zootecnia è indispensabile migliorare le condizioni in cui
gli animali vengono allevati. Infatti, in tanti
casi, allevando il bestiame in buone condizioni e osservando le norme igieniche,
si potrebbe evitare l’utilizzo di antibiotici
a scopo preventivo. Sovraffollamento e
stress abbassano le difese immunitarie e
offrono una base perfetta per la diffusione di infezioni batteriche, che potrebbero
essere notevolmente ridotte, se si evitassero gli allevamenti intensivi. Per ridurre la
trasmissione delle infezioni, sarebbe anche
utile evitare di allevare assieme animali
n.28 | Dicembre 2012
che abbiano provenienze diverse e cercare
di far avvenire in maniera ottimale lo svezzamento, che, se mal gestito, può causare
ulteriore stress. Un altro fattore nocivo è
rappresentato dai viaggi, spesso lunghi e
responsabili di un aumento della suscettibilità alla contrazione delle malattie.
Cercare quindi di allevare gli animali in
condizioni di benessere e mirare a produzioni di alta qualità, oltreché ridurre o eliminare del tutto l’utilizzo di antibiotici a
scopi non terapeutici, potrebbe portare ad
enormi miglioramenti per quanto riguarda
la resistenza agli antibatterici e la trasmissione di malattie infettive, senza grosse
ripercussioni economiche per i produttori.
Carmen C. Piras
NEWS
Futuro&
FUTURIBILE
Quando il pericolo
è dolcissimo
Falso allarmismo o reale rischio per
la salute dell’uomo? L’ingestione di
aspartame e i rischi correlati sono alla
base di un gran numero di ricerche
scientifiche da più di trent’anni,
dallo stesso momento in cui questo
composto fu scoperto. In un’alternanza
di ricerche che ne smentiscono la
pericolosità e altre, che al contrario
attribuiscono alla sostanza chimica un
effetto cancerogeno, oggi l’aspartame
continua spesso a essere considerato
una sostanza chimica potenzialmente
dannosa per l’essere umano. L’Autorità
europea per la sicurezza alimentare
(Efsa) è attualmente stata incaricata
dalla Commissione Ue di condurre
una nuova valutazione sulla sicurezza
dell'aspartame, da consegnare a
maggio 2013.
L’aspartame è da trent’anni il dolcificante
più diffuso al mondo in quanto, pur avendo
la stessa quantità di calorie del saccarosio
(il comune zucchero da tavola), è circa
duecento volte più dolce e per questo risulta molto utile per le persone che soffrono
di diabete e per chi vuole ridurre l’apporto
calorico della dieta. Dopo averlo ingerito,
l’aspartame si scinde nel tratto gastro-intestinale in metanolo, acido aspartico e fenilalanina, sostanze che normalmente sono
presenti nell’organismo. L’acido aspartico
è eliminato principalmente per via polmonare sotto forma di CO2; la fenilalanina da
una parte entra a far parte del processo di
sintesi delle proteine (essendo un aminoacido), e in minor percentuale viene eliminato come CO2. L’alcool metilico è metabolizzato in formaldeide, acido formico e
CO2. Un litro di bibita con aspartame produce nell’organismo umano circa 48 mg di
metanolo, mentre un litro di succo di frutta
o di verdure contiene da 200 a 280 mg di
metanolo. Questo indica che le quantità di
metanolo apportate dall’additivo alimentare sono inferiori a quelle contenute in certi
alimenti naturali. Per avere effetti tossici
sul sistema nervoso dell’uomo è richiesta
l’ingestione di metanolo in dosi di 200-500
mg per chilogrammo di peso corporeo:
queste dosi sono più di cento volte superiori alla dose massima di metanolo apportato
dall’aspartame.
Attualmente l’aspartame (conosciuto an-
La molecola dell’aspartame.
51
n.28 | Dicembre 2012
che come additivo alimentare con la sigla E-951) è usato in oltre 6.000 prodotti
alimentari come bevande gassate, yogurt,
sciroppi, succhi di frutta, budini, gelati, caramelle, gomme da masticare, farmaci e si
calcola che venga consumato da oltre 200
milioni di persone nel mondo.
Ciononostante è forse l’additivo alimentare
che è stato sottoposto al maggior numero
di ricerche nel corso degli anni. Torniamo
al giorno in cui questa sostanza fu scoperta. Nel 1965 il chimico James M. Schlatter
stava lavorando per produrre un farmaco
anti-ulcera, quando distrattamente, leccandosi il dito, scoprì l’estrema dolcezza
del composto sintetizzato: l’aspartame. La
ditta nella quale il chimico lavorava chiese
alla FDA, la Food and Drug Administration statunitense, l’autorizzazione per il
consumo del composto come additivo alimentare. Autorizzazione che fu rilasciata
per la prima volta nel 1974, ma alla quale
seguirono anni di ricerche e dibattiti sulla
reale sicurezza dell’additivo. Alcuni studi
sono ancora in corso.
A denunciare la capacità dell’aspartame
di interferire a livello cerebrale è stata una
ricerca del 2002, portata a termine da B.
Beck e A. Barlet, i quali dimostrarono che
l’ingestione di aspartame a lungo termine è responsabile della diminuzione delle
concentrazioni del neuropeptide Y, neurotrasmettitore liberato nel sistema nervoso
centrale e da quello vegetativo, importante
per stimolare l’appetito. Non è ancora chiaro se ciò sia dovuto ad un effetto regolativo
o tossico.
Nel 2005 è stata svolta dall’Istituto Ramazzini di Bologna un’indagine sulle proprietà
cancerogene dell’aspartame, che ha portato
nuovamente alla ribalta della cronaca questa sostanza e la sua potenziale pericolosità. Dallo studio si riscontrò che un’ingestione ad alte dosi provocava un aumento
significativo dell’incidenza di linfomi e
leucemie nelle femmine di ratti. È neces-
NEWS
green
sario ricordare che in natura, soprattutto in
ambito alimentare, molte sostanze possono
provocare un potenziale danno su un organismo vivente. Citando l’antico medico
svizzero Paracelso (1493- 1541), generalizzando potremmo dire che “è la sola dose
che fa il veleno”.
Con il susseguirsi delle ricerche la FDA
ha introdotto il concetto di dose giornaliera accettabile per descrivere un livello di
assunzione che, mantenuto per ogni giorno
per tutta la vita di una persona, possa essere considerato innocuo. Questo valore per
l’aspartame è di 50 mg al giorno per ogni
chilogrammo di peso corporeo. Bisogna
sottolineare che l’assunzione giornaliera
media reale dell’aspartame è inferiore al
2% di tale livello massimo. Persino i con-
g
green
sumatori più accaniti ingeriscono giornalmente solo un sedicesimo di questa dose.
Per raggiungerla infatti, un adulto dovrebbe bere venti bibite dietetiche da 330 millilitri, un bambino sette.
La FDA e la Efsa, la European Food Safety
Authority, hanno confermato negli ultimi
23 anni la sicurezza dell’aspartame più di
venti volte. Le ricerche però non hanno
mai portato a risultati davevro definitivi e
la questione rimane aperta, tanto che siamo
ancora in attesa di conoscere gli esiti della
nuova valutazione del rischio da consumo
di aspartame, in corso di effettuazione da
parte della EFSA, che sarà pubblicata il
prossimo maggio.
green
Alessandra Caciolli
Inquinanti
senza frontiere
Quest'immagine, riportata a fine ottobre sul sito della Nasa, risulterà molto interessante soprattutto per
le scuole che intendono partecipare all’ottava edizione delle Olimpiadi della Scienza - Premio Green Scuola
(a.s. 2012/2013) intitolata “Inquinanti senza frontiere.
La diffusione transfrontaliera dei contaminanti atmosferici e i suoi effetti sull’ambiente e sulla salute”
(www.incaweb.org/green/OdS-PGS8/).
Si tratta di una simulazione (risoluzione: 10 km) del Goddard
Earth Observing System Model Version 5 (GEOS-5) che è in
52
n.28 | Dicembre 2012
grado di creare modelli predittivi delle condizioni meteorologiche in tutto il mondo. Si può osservare la circolazione atmosferica globale di composti gassosi e particolati.
Il pulviscolo (in rosso) viene sollevato dai venti. Il sale
marino (in blu) turbina all’interno dei cicloni. Il fumo (in
verde) si solleva dalle zone dove sono in corso incendi.
Le particelle di solfato (in bianco) vengono rilasciate dai
vulcani e dai punti di captazione dei combustibili fossili.
[Immagine: William Putman, NASA / Goddard]
Xxxx Xxx
Dal progresso
delle scienze dipende
in modo diretto
il progresso complessivo
del genere umano.
Chi frena il primo
frena anche il secondo.
Johann Gottlieb Fichte
filosofo tedesco (1762-1814)