bassa risoluzione 72dpi
Transcript
bassa risoluzione 72dpi
la Scienza al servizio dell’Uomo e dell’Ambiente green 28 DICEMBRE 2012 Periodico quadrimestrale on-line d’informazione edito dal Consorzio Interuniversitario Nazionale “La Chimica per l’Ambiente” (INCA) anno VII - N.28 dicembre 2012 - distribuzione gratuita www.green.incaweb.org TRA DUE CULTURE Arte e scienza NUOVE BIOTECNOLOGiE Insetti e biocarburanti COSMETICI ECO-BIO Scelta consapevole green ANTIBIOTICI IN ZOOTECNIA Abuso e farmacoresistenza SPECIALE Olimpiadi della Scienza Premio Green Scuola 2011/2012 Ecco i tre vincitori Editoriale Editoriale di Fulvio Zecchini I giovani, la scienza e il futuro dell’umanità Cari lettori, è ormai chiaro a tutti che il pianeta sta vivendo una profonda crisi sociale, economica e ambientale. E come recita la citazione di Albert Einstein sulla quarta di copertina dell’ultimo numero di Green: “Non possiamo pretendere di risolvere i problemi pensando allo stesso modo di quando li abbiamo creati”. Urge nella popolazione mondiale, soprattutto a livello di governanti, un cambio di mentalità che consideri come priorità assoluta lo sviluppo sostenibile. Perché questa possa pervadere il tessuto della nostra società nel prossimo futuro, non possiamo prescindere dall’educazione dei giovani e dalla scienza e tecnica. Proprio questa motivazione sta alla base della realizzazione stessa della nostra rivista Green, la quale in primo luogo intende essere una fonte d’informazione rigorosa e piacevole da leggere per i giovani studenti (e anche per tutti i cittadini interessati). Affinché essi possano farsi una propria opinione in materia di tutela dell’ambiente e della salute, senza preconcetti e non seguendo ciecamente l’opinion leader del momento. Anzi, approfondendo in maniera autonoma o coi propri insegnanti i temi scientifici legati alla quotidianità, essi potranno sviluppare una vera passione per queste affascinanti discipline che sembrano del tutto astratte ai profani. La stessa filosofia sta alla base delle Olimpiadi della Scienza - Premio Green Scuola organizzato da Green in collaborazione col nostro editore, il Consorzio INCA, e con il Ministero dell’Istruzione, dell’Università e della Ricerca (Miur) - Dipartimento Istru- zione, Direttorato Generale per gli Ordinamenti Scolastici e per l’Autonomia Scolastica. Questo nostro concorso per le scuole superiori di secondo grado è accreditato dal programma ministeriale Io Merito di valorizzazione delle eccellenze scolastiche e ha ottenuto l’adesione del Presidente della Repubblica negli ultimi cinque anni. Anche la settima edizione (OdS-PGS7, a.s. 2011/2012), che si concluderà con la cerimonia di premiazione a Roma presso il Miur-Dipartimento Istruzione a fine gennaio 2013, ha centrato lo scopo. Il tema del concorso, “Prevenire è meglio che curare. La tutela dell’ambiente e della salute attraverso l’analisi del ciclo di vita dei composti chimici e dei processi produttivi”, era decisamente difficile ma si tratta di un aspetto fondamentale per il raggiungimento dello sviluppo sostenibile. Nonostante ciò, gli elaborati pervenuti, anche se meno numerosi degli anni precedenti, sono parimenti di elevata qualità e hanno contribuito alla sensibilizzazione di studenti e insegnanti, amici e familiari (la graduatoria è scaricabile dal link: http://www.incaweb.org/green/ pgsVIIed/index.htm). In questo numero vogliamo rendere ulteriore merito ai vincitori con uno speciale sulle OdS-PGS7, volto a far conoscere il risultato del loro impegno a tutti i nostri lettori. I tre lavori premiati sono stati trasposti in articoli dagli autori stessi, con la supervisione dei loro docenti coordinatori. Uno sforzo in più chiesto a questi studenti che lo hanno svolto con entusiasmo. Anche se per loro era la prima volta che si cimentavano nella scrit- tura di un vero articolo divulgativo, il risultato ci sembra decisamente buono. Così abbiamo cercato di essere il più conservativi possibile nella revisione editoriale, anche se in questo modo, talvolta, la trasposizione - che soffre anche di una maggior limitazione di spazio disponibile - non rende del tutto onore alla qualità dei tre elaborati originali, la cui forma era infatti diversa e più completa, trattandosi di due presentazioni multimediali e di un sito Internet. I lavori sono stati giudicati per l’approfondimento scientifico, la completezza, l’originalità e, infine, proprio per la tecnica espressiva. I tre pezzi di questo speciale - intitolati “Riciclo oli esausti” (1° classificato), “Faccia a faccia con l’anidride carbonica” (2°), “La sfida dell’ambiente per la chimica. Una sintesi green del polistirene” (3°) - rappresentano il cuore di questo numero natalizio, che comprende altri pezzi interessanti su: la curiosa collaborazione tra arte e scienza, l’uso e l’abuso di antibiotici in zootecnia, enzimi da insetti xilofagi per la produzione di bioetanolo, la moda dei cosmetici “ecobio” e la potenziale pericolosità dell’aspartame, il dolcificante più diffuso al mondo. Non mi rimane che augurarvi buona lettura e buone feste. Ecco l’ottava edizione delle Olimpiadi della Scienza Premio Green Scuola (a.s. 2012/2013) Inquinanti senza frontiere La diffusione transfrontaliera dei contaminanti atmosferici e i suoi effetti sull’ambiente e sulla salute* Il bando e la relativa documentazione sono scaricabili dal sito: http://incaweb.org/green/OdS-PGS8 La scadenza per l’invio degli elaborati è il 31 maggio 2013 *: dedicato agli inquinanti regolati dalla Convenzione di Ginevra del 1979 (http://www.unece.org/env/lrtap/lrtap_h1.html) la Scienza al servizio dell’Uomo e dell’Ambiente green 28 DICEMBRE 2012 green SOMMARIO Chiodi, martelli e conigli verdi Arte e scienza: un collaborazione curiosa e talvolta difficile tesa ad ampliare gli orizzonti della nostra conoscenza g Nuove biotecnologie: insetti e biocarburanti Consorzio INCA green (Scuola Normale di Pisa) Presidente della SCI 17 Primo classificato - Olimpiadi della Scienza 26 Antibiotici in zootecnia: abuso e farmacoresistenza 29 • Quando il pericolo è dolcissimo • Inquinanti senza frontiere (Università di Parma) Consiglio Scientifico del Consorzio INCA Corrado SARZANINI 35 (Università di Torino) Presidente della Divisione di Chimica dell’Ambiente e dei Beni Culturali della SCI Ferruccio TRIFIRÒ 42 La zootecnia fa un uso massiccio di antibiotici, con ripercussioni significative sulla salute e sull’ambiente News - Futuro & Futuribile (Università di Verona) Presidente del Consorzio INCA Giovanni SARTORI Terzo classificato - Olimpiadi della Scienza Impazza il trend della cosmesi “eco-bio”. Ecco come scegliere consapevolmente (Università “La Sapienza” di Roma) Past-President della SCI sezione Lazio Franco CECCHI Secondo classificato - Olimpiadi della Scienza La natura ti fa bella (e sana) Comitato scientifico Armandodoriano BIANCO INSERTO SPECIALE Riciclo oli esausti Una sintesi green del polistirene Fulvio Zecchini Vincenzo BARONE Gli insetti xilofagi come fonte di enzimi per ottenere bioetanolo da biomasse lignocellulosiche Faccia a faccia con la CO2 Direttore responsabile 4 11 Periodico quadrimestrale on-line d’informazione edito dal Consorzio Interuniversitario Nazionale “La Chimica per l’Ambiente” (INCA) in collaborazione con la Società Chimica Italiana (SCI) 51 Buone Feste (Università di Bologna) Direttore de “La Chimica e l’Industria” edita dalla SCI Luigi CAMPANELLA (Università “La Sapienza” di Roma) Consulente esterno, Coordinatore del Consiglio Scientifico del Consorzio INCA Direzione, redazione e amministrazione Rivista Green c/o Consorzio INCA Via delle Industrie, 21/8 30175 Venezia - Marghera Tel.: (+39) 041 532-1851 int. 101 Fax: (+39) 041 259-7243 Registrazione al Tribunale di Venezia n° 20 del 15 luglio 2006 Progetto grafico e impaginazione Publileo s.r.l. [email protected] Distribuzione gratuita Per informazioni www.green.incaweb.org [email protected] Fax: (+39) 041 259-7243 © Consorzio INCA, 2006 - 2012 Tutti i diritti sono riservati. La presente pubblicazione, tutta o in parte, non può essere riprodotta o trasmessa in nessuna forma e con nessun mezzo, senza l’autorizzazione scritta dell’editore, ad eccezione delle immagini tratte da Wikipedia Commons che sono distribuite con la licenza Creative Commons per uso non commerciale (http://creativecommons.org). L’editore, nell’ambito delle leggi sul copyright, è a disposizione degli aventi diritto che non si sono potuti rintracciare. “L’adorazione dei pastori”, Giorgione (olio su tavola 91 x 111 cm, 1500-1505 ca.), National Gallery of Art, Washington, D.C. Xxxx Xxx Arte e scienza: una collaborazione curiosa e talvolta difficile tesa ad ampliare gli orizzonti della nostra conoscenza Chiodi, martelli e conigli verdi di Silvia Casini Potrà sembrare un paragone ardito, ma in ambito lavorativo l’artista e lo scienziato sono accomunati in primo luogo dall’uso della fantasia. Così come l’arte moderna reinventa oggetti della quotidianità e persino rifiuti facendone opere, più o meno concettuali, che allietano i nostri sensi, così, oggi, la scienza porta le sue tecnologie fuori dal laboratorio, applicandole ad altri settori dello scibile umano in maniera prima impensabile. Ecco un curioso esempio di collaborazione tra arte e scienza. The Free Universal Construction Kit di Golan Levin e Shawn Sims. Tra due culture Arte e scienza Arte, scienza, impresa: nasce Arscientia In senso orario: un particolare di Skull II, specchio di bronzo ricavato da risonanza magnetica; fotografia di Skull II, monolite in bronzo, scultura di Marc Didou; immagine tratta dal film “Weighing... and Wanting” di William Kentridge, cortesia del Museo di Arte Contemporanea di San Diego; immagine sagittale del cervello ottenuta tramite risonanza magnetica. Il neuroscienziato Steven Rose sostiene che quando stringiamo tra le mani un martello, ogni cosa finisce per sembrare un chiodo: l’uso che facciamo dello strumento, cioè, plasma il mondo e talvolta semplifica in modo riduttivo la nostra percezione di esso (Rose, 2005). Questo esempio facilmente intuibile è esteso da Rose a tutti quegli strumenti che fanno parte della quotidianità dello scienziato all’interno di un laboratorio. Si pensi a una tecnologia complessa proveniente dall’ambito biomedicale, la risonanza magnetica nucleare (RMN), capace di generare immagini che permettono di accedere in modo non invasivo alla morfologia e fisiologia del corpo umano, cervello compreso. La RMN viene usata per scopi di ricerca o diagnostico-terapeutici: le immagini prodotte sono perciò interpretate come prove di una condizione di normalità o deviazione rispetto alla norma. Cosa accadrebbe se, contrariamente all’uso prescritto, togliessimo quello stesso strumento dal suo contesto originario e lo usassimo in maniera alternativa all’uso abituale? Nella maggior parte dei casi, questo è il punto di partenza per avviare esperimenti a cavallo tra arte e scienza. Un utilizzo diverso delle tecnologia della risonanza magnetica e delle immagini prodotte è, per esempio, al centro di alcuni progetti avviati da numerosi artisti, più o meno noti a livello internazionale. Alcuni hanno utilizzato la RMN per ripensare il loro modo di fare scultura (Marc Didou), altri hanno usato la tecnologia e le immagini per indagare questioni legate all’identità personale e alla pratica del ritratto (Justine Cooper, Angela Palmer, Suzanne Anker), alcuni, infine, hanno utilizzato le immagini della RMN per esplorare 5 n.28 | Dicembre 2012 la corrispondenza tra paesaggi esterni e interiori (William Kentridge). Nella scienza odierna, gli strumenti tecnologici giocano un ruolo fondamentale non solo nella pratica quotidiana del laboratorio, ma anche nella elaborazione delle teorie scientifiche, al punto che è usuale parlare di tecno-scienza. Questo termine è stato coniato alla fine degli anni Settanta dal filosofo belga Gilbert Hottois e poi approfondito criticamente da sociologi della scienza come Bruno Latour e dalla filosofa femminista Donna Haraway, autrice del famoso Manifesto Cyborg (1985). Negli ultimi anni, tecnologie anche molto diverse tra loro stanno convergendo: un esempio sono le nanotecnologie a cui lavorano non soltanto scienziati di ambiti disciplinari diversi (chimici, fisici, biologi, ingegneri ecc.) ma anche esperti delle scienze umane e sociali (filosofi, sociologi, bioeticisti). La conoscenza scientifica sempre più specialistica e le innovazioni tecnologiche mettono l’umanità di fronte a sfide (e, talvolta, vere e proprie controversie) che riguardano la salute, l’ambiente, l’economia, il corpo umano, la relazione tra le persone. Per affrontare queste sfide non basta il sapere scientifico da solo, né quello umanistico-artistico. Questo è il terreno da cui nasce Arscientia - Arte, Scienza e Impresa, una nuovo format, creato da due aziende veneziane, Picapao e Fondaco, per incrociare i territori di arte, scienza e impresa e apprezzarne le potenzialità d’innovazione. Attraverso un concorso a premi e momenti di dialogo su tendenze e scenari tra arte e scienza, si vuole esortare i giovani creativi a credere nelle proprie idee e a strutturarle perché diventino progetti reali. Arscientia si sviluppa attraverso due formule principali: i Dialoghi a Venezia e gli Eventi in diverse città del Nordest. Nei Dialoghi si conversa con i creativi (scienziati, impren- Tra due culture Arte e scienza ditori, artisti locali e internazionali) nella prestigiosa cornice dell’Istituto Veneto di Scienze, Lettere e Arti di Venezia. Negli Eventi, che si svolgono a Treviso, Vicenza, Verona e Trieste nelle filiali di Veneto Banca, sponsor principale del progetto, ci si mette alla prova in prima persona grazie a un business game e ci si prepara al meglio per partecipare al Premio Arscientia. Particolare dell’installazione Zero @Wavefunction, opera frutto della collaborazione tra l’artista Victoria Vesna e lo scienziato esperto di nanotecnologie James Gimzewski. Una collaborazione storica L’esistenza di un rapporto tra arte e scienza non desta sorpresa né costituisce una caratteristica unica del nostro tempo, nonostante un certo scetticismo da sempre accompagni i tentativi di dialogo tra i due saperi. The two cultures (Le due culture) fu il titolo dato alla Rede Lecture pronunciata a Cambridge nel 1959 da Charles Percy Snow, scienziato e scrittore britannico. In quella circostanza, Snow circoscrisse le sue considerazioni alla scienza e alla letteratura, tralasciando le arti, sottolineando quanto la cultura letteraria del suo tempo fosse ignorante di scienza e come ciò costituisse una sorta di vanto per gli intellettuali umanisti. In seguito alle reazioni polemiche suscitate dalla sua prima conferenza, dopo qualche anno egli ipotizzò - senza spiegare in che cosa di fatto consistesse - una “terza cultura” capace di favorire il dialogo tra scienziati e letterati. Oggi l’espressione “le due culture” è entrata nel vocabolario comune per designare sia la scienza che le arti, intese in senso ampio. Per comprendere la situazione attuale, è utile inquadrare storicamente la relazione tra arte e scienza. Solo dal 1800 in poi arte e scienza sono diventate due ambiti di sapere autonomi. Prima di allora, arte e scienza, pur essendo due attività distinte, condividevano lo stesso orizzonte epistemologico. La scienza, infatti, non costituiva un campo di sapere a sé stante, ma coincideva con la filosofia naturale, come ha sottolineato Pickstone (2000). L’arte faceva a sua volta parte della filosofia naturale come testimoniano, per esempio, il trattato De humani corporis fabrica redatto nel 1543 da Vesalius, anatomista fiammingo, le cui dissezioni e descrizioni del corpo umano contribuirono a gettare le basi della anatomia moderna. Le incisioni su legno delle tavole anatomiche di Vesalius, che coniugano precisione scientifica, valore estetico e rimandi allegorici, sono forse il primo frutto tangibile della collaborazione tra artisti e scienziati. Nel Rinascimento, 6 n.28 | Dicembre 2012 Tra due culture Arte e scienza Goccia di ferro fluido del diametro di 3 cm su superficie di vetro e foglio di carta gialla, sette magneti sotto al foglio danno forma alla goccia. [Immagine: foto di Felice Frankel] 7 architetti, artisti e umanisti come Filippo Brunelleschi, Leonardo da Vinci e Leon Battista Alberti si confrontano in modo sistematico soprattutto con la scienza della percezione visiva, come testimoniano le loro opere, in cui è evidente l’impiego della prospettiva e di macchine per la visione. È a partire dalla seconda metà dell’Ottocento che arte e scienza si affermano come due distinte modalità di approccio al mondo e conoscenza dello stesso. La concezione romantica dell’art pour l’art e il periodo delle avanguardie storiche di inizio Novecento hanno sì permesso alle arti di coltivare la ricerca dell’originalità e dell’indipendenza più radicali, ma le hanno allontanate dalla scienza che, sola, vanta un primato di tipo epistemologico. In questo periodo, infatti, è alla scienza che si richiede di dare risposte efficaci alle questioni più urgenti. L’arte, pur indispensabile in quanto attività culturale e capace talvolta di anticipare cambiamenti socio-politici, ha un ruolo conoscitivo marginale, offre cioè suggestioni e non soluzioni alle questioni che solo la tecno-scienza sembra in grado di affrontare: la spiegazione dei fenomeni fisici, il funzionamento del cervello e così via. A partire dal 1990, si sono moltiplicate iniziative sulla fertilizzazione tra scienza e arte: mostre, festival, borse di studio, percorsi di dottorato, collaborazioni tra scienziati e artisti. Nel 1998 venne creato nel Regno Unito il NESTA, il Fondo Nazionale per la Scienza, la Tecnologia e l’Arte; l’anno successivo fu creato il consorzio arte-scienza. Il rapporto Immaginazione e Comprensione pubblicato nel 2001 mo- n.28 | Dicembre 2012 stra, dati alla mano, come la separazione tra arte, scienza ed educazione sia causa di rallentamento economico, incoraggiando perciò progetti di collaborazione tra artisti, scienziati e università capaci di produrre risultati innovativi. Gli artisti nel laboratorio Nasce così una categoria di artisti che lavora a stretto contatto con gli scienziati nei laboratori di ricerca, utilizzando la strumentazione scientifica messa a disposizione. Gli anglosassoni, i primi a promuovere queste collaborazioni, li definiscono come artists in the lab. Essi collaborano con gli scienziati spinti da motivazioni diverse che qui possiamo provare a riassumere. Innanzitutto, entrare nel laboratorio di uno scienziato è l’unico modo per poter accedere a strumenti e immagini altrimenti non facilmente disponibili. Le immagini svolgono un ruolo sempre più importante nella routine degli scienziati, al punto che si è parlato di una “svolta visiva” della scienza a partire dal 1990. Questo accade anche quando non di immagini vere e proprie si tratta, quanto piuttosto di modelli capaci di descrivere fenomeni scientifici non percepibili a occhio nudo. Lo storico dell’arte James Elkins, uno dei primi a interessarsi della relazione tra arte e scienza, sostiene che oggi le immagini più interessanti sono create dagli scienziati e non dagli artisti, portando come esempio le immagini ottenute dai microscopi a forza atomica o a scansione di sonda utilizzati nelle nanotecnologie. In secondo luogo, le opere nate da una collaborazione tra artisti e scienziati possono sviluppare nel pubblico non soltanto una migliore comprensione di alcuni fenomeni scientifici, ma anche una riflessione critica circa le implicazioni sociali della ricerca scientifica. Infine, una delle ragioni del successo di queste sinergie consiste nella fragilità del singolo nell’affrontare le sfide e la complessità dei problemi del nostro mondo sotto la spinta della tecnologia. Da un lato, nel laboratorio l’attenzione si concentra su dettagli singoli e il procedere scientifico per ipotesi da verificare con esperimenti ben definiti può ridurre la tensione artistica generata dal confronto con la complessità del mondo. Dall’altro, la collaborazione con l’artista aiuterebbe lo scienziato a esplorare metodi ibridi e addirittura a mettere in discussione il sistema sperimentale medesimo. Grazie alla collaborazione con gli artisti, infatti, gli scienziati possono sperimentare uno spazio di Tra due culture Arte e scienza Fotografia di Patrick Bolger, particolare dell’installazione “Hyperbolic Crochet Coral Reef” creata da Margaret Wertheim, cortesia della Science Gallery Dublin. 8 libertà lontano dal rigoroso, e sovente necessario, processo di scrutinio scientifico. Gli artisti indicano nuovi comportamenti, applicazioni inattese capaci di mettere in discussione l’oggetto di indagine del sistema sperimentale stesso. Il metodo scientifico è un sistema chiuso e delimitato, adatto alla semplificazione di fenomeni complessi da analizzare, ma esso, al tempo stesso, deve sempre poggiare sull’orizzonte epistemologico di altri sistemi e sfondi che potrebbero contribuire a ridefinire l’oggetto dell’esperimento e, di conseguenza, il metodo con cui viene studiato (Rheinberg, 1997). È opportuno sottolineare come alcuni di questi artisti nel laboratorio non vogliano essere definiti tali, poiché convinti che arte e scienza siano e debbano rimanere distinte. “Suggerire che l’arte e la scienza siano correlate potrebbe risultare pericoloso. Le immagini scientifiche possono essere molto belle e probabilmente artistiche, ma non sono arte, e l’arte non è scienza” sostiene la fotografa scientifica americana Felice Frankel, le cui immagini ricche di dettagli, quasi tattili, hanno conquistato le copertine di prestigiose riviste scientifiche tra cui Nature e Scientific American. Sostenere lo sviluppo di collaborazioni tra arte e scienza non significa, tuttavia, cancellare le specificità e metodi di que- n.28 | Dicembre 2012 sti saperi. Significa piuttosto essere aperti alla possibilità che da queste collaborazioni nascano processi e prodotti non facilmente identificabili come scienza o come arte, dei veri e propri ibridi, insomma. La Science Gallery del Trinity College di Dublino, diretta da Michael John Gorman e il Le Laboratoire di Parigi, fondato nel 2007 da David Edwards con la collaborazione dell’Università di Harvard, sono due fiori all’occhiello nell’ambito della sperimentazione tra scienza, arte e, talvolta, impresa. Entrambi sono spazi di incontro e progettazione culturale condivisa dove professionisti di ambiti diversi lavorano a stretto contatto per arrivare a mostre e prodotti finiti. Alcune creazioni sono state brevettate, è il caso di Le Whif, definito da Edwards come un “approccio nuovo e delizioso al cibo, un fischietto-aereosol per degustare gli alimenti respirandoli”. Esempi eclatanti di prodotti e processi ibridi sono quelli provenienti dalla ricerca genomica che offre agli artisti la possibilità di lavorare con materiali e tessuti viventi. Nel 2000 il brasiliano Eduardo Kac realizza un coniglio con un gene di medusa, GFP Bunny, che diventa verde se esposto a un certo tipo di luce e che costituisce uno dei primi esempi di arte transgenica, ossia “la creazione di un essere vivente organico, totalmente artificiale, a scopi artistici” (P. L. Tra due culture Arte e scienza Particolare dell’installazione per la mostra dedicata a “Le Whif” al Le Laboratoire, Paris. Fotografia dello spray al cioccolato “Le Whif” inventato da David Edwards, sfrutta la tecnologia dell’aerosol e assomiglia a un fischietto. 9 Capucci). Il coniglio verde di Kac è solo una delle creazioni realizzate da un esponente della BioArt, o arte transgenica. Esistono infatti sempre più centri specializzati nel binomio arte/biotecnologia: SymbioticA, ad esempio, fondato da Oron Catts e Ionat Zurr presso la University of Western Australia, opera all’interno della facoltà di anatomia e biologia umana e organizza residenze per artisti, scienziati e filosofi. A sottolineare l’importanza della collaborazione tra professionisti diversi è Paola Antonelli, senior curator del dipartimento di Architettura e Design del MoMa di New York che nel 2008 ha ospitato la mostra Design and the Elastic Mind: “La maggior parte dei biodesigner non corrisponde alla figura dello scienziato pazzo che, in emulazione di Dio, si impegna a creare un nuovo essere, personificazione dell’imminente scontro finale: alcuni lavorano con organismi visibili come piante e animali, altri con batteri e cellule, altri ancora perseguono la creazione di nuovi sistemi viventi manipolando il Dna. Nessuno di loro, tuttavia, opera da solo in una terra di nessuno dell’etica, preferendo lavorare in gruppo e far parte di team che comprendono fisici, matematici, tecnici informatici, ingegneri, chimici e specialisti in bioetica. A volte anche economisti e filosofi”. Il collettivo SymbioticA sostiene ed ospita, tra gli altri, Tissue Culture, un progetto artistico di ricerca sull’uso delle tecnologie del tessuto organico come mezzo per una nuova espressione artistica e come strumento per migliorare la qualità della vita. Per descrivere i loro strumenti di lavoro, Catts e Zurr hanno coniato il termine semi-vivente. “Se le cose di cui ci circondiamo ogni giorno fossero nello stesso tempo prodotti ed entità viventi, in crescita, cominceremo ad assumere un atteggiamento più responsabile nei confronti del nostro ambiente, e a tenere a freno il nostro consumismo distruttivo” afferma l’artistico duo. Ciò detto, molti esperimenti del nostro tempo nati dalla collaborazione arte-scienza in realtà non influiscono o non lasciano tracce durature sulla pratica dell’artista o su quella dello scienziato. Troppo spesso collaborazioni di questo tipo non si sviluppano in n.28 | Dicembre 2012 esperienze autonome e vitali - scientifiche o artistiche - indipendenti da risultati commerciali e scientifici o, in caso affermativo, quei risultati non sono facilmente rintracciabili al di fuori di mostre o simposi temporanei (Dorfles, 2001). L’osservatore aggiunto L’osservatore-aggiunto (dall’espressione inglese attached-observer) - una professionalità presa dall’antropologia e dalla ricerca etnografica sul campo - rappresenta il tentativo di comprendere il processo e non solamente i risultati di queste collaborazioni. L’introduzione di un terzo agente tra l’artista e lo scienziato ha il merito di focalizzare l’attenzione sulle forme della collaborazione stessa non solo in maniera retrospettiva, ma mentre la collaborazione è in corso nel laboratorio (Leach, 2006: 447-451). Le parole chiave sono processo - non risultato - e interazione tra le persone coinvolte. L’osservatore-aggiunto agisce da testimone e a volte anche da partecipante al progetto: stimola le domande, mette in discussione l’interazione stessa, esplora nuove possibili direzioni di ricerca per l’artista e per lo scienziato come singoli, una volta conclusa la collaborazione a un progetto specifico (Mandelbrojt, 1994). Come afferma l’antropologo sociale James Leach: “quelle nuove direzioni, forse più di qualsiasi risultato fisico finito, sono un prodotto genuino della collaborazione, impensabile senza il rapporto particolare tra i partecipanti” (2006: 449). Arte e scienza: le nuove sfide Il dibattito che sta infervorando le discussioni tra lettori e autori della rivista Leonardo - The Journal of Art, Science and Technology del gruppo SEAD (Network for Sciences, Engineering, Arts and Design) riguarda le sfide che dovranno affrontare quanti vogliano esplorare il territorio di intersezione tra arte e scienza e cimentarsi in prima persona con un progetto o una ricerca in questo settore. Tra gli italiani che partecipano al dibattito (pochissimi, per la verità), vi è Michele Emmer, insigne matematico e regista, autore di numerosi libri che esplorano i concetti di spazio e forma tra scienza e arte. Queste sono alcune delle sfide più urgenti, in rigoroso ordine sparso: Tra due culture Arte e scienza Piccola biblioteca per orientarsi tra arte e scienza • ARENDS, BERGIT and THACKARA, DAVINA. (Eds.). 2004. Experiment: Conversations in Art and Science. London: Wellcome Trust. • DORFLES, GILLO. 2001. Ultime Tendenze nell’Arte Oggi: dall’Informale al Neo-Oggettuale. Milano: Feltrinelli. • EDE, SIÂN. 2005. Art and Science. London: I.B. Tauris & Company. • EDWARDS, DAVID. 2008. Artscience. Creativity in the post-Google Generation. Harvard University Press. • ELKINS, JAMES. 2008. Six Stories at the End of Representation. Chicago: Chicago University Press. • EMMER, MICHELE. 2006. Visibili armonie. Teatro, cinema, arte, matematica. Bollati Boringhieri. • LEACH, JAMES. 2006. ‘Extending Contexts, Making Possibilities: An Introduction to Evaluating the Projects’. Leonardo. 39.5. 447-451. • MANDELBROJT, JACQUES. 1994. ‘Art and Science: Similarities, Differences and Interactions’. Leonardo. 27.3. 179-180. • RHEINBERGER, HANS-JÖRG. 1997. ‘Experimental Complexity in Biology: Some Epistemological and Historical Remarks’. Philosophy of Science. December Supplement 64. 245-254. • ROSE, STEVEN. 2005. The 21st Century Brain. Explaining, Mending and Manipulating the Mind. London: Jonathan Cape-Random House. • SNOW, CHARLES P. 1998. The Two Cultures. Cambridge: Cambridge UP. Fotografia di GFP Bunny, opera d’arte transgenica realizzata da Eduardo Kac mediante una mutazione sintetica del gene GFP della fluorescenza della medusa Aequorea victoria. Il coniglio albino, se esposto a una luce particolare, diviene verde fluorescente. 10 1. La valutazione delle collaborazioni tra artisti e scienziati. Quando è possibile giudicare se una collaborazione ha avuto successo o meno? È sempre necessario arrivare a un risultato, a un’opera finita, oppure è meglio concentrarsi sul processo, sulla collaborazione nel suo svolgersi? Qui entra in gioco la necessità di valutare le collaborazioni stesse senza irrigidirle in un protocollo e garantendo la massima libertà di sperimentazione e creazione. 2. Il ripensamento del sistema formativo nella sua totalità. L’innovazione pedagogico-educativa riguarda l’insegnamento interdisciplinare e le diverse modalità di apprendimento. In Italia, per esempio, dalla Riforma Gentile del 1932 la separazione tra sapere umanistico e scientifico continua a prevalere nei programmi formativi della scuola dell’obbligo e della formazione universitaria. Anche quando ciò non dovesse accadere - esistono, infatti, alcuni programmi di n.28 | Dicembre 2012 dottorato inter-disciplinari - i concorsi accademici per ricercatori sono promulgati seguendo rigorosamente i settori disciplinari. 3. Il ruolo dell’impresa nei progetti tra arte e scienza nella situazione di crisi globale economico-sociale. L’impresa deve semplicemente esercitare un ruolo di facilitatore e sostenitore di questi progetti (principalmente attraverso sponsorizzazioni), oppure è possibile un ripensamento delle modalità di fare impresa grazie allo sviluppo di collaborazioni tra arte e scienza? 4. Proprietà intellettuale e diritti d’autore. Le scienze, l’ingegneria, l’arte, il design e le discipline umanistiche hanno sviluppato approcci molto diversi tra loro per affrontare il nodo della proprietà intellettuale, dei diritti d’autore, dei brevetti. A volte queste diversità d’approccio possono causare ostacoli alla condivisione delle informazioni se non, addirittura, controversie vere e proprie. Una delle questioni più annose riguarda l’attribuzione della proprietà intellettuale ai fini di eventuali applicazioni commerciali e dell’individuazione di criteri per promuovere o meno la carriera lavorativa dei singoli all’interno delle organizzazioni di appartenenza. Lasciando al lettore il compito di riflettere su queste piccole grandi sfide, ritorniamo, in conclusione, all’affermazione di Rose che ha aperto questo articolo: se abbiamo in mano un martello, tutto ci apparirà più o meno in termini di chiodo. Se l’utilizzo artistico di uno strumento scientifico non è di per sé in grado di conservare la complessità del fenomeno investigato, tuttavia, le collaborazioni tra artisti e scienziati potrebbero risultare un modo efficace per stringere in mano il martello senza ridurre il mondo a un semplice chiodo. Silvia Casini Coordinatore scientifico progetto Arscientia Picapao srl Xxxx Xxx Gli insetti xilofagi come fonte di enzimi per ottenere bioetanolo da biomasse lignocellulosiche Nuove biotecnologie: insetti e biocarburanti di Gabriella Butera Australia centrale. A sinistra la grande torre di un termitaio. I biotecnologi sono sempre alla ricerca di enzimi dalle fonti più disparate, utilizzabili per ottenere sintesi pulite e innovative con le quali produrre beni di largo consumo. Gli insetti xilofagi si nutrono di legno. Sebbene alcune specie siano decisamente dannose per i manufatti realizzati con questo materiale, sono importanti nel ricambio del carbonio organico e dalla flora intestinale di alcuni di essi si possono ottenere enzimi utilizzabili per produrre biocarburanti di seconda generazione da biomasse legnose. In questo modo si possono usare fonti energetiche rinnovabili, evitando l’inopportuna competizione con le colture alimentari. Nuove biotecnologie Insetti e biocarburanti Gli insetti xilofagi Gli insetti xilofagi si nutrono di un particolare tessuto delle piante vascolari chiamato xilema o, più comunemente, legno. È facile intuire che si tratti di insetti che da un punto di vista ecologico giocano un ruolo molto importante nel processo di turnover del carbonio, in quanto nutrendosi di tutti i detriti vegetali presenti nelle lettiere dei boschi (ma anche nei nostri giardini di casa!) consentono il “riciclo” della materia organica. Alcune specie però, proprio per la loro capacità di nutrirsi della cellulosa presente nel legno, causano gravi danni Struttura della lignocellulosa. [Immagine: Edward M. Rubin; alle infrastrutture in legno in tutto il mondo, specialmente in quei Paesi in cui le case 2008 Nature 454, 841-845]. sono costruite interamente in legno. Questi animaletti non sarebbero così efficienti nel degradare i residui vegetali se non ospitassero all’interno del loro intestino una vasta comunità microbica che - oltre a contribuire alla Reticulitermes lucifugus: opera- fissazione dell’azoia (sinistra) e soldato (destra). to - gioca un ruolo determinante nella degradazione di tutti i polimeri che compongono i materiali vegetali, primo fra tutti la cellulosa che costituisce circa il 12 n.28 | Dicembre 2012 50% del totale in peso secco di una pianta adulta. La flora intestinale degli insetti xilofagi include organismi appartenenti a tre domini differenti: batteri, archeobatteri ed eucarioti. Quest’ultimo dominio è rappresentato principalmente dai protozoi. Tra di loro si instaura un rapporto di simbiosi così complesso che è stato oggetto di studio da parte di molti scienziati, non soltanto perché è alla base dell’efficienza della degradazione della lignocellulosa, ma per capire i meccanismi della simbiosi stessa. La termite (pronuncia: tèrmite) è uno degli insetti xilofagi più studiati. Appartiene all’ordine Isoptera, famiglia Rhinotermitidae. Presenta una complessa organizzazione sociale e si nutre della cellulosa presente nel legno. Crea delle ampissime colonie sotto terra in ambienti umidi e bui. Per spostarsi all’esterno alla ricerca di cibo, le termiti operaie costruiscono dei tunnel formati da terra ed escrementi entro i quali si muovono. Col nome di termite si indica un gruppo di specie che si possono distinguere in lower (il termine anglosassone è qui usato nell’accezione di inferiori, meno evolute) e higher (superiori, più evolute). Le prime ospitano nel loro intestino una vasta popolazione di batteri e protisti flagellati (organismi eucarioti unicellulari che per spostarsi nell’ambiente in cui vivono muovono i flagelli di cui sono dotati). L’apparato digerente di tutte le termiti che si nutrono di lignocellulosa produce una glico-idrolasi (un enzima idrolitico) che viene secreta ed è attiva nella parte anteriore dell’intestino. Questo rappresenta un importante ecosistema che ospita numerosi microorganismi e le molteplici relazioni simbiotiche che si instaurano tra di essi e il loro ospite stanno alla base dell’efficienza della degradazione della lignocellulosa. Studi recenti hanno chiarito che importanti enzimi idrolitici vengono prodotti dai batteri qui presenti. A supporto di questa ipotesi vi sono alcune evidenze sperimentali: l’osservazione di batteri strettamente attaccati a particelle di legno all’interno dell’intestino e la scoperta di un gene codificante per una endoxylanasi nel Dna batterico prelevato dal tratto intestinale di una specie di termite. Questo ecosistema è uno dei più affascinanti esempi di simbiosi tra un animale Nuove biotecnologie Insetti e biocarburanti loro ospite. I protozoi presenti nell’intestino delle termiti lower sono responsabili della digestione della lignocellulosa in questo gruppo di insetti. Essi sono specifici per il tipo di termite che le ospita, in quanto si è in presenza di un’associazione simbiotica obbligata. La loro relazione evolutiva non è stata ancora adeguatamente descritta a causa della diversità e dell'elevata abbondanza specifica della microflora. Biocarburanti da biomasse Xilema e Floema Lo xilema o, più semplicemente, il legno è il complesso costituito da vasi, fibre e cellule parenchimatiche presente nelle angiosperme, piante superiori dette anche “vascolari”, caratterizzate dalla formazione di fiori. Il floema, o libro, rappresenta il complesso dei tubi cribrosi, cellule parenchimatiche e fibre (quest’ultime non sempre presenti) delle angiosperme. I vasi ed i tubi cribrosi sono i due tipi di “condotti” del sistema vascolare delle piante superiori che è specializzato nel trasporto dei nutrienti: lo xilema porta l’acqua e i sali minerali, necessari alla pianta per sintetizzare sostanza organica, dal terreno alle foglie; nel floema, invece, scorre la linfa elaborata dalle foglie, dove si concentra l’attività fotosintetica, che così raggiunge il resto della pianta. Termiti operaie e soldato della specie Reticulitermes lucifugus. R. lucifugus, Kalotermes flavicollis e Cryptotermes brevis sono le specie di termiti presenti in Italia. R. lucifugus è una specie molto dannosa che ha causato ingenti danni al patrimonio storico e artistico nazionale. [Immagine: Gabriella Butera]. e microbi e tra le diverse specie di questi ultimi. La microflora intestinale delle termiti viene comunemente scambiata tra i membri di una colonia e trasmessa alle generazioni future attraverso la trofallassi, un tipo di nutrizione molto comune negli isotteri in cui il cibo viene distribuito ai diversi individui della colonia mediante il rigurgito bocca a bocca. Questo meccanismo di nutrizione può promuovere meccanismi di co-evoluzione tra i simbionti e il La cellulosa è il biopolimero più diffuso. Si tratta di un polisaccaride costituito da 300-3.000 molecole di glucosio, unite tra loro da un legame β-1,4 glicosidico. Il monomero è rappresentato più precisamente dal cellobiosio che è il dimero (disaccaride) del glucosio. La catena polimerica non è ramificata. Come si vede nello schema tridimensionale (in basso), tra catene adiacenti si formano numerosi legami a idrogeno (tratti celesti) grazie alla presenza dei numerosi residui -OH. Ciò conferisce alla cellulosa una struttura cristallina compatta. 13 n.28 | Dicembre 2012 La cellulosa è il maggiore componente delle biomasse di origine vegetale. È un polimero costituito da molecole di glucosio (uno zucchero monosaccaride a sei atomi di carbonio) unite da legami 1,4 β-glicosidici in lunghissime catene lineari che costituiscono un sistema di fibre intrecciate tra loro su diversi piani all’interno della parete cellulare delle cellule vegetali. Il legame β-1,4 conferisce alla cellulosa una struttura cristallina molto compatta che la rende resistente agli attacchi degli agenti biologici. Questa organizzazione spaziale è responsabile dell’elevata resistenza della cellulosa che svolge un ruolo meccanico di tessuto di sostegno. La consistenza viene aumentata dalla presenza nella parete cellulare di altri biopolimeri: lignina, emicellulose e pectine che riempiono gli spazi tra le molecole di cellulosa. Nelle piante adulte la cellulosa costituisce più del 50% del peso secco, motivo per cui è il polimero più diffuso nel regno vegetale. Per la sua ampia disponibilità e per il rapido processo di formazione, la cellulosa è considerata una materia prima rinnovabile. In questi ultimi decenni è stata studiata con grande attenzione la possibilità di utilizzarla come fonte di glucosio per la produzione di bioetanolo, oggi ampiamente usato nel settore del trasporto come carburante alternativo a quelli di origine fossile. Attualmente, la maggior parte di esso è prodotta Nuove biotecnologie Insetti e biocarburanti Biomasse lignocellulosiche Biomassa pre-trattata globale, ma questa esigenza si scontra con le difficoltà tecniche legate alla loro produzione, dovute soprattutto alla resistenza strutturale della lignocellulosa. Nel caso della cellulosa si ottiene etanolo per fermentazione alcolica dei monomeri di glucosio ottenuti dall’idrolisi delle catene polisaccaridiche. La fermentazione è un processo mediato dai lieviti oppure dai batteri che possiedono questa via metabolica. L’idrolisi delle catene di glucosio nei singoli monomeri può essere realizzata per diverse vie: enzimatiche, chimiche o fisiche. I trattamenti chimici comprendono l’utilizzo di acidi o basi o liquidi ionici. Il processo di fermentazione utilizzato nella produzione industriale del bioetanolo è ben consolidato e prevede comunemente l’utilizzo del lievito Saccharomyces cerevisiae, noto fin dall’antichità per la panificazione e la produzione di birra e vino. La Le biomasse Glucosio Bioetanolo Schema della produzione di bioetanolo da biomasse lignocellulosiche. [Immagine : modificato da HahnHagerdal et al., Trends Biotech. 2006]. 1) Pretrattamento. La biomassa viene triturata e fortemente riscaldata mediante vapore. Si ottengono così le emicellulose idrolizzate e la lignina parzialmente solubilizzata. 2) Idrolisi. La biomassa pretrattata contiene cellulosa e lignina e viene sottoposta a idrolisi mediante appositi enzimi per formare glucosio. Si scartano la lignina e la cellulosa residua non idrolizzata. 3) Fermentazione. Il glucosio così formatosi ed eventuali altri zuccheri (es. pentosi) possono essere fermentati da opportuni microrganismi per produrre bioetanolo, utilizzabile tra l’altro per autotrazione. 14 dall’amido o da altri zuccheri provenienti da vegetali coltivati per questo scopo (colture energetiche); in genere si tratta di frumento, mais, canna da zucchero e soia. Questa pratica però porta con sé tutta una serie di svantaggi di natura socio-economica che comprendono la competizione con le colture alimentari per i campi fertili, con conseguente aumento dei prezzi del cibo e carenza di foraggio per il bestiame. Inoltre, i benefici ambientali derivanti dall’utilizzo dei carburanti provenienti da colture (biocarburanti di prima generazione) non sempre sono evidenti e in certi casi l’impatto ambientale ad esso connesso è più alto di quello del petrolio, a causa delle coltivazioni che richiedono dispendio energetico e consumo di acqua per l’irrigazione, oltre all’utilizzo di fertilizzanti e altre sostanze di sintesi. Di contro, i biocarburanti derivanti da scarti agro-forestali (biocarburanti di seconda generazione) non presentano gli stessi svantaggi, anzi non sottraggono terre fertili alle colture alimentari e il loro utilizzo implica il riuso di materiali che altrimenti sarebbero scartati. Infine, un grande vantaggio derivante dall’utilizzo dei biocarburanti di seconda generazione è rappresentato dalla riduzione delle emissioni di gas serra, come disposto dalla European Waste Framework Directive (European Commission, 2006). L’utilizzo di biocarburanti di seconda generazione è, quindi, una priorità a livello n.28 | Dicembre 2012 Se ne sente parlare molto ormai, ma cosa vuol dire biomassa? Si tratta di un termine generico che negli ultimi decenni ha assunto una nuova valenza, soprattutto alla luce del grande interesse per la possibilità di utilizzarle come fonti rinnovabili per la produzione di energia termica ed elettrica. Secondo il decreto legislativo 29 dicembre 2003 n.387 (che recepisce a livello nazionale la Direttiva europea 2001/77/CE sulla promozione di energia elettrica prodotta da fonti rinnovabili) per biomassa si intende “la parte biodegradabile dei prodotti, rifiuti e residui provenienti dall’agricoltura, dalla silvicoltura e dalle industrie connesse, nonché la parte biodegradabile dei rifiuti industriali e urbani”. Quindi, in ambito energetico, la biomassa è qualsiasi sostanza organica, di origine vegetale o animale, da cui sia possibile ricavare energia attraverso uso diretto oppure previa trasformazione in un combustibile solido, liquido o gassoso. fase di idrolisi della cellulosa che precede lo stadio di fermentazione è invece ancora oggetto di studio al fine di identificare i meccanismi più efficaci per migliorare le rese in glucosio e per abbattere i costi ambientali e/o di produzione. Il contributo dell’ingegneria genetica La sfida dei prossimi anni sarà quella di incrementare la produzione di biocarburanti di seconda generazione, la quale è strettamente connessa ai progressi tecnico-scientifici necessari per il trattamento sostenibi- Nuove biotecnologie Insetti e biocarburanti Cellule di Saccharomyces cerevisiae osservate mediante le tecnica di microscopia ottica nota come DIC (Differential Interference Contrast microscopy). Il loro diametro si aggira attorno ai 5-10 micrometri. le da un punto di vista sia economico che ambientale delle biomasse lignocellulosiche. In ambito microbiologico l’obiettivo della ricerca in questi ultimi decenni è stato quello di trovare microorganismi capaci di utilizzare gli scarti di tale natura per generare etanolo, una proprietà non comune tra gli organismi viventi. Il lievito Saccharomyces cerevisiae è il microorganismo più comunemente utilizzato in ambito industriale per la fermentazione del glucosio in etanolo. Contrariamente alla produzione basata sull'uso di saccarosio o amido, quella che impiega biomasse lignocellulosiche è una fermentazione che avviene a carico di un mix di zuccheri differenti e in presenza di composti che inibiscono la reazione - acidi organici a basso peso molecolare, composti fenolici e inorganici - rilasciati durante i pretrattamenti o durante il processo di idrolisi della materia di partenza. I ceppi wild-type di Saccharomyces cerevisiae (quelli esistenti in natura non mutati geneticamente) non metabolizzano gli zuccheri pentosi (a cinque atomi di carbonio). Altri tipi di lieviti sì, come Candida utilis che cresce in terreni di coltura che contengono xiosio (pentoso) come unica fonte di carbonio, ma questo lievito è strettamente 15 n.28 | Dicembre 2012 aerobico e non produce etanolo. Nei primi anni Ottanta, in seguito alla scoperta che Saccharomyces cerevisiae, Schizosaccharomyces pombe e altri lieviti erano capaci di fermentare D-xilulosio in etanolo, ulteriori studi rivelarono che alcuni di essi sono capaci di convertire direttamente lo xilosio in etanolo, sia in condizioni aerobiche che in presenza di basse concentrazioni di ossigeno. Allora i ricercatori focalizzarono l’attenzione sulle specie Pachysolen tannophilus, Candida shehatae e Pichia stipitis, i lieviti più conosciuti tra quelli naturalmente capaci di fermentare lo xilosio. Il metabolismo e l’utilizzo degli zuccheri pentosi sono essenziali per la bioconversione della lignocellulosa in biocarburanti e altri composti chimici. Così, Saccharomyces cerevisiae è stato ingegnerizzato geneticamente attraverso l’introduzione nel suo patrimonio genetico di tutti quei geni codificanti per gli enzimi necessari per il metabolismo dello xilosio, affinché questo lievito fosse capace di fermentare anche questo pentoso per formare etanolo. Negli anni successivi la priorità della ricerca in ambito biotecnologico è stata quella di “creare” attraverso tecniche di ingegneria genetica dei microorganismi che possedessero sia la capacità di produrre determi- Nuove biotecnologie Insetti e biocarburanti nati substrati che di metabolizzarli. Per raggiungere questa finalità sono stati segui due tipi di strategie. Nella prima si ingegnerizzano ceppi batterici naturalmente capaci di idrolizzare la cellulosa per aumentare la loro capacità metabolica. La seconda prevede l’inserimento dei geni che codificano per cellulasi (particolari enzimi deputati all’idrolisi della cellulosa) di microrganismi cellulosolitici in altri che non le producono ma che, di contro, sono caratterizzati da elevate produzioni enzimatiche, ovvero vie metaboliche molto attive, con lo scopo di trasformare questi ultimi in organismi capaci di metabolizzare in maniera efficiente la cellulosa. Negli ultimi decenni numerosi altri microorganismi sono stati ingegnerizzati per produrre selettivamente etanolo. I maggiori successi in questo campo sono stati ottenuti con i batteri Gram negativi (vedi Green n. L’ingegneria genetica Viene definita ingegneria genetica la manipolazione del materiale genetico mediante la tecnologia del Dna ricombinante. Attraverso quest’ultima un gene di una determinata specie può essere inserito all’interno del genoma di un’altra specie. Affinché ciò avvenga il frammento di Dna in questione viene tagliato attraverso particolari enzimi (enzimi di restrizione) e inserito (attraverso particolari enzimi detti Dna-ligasi) nel Dna di batteri o di altri organismi capaci di riprodursi rapidamente. È possibile anche isolare geni, modificarli e reinserirli di nuovo nell’organismo originario o in organismi differenti. Il primo caso rientra nella così detta terapia genica nella quale uno o più geni normali vengono inseriti nelle cellule somatiche di un organismo per correggere un’anomalia che può causare una grave malattia genetica nell’uomo. In altri casi il gene codificante per una determinata proteina di grande interesse medico o industriale viene inserito nel Dna di altri organismi (nella maggioranza dei casi batteri) al fine di produrne in grandi quantità. 10, pag. 27), in particolare con Escherichia coli, Klebsiella oxytoca e Zymomonas mobilis. I primi due sono capaci naturalmente di usare un ampio spettro di zuccheri e il lavoro dei ricercatori è stato focalizzato sull’ingegnerizzazione di questi ceppi per produrre selettivamente etanolo. Z. mobilis invece produce etanolo in grandi quantità, ma è capace di fermentare soltanto il glucosio (esoso) e il fruttosio (pentoso); il lavoro dei ricercatori su questo organismo è stato finalizzato all’introduzione delle vie metaboliche per la fermentazione dei due pentosi arabinosio e xilosio. Da quanto detto finora appare evidente che tutti gli sforzi della ricerca in questo ambito scientifico sono stati indirizzati sull’ottenimento di ceppi batterici e di lieviti adatti al miglioramento di tutto il processo industriale per la produzione di etanolo. In alcuni casi sono stati testati metodi fisici e chimici per incrementare la produzione degli enzimi idrolitici da parte dei ceppi cellulo16 n.28 | Dicembre 2012 solitici, ma con scarso successo. La comprensione dei meccanismi molecolari che stanno alla base della degradazione biologica della lignocellulosa e l’individuazione degli organismi più efficienti sono passi fondamentali da compiere per una proficua applicazione dell’ingegneria genetica (tecnologia del Dna ricombinante). Per esempio, il clonaggio e il sequenziamento dei vari geni codificanti per enzimi idrolitici potrebbe migliorare economicamente la resa del processo industriale di produzione delle cellulasi. Si tratta di strumenti molto promettenti che ci consentiranno di progredire nella comprensione dei meccanismi molecolari che stanno alla base della bioconversione della lignocellulosa e nell’ingegnerizzazione sempre più efficiente di microrganismi preposti alla produzione industriale di bioetanolo. Enzimi idrolitici da insetti xilofagi Nuovi organismi, che possano essere potenziale fonte di enzimi utilizzabili per la sintesi di bioetanolo sopra descritta, possono convenientemente essere ricercati nei sistemi ecologici in cui la degradazione della lignocellulosa avviene naturalmente. Tra questi hanno sicuramente un posto rilevante gli insetti xilofagi, la cui microflora intestinale rappresenta una ricca riserva di enzimi tutta da esplorare. Oggi l’interesse principale della ricerca è quello di individuare nuovi enzimi - oltre ai molti già scoperti, isolati e caratterizzati - che siano particolarmente resistenti alle alte temperature e all’ampia variabilità dei valori di pH utilizzati durante i processi di pretrattamento delle biomasse, i due principali fattori limitanti dell’intero processo. Inoltre dovrebbero essere più efficienti, meno costosi e più semplici da estrarre e purificare (soprattutto in termini di tempo necessario).Per tale ragione sarebbe opportuno trovare un singolo microrganismo o un consorzio capace nello stesso tempo di idrolizzare zuccheri complessi e fermentarli formando bioetanolo. Gabriella Butera Unità di Ricerca Palermo 2 Consorzio INCA c la 1 o inserto speciale Olimpiadi della Scienza – Premio Green Scuola 2011/2012 ssificat 2 Riciclo Oli Esausti Ecco l’elaborato classificatosi al primo posto inserto speciale Olimpiadi della Scienza – Premio Green Scuola 2011/2012 c l 3 o as t trasposizione a cura degli autori e dei docenti coordinatori sifica inserto speciale L’attività di rigenerazione o c Olimpiadi della Scienza – Premio Green Scuola 2011/2012 degli oli usatilpresenta finalità as at ecologiche oltre economiche, sche ific sottraendo all’ecosistema un rifiuto pericoloso per trasformarlo in un prodotto riciclato di alta qualità, contribuisce alla riduzione delle importazioni di greggio, materia prima proveniente da fonte non rinnovabile. Il progetto, qui sintetizzato, è stato realizzato in forma di sito web da alcuni membri dell’Ecocomitato del nostro Liceo Scientifico "L. Da Vinci" di Umbertide (Perugia). La scelta della tecnica espressiva è basata sulla sua sinteticità e semplicità, una forma di comunicazione più efficace e attuale. Trattando del caso concreto del riciclaggio degli oli esausti, abbiamo cercato di approfondire la tematica del rapporto tra uomo e ambiente con un approccio interdisciplinare e olistico. Speciale OdS-PGS7 Primo classificato Introduzione Il progresso della società industriale, con il conseguente abuso di prodotti chimici e l’aumento esponenziale della produzione di rifiuti, hanno ancor più evidenziato il depauperamento e il deterioramento delle risorse naturali. Per questo diventa necessario intervenire sull’attuale modello produttivo, attraverso l’utilizzo di strategie operative alternative atte a ridurre le componenti merceologiche causa del forte impatto ambientale. Il progetto nasce, quindi, dall’analisi della questione ambientale, che viene trattata in diversi ambiti disciplinari: filosofia, biologia, lettere, chimica, scienze della terra, inglese, storia e diritto. L’approccio pluridisciplinare si è rivelato il migliore per affrontare questa tematica. La nostra indagine ha il suo focus sull’attività di recupero e rigenerazione degli oli usati che sono prodotti di scarto, per ridurre le importazioni di materie prime come, ad esempio, il petrolio che sta via via esaurendosi. Questo lavoro descrive e analizza principalmente il tema dello smaltimento dei lipidi o grassi (soprattutto olio o burro) che vengono usati nella preparazione di fritture: tale rifiuto è solitamente rappresentato da un fluido viscoso e denso, il cui colore varia da giallo a rosso-bruno con un odore abbastanza sgradevole. Oli: se li buttiamo, siamo fritti Dopo la frittura, l’olio modifica la sua struttura polimerica originaria, si ossida e assorbe le sostanze inquinanti dalla carbonizzazione dei residui alimentari. La 18 n.28 | Dicembre 2012 densità aumenta col grado di ossidazione, ma rimane normalmente inferiore a 1.000 g/dm3, e questo comporta il galleggiamento del residuo sull’acqua quando viene scaricato in fognatura o sversato in un corpo idrico, ed è per questo motivo che gli oli alimentari esausti sono possibile causa di inquinamento ambientale e del cattivo funzionamento degli impianti di depurazione, laddove esistenti. La corretta raccolta e il successivo trattamento degli oli usati permettono di riutilizzarli in alcuni processi industriali; ad esempio, per produrre lubrificanti, bio-diesel, saponi, tensioattivi e altri beni. Quando gli oli e grassi alimentari esausti provengono da una qualsiasi attività produttiva (come le cucine di alberghi, ristoranti, pizzerie, mense), sono considerati come rifiuti speciali non pericolosi da destinarsi al recupero ai sensi dell’art. 184 comma 2 del D. Lgs. 152/2006. Pertanto tale residuo di lavorazione va stoccato in appositi contenitori che devono poi essere consegnati periodicamente ad appositi consorzi, autorizzati dalle autorità competenti, che ne effettueranno il ritiro, il trasporto e il recupero. Quest’ultimo è di centrale importanza se si considerano gli effetti negativi causati negli ecosistemi da tali sostanze. L’inquinamento da oli e idrocarburi delle acque superficiali è generato da numerosi fattori, quali gli scarichi diretti o indiretti di attività industriali o delle normali attività umane, come i liquami domestici che giungono nei fiumi, laghi e mari dai grandi centri urbani senza un efficace trattamento. Tale contaminazione è di natura sia dolosa che accidentale. Il primo caso è quello delle petroliere e di altri tipi di cargo che vengono portate al largo di soppiatto (ad esempio nei giorni di nebbia o di notte), dove le stive vengono lavate e il residuo del carico viene così sversato sciaguratamente in ac- Speciale OdS-PGS7 Primo classificato qua. Arrivando poi a casi limite - che rappresentano dei veri e propri crimini, molto più frequenti di quanto si possa comunemente pensare - come lo sversamento deliberato nei mari o nei fiumi di scarti dell’industria petrolchimica per evitare costosi smaltimenti. L’inquinamento può, però, essere di natura accidentale e verificarsi a seguito di un evento inaspettato che causa il rilascio in mare di considerevole quantità di inquinanti. Gli incidenti più gravi sono quelli dovuti al naufragio delle superpetroliere, a seguito dei quali enormi quantità di greggio si trovano a galleggiare su vastissime aree marine con danni inestimabili sia per l’ecosistema che per l’economia. Vi è, infine, una forma sistematica di contaminazione delle acque superficiali dovuta alla cattiva gestione e/o progettazione di impianti industriali come oleodotti, impianti di trivellazione e raffinerie. Gli uccelli e i mammiferi marini rimangono facilmente invischiati dalle masse oleose che si accumulano sulle coste o che stratificano sulla superficie del mare. Gli effetti Cause, conseguenze e possibili rimedi all’inquinamento del suolo. CAUSE •Accumulo di rifiuti solidi, contenenti materiali non biodegradabili (plastica, lattine, ecc). •Uso di pesticidi, diserbanti e concimi chimici in agricoltura. CONSEGUENZE •Raccolta differenziata dei rifiuti e riciclaggio. •Diminuzione della biodiver- •Limitare l’uso di prodotti sità. chimici in agricoltura. •Contaminazione della catena alimentare. •Inquinamento dell’aria e dell’acqua, in quanto spesso le sostanze inquinanti si depositano nel terreno. devastanti che ha provocato la marea nera nelle isole Galapagos ha tenuto il mondo in ansia per parecchio tempo. Il petrolio si stratifica sulla superficie del mare formando una pellicola che cambia di spessore e di composizione a seconda della temperatura e del movimento dell’acqua. Alla evaporazione dei composti tossici volatili si aggiungono processi di emulsione, aerosol, fotossidazione che portano alla formazione di una sottile pellicola superficiale e piccoli accumuli di catrame che galleggiando arrivano sulla costa, fino alle rive e alle spiagge. Solitamente si assiste ad una lenta biodegradazione naturale degli idrocarburi da parte dei microorganismi marini, che di solito è troppo lenta per evitare il disastro e deve quindi essere aumentata e integrata da opportune tecnologie di disinquinamento. I danni causati agli ecosistemi dagli n.28 | Dicembre 2012 RIMEDI •Tossicità diretta per l’uomo e l’ambiente. •Seppellimento di rifiuti tossici e radioattivi nel terreno. 19 sversamenti di petrolio dipendono da molti fattori, tra cui vi sono la quantità, le caratteristiche chimico-fisiche del greggio (che ne determinano anche la tossicità) e la sua distribuzione. Quest’ultima dipende spesso da fattori incontrollabili come i venti o le correnti. I principali effetti dell’inquinamento del suolo sono caratterizzati da tre aspetti principali. Il primo comporta l’alterazione dell'ecosistema, dovute a modificazioni della componente abiotica (pH, struttura del suolo, composizione chimica) e della componente biotica (microrganismi, flora e fauna) con perdita di biodiversità, riduzione della fertilità e del potere autodepurante del suolo, come effetti primari. In secondo luogo va considerata la contaminazione globale dovuta all’immissione di sostanze tossiche e persistenti, che possono entrare nelle catene alimentari e dare origine a fenomeni di bioaccumulo. Infine troviamo la mobilità degli inquinanti che possono raggiungere, ad esempio, le falde acquifere, con evidenti rischi per la salute umana. •Leggi più severe per lo smaltimento dei rifiuti nocivi e tossici. •Contrastare l’inquinamento dell’aria e dell’acqua. Dalla padella all’automobile L’importanza del recupero degli oli esausti è evidente anche se si considera che l’olio esausto può essere impiegato per ottenere biodisel, in alternativa al gasolio ottenuto dal petrolio. Si potrebbe pensare di creare un ciclo chiuso che, a partire dalla loro raccolta (sia dalle utenze domestiche che da quelle commerciali) e attraverso un opportuno trattamento, ne consenta il riuso, come combustibile, utilizzabile sia per autotrazione che per il riscaldamento, il quale avendo una natura vegetale e rinnovabile contribuirebbe alla diminuzione di emissioni di anidride carbonica. Nonostante nei veicoli prodotti prima del 1992 si potrebbe avere una degradazione delle parti in gom- Speciale OdS-PGS7 Primo classificato ma, a causa del maggior poter solvente del prodotto bio rispetto a quello ottenuto dal greggio, qualsiasi motore diesel moderno può essere adattato per utilizzare biodisel puro (indicato con la sigla BD100 o B100). Nonostante ciò, viene ancora utilizzato in miscela per migliorare il potere lubrificante. Questo biocarburante è ottenuto attraverso l’utilizzo di oli vegetali vergini (soia, colza e girasoli) o di scarto e altri grassi di origine animale, grazie all’uso di specifici processi chimici. Il suo utilizzo produce numerosi effetti positivi per l’ambiente. Innanzitutto non contribuisce all’effetto serra, poiché come accennato - restituisce all’aria solo la quantità di anidride carbonica utilizzata da colza, soia e girasole durante la loro crescita; riduce le emissioni di monossido di carbonio (-35%) e di idrocarburi incombusti (-20%) emessi nell’atmosfera. Non contenendo zolfo, il biodiesel non produce SOx, gli ossidi di zolfo coinvolti in diversi fenomeni atmosferici, tra cui le piogge acide (vedi Green n. 12, pagg. 18-31), e consente una maggiore efficienza delle marmitte catalitiche. Inoltre diminuisce la Il processo di transesterificazione dei trigliceridi contenuti gli oli per ottenere biodiesel (miscela di esteri metilici). R1, R2 e R3 sono solitamente differenti tra loro. La stessa reazione può aver luogo partendo dai mono- e digliceridi degli oli qui non rappresentati. 20 fumosità dei gas di scarico e dagli impianti di riscaldamento (-70%). Protegge il motore grazie ad un superiore potere detergente che previene le incrostazioni. Non presenta pericoli, come l’autocombustione, durante la fase di trasporto e di stoccaggio. Infine, cosa da non sottovalutare, esso non contiene sostanze assai pericolose per la salute, quali gli idrocarburi aromatici (benzene, toluene ecc.) o policiclici aromatici (IPA) che spesso risultano cancerogeni. n.28 | Dicembre 2012 La sua diffusione determina l’attivazione di un circuito virtuoso che promuove lo sviluppo di tecnologie per il riutilizzo di rifiuti e di biomasse. Il biodiesel si può ottenere da oli di colza, soia, girasole tramite una reazione detta di transesterificazione, in cui una molecola di mono-, di- o trigliceride reagisce rispettivamente con una, due o tre molecole di etanolo per formare uno, due o tre esteri e una molecola di glicerolo (si vedano anche Green n. 4, pagg. 10-19, e n. 5, pagg. 34-41). Chimica dei lipidi Dal punto di vista chimico il termine lipidi indica sostanze organiche insolubili in acqua e solubili in solventi organici come etere e benzolo che nel linguaggio comune vengono indicate come grassi. Si dividono in semplici e composti. I primi sono costituiti solo da idrogeno, ossigeno e carbonio. Nei secondi sono presenti anche azoto, fosforo e zolfo. I lipidi semplici sono costituiti dall’unione di una molecola di glicerolo e da una, due o tre molecole di acidi grassi, per formare i rispettivi mono-, di- e trigliceridi. È necessario, soprattutto da un punto di vista dietetico, approfondire brevemente la loro trattazione. Infatti non si tratta solo di alimenti altamente calorici (9 kcal/g) di cui non bisogna abusare, ma alcuni tipi di queste molecole possono essere dannose per la salute. A prescindere da ogni altra considerazione biochimica, è fondamentale com- Speciale OdS-PGS7 Primo classificato prendere le implicazioni della suddivisione degli acidi grassi in insaturi e saturi. I primi hanno uno o più legami doppi carbonio-carbonio che possono rompersi e legare altri atomi di idrogeno (da -CH=CH- si forma -CH2-CH2- ). I secondi, come suggerisce il loro nome, non possono andare incontro a questa reazione di addizione e questa caratteristica si manifesta in una maggiore densità. Così, gli acidi saturi sono in genere solidi (burro, margarina ecc.), mentre quelli insaturi sono liquidi (olio d’oliva, di semi ecc.). Ne consegue che i primi, essendo “più pesanti”, hanno un maggior tendenza a uscire dal circolo sanguineo e a depositarsi lungo i vasi, formando placche ateromatose e dando seri problemi coronarici (aterosclerosi). Sono presenti nel tuorlo dell’uovo, nel latte e nei suoi derivati e nei grassi animali, specie nelle frattaglie. Nel mondo vegetale sono presenti nell’olio di palma e nella margarina. I grassi insaturi si dividono, a loro volta, in monoinsaturi (un solo doppio legame, come nell’olio d’oliva) e polinsaturi (due o più, come nell’olio di girasole). Il loro consumo è un toccasana per la salute (soprattutto quello dell’olio EVO), combattendo le patologie cardiache e la colesterolemia, ma l’uomo per esigenze produttive/economiche è riuscito a farli diventare meno salutari o, addirittura, nocivi in qualche caso. Infatti, in alcune preparazioni viene, usato un processo, detto di idrogenazione, per cui si rompe artificialmente un doppio legame, aggiungendovi due atomi di idrogeno. In tal modo si innalza il punto di fusione e il grasso idrogenato appare di “maggiore consistenza”. Nella preparazione della margarina o di oli di semi (girasole, mais, soia) viene effettuata una parziale idrogenazione di doppi legami C=C coniugati ottenendo dei grassi trans insaturi, la cui tos- Il punto di fumo degli oli Il punto di fumo è la temperatura minima alla quale un olio o un grasso comincia ad emettere fumi visibili e corrisponde all’inizio della decomposizione delle molecole che lo compongono. Quando si frigge, man mano che la temperatura cresce, si ha prima una decomposizione parziale dei trigliceridi in acidi grassi liberi e glicerolo (anche noto come glicerina); a valori più alti e con tempi più lunghi quest’ultima si decompone (formalmente si disidrata perdendo una molecola d’acqua) formando acroleina, composto altamente tossico, specie per il fegato, e irritante gli occhi, tanto da essere usato ad alte concentrazioni come gas lacrimogeno. In definitiva, per le fritture, è da preferire l’olio di arachide a quello degli altri oli Acroleina. di semi, eccezion fatta, specie per fritture prolungate e ripetute, per l’olio di oliva, che, pur avendo un punto di fumo leggermente inferiore, è però più ricco di acidi grassi monoinsaturi (più stabili) e di sostanze antiossidanti, e meno ricco di acidi grassi polinsaturi (meno stabili), e pertanto più resistente alle alte temperature. 21 n.28 | Dicembre 2012 sicità è tale da meritare un articolo a parte! Fra i lipidi semplici particolare importanza rivestono gli acidi grassi essenziali (EFA, essential fatty acid), otto in tutto, divisi in due classi, gli omega-3 e gli omega-6, spesso raggruppati sotto il nome di vitamina F. La descrizione delle loro proprietà esula dagli scopi di questo articolo e viene lasciata all’approfondimento del lettore, qui basterà ricordare che presiedono alla produzione degli eicosanoidi “buoni” e “cattivi”, superormoni che controllano molte funzioni dell’organismo, e che già dal 1970 Dyerberg aveva mostrato la correlazione fra il consumo di pesce, che ne è ricco, e la bassa incidenza di cardiopatie negli eschimesi. I lipidi composti invece sono rappresentati da trigliceridi legati ad altre molecole. Si possono citare i fosfolipidi, costituenti essenziali della membrana cellulare, e le lipoproteine che svolgono la fondamentale funzione di trasportare i lipidi nel sangue. Le lipoproteine a bassa densità (LDL) distribuiscono il colesterolo alle cellule e depositandosi sulla parete delle arterie formano placche ateromatose; quelle ad alta densità (HDL) rimuovono il colesterolo in eccesso dalle cellule e lo riportano al fegato dove viene impiegato per la produzione della bile. La produzione degli oli di semi Gli oli di semi si estraggono dalle piante di arachide, girasole, mais, soia, e altre ancora, mediante macinatura e uso di solventi. Tra questi, quello più usato è l’esano grazie alle sue caratteristiche chimico-fisiche ottimali (punto di ebollizione, selettività, tossicità acuta limitata, ecc.). Dopo l’estrazione, si ottengono due frazioni: una miscela di olio e esano, e un residuo solido, detto farina di estrazione, usata per preparare mangimi. Dalla miscela olio-esano si recupera per distillazione l’esano, che viene utilizzato per successive estrazioni, e si ha come residuo l’olio di semi grezzo. Quest’olio viene successivamente sottoposto a raffinazione, per togliere le mucillagini, per neutralizzare l’acidità, per deodorarlo, per decolorarlo, e per togliere le ultime tracce di esano (che per legge deve essere completamente eliminato). Vediamo ora assieme le principali caratteristiche degli oli di semi più diffusi. Speciale OdS-PGS7 Primo classificato Olio di arachidi Viene estratto dai semi dell’arachide (Arachis hypogaea, famiglia Fabaceae), è uno degli oli di semi migliori per gusto, stabilità e composizione chimica particolarmente equilibrata in acidi grassi. Contiene circa il 55% di acido oleico, il 25-30% di acido linoleico e il 15% circa di acidi grassi saturi. Adatto soprattutto per fritture. Infatti, il suo punto di fumo (220 °C) è il più alto in assoluto tra gli oli di semi, di poco superiore a quello dell’olio di oliva di buona qualità. Olio di girasole Estratto dai semi di girasole (Helianthus annuus, famiglia Asteraceae) piante di facile coltura ed elevata resa, è molto simile come composizione a quello di mais, avendo il 50-65% di acido linoleico ed il 5-13% di acidi grassi saturi. L’olio che si trova in commercio, limpido e chiaro, è ottenuto per chiarificazione e sedimentazione di quello grezzo, che ha un colore variabile dal giallo al rossastro. Olio di mais In realtà non è un olio di semi, provenendo in maggior parte dal germe del mais (Zea mays, famiglia Poaceae) di cui costituisce circa il 15-20% in peso). Si ricava per spremitura o per estrazione con solventi. È un prodotto abbastanza stabile per l’elevato contenuto in tocoferoli (antiossidanti naturali) e dal gusto gradevole. Presenta una percentuale elevata di acido linoleico (50-60%) e pochi acidi grassi saturi, pertanto è particolarmente adatto alla preparazione di oli dietetici, indicati soprattutto per coloro che hanno livelli elevati di colesterolo nel sangue, che devono contenere almeno il 45% di acido linoleico ed essere addizionati di vitamine (E, A, B6). Olio di soia Si ottiene dai semi di soia (Glycine max, famiglia Fabaceae), un’altra leguminosa al pari dell’arachide. È l’olio più usato al mondo, vista l’enorme diffusione di tale tipo di coltura nei diversi continenti, oggi soprattutto negli Stati Uniti, anche se veniva prima chiamata fagiolo giapponese per l’origine di tale coltivazione. Secondo la varietà, il seme contiene dal 15 al 20% di lipidi estratti per pressione a caldo o con solventi. L’olio commerciale è ottenuto per raffinazione, deodorazione e decolorazione di quello grezzo. Presenta, a volte, un odore sgradevole che diventa più intenso con la stagionatura. Poiché sembra che ciò sia dovuto alla presenza di acidi altamente 22 n.28 | Dicembre 2012 insaturi, si è cercato di porvi rimedio, idrogenando selettivamente l’olio, in modo da ridurne il contenuto. Contiene, in media, circa il 50% di acido linoleico e l’8% di acido linolenico. Gli acidi grassi saturi sono intorno al 15%. È uno degli oli maggiormente impiegati nell’industria per la preparazione delle margarine. Olio di vinacciolo È ottenuto per estrazione con solventi dai vinaccioli, cioè dai semi dell’uva, il frutto della vite (Vitis vinifera, famiglia Vitaceae). È l’olio con il maggior tenore di acido linoleico (70%). Gli acidi grassi saturi sono intorno al 10%. Olio di palma e di cocco L’olio è ricavato dai semi oleosi dei frutti della palma da olio (Elaeis guineensis, famiglia Arecaceae), caratteristica delle regioni costiere dell’Africa Orientale. Dalla palma da cocco (Cocos nucifera, famiglia Arecaceae), si ottiene invece olio per spremitura della polpa del frutto spaccato ed essiccato al sole. Contengono entrambi quantità elevate di acidi grassi saturi, (circa l’80%), sono quasi solidi a temperatura ambiente, e vengono usati per la produzione di margarine. Olio di colza L’olio di colza (Brassica napus o Brassica napus oleifera, famiglia Brassicaceae) è estratto dai semi della pianta dai tipici fiori gialli, parente della senape e dei cavoli. Avendo un costo molto contenuto e una bassa acidità, si è rapidamente diffuso. L’uso alimentare come prodotto puro è sconsigliato, però, per l’elevata presenza (circa il 45%) di un acido grasso particolare, l’acido erucico, ritenuto responsabile di alcuni effetti tossici sulla salute. Per questo viene utilizzato in miscela con altri oli di semi, in modo da evitare una presenza elevata (non più del 15%) di acido erucico, oppure viene estratto dai semi di una varietà di crocifera geneticamente selezionata, che non contiene acido erucico (canbra). Il contenuto in acido linoleico è intorno al 15%. Speciale OdS-PGS7 Primo classificato Dalla bioetica ambientale... Analizzando i diversi ambiti disciplinari in relazione a questo argomento, si è evidenziato come il riciclaggio degli oli esausti rappresenti una necessità per la sostenibilità ambientale a cui ognuno di noi può contribuire, mettendolo in pratica in famiglia. Esso comporta non soltanto l’abbattimento dell’inquinamento ambientale, ma l’utilizzo di fonti energetiche rinnovabili per la produzione di combustibili. Di seguito riportiamo alcune considerazioni sul rapporto tra filosofia e ambiente e tra letteratura e ambiente che ci hanno guidato nella nostra riflessione, da cui è scaturita la realizzazione dell’elaborato inviato al concorso. La principale discriminante tra i diversi approcci filosofici alla tutela ambientale consiste nella considerazione di quali soggetti siano dotati di diritti intrinseci (o inerenti). Generalizzando, si possono individuare le tre posizioni brevemente descritte di seguito. Posizione antropocentrica Rappresenta il pensiero di chi ritiene l’uomo al vertice dell’universo ed unico detentore di diritti intrinseci. Questa posizione filosofica può però essere suddivisa in due grandi categorie, una rappresentata da un’interpretazione rigida dell’impostazione antropocentrica (antropocentrismo forte) e l’altra che ne modera considerevolmente la durezza, in base a considerazioni comunque prevalentemente improntate all’idea di una salvaguardia dell’habitat umano (antropocentrismo debole o moderato). Posizione biocentrica Secondo la corrente biocentrista, ogni essere vivente possiede un proprio valore intrinseco. Tale atteggiamento cerca di dirimere la controversia tra il mondo animale e quello vegetale, suscitato dalla posizione sensiocentrica, estendendo a tutti il diritto di vedere rispettata la propria esistenza. All’interno della posizione biocentrista, si possono scorgere due orientamenti principali: il biocentrismo moderato e il biocentrismo radicale. Ogni essere vivente può essere soggetto di diritti (all’interno c’è chi sostiene una posizione sensiocentrica per la quale sono soggetti solo gli esseri senzienti). L’Uomo Vitruviano, realizzato nel 1490 circa da Leonardo Da Vinci, rappresenta la perfezione delle proporzioni dell’uomo che nel pensiero dominante a quel tempo rifletteva quella di Dio, a riprova della centralità dell’uo- Posizione ecocentrica mo nell’universo. Un’impostazione profondamente 23 n.28 | Dicembre 2012 diffe- rente dall’antropocentrismo viene introdotta dalla prospettiva che mette al centro dell’interesse etico gli ecosistemi, definita ecocentrismo o, a volte, biocentrismo olistico. Tale atteggiamento trova il suo maggior supporto teorico nella prospettiva aperta dalle scienze ecologiche, attraverso le quali è stato possibile comprendere meglio il valore indispensabile non solo dei singoli organismi, delle popolazioni e delle comunità, all’interno dell’ecosistema (approccio atomistico), ma anche delle mutue relazioni che si instaurano tra essi, che apportano delle qualità superiori, dette “emergenti” o “sistemiche”, in quanto danno appunto origine ai sistemi (approccio olistico). Capostipite dell’etica ecocentrica è comunemente ritenuto Aldo Leopold (18871948), fondatore della “Land Ethic”, secondo cui “una cosa è giusta quando tende a preservare l’integrità, la stabilità e la bellezza della comunità biotica; è ingiusta quando tende altrimenti”. Il suo principio guida è ritenere che l’uomo sia parte integrante di una Terra in equilibrio; gli altri organismi viventi sono suoi compagni di viaggio e quindi hanno diritto a tutto il suo rispetto. Alcuni pensatori contemporanei (fra cui il professor Brunetto Chiarelli, antropologo dell’Università di Firenze) ne fanno discendere una bioetica globale, per cui il criterio decisivo è il mantenimento della configurazione ecologica empiricamente indagabile. In questa prospettiva radicale, l’etica non è più considerabile una scienza normativa, ma le leggi dell’ecologia descrittiva o empirica vengono ribaltate in norme etiche (passaggio diretto dall’essere al dover essere). In una prospettiva ecocentrica, dunque, l’uomo è solo parte dell’intera natura: è questa che ha valore in sé. Non gli individui, ma i gruppi di individui hanno dignità morale; essi valgono sempre più del singolo, in quanto questo, da solo, non avrebbe possibilità di sopravvivenza. Sebbene l’uomo sia il solo soggetto in grado di darsi autonomamente delle norme comportamentali, si ritiene che non ci sia motivo per considerare moralmente solo la sua sfera: anche se è considerabile come l’unico Speciale OdS-PGS7 Primo classificato “misuratore”, non necessariamente deve essere l’unica “misura” degli atti etici. Anche all’interno di questo approccio si possono osservare posizioni contrastanti in merito a questioni decisive: ad esempio, vi è chi sostiene che l’uomo non è indispensabile per la sopravvivenza della Terra, ma la maggior parte, pur abbracciando la posizione ecocentrica, ritiene che la sua scomparsa frustrerebbe gli innumerevoli tentativi della natura (da un punto di vista evoluzionistico) per arrivare alla massima Il logo della quercia che nasce espressione della complessità biologica, la dalla Terra della 17th Conferen- quale rappresenta di per sé un grande vace of the Parties (COP17) to lore. the United Nations Framework Convention on Climate Change (UNFCCC) and the 7th Session of the Conference of the Parties serving as the Meeting of the Parties (CMP7) to the Kyoto Protocol Il movimento dell’ecologica profonda del 2011. (deep ecology) vuole rappresentare un ...Alla deep ecology superamento dei concetti precedenti, situandosi su un piano differente. Il termine è stato coniato dal filosofo norvegese Arne Næss nel 1973, in contrapposizione alla cosiddetta “ecologia superficiale”, che viene considerata un semplice adattamento del pensiero antropocentrico, pur con diversi tipi di sensibilità. Tale impostazione etica non è riconducibile ad una scuola precisa o una corrente di pensiero ben delineata, ma ad un atteggiamento avente diverse declinazioni, con differenti possibili esiti. In comune, tuttavia, vi è l’esigenza non solo di voler superare l’antropocentrismo, ma anche di andare oltre la stessa teoria del valore intrinseco, che, alla fine, colloca sempre al centro l’uomo in quanto soggetto di responsabilità etica e che non prende in nuova considerazione il tipo di atteggiamento esistenziale verso certe realtà. Anziché ricercare un’etica basata su un fondamento ontologico, volto a definire nuovi doveri e nuovi destinatari della nostra responsabilità, pretende una rivoluzione copernicana dell’approccio dell’uomo con la natura, chiedendo di modificare in profondità gli stessi modelli percettivi. I principi della piattaforma del movimento dell’ecologia profonda, stilati da Naess e George Sessions nel 1984, sono i seguenti: 1. Il benessere e la prosperità della vita umana e non umana sulla Terra hanno un valore proprio (sinonimi: valore intrinseco, valore inerente). Questi valori sono indipendenti dall’utilità che il mondo non umano ha per soddisfare gli scopi umani. 24 n.28 | Dicembre 2012 2. La ricchezza e la diversità delle forme di vita contribuiscono alla realizzazione di questi valori e sono inoltre valori per se stessi. 3. Gli uomini non hanno il diritto di ridurre questa ricchezza e diversità tranne che per soddisfare i bisogni umani vitali. 4. La prosperità della vita e delle culture umane è compatibile con una sostanziale diminuzione della popolazione umana. La prosperità della vita non umana richiede tale diminuzione. 5. L’attuale interferenza umana nei confronti del mondo non umano è eccessiva e la situazione sta rapidamente peggiorando. 6. I comportamenti devono quindi essere modificati. Questi comportamenti hanno influenza sulle strutture economiche, tecnologiche e ideologiche di base. La situazione risultante sarà profondamente differente da quella odierna. 7. Il cambiamento ideologico è principalmente quello di apprezzare la qualità della vita (vivere in condizione di valore inerente) piuttosto che cercare un tenore di vita sempre più alto. Ci sarà, così, una consapevolezza profonda della differenza tra il grande fisico (big) e il grande metafisico (great). 8. Coloro i quali sottoscrivono i punti precedenti hanno l’obbligo di cercare, direttamente o indirettamente, di attuare i necessari cambiamenti. Una versione tipica di questa prospettiva viene denominata Transpersonal Ecology (W. Fox), attraverso la quale si cerca di aiutare l’uomo ad ampliare progressivamente la propria coscienza, fino alla percezione della natura e degli individui come parte del proprio io. Se si raggiunge questo stato di coscienza olistica, un atteggiamento “ecofilosofico” di comprensione di sé come parte di un tutto in divenire, si raggiunge la convinzione che sia spontaneo per ciascuno cercare di proteggere, tutelare e rispettare la natura. È abbastanza immediato osservare che tale visione - nella quale è riconoscibile una forte presenza di panteismo, o comunque nella quale ci si spoglia della propria individualità per raggiungere la meta della totalità -, trovi numerosi punti di contatto con molti pensieri filosofici o religioni orientali, quali induismo, buddismo, taoismo, così come con molti atteggiamenti spirituali tipo New Age. Speciale OdS-PGS7 Primo classificato Letteratura e ambiente Il protocollo di Kyoto Dal punto di vista storico,è d’obbligo ricordare il protocollo di Kyoto. Esso è un trattato internazionale in materia ambientale riguardante il riscaldamento globale sottoscritto nella città giapponese di Kyoto l’11 dicembre 1997 da più di 160 paesi in occasione della Conferenza COP3 della Convenzione quadro delle Nazioni Unite sui cambiamenti climatici (UNFCCC). Il trattato è entrato in vigore il 16 febbraio 2005, dopo la ratifica anche da parte della Russia. Il 16 febbraio 2007 si è celebrato l’anniversario del secondo anno di adesione al protocollo di Kyoto, e lo stesso anno ricorre il decennale dalla sua stesura. Comunicare, raccontare, divertire, fare arte, istruire, conservare la memoria, denunciare: tante sono le finalità che la letteratura si pone. L’intento pedagogico si è rivelato preminente in epoche come il Medioevo o in movimenti quali il Romanticismo italiano, mentre nel Rinascimento si impose la tendenza edonistica che celebrava il principio di “arte per l’arte”. Divertire o Istruire? L’uno scopo può non essere disgiunto dall’altro: Dante con la Divina Commedia vuole indicare all’umanità la via per la quale pervenire alla liberazione dal peccato, ma lo fa attraverso una narrazione avvincente e straordinaria. Ariosto realizza il suo capolavoro, l’Orlando Furioso, per il piacere di narrare, di proiettare il lettore in un mondo fantastico e avventuroso, ma, ottava dopo ottava, illumina anche un percorso etico e un ideale umano di assoluta compostezza ed equilibrio sul modello dei classici greci e latini. Istruire Divertendo Una stampa francese dei primi anni del Novecento prevede nel 2000 l'utilizzo di metodi d’insegnamento, ovvero di apprendimento, davvero fantasiosi. 25 Questo può essere considerato il senso più profondo ed efficace del testo letterario. Ed è proprio questa la concezione che fu alla base di tante opere del Romanticismo italiano - prima tra tutte il capolavoro manzoniano de “I promessi sposi” - che contribuirono a indirizzare le coscienze verso la formazione o il consolidamento di un comune sentimento nazionale. L’impegno letterario ha sempre risposto alle esigenze delle varie epoche, fornendo il suo contributo alle battaglie culturali che hanno caratterizzato i vari contesti: l’impegno letterario ha sposato cause religiose, politiche, civili e intellettuali in genere e tra le più recenti questioni che la letteratura ha deciso di affrontare, in termini di impegno civile, c’è quella della difesa dell’ambiente. I disastri sono ormai triste quotidianità e l’emergenza ecologica è sulla bocca di tutti; il comportamento dell’uomo ha provocato gravi danni alla natura e la risoluzione di certe emergenze viene affidata quasi esclusivamente alla scienza. La questione ambientale va però affrontata in altro modo e cioè principalmente richiamandosi alla responsabilità individuale n.28 | Dicembre 2012 e collettiva, attraverso un’attenta opera di informazione e di educazione dei cittadini. Negli Stati Uniti d’America è nato, ed è ormai ben collaudato, il concetto di ecocriticism: termine derivato dalla fusione di “ecologia” e “critica letteraria”, sotto il quale si raggruppano gli studi umanistici rivolti all’indagine interdisciplinare del rapporto tra l’uomo e l’ambiente nelle varie culture del pianeta. Esso origina da un saggio di William Rueckert del 1978 intitolato Literature and Ecology: An Experiment in Ecocriticism. Da allora le pubblicazioni sull’argomento sono aumentate in maniera esponenziale e il mondo accademico - dapprima quello statunitense, seguito da quello europeo, per poi arrivare a quello mondiale - ha dato nascita ad un vero e proprio movimento critico espressione delle nuove emergenze del XXI secolo. “L’idea di un discorso congiunto di letteratura e filosofia dell’ambiente scaturisce dalla persuasione che sia possibile un uso etico-ambientale dei testi letterari (classici vecchi e nuovi), che essi possano cioè contribuire a un’evoluzione del modo in cui ci orientiamo eticamente nel nostro rapporto con il mondo non umano. A questa idea, implicita già in decenni di esercizi creativi e interpretativi, è stato dato di recente il nome di ecocriticism, o ecologia letteraria...” (da “Ecologia letteraria. Una strategia di sopravvivenza” -, Serenella Iovino, Ed. Ambiente). Sempre più scrittori statunitensi quindi, soprattutto a partire dagli anni Novanta, come illustra lo studioso italiano A. Liparoto, hanno deciso di impugnare armi molto speciali per combattere la battaglia contro l’incoscienza ambientale: la penna, la macchina da scrivere o, più frequentemente nei tempi moderni, il computer per scrivere poesie, romanzi, racconti. Gli Usa hanno mostrato la loro sensibilità in materia istituendo le prime cattedre di “Letteratura e ambiente”, alle quali fece riscontro la nascita di alcune associazioni volte allo studio e all'insegnamento di questa tematica. Ma la letteratura italiana era veramente rimasta estranea alla questione ambientale fino a quel momento, anche se potremmo considerare autori come Pasolini, Calvino e persino lo stesso Leopardi anticipatori di un impegno letterario in ottica ecologista. A cura degli allievi: Martina Ubaldi e Andrea Levi Codovini della classe 4aA e Jessica Cardinali della classe 3aA, sezione Liceo Scientifico, dell’IIS “CAMPUS L. da Vinci” di Umbertide (PG), con la supervisione della prof. Paola Ricci c la 1 o inserto speciale Olimpiadi della Scienza – Premio Green Scuola 2011/2012 ssificat 2 inserto speciale Olimpiadi della Scienza – Premio Green Scuola 2011/2012 c la o Ecco l’elaborato classificatosi al secondo posto ssificat 3 Faccia a faccia con la CO2 c la o inserto speciale Olimpiadi della Scienza – Premio Green Scuola 2011/2012 ssificat trasposizione a cura degli autori e dei docenti coordinatori Nell’ambito del progetto didattico “Dare per salvaguardare l’ambiente”, gli alunni delle classi prime e seconde dell’indirizzo “Istituto tecnico tecnologico: informatica e telecomunicazioni” dell’Istituto d’istruzione superiore statale “Sandro Pertini” di Genzano di Roma hanno analizzato il ciclo vitale dell’anidride carbonica, tracciandone una vera e propria “carta d'identità” e realizzando un elaborato dal titolo “A faccia a faccia con l’anidride carbonica, più siamo meglio è” dal taglio decisamente divulgativo, volto in primo luogo al coinvolgimento emozionale del lettore. Speciale OdS-PGS7 Secondo classificato La carta d’identità dell’anidride carbonica Studiando da dove si produce, dove è presente e qual è la sua funzione ci siamo resi conto che l’anidride carbonica nasce da tutte le combustioni: dalla respirazione cellulare agli impianti industriali, dagli autoveicoli ai vulcani. È presente nell’atmosfera dove intrappola la radiazione infrarossa, permettendo così di mantenere sulla Terra un clima temperato e vivibile. Durante la fotosintesi clorofilliana viene assorbita dalle piante che la utilizzano per produrre gli zuccheri necessari per il loro nutrimento con liberazione di ossigeno nell’aria. Anche gli oceani ne sono un immenso serbatoio sotto forma di ioni carbonato e bicarbonato. Ci ha meravigliato apprendere che in natura il suo ciclo è perfettamente equilibrato: tanta se ne produce e altrettanta se ne assorbe. Ci chiediamo come mai, allora, negli ultimi anni ne sentiamo parlare sempre in termini allarmistici? Il motivo è semplice. Siamo noi che ne abbiamo aumentato la produzione fino ad alterare questo equilibrio, con l'uso spropositato di combustibili fossili, la continua e crescente cementificazione, con gli incendi boschivi dolosi mirati ad ottenere nuovi terreni agricoli. Questo eccesso di CO2 nell’atmosfera comporta un aumento dell’effetto serra che causa il surriscaldamento del pianeta con tutta una serie di conseguenze negative. Oggi in pratica tutto richiede un consumo di energia elettrica, tanto che ad ogni bene o servizio si può associare una misura dell’impatto ambientale da esso generato, la cosiddetta impronta climatica misurata in anidride carbonica equivalente. Ci siamo quindi chiesti se fosse possibile risolvere il problema con l’uso di fonti energetiche pulite e di prodotti a basso impatto ambientale. E la nostra risposta è stata: no. Perché a parità di fonti energetiche pulite e di prodotti a basso impatto ambientale, il fatto stesso che la popolazione è in continuo aumento comporta un aumento dei consumi e di conseguenza dell’inquinamento. Deve quindi entrare in gioco un'altra contromisura di cui la nostra insegnante di chimica ci ha mostrato il valore: il risparmio energetico. Anche dei piccoli gesti miranti a diminuire gli sprechi, anche se in maniera molto limitata, acquistano un enorme rilievo se compiuti da molte persone. Per esempio in Italia, per produrre un kilowatt, le centrali termoelettriche a 27 n.28 | Dicembre 2012 olio combustibile emettono nell’atmosfera in media 0,75 kg di anidride carbonica con un costo per il consumatore di circa 0,20 euro. Calcolando quanto si risparmia spegnendo una lampadina da 60 watt per cinque ore ogni giorno per un anno e quanta anidride carbonica si evita di immettere nell’atmosfera, abbiamo verificato che si risparmiano 21,90 euro con un taglio delle emissioni di CO2 pari a 82,12 chilogrammi. Ma lo stesso risultato si può ottenere con 365 persone che spengono tale lampadina una sola volta l’anno per cinque ore, oppure con 1.825 persone una sola volta per un’ora o, ancora, con 109.500 persone una volta per un solo minuto. Come dice Sergio Rondinara, docente di Etica ambientale della Pontificia Università Gregoriana: “Non basta il nostro impegno personale per non sporcare il pianeta, però occorre cominciare. Cominciamo noi, poi coinvolgiamo la nostra classe e arriveremo all’intera scuola. Piccole cose fatte da tanti diventano una cosa grande”. Oltre a cambiare stile di vita, per diminuire gli sprechi è necessaria anche una ridistribuzione dei beni. Leggendo un articolo di Giorgio Nebbia - Professore emerito di Merceologia dell’Università di Bari - ne abbiamo avuto una conferma. Ne riportiamo uno stralcio: “Tutti i volti delle violenze contro la natura sono associati alla produzione delle merci, al possesso di crescenti quantità di beni materiali, alla disponibilità di crescenti quantità di energia (…) È necessario un rallentamento della crescita dei consumi nei Paesi industriali e una più equa distribuzione dei beni della Terra e dei manufatti fra Paesi ricchi e poveri.” Allora che fare? La nostra risposta in qualità di studenti è stata aderire ad un progetto didattico ambientale in cui la salvaguardia dell’ambiente va a braccetto con la cultura del dare, intitolato “Dare per salvaguardare l’ambiente”, come propostoci dalla nostra insegnante di chimica. In questo progetto piccole azioni volte al risparmio energetico Speciale OdS-PGS7 Secondo classificato compiute da noi ragazzi dei Paesi ricchi si sono trasformate in borse di studio per i ragazzi dei Paesi poveri. La partecipazione è stata travolgente e interessante, ci ha aiutato a capire quanto siamo fortunati, visto che nel mondo ci sono persone che soffrono e in confronto a noi non hanno nulla. Tutto si è basato sulla semplicità delle azioni che si possono fare, da cui però si ricava un enorme risultato e la soddisfazione che si aiuta collaborando, anche nel nostro piccolo, a rendere il mondo migliore. Il nostro patto con la scuola Siamo partiti da un accordo con la scuola: “Il patto di risparmio energetico”. Noi ci siamo impegnati a risparmiare energia a scuola facendo piccoli atti come: • spegnere le luci accese inutilmente; • spegnere lo stand-by degli apparecchi; • chiudere il rubinetto dell’acqua; • riciclare la carta; • mantenere in buono stato le cose della classe, dato che ogni oggetto ha un suo costo in termini di energia, acqua e inquinamento. Da parte sua l’Istituto ha messo a disposizione il corrispondente in denaro di quanto abbiamo risparmiato per donarlo a ragazzi che vivono situazioni di disagio. Abbiamo Le varie classi firmano il patto di risparmio energetico con la scuola. Le magliette disegnate dagli studenti stessi che hanno aderito al progetto “Dare per salvaguardare l’ambiente” per partecipare alla staffetta per la pace “Run 4 Unity”. Ecco un collage dei momenti più belli della nostra partecipazione a Run 4 Unity. 28 scelto di inviare una borsa di studio alla scuola Petite Flame del Congo (attraverso i progetti di School-Mates) perché lì non solo non si possono permettere di sprecare luce, carta, acqua, ma non hanno neanche i banchi su cui scrivere. Ogni classe aveva a disposizione un cartellone su cui segnare gli atti di risparmio energetico. È iniziata una corsa al risparmio entusiasmante che ha coinvolto sei classi per una settimana. Un giorno nella classe 2aC, che alla fine ha vinto la gara, si sono messi tutti d’accordo e, tra lo stupore degli insegnanti, hanno spontaneamente spento tutti i cellulari. Abbiamo raccontato questa nostra esperienza a centinaia di ragazzi il 12 maggio n.28 | Dicembre 2012 2012 ad Anagni durante Run 4 Unity, una manifestazione del movimento mondiale Ragazzi per l’Unità, alla quale abbiamo partecipato con le magliette del progetto che ci siamo fatti da soli per testimoniare così il nostro sì alla pace, al rispetto dell’ambiente. In quell’occasione ci siamo resi conto che davvero c’è una grande connessione tra pace ed ecologia perché, come afferma Chiara Lubich, premio Unesco per la Pace:“ L’ecologia è la base della pace. La pace, la fraternità si possono fare stando su un pianeta che c’è.” Ora siamo davvero convinti che se l’uomo distrugge l’ambiente distrugge se stesso. Se tutti facessero anche piccole azioni, come quelle fatte da noi, queste diventerebbero davvero grandi e importanti per la salvaguardia del nostro pianeta. A cura degli allievi: Petru Stefan Maer, Paolo Martini e Valerio Fanfarillo della classe 2aC, Lorenzo Fresilli della 1aB e Francesco Lettieri della 2aA, Davide Perciballi, Francesco Biondi e Mattia Lattanzi della 1aC, Alessandro Sardelli della 1aA ed Emanuele Caracci della 2aB dell’ITT IISS “Sandro Pertini” di Genzano di Roma, con la supervisione della professoressa Elena Pace (docente di chimica) e con la collaborazione delle classi 1aA, 1aB, 1aC, 2aA, 2aB, 2aC. Ecco l’elaborato classificatosi al terzo posto inserto speciale Olimpiadi della Scienza – Premio Green Scuola 2011/2012 c la 1 o c la ssificat 2 o inserto speciale Olimpiadi della Scienza – Premio Green Scuola 2011/2012 ssificat La sfida dell’ambiente per la chimica 3 Una sintesi "green" c la o inserto speciale Olimpiadi della Scienza – Premio Green Scuola 2011/2012 ssificat del polistirene trasposizione a cura degli autori e dei docenti coordinatori Nell’ambito del progetto dal titolo “Dai polimeri sintetici alle plastiche biodegradabili” del Piano dell’Offerta Formativa a. s. 2011/12 dell’ITI “Basilio Focaccia” di Salerno, alcuni alunni del triennio dell’indirizzo chimico hanno realizzato in laboratorio la sintesi del polistirene in emulsione acquosa e ne hanno evidenziato i vantaggi ambientali, ma anche economici, rispetto alle tecniche tradizionali utilizzate nei processi industriali di produzione di questo polimero di largo impiego. Il processo si inquadra nel contesto delle applicazioni della chimica eco-compatibile a supporto dello sviluppo sostenibile, oggi nota come “chimica verde”. Speciale OdS-PGS7 Terzo classificato Lo sviluppo sostenibile ieri e oggi Il nostro elaborato è stato realizzato nell’ambito di un progetto didattico che aveva come finalità l’acquisizione di una “coscienza ambientale” da parte degli studenti e di competenze specifiche nel settore di indirizzo di studio, utili, considerato lo sviluppo crescente delle applicazioni della chimica verde, per l’inserimento nel mondo del lavoro e per la scelta del curriculum universitario. Lo sviluppo sostenibile, inteso come progresso delle attività umane nel rispetto dell’ambiente e delle possibilità di fruizione delle risorse da parte delle generazioni future, era una percezione comune per l’uomo del passato che viveva a stretto contatto con la natura. Si tratta di un concetto antico, una cui testimonianza ci è pervenuta attraverso il detto della tribù degli indiani Cherokee del Nord America: “Non abbiamo ereditato il mondo dai nostri padri, lo abbiamo preso in prestito dai nostri figli”. Questa percezione dell’ambiente come un “bene comune” e la volontà di preservarlo si sono perdute nel corso della storia, a causa della progressiva antropizzazione del territorio e delle trasformazioni economiche e sociali che hanno caratterizzato lo sviluppo della società umana, a partire dall’era industriale, nel XVIII secolo, fino ai giorni nostri. Il progresso inteso come esigenza di miglioramento delle condizioni di vita della popolazione, associato ad un continuo aumento demografico, si è realizzato con scarsa coscienza dei rischi che l’industrializzazione forzata e pervasiva poteva determinare per l’ambiente e Lo tre dimensioni dello sviluppo per la salute dell’uomo. Una presa di cosostenibile. scienza degli effetti negativi ha cominciato [Immagine: Johann Dréo; Wiki- ad affermarsi nell’opinione pubblica nel pedia Commons, traduzione di corso del secolo appena concluso, favorita Floriano Scioscia] dall’emozione suscitata dal verificarsi di gravi incidenti industriali, quali quello di Seveso (1976), quello di Bophal (1984) e quello di Chernobyl (1986). Già nel 1972 la comunità internazionale aveva affrontato i problemi dello sviluppo nella conferenza di Stoccolma, definendo i principi di uno sviluppo equo e attento all’ambiente. La prima definizione di sviluppo sostenibile, tuttavia risale al 1987 ed è stata data dalla Commissione di studio internazionale per l’analisi dei rapporti tra ambiente e sviluppo incaricata dalle Nazioni Unite e presieduta dall’On. 30 n.28 | Dicembre 2012 Sig.ra Gro Brundtland, ex primo ministro norvegese. Il rapporto “Il nostro futuro comune”, detto anche rapporto “Brundtland”, ha definito come sostenibile lo “sviluppo in grado di soddisfare i bisogni della presente generazione senza compromettere la capacità delle generazioni future di soddisfare i propri”, manifestando la gravità e urgenza del problema e riconoscendone la valenza economica e sociale: “La Terra è unica ma non il mondo. Noi tutti dipendiamo da una singola biosfera che sostiene le nostre vite. Tuttavia ogni comunità, ogni nazione, si batte per la sopravvivenza e la prosperità con la minima considerazione del proprio impatto sugli altri. Alcune consumano le risorse del pianeta ad una velocità tale da lasciarne una piccola quantità alle prossime generazioni. Altre, molto più numerose, consumano troppo poco e vivono con prospettive di fame, squallore, malattia e morte prematura”. La comunità internazionale si è nuovamente espressa a favore dello sviluppo sostenibile in occasione della Conferenza di Rio de Janeiro del 1992, ribadendo la necessità di avviare azioni concrete. Ne è scaturito il programma di azione “Agenda 21”, una sorta di manuale per lo sviluppo sostenibile del pianeta per il ventunesimo secolo, un piano da realizzare su scala globale, nazionale e locale. Gli obiettivi previsti nel documento sono stati recepiti dai vari Stati che lo hanno ratificato attraverso Piani Nazionali, i quali prevedono interventi nei settori produttivi quali l’industria, l’agricoltura e il turismo, nelle infrastrutture di base (energia e trasporti) e nel settore dei rifiuti. L’interpretazione della definizione di sviluppo sostenibile comporta la ricerca di un'equità di tipo intergenerazionale, con un implicito riferimento al fatto che nell’ambito della stessa generazione persone appartenenti a diverse realtà politiche, economiche, sociali e geografiche hanno gli stessi diritti (equità intragenerazionale). Ne deriva, pertanto che la sostenibilità dello sviluppo richiama la necessità di coniugare tre dimensioni fondamentali e inscindibili, quella ambientale, quella economica e quella sociale. La sostenibilità economica è intesa come capacità di generare ricchezza, soprattutto in termini di reddito e di lavoro. Quella sociale riguarda la capacità del modello di sviluppo di garantire uguali condizioni di accesso al benessere umano, anche in termini di sicurezza, salute, istruzione, per tutta la popolazione indistintamente. Infine l’ambientale è intesa come la capacità di mantenere qualità e rinnovo delle risorse Speciale OdS-PGS7 Terzo classificato naturali. La definizione di modelli di sviluppo in grado di coniugare le tre dimensioni è compito della politica. Anche la scienza è stata chiamata a fare la sua parte, e ogni Paese si è organizzato attraverso delle Piattaforme Tecnologiche Nazionali, che hanno il compito di predisporre un’agenda per la ricerca, pubblica e privata, che risponda a esigenze di sostenibilità. Per quanto riguarda l’industria chimica, questo implica l’impegno allo studio e alla realizzazione di processi e prodotti che riducano al minimo le conseguenze negative di carattere ambientale, sociale o economico, sia immediate che differite. La chimica verde La chimica verde (in inglese: green chemistry) è uno strumento fondamentale per conseguire lo sviluppo sostenibile in ambito chimico. Si tratta di un approccio etico fatto di criteri e di priorità basati su concetti della chimica, la cui applicazione richiede una profonda conoscenza scientifica dei composti e dei processi coinvolti nella produzione, utilizzo e smaltimento dei rifiuti. Tale approccio risulta utile per guidare le applicazioni della chimica, in particolare quelle industriali, verso modalità sostenibili dal punto di vista ambienta- I 12 principi della Green Chemistry di Anastas e Warner 1. È meglio prevenire l’inquinamento che trattare o riciclare i prodotti nocivi ottenuti. 2. I metodi di sintesi dovrebbero essere progettati per includere tutti gli atomi utilizzati nel prodotto finale. 3. Laddove possibile, le metodologie di sintesi devono essere progettate per generare composti chimici che hanno tossicità minima o nulla per l’uomo e per l’ambiente. 4.I composti chimici dovrebbero essere disegnati per rimanere adatti al loro scopo, pur presentando una tossicità ridotta. 5. Occorre ridurre per quanto possibile l’uso di sostanze chimiche aggiuntive (solventi, mezzi di separazione) o limitarlo a sostanze innocue. 6.Occorre considerare tutte le richieste energetiche della produzione dei composti chimici, per ridurre il loro impatto economico e ambientale. 7. Laddove possibile, i composti chimici di partenza provenienti da fonti esauribili dovrebbero essere sostituiti con sostanze di origine rinnovabile. 8.Nelle sintesi andrebbero evitate derivatizzazioni (es. inserimento di gruppi protettivi, modifiche temporanee delle condizioni chimico-fisiche dei processi). 9.Occorre preferire reazioni catalitiche a quelle stechiometriche. 10.I prodotti chimici devono essere progettati in modo tale che alla fine della loro funzione essi non persistano nell’ambiente e si degradino a formare prodotti innocui. 11.Occorre sviluppare delle metodologie analitiche in grado di controllare in tempo reale i processi per evitare la formazione di sostanze pericolose. 12.I composti chimici e i loro derivati utilizzati nei processi industriali devono essere scelti in modo da minimizzare il rischio di incidenti chimici. 31 n.28 | Dicembre 2012 le, economico e sociale. Tra i cardini della green chemistry vi è la prevenzione dell’inquinamento, che richiede la progettazione di processi chimici industriali che puntino all’eliminazione o alla riduzione dell’uso e della produzione di sostanze nocive per l’ambiente o per la salute e che favoriscano il risparmio energetico. Queste esigenze sono state codificate negli Stati Uniti da Anastas e Warner nel 1998 in 12 punti. La polimerizzazione in emulsione acquosa dello stirene, che sarà presentata in seguito rappresenta un esempio di applicazione di alcuni di questi punti. La polimerizzazione del polistirene Le tecniche di polimerizzazione normalmente impiegate nei processi industriali di produzione del polistirene sono la polimerizzazione in soluzione, in sospensione, in massa e in emulsione. Nella tecnica in soluzione, poiché la reazione viene condotta in un solvente, in cui sia l’iniziatore che il monomero (lo stirene H2C=C-Ph, vedi box) sono solubili, c’è quello dello smaltimento del solvente esausto. Invece, in quella in sospensione c’è il problema dell’eliminazione degli stabilizzanti, necessari a disperdere il monomero nel liquido, solitamente acqua, in cui esso non è solubile. La tecnica di polimerizzazione in massa, di gran lunga la più utilizzata, ha il vantaggio di richiedere il numero minimo di reagenti necessari per l’ottenimento del polimero, infatti non si usano solventi o mezzi disperdenti, ma ha una serie di svantaggi. Tra questi c’è la bassa resa, dovuta al fatto che durante la crescita della catena il monomero viene inglobato fisicamente nel polimero, sottraendosi così alla reazione. Ciò significa anche che il polimero ottenuto deve essere ulteriormente processato per allontanare lo stirene che non ha reagito. Inoltre l’assenza del solvente o disperdente porta ulteriori inconvenienti: 1) il polimero prodotto risulta essere caratterizzato da catene ramificate e di lunghezza variabile; 2) la massa di reazione all’avanzare della polimerizzazione diventa estremamente viscosa; 3) è necessario condurre la reazione con efficienti sistemi di smaltimento termico in quanto il calore prodotto dalla reazione, fortemente esotermica, non è assorbito dal solvente o dal disperdente stesso, che ne mitigherebbe gli effetti termici. Tutti questi inconvenienti si manifestano come costi economici e ambientali per questo processo. Speciale OdS-PGS7 Terzo classificato Sopra: fase iniziale della polimerizzazione dello stirene in emulsione acquosa. Sotto: fase avanzata della polimerizzazione. Nella tecnica di polimerizzazione in emulsione il sistema di reazione è formato dal monomero, da un mezzo disperdente polare, generalmente acqua, da un iniziatore radicalico, che è solubile in acqua e insolubile nel monomero, e da un tensioattivo. Nel caso della sintesi del polistirene, il tensioattivo, solitamente il dodecilbenzensolfonato di sodio, viene aggiunto all’acqua, che funge da disperdente, fino al raggiungimento del valore della concentrazione micellare critica. Al di sopra di questa concentrazione le molecole di tensioattivo si aggregano formando le micelle, le caratteristiche strutture sferiche nelle quali il tensioattivo espone la testa polare verso l’acqua e la coda apolare verso l’interno. Successivamente si aggiunge il monomero, che va a sistemarsi all’interno delle micelle. L’iniziatore radicalico, persolfato di potassio, può così essere aggiunto al sistema di reazione, che viene riscaldato fino a 80 °C per indurre la scissione omolitica del legame perossidico e la conseguente formazione dei radicali iniziatori di catena. L’iniziatore radicalico pur essendo praticamente insolubile nel monomero, ha una probabilità di entrare nella micella diversa da zero. La reazione di polimerizzazione parte, appunto, quando una molecola di iniziatore migra all’interno della micella e reagisce con il monomero. Generalmente la reazione procede con un unico radicale polimerico per micella e, quindi con una sola catena in crescita, prevalentemente lineare, in ogni micella. Per questo motivo le reazioni di terminazione per accoppiamento tra catene radicaliche sono sfavorite. La micella si comporta come un “nano-reattore”, in cui il monomero non ha “concorrenti”, in tal modo la reazione terminerà quando tutto il monomero contenuto nella micella avrà reagito. Questo determina rese prossime al 100% con la produzione di una catena polimerica per micella di peso molecolare dipendente dalla quantità di monomero inizialmente presente al suo interno. Il polimero prodotto risulta pertanto molto omogeneo e può essere processato (stampato, colorato ecc.) senza ulteriori trattamenti di purificazione. In conclusione, la polimerizzazione dello stirene in emulsione rispetta i principi della chimica verde, in quanto è una polimerizzazione che utilizza l’acqua come solvente e nella quale il reagente più inquinante (lo stirene) viene completamente trasformato in polimero direttamente utilizzabile, ovvero senza richiedere ulteriori trattamenti di purificazione. Il polistirene Il polistirene è un polimero di addizione ottenuto per polimerizzazione radicalica vinilica dello stirene. La reazione necessita di un iniziatore radicalico, perossido o persolfato (ROOR, es. persolfato di potassio), che sottoposto a riscaldamento si decompone per dare origine a specie radicaliche (RO•), che possono iniziare la catena addizionandosi ad una molecola di stirene con la formazione di un radicale benzilico. La reazione prosegue attraverso lo stadio di propagazione, in cui un radicale benzilico si addiziona, a catena, ad altre molecole di monomero. La reazione si conclude con lo stadio di terminazione, in cui la crescita della catena polimerica si interrompe per l’accoppiamento di due radicali. Nella polimerizzazione per addizione radicalica si ottengono di regola polimeri atattici, ovvero polimeri in cui i centri stereogeni, prodotti durante gli stadi di propagazione, hanno configurazione casuale (stereorandom). Polimeri stereoregolari si ottengono, invece, mediante l’utilizzo di catalizzatori Ziegler-Natta o a base di metalloceni. A causa della sua struttura irregolare il polistirene atattico si presenta amorfo e non può impaccarsi per formare cristalli. Polistirene atattico. 32 n.28 | Dicembre 2012 Reazione di polimerizzazione dello stirene. Speciale OdS-PGS7 Terzo classificato La nostra sintesi verde del polistirene La reazione di polimerizzazione dello stirene in emulsione acquosa è stata effettuata seguendo un protocollo di sintesi proposto tra le attività laboratoriali del Piano Lauree Scientifiche dell’Università di Salerno, per l’anno scolastico 2011/2012. Di seguito è riportata la sequenza delle operazioni. Lavaggio dello stirene. Lavaggio dello stirene Reazione di polimerizzazione. Operazione preliminare è il lavaggio dello stirene, necessario per eliminare gli inibitori radicalici che vengono aggiunti come stabilizzanti allo stirene commercializzato. Queste molecole hanno la funzione di catturare radicali che possono generarsi spontaneamente dal monomero per effetto del calore. Nel contenitore di reazione era presente come stabilizzante il 4-ter-butilcatecolo, solubile in acqua. L’operazione di lavaggio è stata effettuata dibattendo lo stirene (10,0 ml) in un imbuto separatore in presenza di 2,0 ml di una soluzione acquosa di NaOH al 5% in peso saturata con NaCl. Dopo l’allontanamento, attraverso il rubinetto, della soluzione acquosa, lo stirene è stato conservato nell’imbuto separatore, tappato per evitare esalazioni nocive. Preparazione del tensioattivo e dell’iniziatore radicalico A sinistra l’aspetto del polistirene fornito dal Dipartimento di Chimica dell’Università di Salerno ottenuto mediante polimerizzazione in massa. A destra quello ottenuto nel laboratorio della nostra scuola con polimerizzazione in emulsione. 33 La soluzione acquosa al 3,6% p/p di tensioattivo è stata preparata solubilizzando 0,75 g di dodecilbenzensolfonato di sodio in 20 ml di H2O. La soluzione acquosa al 0,7% p/p di iniziatore radicalico è stata preparata solubilizzando 0,14 g di persolfato di potassio in 20 ml di H2O. dodecilbenzenesolfonato al 3,6% in peso e 4,0 ml del monomero lavato. Per favorire l’ingresso del monomero nelle micelle, il sistema è stato agitato per circa dieci minuti su una piastra magnetica. Nel pallone di reazione sono stati aggiunti 2,0 ml della soluzione acquosa di iniziatore radicalico e il sistema è stato nuovamente agitato per qualche istante. Reazione di polimerizzazione Dopo avere collegato il tubo refrigerante sul collo del pallone e dopo aver avviato il flusso nel refrigerante, il pallone di reazione è stato immerso in un bagno ad acqua termostatato a 80 °C, la temperatura di attivazione dell’iniziatore radicalico. Il sistema è stato lasciato a reagire per 30 minuti. Work up della reazione Alla fine della reazione il pallone, ben chiuso, è stato conservato per 3 giorni in freezer, consentendo alle basse temperature di rompere le micelle e liberare il polimero. Dopo scongelamento, il lattice contenuto nel pallone è stato filtrato su imbuto bukner. Il residuo sul filtro è stato lavato con acqua distillata ed essiccato in stufa a 90 °C. Risultati La procedura eseguita in laboratorio ha fornito un prodotto dall’aspetto bianco e granulare (figura in basso, a destra) che è stato confrontato con un prodotto di una reazione di polimerizzazione in massa fornito dal Dipartimento di Chimica dell’Università di Salerno, il quale, presentandosi come un aggregato solido (in basso, a sinistra), dovrà necessariamente subire ulteriori processi di purificazione. Questi risultati dimostrano la maggior ecocompatibilità della sintesi del polistirene in emulsione acquosa realizzata in laboratorio. Caratterizzazione del prodotto di poPreparazione del sistema di reazione limerizzazione In un pallone ad un collo da 100 ml, provvisto di ancoretta magnetica, sono stati introdotti nell’ordine 8,0 ml di acqua distillata, 6,0 ml della soluzione acquosa di n.28 | Dicembre 2012 Il polistirene prodotto nel laboratorio della scuola è stato caratterizzato mediante spettrofotometria all'infrarosso per confronto con lo spettro IR dello stirene riportato in letteratura. A conferma dell’avvenuta reazione di polimerizzazione, la comparazione mostra la presenza nello spettro del polistirene degli stretching dei legami C-H alifatici che, invece, risultano assenti nello spettro del monomero. La caratterizzazione del prodotto di sintesi è stata fatta anche mediante spettroscopia in risonanza magnetica nucleare 1H e 13C in CDCl3 (per maggiori dettagli su questa tec- Speciale OdS-PGS7 Terzo classificato nica analitica si vedano Green n. 20, pagg. 10-15, e n. 21, pagg. 32-37). Dagli spettri NMR protonici si evince che, essendo il prodotto di reazione formato da unità polimeriche di peso molecolare diSpettro IR dello stirene riportato verso, lo spettro in soluzione a temperatura in letteratura. ambiente non dà risultati facilmente interpretabili. Infatti l’accavallamento dei segnali nella stessa zona dello spettro, dovuSpettro infrarosso del polistirene realizzato con spettrofotometro Bio-Rad FTS, in film liquido su bromuro di potassio (KBr). to alla coesistenza di catene polimeriche di diversa lunghezza e alla casuale stereochimica dei centri di asimmetria, non fa evi13 Spettro C-NMR del polistirene. denziare la molteplicità di spin. Ma l’attribuzione dei segnali è comunque possibile sulla base dei chemical shifts caratteristici. Sicuramente spettri migliori si sarebbero potuti ottenere ad alta temperatura con solventi ad alto punto di ebollizione, oppure registrando lo spettro allo stato solido. Dal confronto dello spettro 1 H-NMR del polistirene con lo spettro 1H-NMR dello stirene, riportato in letteratura, risulta che solo nel primo sono presenti i segnali a campi alti associati alla presenza di pro1 toni alifatici tipici del polimero, risultando Spettro H-NMR dello stirene riassenti i segnali a campi bassi, indicanti la portato in letteratura. risonanza di protoni vinilici e aromatici e presenti nello spettro 1H-NMR dello stirene. In particolare, l’assenza, negli spettri NMR del polimero ottenuto, di segnali attribuibili alla presenza di stirene fanno ritenere che la reazione sia andata a completezza, ovvero che non sia rimasto del monomero Spettro 1H-NMR del polistirene. 34 n.28 | Dicembre 2012 che non ha reagito. Questi risultati sono confortati anche dallo spettro 13C-NMR del prodotto di polimerizzazione. Conclusioni Nella reazione riportata è stato adottato un processo di polimerizzazione in emulsione che partendo da stirene commerciale ha prodotto del polistirene utilizzando esclusivamente solventi acquosi, in condizioni che non hanno richiesto particolari accorgimenti per il controllo termico e con una completa conversione del monomero. Tutto questo a riprova dell'eco-compatibilità del processo utilizzato. A cura degli allievi: Marco Irno della 4aM, Antonio Maffeo e Pietro Raimondi della 4aI, Anita Caiazzo, Rosario Cavallo, Maria Teresa Della Fera e Domenico Salerno della 3aI e Simona Ferrara e Graziano Scorzeto della 3aM, dell’indirizzo chimico dell’ ITI “B. Focaccia” di Salerno, con la supervisione dei professori Anna Maria Madaio, Tullia Aquila, Marco Romano e Maddalena Colucci. Analisi strumentale Gli spettri IR sono stati registrati con spettrofotometro Bio-Rad FTS, in film liquido su KBr. Gli spettri NMR sono stati realizzati presso il reparto di Risonanza Magnetica Nucleare dell’ICB-CNR di Pozzuoli. Gli spettri 1H-NMR sono stati registrati con uno spettrometro operante a 600 MHz (14.1 Tesla) Bruker Avance spectrometer (Bruker BioSpin GmbH, Rheinstetten, Germany) equipaggiato con CryoProbe™, a temperatura ambiente, usando CDCl3 come solvente e la risonanza del protone di CHCl3 come riferimento interno. Gli spettri 13 C-NMR sono stati registrati a 150 MHz (14.1 Tesla), usando la risonanza del CHCl3 come riferimento interno. Xxxx Xxx Impazza il trend della cosmesi “eco-bio”. Ecco come scegliere consapevolmente. La natura ti fa bella (e sana) di Giovanna Lodato Prendersi cura di sé senza danneggiare l’ambiente. Con quante sostanze entriamo ogni giorno in contatto svolgendo la nostra toeletta quotidiana? Creme, lozioni, saponi, make-up, tutti prodotti fondamentali per la cura della persona, spesso con ingredienti possono avere effetti nocivi sulla salute. Questo motivo sta alla base del boom di mercato dei cosiddetti cosmetici eco-bio: vediamo di cosa si tratta e come li possiamo riconoscere tra gli scaffali. 35 n.28 | Dicembre 2012 Cosmetici eco-bio Scelta consapevole L’Aloe vera (famiglia Aloeacee) è una delle piante oggi più utilizzata come ingrediente naturale di prodotti cosmetici e nutraceutici. La cosmetica eco-bio Vuoto legislativo Come possiamo essere sicuri di utilizzare prodotti cosmetici che oltre ad apportare benefici reali alla nostra pelle, siano anche amici dell’ambiente? Proviamo a rispondere assieme a questa domanda. «Parlare di eco-dermocosmesi significa una cosmesi eco-compatibile e dermo-compatibile, rigorosamente scientifica e avanzata tecnologicamente», spiega la professoressa Riccarda Serri, specialista in Dermatologia dell’Università di Milano, nonché presidente di Skineco, l’Associazione Internazionale di Dermatologia Ecologica. Un nuovo tipo di approccio nella cura della persona che inizia a prendere sempre più piede anche sul mercato, con i cosmetici cosiddetti “eco-bio”. Soltanto dieci anni fa l’ICEA, l’Istituto di Certificazione Etica e Ambientale, certificava in Italia il primo eco-bio cosmetico. Oggi sono ben 2.560 i prodotti a pregiarsi di tale riconoscimento. «Negli ultimi anni si registra, a livello europeo e mondiale, un aumento di pelli sensibili; pelli reattive; dermatosi cosmetogene, causate o slatentizzate da cosmetici (dermatite seborroica, rosacea, acne adulta, dermatite irritativa da contatto) dermatite atopica; cute asfittica; “pori dilatati”; comedoni; iperpigmentazioni post-infiammatorie. Sono anche in aumento le pelli che non migliorano, nonostante l’uso di prodotti cosmetici e la comparsa di secchezza e desquamazione», continua la Serri per spiegare questo nuovo trend di mercato. Affezioni riconducibili a varie cause, tra le quali si riconosce l’utilizzo di prodotti contenenti ingredienti cosmetici nocivi per la pelle. Sempre secondo la presidente di Skineco molti ingredienti, pur essendo atossici e ipoallergizzanti, si rivelano sulla lunga distanza poco “dermo-compatibili”. Allo stesso tempo tali ingredienti sono spesso poco ecocompatibili, ma un’alternativa c’è ed è rappresentata dai prodotti naturali. Un’opzione senz’altro allettante quella di impiegare cosmetici in linea con ciò che Madre Natura ci ha donato. Eppure, nonostante la disponibilità di alcuni prodotti, non è così semplice per il consumatore districarsi tra le proposte presenti in commercio. Come conferma Skineco, ad oggi, manca un disciplinare standard, un regolamento unico europeo. Insomma la norma non prevede nel merito una definizione vera e propria. E ne dà notizia, in una nota, anche l’associazione italiana di consumatori Altroconsumo: «La normativa in vigore definisce in modo preciso quali sono gli ingredienti consentiti (naturali e chimici) e le quantità massime perché i cosmetici siano sicuri e non abbiano conseguenze sulla salute». Una mancanza che può essere subito compresa: «L’attenzione posta dal legislatore sugli ingredienti - tiene a precisare la Serri - trova ragione nel bisogno esistente di proteggere il consumatore da possibili effetti negativi dovuti alla presenza di specifiche sostanze o preparazioni che possano danneggiare l’uomo in relazione a proprietà intrinseche di pericolosità». Resta, tuttavia, irrisolta la necessità di maggior chiarezza per riuscire a distinguere tra ciò che è realmente naturale e ciò che si professa tale, magari sulla scia dell’imperante green economy. Come testimonia Altroconsumo: «Non essendoci una legge che stabilisca quantità e qualità degli ingredienti naturali perché un cosmetico possa definirsi “naturale”, tutto è lasciato all’onestà e alla trasparenza dei produttori e quindi c’è chi ne approfitta. Gli slogan ingannevoli si sprecano, ma basta girare la confezione per scoprire che nella lista degli ingredienti resta ben poco della natura vantata in etichetta». Una questione di etichetta Per questo è così importante interpretare l’INCI, l’International Nomenclature of Cosmetic Ingredients, la denominazione internazionale utilizzata per indicare in 36 n.28 | Dicembre 2012 Cosmetici eco-bio Scelta consapevole etichetta i diversi ingredienti del prodotto cosmetico. Viene usata in tutti gli stati membri dell’UE e in molti altri Paesi nel mondo, tra cui Usa, Russia, Brasile, Canada e Sudafrica. Ai sensi della Direttiva 96/335/CE, in Europa dal 1997 è obbligatorio che ogni cosmetico immesso sul mercato riporti sulla confezione l’elenco degli ingredienti, trascritti in ordine decrescente di concentrazione al momento della loro incorporazione. Perciò al primo posto si indica l’ingrediente contenuto in percentuale più alta, a seguire gli altri, fino a quello contenuto in percentuale più bassa. Al di sotto dell’1% gli ingredienti possono essere indicati in ordine sparso. La nomenclatura INCI contiene alcuni termini in latino (riferiti ai nomi botanici e a L’olivo è oggi molto sfruttato per quelli di ingredienti presenti nella farmala preparazione di cosmetici nacopea), mentre la maggioranza è in turali. inglese. Nel caso dei coloranti si utilizzano le numerazioni secondo il Colour Index, ad esclusione dei coloranti per capelli, che vanno sempre indicati con il loro nome chimico inglese. Finalità dell’INCI è quella di permettere alle persone con allergie di identificare nell’immediato la presenza di sostanze potenzialmente dannose all’interno di un prodotto prima del suo impiego. Qualità certificata Le certificazioni di settore danno senz’altro una mano a scegliere prodotti di qualità, consentendo di distinguere i prodotti “naturali” e operare una scelta I marchi di qualità certificata eco-bio per cosmetici rilasciati responsabile. Da alcuni anni sono diversi i da ICEA e AIAB sistemi di certificazione volontari per la cosmesi biologica e naturale. All’estero si distinguono marchi di certificazione come Bdih, Ecocert, Soil Association, Cosmos e Na True. In Italia AIAB, l’Associazione Italiana per l’Agricoltura Biologica, ha creato il marchio Bio Eco Cosmesi, assegnato ai prodotti realizzati con materie prime da agricoltura biologica o da raccolta spontanea, privi di sostanze a rischio (come gli allergizzanti) e che non contengono materiali potenzialmente nocivi, anche nell’imballaggio. Una certificazione Eco Bio Cosmesi è rila37 n.28 | Dicembre 2012 sciata anche da ICEA. I prodotti riportanti tale denominazione S sono ottenuti utilizzando materie prime vegetali provenienti da coltivazioni biologiche o da raccolta spontanea certificate ai sensi del Regolamento CE 834/07. Tra i requisiti principali che lo standard vuole garantire, compaiono l’assenza di materie prime non vegetali considerate “a rischio”, ovvero allergizzanti, irritanti o ritenute dannose per la salute dell’uomo e dell’ambiente, senza trascurare le performance del prodotto, ma anche l’ecosostenibilità del packaging. Dal 2011, inoltre, è entrato in vigore Cosmos - Cosmetics Organic Standard, disciplinare che definisce e regolamenta il cosmetico biologico e naturale, condiviso e approvato da tutti i principali certificatori europei (Icea, la tedesca Bdih, le francesi Ecocert e Cosmebio, l’inglese Soil Association). I nuovi standard europei prevedono due livelli distinti di certificazione: una per il prodotto biologico, una per il prodotto naturale. Per il primo, impone che sia bio almeno il 95% degli ingredienti vegetali ottenibili con semplici metodologie fisiche di estrazione, e almeno il 20% sul totale del prodotto finito, considerando anche l’acqua. Inoltre il cosmetico naturale non dovrà avere più del 2% di materie prime di sintesi. Buoni e cattivi Cerchiamo ora di capire, in concreto, quali sono gli ingredienti più o meno compatibili per pelle e ambiente. Ad oggi una letteratura che interpreti la questione in maniera univoca non c’è. I maligni sostengono che si tratti di una scelta voluta, orientata dalle leggi del mercato: prodotti di marche bla- sonate, con ingredienti aggressivi e scarsamente biodegradabili, a basso costo e magari derivati dal petrolio. Un circolo che - comunque sia - dà linfa vitale a una porzione sostanziosa dell’economia mondiale. Una consapevolezza ben affermata, tuttavia, esiste: quello che fa bene oggi può Cosmetici eco-bio Scelta consapevole far male domani. «Non esiste alcuna indicazione circa la biodegradabilità e la ecocompatibilità degli ingredienti stessi, come altresì non esiste la valutazione degli effetti cutanei a lunga distanza. Un esempio concreto è dato dall’uso continuativo di prodotti filmanti e occlusivi (siliconi e petrolati), che favorisce la comparsa di pori dilatati e cute “asfittica”», dichiara la Serri. Per questi motivi Skineco parla di un’ecodermocosmesi che vada a braccetto con la limitazione dei seguenti ingredienti (che verranno descritti di seguito nell’apposito box): • petrolatum, paraffinum liquidum, mineral oil; • siliconi (ciclometicone, dimeticone, etc); • polietilenglicoli (PEG), poiché contengono ossido di etilene che può formare diossano; • cessori di formaldeide (diazolydinyl urea, imidazolidinyl urea, DMDM hydantoin, bronopol, etc); • ammine (DEA, MEA, TEA, MIPA); • EDTA: ittiotossico; • nonoxynol, poloxamer e nonilfenoli: in quanto disturbatori endocrini; • triclosan, antibatterico tossico se presente in concentrazioni eccessive; • trimonium e dimonium: ittiotossici, non biodegradabili. Secondo la suddetta associazione, una percentuale massima dello 0,52% è ottimamente tollerata e migliora la performance del prodotto. Valori superiori possono creare delle situazioni di reUn sapone liquido a base di olio attività locale, secchezza, desquamazione, d’oliva (detto in inglese “castil oil”), certificato eco-bio, com- possono portare ad un’acutizzazione delle dermatiti seborroiche e alla formazione di mercializzato negli Usa. microcisti. Un’interpretazione in linea anche con i principali sistemi di certificazione. Infatti il disciplinare Icea-Aiab per garantire un prodotto eco-bio prescrive una lista di sostanze da bandire, tra cui compaiono le seguenti, alcune delle quali saranno descritte nel box di seguito: • PEG, PPG derivati (tensioattivi, solubilizzanti, emollienti, solventi ecc.); • composti etossilati (tensioattivi, emulsionanti, solubilizzanti ecc.); • tensioattivi notoriamente aggressivi e poco dermocompatibili; • sostanze che possono provocare danni ambientali ed ecologici; • composti che possono dare origine a nitrosammine (sostanze cancerogene); • derivati animali come collagene, sego 38 n.28 | Dicembre 2012 e placenta; • siliconi e derivati siliconici; • polimeri acrilici (emulsionanti, modificatori reologici, filmanti, agenti antistatici ecc.); • conservanti come la formaldeide e i suoi cessori, tiazolinoni, derivati del fenilmecurio, carbanilidi, borati, fenoli alogenati, cresoli alogenati; • coloranti di origine sintetica; • derivati dell’alluminio e del silicio di origine sintetica. Indicazioni pratiche Per i consumatori poco avvezzi alla chimica - oltre che affidarsi alle certificazioni - non resta che seguire le indicazioni delle associazioni di consumatori, alcune delle quali hanno realizzato dei veri e propri prontuari per leggere la lista degli ingredienti. «Se ai primi posti ci sono tanti componenti in latino, il prodotto è in buona parte naturale. Anche se non sono in latino, sono ingredienti di qualità: tocopherol o tocopheryl acetate (vitamina E), panthenol (vitamina B5), titanium dioxide o zinc oxide, glucoside», indica Altroconsumo, secondo la quale per definizione un “cosmetico naturale” deve essere: • senza parabeni come conservanti (si può tollerare una piccola quantità di etyle methyl paraben anche se non è naturale); • senza antimicrobici: BHT, BHA e triclosan; • senza conservanti che possono rilasciare formaldeide: DMDM hydantoin, midazolidinyl urea, diazolidinyl urea, formaldehyde, sodium hydroxymethylglycinate; • senza petrolio e suoi derivati e senza silicone (tutti gli ingredienti che terminano in -one o che contengono la parola siloxane); • senza PEG e senza coloranti chimici (CI più un numero); • senza profumi chimici (vanno bene gli oli essenziali indicati con parfum, oil e il nome latino dell’essenza). Per aiutare il lettore a orientarsi in questa selva di composti chimici, naturali e non, nel box che conclude questo articolo descriviamo brevemente le caratteristiche di alcuni dei componenti più diffusi nei cosmetici che le donne (ma oggi anche molti uomini) usano quotidianamente. Giovanna Lodato Cosmetici eco-bio Scelta consapevole I PRINCIPALI COMPONENTI DEI PRODOTTI COSMETICI Paraffina Petrolatum, paraffinum liquidum o mineral oil sono i possibili nomi riportati nell’INCI per definire più comunemente la paraffina. Si tratta di una miscela di idrocarburi solidi, in prevalenza alcani, le cui molecole presentano catene con più di 20 atomi di carbonio. È ricavata dal petrolio e si presenta come una massa cerosa, biancastra, insolubile in acqua e negli acidi. I suoi principali impieghi sono nella fabbricazione di candele, lubrificanti, isolanti elettrici, per la patinatura della carta e per produrre cosmetici, oli e creme per bambini, gomme da masticare. Composti a rilascio di formaldeide Formaldeide Vi sono alcuni conservanti adoperati in cosmesi che possono rilasciare formaldeide, come DMDM hydantoin, midazolidinyl urea, diazolidinyl urea, formaldehyde, sodium hydroxymethylglycinate. La formaldeide o aldeide fòrmica (CH2O) in soluzione acquosa al 37% è nota in commercio anche con il nome di formalina. Rappresenta un potente battericida: per questo trova largo impiego in campo domestico come disinfettante e nella produzione di tessuti a livello industriale. L’Agenzia Internazionale per la Ricerca sul Cancro (AIRC), sin dal 2004, ha inserito la formaldeide nell’elenco delle sostanze considerate con certezza cancerogene per la specie umana. Inoltre la formaldeide è considerata in grado di interferire con i legami tra Dna e proteine. Anche se l’uso nei prodotti finiti è da tempo caduto in disuso in Europa, è opportuno osservare come invece siano tollerati dei succedanei della formaldeide. Infatti le due molecole imidazolidinil-urea e diazolidinil-urea sono permesse e diffuse come conservanti antimicrobici nei cosmetici ma fungono da “cessori di formaldeide”. «Ciò significa che, durante la vita del prodotto, esse cedono formaldeide inibendo la crescita batterica all’interno del prodotto» spiega il dottor Massimo Perrone, chimico cosmetologo, in una nota diffusa dalla società scientifica ISPLAD, l’International-Italian Society of PlasticAesthetic and Oncologic Dermatology. «Il loro uso, sebbene spesso oggetto di critiche e di valutazioni di esperti, è per ora ancora considerato sicuro. Sebbene le concentrazioni in gioco di formaldeide siano sensibilmente più basse di quelle usate anni fa, secondo alcuni autori un rischio per la salute umana potrebbe teoricamente esistere ancora, soprattutto nell’uso prolungato (si pensi ai prodotti di uso quotidiano) e/o se i prodotti vengono in parte inalati». DMDM hydantoin Etanolammine L’etanolammina è un prodotto chimico ottenuto per reazione dell’ammoniaca acquosa con l’ossido di etilene. Il prodotto si presenta in tre forme: monoetanolamina (MEA), dietanolamina (DEA), trietanolammina (TEA). Le etanolammine sono utilizzate principalmente come sostanze tensioattive, nonché per la purificazione dei gas e per la preparazione di metalli e di prodotti tessili. Presenti in cosmetici, detergenti, shampoo e condizionatori, queste sostanze si trovano combinate sia fra loro, sia con altri tensioattivi o emulsionanti e vengono facilmente assorbite dalla pelle. La monoetanolammina è prodotta facendo reagire l’ossido di etilene con ammoniaca (NH3) acquosa, la reazione produce anche dietanolammina e trietanolammina. Il rapporto dei prodotti può essere controllato cambiando la stechiometria dei reagenti. PEG e PPG PEG e PPG, rispettivamente glicole polietilenico e polipropilenico, rientrano nei polietilenglicoli, una classe di composti presenti nella maggior parte dei prodotti cosmetici in commercio. Sono di derivazione sintetica, ottenuti tramite processo di polimerizzazione dell’ossido di etilene. In campo cosmetico e farmaceutico vengono impiegati in qualità di emulsionanti per la preparazione di unguenti e creme, ma anche, shampoo e detergenti per il corpo. Se negli ultimi due preparati i PEG consentono di ottenere emulsioni viscose, nelle creme assicurano emulsioni ad effetto emolliente e umettante. Il polietilen glicol (PEG), un polimero di sintesi ampiamente usato nei prodotti cosmetici. 39 n.28 | Dicembre 2012 Cosmetici eco-bio Scelta consapevole Tensioattivi Tensioattivo o surfattante è quella sostanza che, disciolta in acqua, consente ad un prodotto di rimuovere lo sporco. La sua composizione chimica è complessa ma sono i fosfolipidi a garantire la detersione. I moderni tensioattivi presenti nei cosmetici vengono impiegati in miscele costituite da molecole con caratteristiche chimiche differenti. Ne esistono di diversi tipi: • Tensioattivi anionici. Si chiamano così perché, immessi in soluzione acquosa, generano anioni carichi negativamente. I tensioattivi anionici puliscono molto bene e producono schiuma abbondante: per questo sono tra i tensioattivi più usati nei detergenti. Tuttavia si tratta di sostanze assai sgrassanti, con un pH che in acqua diventa alcalino, mentre quello della nostra pelle è acido, con un valore intorno al 5.5. Per beneficiare delle buone qualità detergenti dei tensioattivi anionici si uniscono a questi dei tensioattivi non ionici; mentre, per neutralizzare il pH, si aggiungono acidi deboli tipo acido lattico o acido citrico. I più noti tensioattivi anionici sono gli alchilsolfati, alcoilsarcoinati, alchilsemisolfuccinati, condensati tra acidi grassi e aminoacidi. Invece, tra i tensioattivi anionici di origine naturale, si segnalano coco glucoside, decyl glucoside e sodium lauroyl glutamate. • Tensioattivi non ionici. Sono definiti in tal modo perché non si ionizzano in soluzione con l’acqua. Il loro pH è neutro (7) e, di solito, vengono adoperati come tensioattivi da addizionare ad altri perché addolciscono l’azione detergente dei tensioattivi anionici. I più noti tensioattivi non ionici sono gli alchiloamidi, esteri del glucosio e del saccarosio, alchilaminossidi, derivati etossilati. • Tensioattivi anfoteri. Hanno la proprietà di modificare, a seconda della soluzione in cui sono immessi, la loro carica elettrica e quindi le loro caratteristiche acide e alcaline. Pertanto in una soluzione alcalina si comportano da tensioattivi anionici con carica negativa o pH alcalino; mentre in soluzione acida si comportano come tensioattivi cationici con carica positiva e pH acido. Questo tipo di tensioattivi trova molte applicazioni perché non irrita gli occhi o la cute, grazie ad un’azione detergente delicata, ed è spesso miscelato con tensioattivi anionici. Tra i principali tensioattivi anfoteri ci sono le imidazoline e le betaine. • Tensioattivi cationici. In soluzione acquosa producono cationi, con carica elettrica positiva e pH acido. Si tratta di un tipo di tensioattivo scarsamente usato, a causa del basso potere detergente. Di vengono mischiati con quelli non ionici e con gli anfoteri. Tra i tensioattivi cationici più noti ci sono i sali quaternari di ammonio, sali di piridinio quaternario, sali di isochinolinio quaternario. Tra i tensioattivi più utilizzati nei detersivi tradizionali, gli etossilati la fanno senza dubbio da padrone. Si tratta di composti di origine naturale a cui in modo artificiale è stata aggiunta una parte di origine petrolchimica, per renderne la lavorazione più semplice ed economica. Rientrano in questo gruppo anche i laurilsolfati, in particolare di sodio - tra cui sodium lauryl sulfate (SLS) e sodium laureth sulfate (SLES) - utilizzati comunemente nell’industria cosmetica ma anche nei prodotti per la pulizia industriale. L’SLS rappresenta un prodotto storico nel campo della detergenza. Da alcuni anni gli si è preferito l’SLES, che porta ad ottenere formulazioni sì meno economiche ma anche meno irritanti sulla cute. In barba alle diverse critiche mosse, ad oggi, non esistono in letteratura dati riguardanti una loro eventuale pericolosità. Anche la Commissione della Comunità Europea per la sicurezza dei prodotti cosmetici li ha, di recente, definiti sicuri sotto tutti i profili. Unici inconvenienti a cui si potrebbe andare incontro utilizzando detergenti etossilati sono una maggiore secchezza dei capelli o della cute, irritazioni degli occhi e della pelle e, in rari casi, irritazioni del tratto respiratorio superiore (ma solo se utilizzato in elevate quantità e in soggetti predisposti). Le case produttrici cercano comunque di ovviare a questi inconvenienti aggiungendo alle formulazioni sostanze emollienti e nutritive oppure utilizzando miscele di tensioattivi, in modo ridurne gli effetti indesiderati. Sodio lauril solfato (SLS) In ogni caso «Utilizzare detergenti poveri di tensioattivi, quindi poco schiumogeni, per non alterare il film idrolipidico di superficie e non ridurre il suo effetto-barriera» rientra tra I 10 comandamenti della bellezza suggeriti dagli esperti della già citata ISPLAD per le pelli di ogni età. Siliconi Comparsi sulla scena soltanto agli inizi degli anni Novanta, sono diventati tra i protagonisti indiscussi delle preparazioni cosmetiche. Si tratta di composti prodotti in laboratorio, a base di silicio, capaci di formare numerose molecole, caratterizzate da lunghe catene con proprietà chimico-fisiche anche molto diverse tra loro. Per quanto concerne i siliconi cosmetici ne esistono diversi tipi come ci spiegano gli esperti di Skineco: da quelli ciclici, con struttura ad anello, che sono assai poco untuosi ed evaporano in poco tempo (cyclomethicone, cyclopentasiloxane, cyclohexasiloxane), a quelli mediamente unti e che non evapo- 40 n.28 | Dicembre 2012 Cosmetici eco-bio Scelta consapevole rano (dimethicone e suoi derivati), a quelli molto untuosi e pesanti (come il dimethicone copolyol). Il loro ampio utilizzo deriva del fatto che sono sostanze con ottime caratteristiche per le formulazioni cosmetiche: sono leggeri e non danno la stessa sensazione di untuosità dei grassi vegetali; conferiscono un’impareggiabile tocco setoso sulla pelle; sono resistenti al calore e all’ossidazione, e non rappresentano un buon terreno di coltura per i batteri; abbattono la schiuma, ovvero evitano il formarsi della scia bianca mentre si spalma una crema, anche in percentuali molto basse; non danno allergie, non penetrano all’interno della pelle; sono idrorepellenti; aumentano la performance dei filtri solari sia chimici che fisici. I siliconi, perciò, sono largamente impiegati nelle creme solari resistenti all’acqua, nelle creme viso a “effetto seta”, creme corpo vellutanti, prodotti lucidanti per capelli, fondotinta con ottima resa cosmetica. Buone prestazioni ma solo all’apparenza: «Spesso vengono utilizzati per mascherare formulazioni scadenti, povere di principi attivi - chiarisce Skineco - danno appagamento immediato con la sensazione di pelle setosa, ma il cosmetico altro non fa. Utilizzati sui capelli danno buoni risultati estetici alle prime applicazioni, poi la chioma, appesantita da siliconi che si depositano e non riescono ad essere lavati via, diventa floscia e senza corpo». Secondo l’Associazione non sono un granché neppure le loro prestazioni ambientali. Non sono assolutamente biodegradabili, finiscono negli scarichi fognari tal quali e poi si accumulano nell’ambiente. Inoltre per quanto concerne la loro nocività, fino a una concentrazione del 2% circa i siliconi sono tollerabili e migliorano le perfomance delle formulazioni cosmetiche, in percentuali troppo elevate (quando si trovano tra i primi posti dell’INCI) non sono dermo-compatibili e producono una situazione di ingannevole soddisfazione cosmetica. Parabeni Metilparabene Sono una classe di composti organici aromatici, esteri dell’acido 4-idrossibenzoico, utilizzati da oltre 50 anni come conservanti nell’industria cosmetica, farmaceutica e alimentare per le loro proprietà battericide e fungicide. La loro efficacia combinata ad costo contenuto senz’altro spiega il perché siano tanto utilizzati. I parabeni più comuni sono metilparabene (methylparaben, E218), etilparabene (ethylparaben, E214), propilparabene (propylparaben, E216) e butilparabene (butylparaben). Meno diffusi sono isobutilparabene (isobutylparaben), isopropilparabene (isopropylparaben), benzilparabene (benzylparaben) e loro rispettivi sali. L’allarme sulla presunta pericolosità dei parabeni è nato dopo uno studio di Philippa Darbre, oncologa dell’università di Reading del Regno Unito, pubblicato nel gennaio del 2004 sul Journal of Applied Toxicology. Nello studio eseguito su 20 campioni prelevati da donne affette da neoplasia al seno, si evidenzia come nella maggior parte dei campioni (18) vi sia un’elevata presenza di parabeni, in particolar modo di metilparabene. Un’indagine tuttavia limitata in termini di numerosità del campione - che non ha avuto seguito vista la mancanza di fondi - che, perciò, non dimostra inequivocabilmente il nesso tra insorgenza di tumore e impiego di parabeni. Se la Danimarca ha deciso di vietare i parabeni nei prodotti destinati a soggetti di età inferiore ai 36 mesi, il Comitato Scientifico per la Sicurezza del Consumatore (Scientific Committee on Consumer Safety - SCCS) dell’Unione Europea ha comunque preso in esame la questione nel dicembre 2010. Si è stabilito che l’utilizzo di butilparabene e propilparabene è da considerarsi sicuro fino a una concentrazione pari allo 0,19%, anche se le attuali direttive cosmetiche permettono un utilizzo di tali tipi di parabeni a concentrazioni più elevate (0,40% per gli esteri e 0,80% per le miscele di esteri). Relativamente ad altri parabeni, nella fattispecie il metilparabene e l’etilparabene, il Comitato ha affermato che essi sono da considerarsi sicuri alle massime concentrazioni attualmente consentite. Il Comitato, infine, non ha espresso pareri su altri composti quali l’isopropilparabene, l’isobutilparabene e il fenilparabene in quanto i dati a disposizione sono ritenuti insufficienti. Il nickel: un caso a parte L’allergia ai metalli pesanti, nickel in primis, è un fenomeno sempre più frequente nella società di oggi (si veda anche Green n. 25, pagg. 10-17). Il nichel è presente in natura ed è contenuto anche nel nostro organismo come microelemento. È l’esposizione cronica in persone particolarmente sensibilizzate a provocare allergia, che si manifesta con eczemi ed eritemi sulla pelle esposta. Non rientra tra gli ingredienti dei prodotti cosmetici ma può essere presente come impurezza derivante dalla lavorazione e lo si può trovare anche nei gioielli, nei detersivi e negli alimenti. Secondo le indicazioni di Skineco è responsabile del 25% delle allergie da contatto scatenate dai cosmetici perché la pelle è un organo di deposito nel quale il nickel si accumula ma difficilmente si elimina. Nei soggetti sani la pelle tollera valori di 100 ppm, parti per milione, mentre in quelli già sensibilizzati la soglia per riaccendere una reazione è di 1 ppm. Nei prodotti di aziende che controllano la sua presenza si osservano livelli di nichel inferiori 1 ppm. In caso di pelle sensibile, è consigliabile scegliere cosmetici testati che garantiscano un contenuto del metallo inferiore allo 0,00001%. 41 n.28 | Dicembre 2012 Xxxx Xxx La zootecnia fa un uso massiccio di antibiotici, con ripercussioni significative sulla salute e sull’ambiente Antibiotici in zootecnia: abuso e farmacoresistenza di Carmen C. Piras Quando si usano antibiotici per il trattamento dei malattie infettive, la maggior parte dei batteri viene uccisa, ma una piccola percentuale di microrganismi può sopravvivere essendo divenuta resistente all’antibiotico utilizzato. Si tratta di un fenomeno in crescente espansione, a seguito del quale farmaci considerati in passato di prima scelta per il trattamento di specifiche infezioni attualmente non sono più efficaci e la farmacoresistenza è diventato un problema di estrema importanza nella tutela della salute pubblica. Nonostante la principale causa sia l’utilizzo umano (o meglio l’abuso), la metà circa degli antibiotici oggi prodotti è destinata alla zootecnia, con importanti implicazioni di tipo sanitario e ambientale. 42 n.28 | Dicembre 2012 Antibiotici in zootecnia Abuso e farmacoresistenza Un po’ di storia Usi zootecnici L’impiego di antibiotici in agricoltura è cominciato a partire dagli anni Quaranta in via del tutto sperimentale. Infatti, studi condotti in Gran Bretagna e Stati Uniti mostrarono che basse dosi di penicillina e tetraciclina fossero in grado di facilitare la crescita di suini e polli e che, in generale, la somministrazione di questi farmaci agli animali permettesse di renderli più produttivi. Proprio per questo motivo, a partire dagli anni Cinquanta, fu consentito in Gran Bretagna l’utilizzo di questi farmaci come promotori di crescita. Da allora, grazie alla possibilità di controllare la diffusione di infezioni negli allevamenti e di stimolare la crescita e la produttività, l’utilizzo degli antibiotici in zootecnia si espanse rapidamente, raggiungendo quantitativi elevatissimi. Nel 1995, oltre il 90% dei siti degli In zootecnia gli antimicrobici trovano diverse applicazioni. Il principale impiego è rappresentato dal trattamento terapeutico di patologie o infezioni, che richiede dosi alte di farmaci per periodi di tempo relativamente brevi. Gli antibatterici, però, possono anche essere utilizzati a scopo preventivo per evitare la diffusione di malattie tra gli animali; in questo caso vengono somministrati a basse dosi e per periodi di tempo prolungati. Infine, possono essere utilizzati come promotori di crescita e, in quest’ultimo caso, la somministrazione avviene a dosi bassissime e per periodi di tempo molto lunghi, che spesso durano per gran parte della vita dell’animale. L’impiego di tali farmaci in zootecnia presenta, di conseguenza, numerosi vantaggi per i produttori. Infatti, permette il mantenimento degli animali in buona salute, grazie alla prevenzione della diffusione delle infezioni. In secondo luogo, garantisce qualità ed efficienza nella crescita degli animali e nella produzione, costi contenuti grazie alla riduzione delle spese sostenute per curare comuni malattie di natura batterica e la possibilità di offrire ai consumatori prodotti ad un prezzo vantaggioso e competitivo. Tuttavia, l’utilizzo non terapeutico di questi farmaci, spesso attuato con dosi inferiori rispetto a quelle che sarebbero necessarie in terapia, è correlato alla diffusione di ceppi batterici resistenti, non soltanto tra gli animali, ma anche tra gli umani, che possono venire direttamente in contatto con queste specie microbiche attraverso capi infetti (una categoria a rischio è quella degli allevatori stessi), l’ambiente (acqua, suolo contaminati dalle deiezioni degli animali) o l’assunzione di cibo contaminato. Diversi studi hanno dimostrato che gli allevamenti intensivi potrebbero essere la causa dominante della proliferazione di ceppi batterici resistenti alla terapia antibiotica. Infatti, le condizioni in cui vengono tenuti gli animali in questo tipo di allevamenti, durante tutto il corso della loro vita, conducono ad uno stato di salute precario e facilitano la diffusione di malattie e infezioni, che richiedono un tale trattamento terapeutico. Negli allevamenti intensivi di polli e suini, ad esempio, gli animali vengono cresciuti in condizioni di sovraffollamento, di solito senza possibilità di muoversi liberamente allo scopo di ottenere il maggior rendimento possibile, per farli crescere rapidamente o produrre più carne, latte o uova. Chiaramente in queste condizioni, la loro salute e il sistema immunitario sono Contaminazione da antibiotici. Stati Uniti destinati alla produzione di pol[Immagine: Ministero della Sa- lame aveva impiegato mangimi contenenti lute] antibatterici. Nel 1999 il 70% degli alimen- ti della dieta dei suini da allevamento conteneva antibiotici. Nel 2001, The Union of Concerned Scientists ha stimato che circa il 70% della quantità totale di farmaci antibatterici degli Usa fosse destinata al trattamento non terapeutico del bestiame, un utilizzo circa otto volte superiore rispetto a quello osservato nella medicina umana. 43 n.28 | Dicembre 2012 Antibiotici in zootecnia Abuso e farmacoresistenza Gli allevamenti intensivi Gli allevamenti intensivi sono nati negli Stati Uniti dopo la seconda guerra mondiale allo scopo di garantire cibo alla popolazione nel periodo postbellico. Così, i produttori avevano la possibilità di allevare gli animali a costi contenuti e di vendere carne e derivati a prezzi bassi, in tempi brevi e in grosse quantità. Tutto questo a spese delle povere bestie, che negli allevamenti di questo tipo vivevano, e vivono ancor’oggi, in condizioni di sovraffollamento (basti pensare alle galline ovaiole che dentro alle loro gabbie non possono neanche aprire le ali), respirano le esalazioni dei loro stessi escrementi, contenenti elevati residui di ammoniaca nel caso delle galline e metano nel caso dei bovini, possono compiere soltanto movimenti limitatissimi, con conseguente indebolimento di ossa e muscoli, e sono esposti per periodi di tempo prolungati durante tutto l’arco della giornata alla luce artificiale. Questi animali, sottoposti a delle condizioni di vita completamente diverse da quelle che avrebbero in natura, sono fortemente predisposti all’insorgenza di patologie, spesso di origine batterica. L’utilizzo di antibiotici negli allevamenti, quindi è divenuto necessario per evitare la trasmissione di malattie e l’insorgenza di infezioni, che in condizioni naturali avrebbero un’incidenza molto più bassa. Il rapporto “Rischio sanitario degli allevamenti intensivi - Resistenza agli antibiotici e nuove malattie”, realizzato dalla LAV (Lega AntiVivisezione) nel 2010, ha messo in evidenza le condizioni degli animali in questo tipo di allevamenti. Dal rapporto è emerso che ogni gallina ovaiola vive in uno spazio medio di 550 cm2, dove gli è impossibile compiere qualunque tipo di movimento, con conseguente fragilità delle ossa, che possono facilmente rompersi. I polli da carne, invece, devono sopravvivere in uno spazio addirittura inferiore. Basti pensare che ogni metro quadrato è occupato da circa venti polli, che durante i mesi estivi rischiano di perdere la vita a causa del surriscaldamento e dello stress provocato dal caldo. I vitelli, dopo essere stati prematuramente allontanati dalle mamme per essere trasferiti in stalle dove possono compiere solo movimenti molto limitati, vengono alimentati con una dieta povera di ferro, per far sì che la carne resti bianca e tenera. Le condizioni igieniche sono molto precarie e, spesso, si ammalano a causa dell’ammoniaca che esala dagli escrementi accumulati sui pavimenti. Le bovine lattifere vengono costrette a produrre quantità sproporzionate di latte rispetto a quelle che produrrebbero in condizioni normali (fino a 40 litri di latte al giorno) e questo porta spesso alla comparsa di mastiti, che richiedono trattamenti terapeutici farmacologici. Costrette anch’esse a vivere in spazi ridottissimi, sviluppano fragilità muscolare e, sottoposte a forti condizioni di stress per tutta la vita, queste bestie, che in natura vivrebbero fino a 40 anni, sopravvivono solo per 7/8 anni, dopodiché vengono avviate al macello. Queste condizioni di vita fortemente stressanti per gli animali portano necessariamente ad un cattivo stato di salute e fanno sì che per la sopravvivenza degli animali, farmaci come gli antibiotici, che in condizioni migliori di allevamento sarebbero inutili, divengano assolutamente indispensabili. Un allevamento intensivo di polli in Florida, Usa. 44 n.28 | Dicembre 2012 compromessi, questo favorisce lo sviluppo e la diffusione di malattie infettive e, di conseguenza, senza l’aiuto dei farmaci somministrati a scopo preventivo, non sarebbe possibile mantenere la produttività dell’allevamento. Il nostro Ministero della Salute riporta le seguenti raccomandazione in merito all’uso zootecnico corretto degli antibiotici (dal manuale “ Biosicurezza e uso corretto e razionale degli antibiotici in zootecnia”): • l’antibiotico dovrebbe essere scelto in base alla sensibilità della specie batterica bersaglio e somministrato a dosi e per le vie indicate nel foglietto illustrativo, come da registrazione; • la scelta dei farmaci e delle vie di somministrazione dovrebbero essere basate su diagnosi certa, antibiogramma e sulle indicazioni fornite nel foglietto illustrativo, nonché da eventuali ulteriori informazioni disponibili aggiornate in relazione a farmacocinetica e farmacodinamica; • gli antibiotici dovrebbero essere usati in funzione dell’esito previsto come ad esempio l’eliminazione di un agente infettivo; • monitorare periodicamente la sensibilità in vitro e la risposta terapeutica, specialmente per la terapia di routine; • usare l’antibiotico a spettro più stretto e con la più alta efficacia in vitro nei confronti della specifica specie batterica; • gli antibiotici dovrebbero essere usati nella posologia più appropriata e per il tempo necessario affinché il sistema immunitario possa eliminare il patogeno; • gli antibiotici che non vengono utilizzati in medicina umana dovrebbero essere quelli di prima scelta in medicina veterinaria, rispetto a molecole della stessa classe di quelle usate in medicina umana; • utilizzare sempre prodotti registrati per il trattamento della malattia specifica; • la contemporanea somministrazione empirica di farmaci diversi e in particolare dei “cocktail di antibiotici” dovrebbe essere evitata; • l’uso locale dell’antibiotico deve essere generalmente preferito a quello sistemico ogni volta che ciò è terapeuticamente appropriato; • il trattamento di casi cronici dovrebbe essere evitato, qualora si prevedano scarse possibilità di successo; • evitare l’uso di antibiotici quando non Antibiotici in zootecnia Abuso e farmacoresistenza è necessario (es. malattie non infettive, infezioni virali, infezioni autolimitanti); • i protocolli chirurgici dovrebbero enfatizzare l’utilizzo di rigide procedure di asepsi in luogo della profilassi medica basata sull’impiego degli antibiotici. Residui nell’ambiente Il problema della gestione dei reflui zootecnici contaminati da residui di farmaci è di fondamentale importanza nella conduzione di un allevamento ed esistono delle specifiche normative in materia. In particolare, le disposizioni nazionali sono dettate nel D. Lgs. 152 del 1999 sulla tutela delle acque dall’inquinamento e dalle direttive comunitarie 91/271/CEE e 91/676/CEE. Di notevole importanza è anche il D. Lgs. 372 del 1999, che prevede l’adozione di misure aventi lo scopo di ridurre le emissioni nell’ambiente e nelle acque da parte di impianti adibiti ad allevamenti intensivi di suini e pollame. Questo decreto legislativo prescrive anche l’acquisizione di apposita autorizzazione da parte dell’organo competente per gli impianti destinati al trattamento dei reflui. Per un corretto smaltimento, è fondamentale per l’allevatore conoscere la quantità di letame prodotta dalla propria azienda; in questo modo può ottimizzare le proprie capacità di stoccaggio e trattamento ai sensi della normativa vigente. È necessario quantificare la produzione dell’allevamento a seconda della sua tipologia e della stabulazione a cui sono sottoposti gli animali. In secondo luogo, è importante determinare le caratteristiche chimiche dei liquami e del letame al fine di scegliere le tecnologie più adatte. I fattori che influenzano la composizione dei reflui sono rappresentati principalmente da alimentazione, condizioni fisiologiche dell’animale e razza. Esistono diverse tecniche di trattamento, tra cui: 1. Stoccaggio. Questa tecnica richiede un periodo di tempo di 180 giorni (il tempo di permanenza dei liquami nei contenitori deve essere almeno di 90 giorni) ed è molto utile per gli allevatori, tenendo conto dell’impossibilità di effettuare lo spandimento in certi periodi dell’anno per impraticabilità del terreno o presenza di colture. Se i tempi sono rispettati, lo stoccaggio comporta un abbassamento della carica patogena dei liquami. 45 n.28 | Dicembre 2012 2. Vagliatura + Stoccaggio. Anche in questo caso è necessario un periodo di tempo di 180 giorni, ma il processo di stoccaggio è preceduto da una fase di vagliatura, che permette di separare le frazioni solide grossolane. Esistono tre tipi di vagli: i vagli rotativi, che permettono di avere una rimozione del 20-25% della frazione solida; i vibrovagli, che hanno un’efficienza simile ai vagli rotativi; i vagli statici, che consumano una minor quantità di energia, ma sono più lenti e spesso soggetti ad occlusione delle fessure della griglia. 3. Vagliatura + Sedimentazione + Stoccaggio. In questa tecnica di trattamento, in seguito alla vagliatura viene effettuato un processo di separazione delle particelle fini per sedimentazione, che permette di ottenere una frazione densa sotto forma di fango. Possono facilitare la sedimentazione prodotti chimici come calce, cloruro ferrico e di alluminio e polielettroliti organici. 4. Centrifugazione + Stoccaggio. In questo caso lo stoccaggio è preceduto da una separazione meccanica delle frazioni solide per centrifugazione, che presentano un tenore di sostanza secca del 20-28%, che contiene il 20-35% dell’azoto e il 60-70% del fosforo presenti nel liquame di partenza. 5. Centrifugazione + ossigenazione + stoccaggio. Questa tecnica prevede, invece, che sul residuo della centrifugazione venga effettuata un’ossigenazione discontinua della durata di 4-8 ore al giorno per la deodorazione e la parziale stabilizzazione del liquame. 6. Vagliatura + Sedimentazione + Ossigenazione + Stoccaggio. In questo caso è previsto un processo di sedimentazione dopo la vagliatura. 7. Centrifugazione + Depurazione + Stoccaggio. Sul liquame chiarificato viene effettuato un trattamento depurativo caratterizzato da una serie di reazioni di ossidazione, nitrificazione, denitrificazione e fosfatazione, per ridurre il carico di carbonio, di azoto e fosforo. Segue un periodo di stoccaggio di 180 giorni, seguito da fertirrigazione. 8. Compostaggio dei solidi. Questa tecnica permette il recupero produttivo dei residui di natura organica, che vengono trasformati in un prodotto stabilizzato. Questo avviene grazie alla decomposizione ossidativa della sostanza organica ad opera di microrganismi aerobi a carico di un substrato Antibiotici in zootecnia Abuso e farmacoresistenza di partenza, ottenuto con l’aggiunta di residui cellulosici detti coformulanti, come paglia, segatura, trucioli, residui legnosi, che permettono di aumentare il contenuto di sostanza secca e di carbonio. Questo processo è composto da due fasi. La prima è definita fase biossidativa o termofila ed è caratterizzata da un attacco da parte dei microbi alle molecole più facilmente degradabili. Questo causa un aumento della temperatura interna della massa fino a 60-70 °C e permette così l’igienizzazione del prodotto. La seconda fase è definita, invece, di maturazione o stabilizzazione e procede più lentamente. La farmacoresistenza Tutto questo ha delle conseguenze sulla salute umana. La diffusione della resistenza ai farmaci antibatterici, infatti, può portare, nel caso in cui, ad esempio, venga contratta un’infezione, al fallimento della terapia antibiotica iniziale e ad una più limitata disponibilità di farmaci efficaci e, quindi, a infezioni che risultano più gravi e difficili da trattare. Inoltre, questo comporta una maggiore probabilità di contrarre malattie infettive, che vengono trattate con farmaci meno mirati, più costosi e con effetti collaterali potenzialmente gravi per il paziente. Particolarmente a rischio sono i bambini e pazienti affetti da altre malattie, con un sistema immunitario indebolito. Oltre ciò, l’utilizzo di farmaci antimicrobici negli allevamenti facilita l’insorgenza di infezioni di origine alimentare resistenti al trattamento con antibatterici. Infatti, l’uso eccessivo di antibiotici favorisce la crescita di batteri antibioticoresistenti, tra cui quelli dei generi Campylobacter, Salmonella e alcuni Escherichia che possono provocare gravi intossicazioni alimentari (vedi anche Green n. 24, pagg. 3441). Questo ha anche portato a nuovi ceppi batterici resistenti a più farmaci, che in passato non avevano legami con l’alimentaStafilococchi MRSA visti al microscopio elettronico a scansione zione. A titolo esemplificativo si può citare il caso dello Staphylococcus aureus Metiin falsi colori. cillino-Resistente (MRSA) che può essere trasmesso all’uomo attraverso il contatto con gli animali o l’ingestione di alimenti contaminati. 46 n.28 | Dicembre 2012 Da questo punto di vista, la situazione è più grave di quanto si pensi. La Commissione europea stima che ogni anno circa 25mila pazienti muoiano a causa di infezioni causate da microrganismi resistenti, con costi sanitari che ammontano a più di 1,5 miliardi di euro all’anno. Negli Stati Uniti sono, invece, circa 60mila i decessi annuali dovuti a queste infezioni che solitamente sono più severe, durano più a lungo e hanno maggiori probabilità di portare al ricovero ospedaliero e, in alcuni casi, anche alla morte. Il problema è particolarmente grave nei Paesi più poveri, dove le condizioni igieniche sono precarie e non sono disponibili laboratori di microbiologia che possano effettuare analisi in maniera efficiente e in tempi brevi. Studi condotti in Brasile e Messico hanno dimostrato come bambini che non erano mai stati precedentemente trattati con antibiotici avessero acquisito infezioni di origine alimentare causate da batteri resistenti, molto probabilmente come risultato dei residui di antibiotici presenti nel pollame. Inoltre, ceppi batterici resistenti a farmaci antimicrobici utilizzati esclusivamente negli animali, si sono rivelati in grado di resistere anche a trattamenti terapeutici con antibiotici usati nell’uomo (vedi Green n. 25, pagg. 18-31). Un esempio è rappresentato dai fluorichinoloni. Fa parte di questa famiglia l’enrofloxacin, che viene utilizzato per trattare le infezioni del tratto respiratorio e digestivo nel pollame. La sua somministrazione nei polli a scopo preventivo è responsabile dell’aumento della resistenza batterica ad un altro composto della stessa famiglia, il ciprofloxacin, utilizzato invece nell’uomo per il trattamento di infezioni severe da Campylobacter spp. e Salmonella spp. Un esempio analogo è quello del ceftiofur, una cefalosporina di terza generazione impiegata per combattere le infezioni batteriche nei suini. L’utilizzo di questo farmaco negli animali da allevamento è correlato allo sviluppo di resistenza nei confronti di altri due farmaci appartenenti alle cefalosporine di terza generazione, il cefotaxime e il ceftriaxone, usati come farmaci di prima scelta per il trattamento di infezioni severe causate da Salmonella spp. nei bambini. Altri medicinali che possono essere presi in considerazione a titolo esemplificativo sono la spiramicina e la tilosina, che fanno parte della famiglia dei macrolidi. Questi due antibiotici venivano utilizzati in passato come promotori di crescita e attualmente la tilosina è ancora utilizzata nell’Unione Antibiotici in zootecnia Abuso e farmacoresistenza europea per la prevenzione, il controllo e il trattamento delle infezioni nei maiali. La somministrazione di questi farmaci agli animali sembra sia stata responsabile dell’insorgenza di ceppi batterici resistenti all’eritromicina, farmaco che nell’uomo viene utilizzato per il trattamento di infezioni del tratto respiratorio o di intossicazioni alimentari come quelle causate da Campylobacter spp. Misure di contenimento I rischi legati all’utilizzo di farmaci antibatterici negli animali da allevamento sono emersi già a partire dagli anni Sessanta, L’esempio della Svezia Il problema della resistenza ai farmaci antibatterici è fortemente sentito in Svezia, che già dal 1980 ha raccolto dati sul consumo di antibiotici in ambito veterinario e che nel 1986 è stata il primo Paese europeo a vietare l’utilizzo degli antibiotici come promotori di crescita. Il divieto è stato emanato in seguito alla pubblicazione di un report nel 1984 in cui si affermava che l’utilizzo di questi farmaci negli allevamenti ammontava a circa 30 tonnellate annue ed è stato espressamente richiesto dagli allevatori svedesi. Questo divieto, dagli anni Ottanta al 2009 ha portato ad una tangibile riduzione dell’impiego di antimicrobici, che è sceso da 45 a 15 tonnellate. Uno dei fattori chiave del successo della Svezia in questo campo è sicuramente rappresentato dal fatto che vengano continuamente raccolti e aggiornati i dati relativi all’utilizzo degli antibatterici in zootecnia; infatti, in questo modo, la situazione viene costantemente monitorata e questo permette di rendersi conto facilmente e in tempi brevi se è necessario prendere dei provvedimenti e quali. L’Istituto Veterinario Nazionale svedese (The National Veterinary Institute, SVA) ha raccolto dati sull’utilizzo veterinario degli antibiotici a partire dagli anni Ottanta ed è attualmente anche responsabile dei controlli sull’antibiotico-resistenza e della promozione dell’utilizzo razionale di tali farmaci. I dati raccolti dallo SVA vengono pubblicati dal 2000 su SVARM - Swedish Veterinary Antimicrobial Resistance Monitoring, un report annuale liberamente scaricabile dal sito internet dell’Istituto. Questi dati sono molto precisi e includono quasi il 100% degli antibiotici venduti, ma non comprendono i farmaci per uso umano che possono essere somministrati anche agli animali. Anche in Svezia, così come in Italia, i farmaci antibiotici destinati agli animali possono essere venduti solo dietro prescrizione medica, tuttavia, in Svezia le prescrizioni vengono effettuate elettronicamente. Il veterinario (o il medico nel caso dei medicinali per uso umano) inserisce i dati della prescrizione su un sistema nazionale computerizzato e li rende così disponibili a tutte le farmacie nazionali. L’acquirente può quindi ritirare il medicinale prescritto in qualunque farmacia. Questo, oltre ad essere molto comodo per tutti i pazienti, permette anche alle farmacie di fornire allo SVA, giornalmente e in maniera semplice e rapida, i dati relativi alle vendite di antibatterici, che vengono poi utilizzati per effettuare studi ed elaborare statistiche. Le industrie responsabili della produzione di mangimi possono aggiungere antibiotici ai mangimi prodotti solo dopo essere stati autorizzati dal Consiglio Svedese dell’Agricoltura (The Swedish Board of Agriculture, SBA), che controlla ogni anno le quantità di antimicrobici utilizzate. Lo SBA può rilasciare la stessa autorizzazione, dopo aver effettuato dei controlli, anche ad aziende agricole; il produttore munito di autorizzazione (più la prescrizione veterinaria, nel caso di aziende) può normalmente acquistare i medicinali in farmacia. Oltre alla continua raccolta di dati sul consumo di antibiotici, allo scopo di ridurre la trasmissione di malattie infettive tra gli animali e la diffusione della resistenza agli antibatterici, sono state messe a disposizione di agricoltori e allevatori delle linee guida sulle condizioni di allevamento, l’alimentazione, la salute e l’igiene degli animali negli allevamenti. 47 n.28 | Dicembre 2012 quando gli scienziati scoprirono che la resistenza agli antibiotici può essere trasferita da una specie all’altra e questo fu un primo campanello d’allarme. Con il passare del tempo, studi più approfonditi hanno condotto ad una preoccupazione sempre maggiore e dal 1990, gli allevatori e le autorità di regolamentazione sono stati messi sempre più sotto pressione da parte di esperti e cittadini affinché l’uso di antibiotici negli animali da allevamento venisse monitorato e ridotto. La Direttiva CEE 524/70 autorizza l’impiego degli antibiotici negli animali da allevamento, purché il livello di additivo presente non possa risultare dannoso o rischioso per la salute degli animali stessi e/o dell’uomo. Tuttavia, a seguito delle crescenti preoccupazioni legate all’utilizzo improprio ed eccessivo di tali sostanze, nel 1998 con il regolamento CE 2821/98, la Comunità europea ha deciso di mettere al bando l’utilizzo di quattro antibiotici come promotori di crescita: virginiamicina, spiramicina, fosfato di tilosina e zinco bacitracina. Successivamente, nel 2003, il Regolamento CE 1831/2003 ha sancito il divieto dell’uso di antibiotici a fini non terapeutici dei restanti antimicrobici usati come promotori di crescita (divieto applicato a partire dal 2006). Gli organismi di tutela Attualmente diversi Organismi internazionali intervengono nel controllo dell’utilizzo di antibatterici negli animali da allevamento; uno di questi è l’OIE, la World Organization for Animal Health, un’agenzia intergovernativa responsabile della sanità animale nel mondo. Accanto a questo, svolge un ruolo importantissimo l’EMA, l’European Medicines Agency, che ha istituito al suo interno il SAGAM, lo Scientific Advisory Group on Antimicrobials, il quale è formato da esperti di microbiologia clinica e biologia molecolare e fornisce all’Agenzia supporto scientifico per la valutazione di aspetti relativi alle procedure di autorizzazione riguardanti medicinali veterinari contenenti antibiotici come principi attivi. La Direttiva CE 2003/99, recepita con il D. Lgs. 191/2006, ha sancito inoltre l’obbligo di attivare dei sistemi di sorveglianza della resistenza agli antibatterici e della diffusione delle zoonosi. Per questo motivo, i dati relativi alle zoonosi vengono raccolti dall’EFSA, l’Autorità Europea per la Sicurezza Alimentare con sede a Parma, che redige un report annuale. I dati relativi al Antibiotici in zootecnia Abuso e farmacoresistenza consumo umano di farmaci antibiotici e alla diffusione della resistenza sono, invece, raccolti dall’ECDC, lo European Centre for Disease Prevention and Control, di cui fa parte il sistema EARS-Net (Sistema Europeo di Sorveglianza dell’antibioticoresistenza), che monitora la diffusione del problema nei diversi Paesi europei, mentre L’ECDC, l’European Center for l’EMEA, fornisce dei report annuali sul Disease Control, ha sede a Stoc- consumo di antibiotici in zootecnia. colma, in Svezia. In Italia il compito di verificare l’applica- zione della legislazione europea per quanto riguarda la somministrazione di antibiotici agli animali da allevamento, spetta al Ministero della Salute, che ha pubblicato un manuale contenente delle linee guida per il corretto utilizzo dei farmaci antibiotici in zootecnia (http://www.salute.gov.it/ imgs/C_17_pubblicazioni_1683_allegato. pdf) e che sta coordinando l’attività di raccolta dei dati di vendita dei medicinali veterinari da parte dei titolari di autorizzazione all’immissione in commercio (AIC). La valutazione della resistenza agli antibiotici viene, invece, effettuata dagli Istituti Zooprofilattici Sperimentali, che offrono anche servizi diagnostici per quanto riguarda le malattie degli animali e le zoonosi. Attualmente in Italia sono disponibili, in diverse forme di somministrazione, numerose categorie di antibiotici per uso veterinario (tra cui amminoglicosidi, cefalosporine, chinoloni, macrolidi, penicilline, amfenicoli, pleuromutiline, polipeptidi, ionofori, sulfamidici e tetracicline), che possono essere somministrati agli animali sotto forma di boli, aggiunti all’acqua o al mangime, iniettati o applicati topicamente. A livello legislativo, ai sensi dell’art. 108 48 n.28 | Dicembre 2012 comma 9 del D. Lgs. 193/2006, vi è l’obbligo di impiegarli in maniera responsabile e solo dietro prescrizione medica veterinaria; infatti l’uso improprio dei medicinali veterinari (inteso anche come abuso o utilizzo non corretto) è sanzionabile. Consumo di antibiotici in zootecnia Considerando la recente introduzione del divieto comunitario sull’utilizzo di farmaci antibatterici come promotori di crescita e le diverse politiche legislative statali applicate precedentemente nei Paesi europei, c’è da chiedersi quale sia effettivamente l’attuale impiego di questi medicinali negli animali da allevamento. In realtà, non si hanno a disposizione dati precisi sulle tendenze del consumo complessivo di antibiotici in Europa. Tuttavia, nell’ottobre del 2011, la Commissione per l’Ambiente del Parlamento Europeo ha dichiarato che, nonostante il divieto dell’uso degli antibiotici come promotori di crescita, non sembrerebbe esserci stata una significativa riduzione dell’impiego di antibiotici in ambito veterinario, che continuano ad essere utilizzati a scopo di profilassi. Nel 2011 le stime pubblicate dall’EMEA per Repubblica Ceca, Danimarca, Finlandia, Francia, Paesi Bassi, Norvegia, Svezia, Regno Unito e Svizzera - che tengono degli appositi registri sull’utilizzo dei farmaci antimicrobici - hanno mostrato una riduzione media del consumo dal 2005 al 2009 solo dell’8,2%; riduzione molto bassa se si considera la gravità della situazione. Inoltre, si è contemporaneamente osservato uno scambio dei ruoli: un aumento degli impieghi “terapeutici” di alcuni farmaci solitamente utilizzati a scopo preventivo, mentre per quest’ultimo fine recentemente sono stati impiegati composti precedentemente classificati come promotori di crescita. Uno di questi è la tilosina, che è stato vietato dall’Unione europea, ma che altrove è ancora somministrato ai suini per prevenire e controllare l’enterite e ai polli per prevenire infezioni respiratorie. Altri antimicrobici, invece, come il lasalocid, monensin e salinomicina - definiti coccidiostatici (farmaci in grado di inibire la crescita dei protozoi) - vengono aggiunti agli alimenti degli animali per lunghi periodi e possono ugualmente contribuire alla diffusione dell’antibiotico-resistenza, senza considerare il fatto che negli stabilimenti dove vengono prodotti questi medicinali possono contaminare anche altri mangimi Antibiotici in zootecnia Abuso e farmacoresistenza Numero medio di prescrizioni di antibiotici per allevamento in Italia nel 2010. [Immagine: Ministero della Salute] (contaminazione crociata). L’utilizzo dei promotori di crescita, in realtà rimane un problema diffuso anche negli Stati Uniti, oltre che nei Paesi meno industrializzati. Riflessioni conclusive Consumo di antibiotici ad uso veterinario. Numero delle prescrizioni registrate in Italia nel 2010. Nonostante gli antibatterici possano venire [Fonte: Ministero della Salute] somministrati impropriamente agli animali Prescrizioni per mangimi medicati Prescrizioni per animali da reddito "Art. 11 D. Lgs. 193/2006 (uso in deroga)" "Artt. 4 e 5 D. Lgs. 158/2006" Altre Totale Uso in deroga Altre Totale Emilia R. 125 47 67.826 67.998 4.429 11.017 15.446 Toscana 203 11 24.360 24.574 1.468 1.468 Liguria Val d'Aosta 0 11 0 4 15 da allevamento, in caso di necessità è giusto utilizzare questi farmaci, purché lo si faccia in maniera responsabile. L’uso degli antibiotici, infatti, dovrebbe avvenire dopo aver effettuato un antibiogramma dai batteri isolati o basandosi su informazioni epidemiologiche relative alla sensibilità dei batteri patogeni. Sarebbe anche preferibile impiegare medicinali che non trovano applicazioni nella medicina umana; da questo punto di vista bisognerebbe porre particolare attenzione quando si somministrano cefalosporine di terza o quarta generazione o fluorochinoloni e chinoloni. Oltre ciò, per ridurre la diffusione di ceppi batterici resistenti e preservare l’efficacia di alcuni medicinali sarebbe preferibile evitare l’utilizzo di streptogramine o glicopeptidi efficaci in maniera specifica nei confronti di MRSA. È anche fondamentale evitare l’utilizzo di farmaci ad ampio spettro d’azione, ma preferire quelli più selettivi, per ridurre l’esposizione a queste sostanze di microrganismi che non sono il bersaglio principale, e rispettare sempre la posologia, i tempi e le modalità di somministrazione indicati nel foglietto illustrativo. L’uso topico, qualora possibile, ad esempio, andrebbe preferito alla somministrazione per Prescrizioni per scorte di strutture di cura veterinarie Prescrizioni per scorte per impianti d'allevamento Farmaci per uso umano Altre Totale Da reddito Da compagnia Ippodromi, maneggi, scuderie Altro Totale Totale per regione 212 16.314 16.526 10.505 668 210 3.380 14.763 114.733 232 11.381 11.613 1.065 210 341 486 2.102 38.289 661 2.200 2.861 63 36 2 55 156 0 0 0 4.500 18.923 Lombardia Piemonte 1.700 160 54.245 56.105 5.960 17.140 23.100 825 13.676 14.501 5.812 192 258 12.904 19.166 112.872 5.734 50 1.209 6.993 2.065 2.757 4.822 4 577 581 1.216 95 28 0 1.339 13.735 4.537 4.540 6 6 1.860 1.860 58 1 0 59 6.465 Veneto Friuli V.G. Trento Bolzano 3 Lazio 8 Umbria 19 17.580 17.607 23 11.140 11.163 568 651 651 754 10.424 11.178 934 124 764 0 1.822 31.258 735 1.303 36 773 809 395 74 7 1.318 1.794 15.069 15.689 Marche 61 29 11.649 11.739 177 918 1.095 44 2.168 2.212 610 30 3 0 643 Abruzzo 3 3 9.357 9.363 359 588 947 70 1.232 1.302 421 105 1 0 527 12.139 Campania 591 300 5.098 5.989 245 1.025 1.270 102 1.049 1.151 1.756 1.112 61 145 3.074 11.484 16 6.122 6.138 6 113 119 0 243 243 112 110 1 0 223 6.723 18.945 Molise Calabria Puglia 392 5 12.341 12.738 99 461 560 393 3.996 4.389 1.091 83 69 15 1.258 Basilicata 625 29 7.683 8.337 0 469 469 0 378 378 191 17 30 0 238 9.422 Sicilia 12.925 12.925 588 588 849 849 45 45 14.407 Sardegna 42.585 42.585 496 496 2.156 2.156 Totale nazionale 9.445 692 290.125 300.262 49 13.919 36.968 50.887 n.28 | Dicembre 2012 3.333 69.276 72.609 199 24 0 0 223 45.460 13.923 2.213 1.565 18.348 47.432 490.113 Antibiotici in zootecnia Abuso e farmacoresistenza Esemplari di mucche (Bos taurus, famiglia Bovidae) della razza Simmental, originaria della Svizzera, allevate all’aperto. [Immagine: Richard Bartz, Makro Freak Munich, Wikipedia Commons, 2007] 50 via sistemica. Infine è importante segnalare immediatamente alle autorità competenti la mancata risposta dell’animale ad un trattamento terapeutico. Inoltre, per ridurre la necessità di somministrare farmaci antibiotici in zootecnia è indispensabile migliorare le condizioni in cui gli animali vengono allevati. Infatti, in tanti casi, allevando il bestiame in buone condizioni e osservando le norme igieniche, si potrebbe evitare l’utilizzo di antibiotici a scopo preventivo. Sovraffollamento e stress abbassano le difese immunitarie e offrono una base perfetta per la diffusione di infezioni batteriche, che potrebbero essere notevolmente ridotte, se si evitassero gli allevamenti intensivi. Per ridurre la trasmissione delle infezioni, sarebbe anche utile evitare di allevare assieme animali n.28 | Dicembre 2012 che abbiano provenienze diverse e cercare di far avvenire in maniera ottimale lo svezzamento, che, se mal gestito, può causare ulteriore stress. Un altro fattore nocivo è rappresentato dai viaggi, spesso lunghi e responsabili di un aumento della suscettibilità alla contrazione delle malattie. Cercare quindi di allevare gli animali in condizioni di benessere e mirare a produzioni di alta qualità, oltreché ridurre o eliminare del tutto l’utilizzo di antibiotici a scopi non terapeutici, potrebbe portare ad enormi miglioramenti per quanto riguarda la resistenza agli antibatterici e la trasmissione di malattie infettive, senza grosse ripercussioni economiche per i produttori. Carmen C. Piras NEWS Futuro& FUTURIBILE Quando il pericolo è dolcissimo Falso allarmismo o reale rischio per la salute dell’uomo? L’ingestione di aspartame e i rischi correlati sono alla base di un gran numero di ricerche scientifiche da più di trent’anni, dallo stesso momento in cui questo composto fu scoperto. In un’alternanza di ricerche che ne smentiscono la pericolosità e altre, che al contrario attribuiscono alla sostanza chimica un effetto cancerogeno, oggi l’aspartame continua spesso a essere considerato una sostanza chimica potenzialmente dannosa per l’essere umano. L’Autorità europea per la sicurezza alimentare (Efsa) è attualmente stata incaricata dalla Commissione Ue di condurre una nuova valutazione sulla sicurezza dell'aspartame, da consegnare a maggio 2013. L’aspartame è da trent’anni il dolcificante più diffuso al mondo in quanto, pur avendo la stessa quantità di calorie del saccarosio (il comune zucchero da tavola), è circa duecento volte più dolce e per questo risulta molto utile per le persone che soffrono di diabete e per chi vuole ridurre l’apporto calorico della dieta. Dopo averlo ingerito, l’aspartame si scinde nel tratto gastro-intestinale in metanolo, acido aspartico e fenilalanina, sostanze che normalmente sono presenti nell’organismo. L’acido aspartico è eliminato principalmente per via polmonare sotto forma di CO2; la fenilalanina da una parte entra a far parte del processo di sintesi delle proteine (essendo un aminoacido), e in minor percentuale viene eliminato come CO2. L’alcool metilico è metabolizzato in formaldeide, acido formico e CO2. Un litro di bibita con aspartame produce nell’organismo umano circa 48 mg di metanolo, mentre un litro di succo di frutta o di verdure contiene da 200 a 280 mg di metanolo. Questo indica che le quantità di metanolo apportate dall’additivo alimentare sono inferiori a quelle contenute in certi alimenti naturali. Per avere effetti tossici sul sistema nervoso dell’uomo è richiesta l’ingestione di metanolo in dosi di 200-500 mg per chilogrammo di peso corporeo: queste dosi sono più di cento volte superiori alla dose massima di metanolo apportato dall’aspartame. Attualmente l’aspartame (conosciuto an- La molecola dell’aspartame. 51 n.28 | Dicembre 2012 che come additivo alimentare con la sigla E-951) è usato in oltre 6.000 prodotti alimentari come bevande gassate, yogurt, sciroppi, succhi di frutta, budini, gelati, caramelle, gomme da masticare, farmaci e si calcola che venga consumato da oltre 200 milioni di persone nel mondo. Ciononostante è forse l’additivo alimentare che è stato sottoposto al maggior numero di ricerche nel corso degli anni. Torniamo al giorno in cui questa sostanza fu scoperta. Nel 1965 il chimico James M. Schlatter stava lavorando per produrre un farmaco anti-ulcera, quando distrattamente, leccandosi il dito, scoprì l’estrema dolcezza del composto sintetizzato: l’aspartame. La ditta nella quale il chimico lavorava chiese alla FDA, la Food and Drug Administration statunitense, l’autorizzazione per il consumo del composto come additivo alimentare. Autorizzazione che fu rilasciata per la prima volta nel 1974, ma alla quale seguirono anni di ricerche e dibattiti sulla reale sicurezza dell’additivo. Alcuni studi sono ancora in corso. A denunciare la capacità dell’aspartame di interferire a livello cerebrale è stata una ricerca del 2002, portata a termine da B. Beck e A. Barlet, i quali dimostrarono che l’ingestione di aspartame a lungo termine è responsabile della diminuzione delle concentrazioni del neuropeptide Y, neurotrasmettitore liberato nel sistema nervoso centrale e da quello vegetativo, importante per stimolare l’appetito. Non è ancora chiaro se ciò sia dovuto ad un effetto regolativo o tossico. Nel 2005 è stata svolta dall’Istituto Ramazzini di Bologna un’indagine sulle proprietà cancerogene dell’aspartame, che ha portato nuovamente alla ribalta della cronaca questa sostanza e la sua potenziale pericolosità. Dallo studio si riscontrò che un’ingestione ad alte dosi provocava un aumento significativo dell’incidenza di linfomi e leucemie nelle femmine di ratti. È neces- NEWS green sario ricordare che in natura, soprattutto in ambito alimentare, molte sostanze possono provocare un potenziale danno su un organismo vivente. Citando l’antico medico svizzero Paracelso (1493- 1541), generalizzando potremmo dire che “è la sola dose che fa il veleno”. Con il susseguirsi delle ricerche la FDA ha introdotto il concetto di dose giornaliera accettabile per descrivere un livello di assunzione che, mantenuto per ogni giorno per tutta la vita di una persona, possa essere considerato innocuo. Questo valore per l’aspartame è di 50 mg al giorno per ogni chilogrammo di peso corporeo. Bisogna sottolineare che l’assunzione giornaliera media reale dell’aspartame è inferiore al 2% di tale livello massimo. Persino i con- g green sumatori più accaniti ingeriscono giornalmente solo un sedicesimo di questa dose. Per raggiungerla infatti, un adulto dovrebbe bere venti bibite dietetiche da 330 millilitri, un bambino sette. La FDA e la Efsa, la European Food Safety Authority, hanno confermato negli ultimi 23 anni la sicurezza dell’aspartame più di venti volte. Le ricerche però non hanno mai portato a risultati davevro definitivi e la questione rimane aperta, tanto che siamo ancora in attesa di conoscere gli esiti della nuova valutazione del rischio da consumo di aspartame, in corso di effettuazione da parte della EFSA, che sarà pubblicata il prossimo maggio. green Alessandra Caciolli Inquinanti senza frontiere Quest'immagine, riportata a fine ottobre sul sito della Nasa, risulterà molto interessante soprattutto per le scuole che intendono partecipare all’ottava edizione delle Olimpiadi della Scienza - Premio Green Scuola (a.s. 2012/2013) intitolata “Inquinanti senza frontiere. La diffusione transfrontaliera dei contaminanti atmosferici e i suoi effetti sull’ambiente e sulla salute” (www.incaweb.org/green/OdS-PGS8/). Si tratta di una simulazione (risoluzione: 10 km) del Goddard Earth Observing System Model Version 5 (GEOS-5) che è in 52 n.28 | Dicembre 2012 grado di creare modelli predittivi delle condizioni meteorologiche in tutto il mondo. Si può osservare la circolazione atmosferica globale di composti gassosi e particolati. Il pulviscolo (in rosso) viene sollevato dai venti. Il sale marino (in blu) turbina all’interno dei cicloni. Il fumo (in verde) si solleva dalle zone dove sono in corso incendi. Le particelle di solfato (in bianco) vengono rilasciate dai vulcani e dai punti di captazione dei combustibili fossili. [Immagine: William Putman, NASA / Goddard] Xxxx Xxx Dal progresso delle scienze dipende in modo diretto il progresso complessivo del genere umano. Chi frena il primo frena anche il secondo. Johann Gottlieb Fichte filosofo tedesco (1762-1814)