un`analisi del xvii convegno biennale aim 2005 a napoli

Transcript

un`analisi del xvii convegno biennale aim 2005 a napoli
Sommario
In ricordo di Paolo Corradini ........................................................................................
pag.
3
L’EDITORIALE
Saluto del nuovo Presidente AIM (B. Pirozzi)................................................................
»
5
IL CONVEGNO BIENNALE
Un’analisi del XVII Convegno biennale AIM 2005 a Napoli (R. Palumbo) ....................
»
Al margine del Convegno AIM di Napoli: una gita a Capua e a S. Leucio (R. Filippini Fantoni) »
6
8
ATTUALITÀ & DIVULGAZIONE
I polimeri energetici: nuovi leganti per propellenti solidi compositi
(U. Barbieri, G. Polacco, R. Massimi) ............................................................................
Il consolidamento e la protezione dei manufatti lapidei di interesse storico e
industriale mediante materiali polimerici (E. Pedemonte) ............................................
»
11
»
16
POLYMERS AND LIFE
Cellule staminali accoppiate a supporti di crescita polimerici:
nuova frontiera della medicina rigenerativa o “elisir di lunga vita”? (G. Tell) ................
Forse non sapevate che … La cioccolata e i sogni Aztechi (R. Filippini Fantoni) ......
»
»
21
25
MACROTRIVIAL
A Thorpedo’s tale: polimeri e nuoto (E. Polo) ..............................................................
»
28
»
34
»
40
BIOPOLIMERI
La reazione di metatesi: una reazione da Nobel (L. Pasquato) ....................................
»
48
POLYMERS ABROAD
L’Associazione Brasiliana dei Polimeri: un’inaspettata e consolidata realtà
(R. Filippini Fantoni)....................................................................................................
»
55
INTELLECTUAL PROPERTY MONITOR
Il rischio di una fama eccessiva (A. Scotton) ..............................................................
»
58
DAL MONDO DELLA SCIENZA
Gli italiani negli Editorial Boards delle riviste macromolecolari: aggiornamento ..........
»
62
POLIMERI E ... SOCIETÀ
R & S in Italia, dati Istat 2003-2005: tra Scilla e Cariddi
(M. Pracella) ........................................................................................................................
»
64
I GIOVANI
Macrogiovani 2006 (S. Carroccio, S. Vicini) ................................................................
»
66
L’AMBIENTE
Mutamenti climatici e riscaldamento globale: quanto incide il fattore antropico?
(L. Lepori)....................................................................................................................
La produzione biologica dell'idrogeno: il ruolo dei materiali polimerici
(P. Cerruti, C. Carfagna, M. Malinconico) ....................................................................
1
RECENSIONI
Cervelli in gabbia (Comitato Editoriale ADI) ................................................................
IL MONDO DI AIM
Commenti e considerazioni sul Rendiconto finanziario AIM (M. Aglietto) ....................
Quanto sono fedeli i nostri soci? Una storia dell’AIM (1995-2005) attraverso la sua
Mailing List (M. Aglietto, R. Po’) ..................................................................................
Libri e Atti AIM ..........................................................................................................
pag.
68
»
70
»
»
75
80
NOVITÀ IN AIM MAGAZINE!
Doppio fiocco azzurro in redazione!
PAOLO
DAVIDE
Dall'uscita dell'ultimo numero di AIM Magazine due nostre valide collaboratrici sono diventate
mamme, una per la seconda volta e l'altra per la prima volta.
Paolo Ciardelli, figlio di Gianluca e Simona Bronco, è venuto alla luce il 19 settembre 2005 proprio
mentre i nostri lettori ricevevano il n. 2-3 del 2005.
Paolo quindi è già ben paffuto ma non per questo non gli sono dovuti gli auguri di benvenuto e un
abbraccio a Gianluca, Simona e Matteo.
Davide Robiglio, invece, venuto alla luce il 29 dicembre 2005, è figlio di Marco e di Silvia Vicini.
Silvia è stata per vari anni coordinatrice della Commissione Giovani. Continua per noi ad essere una
macrogiovane e ci auguriamo di far conoscenza con Davide sulle rive del Lago di Garda dove
mamma Silvia non potrà fare a meno di portarlo.
2
IN
RICORDO DI
PAOLO CORRADINI
Lo scorso 27 febbraio 2006 è giunta in redazione la triste notizia che Paolo Corradini non è più fra
noi. Sapevamo che Paolo aveva subito diversi interventi, che non si era più completamente ripreso ma non possiamo nel contempo ricordare, con un certo orgoglio, che la comunità scientifica
italiana, la nostra associazione e soprattutto i colleghi napoletani hanno accolto con tutti gli onori
dovuti il prof. Paolo Corradini nel giorno dell’apertura del XVII Convegno AIM, come viene ampiamente ricordato negli articoli dedicati al nostro Convegno e contenuti in questo fascicolo di AIM
Magazine. Qui di seguito pubblichiamo volentieri un ricordo dello scienziato e della persona il cui
contributo alla scienza delle macromolecole ha lasciato un segno importante. La redazione si
associa al lutto dell’intera comunità scientifica italiana.
Il Comitato Editoriale
dovuta al periodo bellico e post-bellico, Paolo
Corradini ha rinnovato completamente lo stile
con cui si conduceva la ricerca scientifica presso il Dipartimento di Chimica, creando una vera e propria scuola nel campo delle ricerche sui
materiali polimerici, in particolare quelle concernenti l’indagine strutturale dei polimeri mediante l’uso della diffrazione dei Raggi X: gli si attribuiva la capacità di “vedere con gli occhi della mente” l’organizzazione spaziale delle catene
polimeriche e dei cristalli macromolecolari.
Successivamente si è dedicato anche allo studio
dei meccanismi di polimerizzazione stereospecifica delle alfa olefine, portando anche in questo campo idee originali di grande rilievo.
Ha fatto di Napoli un polo di eccellenza internazionale nel campo dello studio della chimica
delle macromolecole, trasferendo ai suoi allievi l’entusiasmo e il rigore scientifico che egli ha
sempre applicato nella sua attività di ricercatore.
La sua influenza è stata avvertita anche nei laboratori di Ricerca del CNR essendo stato anche,
per lunghi anni, Presidente del Consiglio
Scientifico del Laboratorio di Ricerche su
Tecnologia dei Polimeri e Reologia.
Autore di oltre 400 pubblicazioni scientifiche su
Il 27 febbraio è deceduto a Roma il prof. Paolo
Corradini, Professore Emerito dell’Università
“Federico II” di Napoli e Accademico dei Lincei.
Era nato a Roma il 19 ottobre 1930.
Giovanissimo, fu tra i più validi collaboratori del
Premio Nobel Giulio Natta nelle ricerche che portarono alla scoperta dei primi polimeri stereoregolari e che proiettarono l’Italia alla ribalta
mondiale nel campo delle ricerche sui materiali
polimerici; a lui si deve, in particolare, la risoluzione della struttura del polipropilene isotattico e la messa a punto di principi che permisero
la comprensione della struttura di molti polimeri
sintetici. Professore Ordinario di Chimica
Generale all’età di trent’anni, dopo un anno di
insegnamento presso l’Università di Cagliari, dal
1961 al 2003 ha ricoperto la cattedra, prima di
Chimica Generale e, successivamente, quella di
Chimica Industriale, presso il Dipartimento di
Chimica della Facoltà di Scienze MM.FF.NN.
dell’Ateneo “Federico II” di Napoli. Più di un lungo quarantennio è stato il periodo durante il quale ha trasfuso le sue competenze scientifiche a
diverse generazioni di chimici napoletani.
Venuto a Napoli in un tempo in cui erano ancora tangibili le conseguenze della stasi della ricerca
3
il Rettore gli ha consegnato il sigillo d’oro dell’Ateneo Federiciano come riconoscimento da
parte della comunità scientifica
napoletana della sua quarantennale attività di ricercatore e
di docente. Paolo Corradini lascia all’Università “Federico II”
di Napoli, e in particolare alla
Facoltà di Scienze MM.FF.NN.,
una grande eredità di competenze e di risorse umane in termini di allievi formatisi alla sua
scuola.
L’Associazione Italiana delle
Macromolecole ed in par ticolare il suo
Presidente che è stato suo allievo esprime la
sua gratitudine per averlo avuto come socio e
lo ricorda con grande affetto.
riviste di risonanza internazionale, per le sue eccelse doti di
ricercatore, per le sue diversificate competenze nel campo,
ma soprattutto per il rigore
scientifico delle ricerche da lui
condotte, è stato nominato
membro di diversi Comitati
Scientifici Internazionali di esperti nel campo della scienza
macromolecolare. Ha inoltre ricoperto la carica di Presidente
dell’European Polymer Federation per il biennio 1989-1990.
La sua ultima apparizione in
pubblico a Napoli è stata nello scorso mese di
settembre, in occasione dell’apertura del XVII
Convegno dell’Associazione di Scienza e
Tecnologia delle Macromolecole. Nell’occasione
4
L’EDITORIALE
SALUTO
DEL NUOVO
PRESIDENTE AIM
di Beniamino Pirozzi
Cari amici,
la mia nomina a presidente dell’AIM segue un biennio durante il quale ho già fatto parte del Consiglio
Direttivo (CD) ed ho potuto, pertanto, apprezzare
più a fondo il lavoro svolto dalla nostra associazione. Infatti, sebbene io sia socio AIM abbastanza
attivo fin dalla sua fondazione, soltanto durante
questi due anni mi sono reso conto veramente
della sua grande vitalità e della mole di iniziative
che riesce a portare a termine: Convegni, Scuole,
Seminari sia Nazionali che Internazionali, Giornate
Tecnologiche, Libri di Testo, Rapporti con Enti
Internazionali, l’AIM Magazine, etc. Gli ottimi risultati scaturiscono da un grosso e proficuo lavoro di
squadra che, se fatto in sintonia, rende molto di più
della somma degli impegni dei singoli. A questa
squadra appartengono non soltanto i membri del
CD, ma tutti i responsabili delle varie (tante)
Commissioni, delle Scuole, dei Rapporti
Internazionali, la segretaria Amministrativa, tutta la
Redazione del Magazine e tanti altri che con estrema generosità non lesinano aiuti che forniscono
con la loro disponibilità e competenza.
Desidero ringraziare il CD uscente, soprattutto il
suo Presidente, per l’ottimo lavoro svolto durante i
passati due anni e ringrazio il nuovo CD per avermi dato la sua fiducia votandomi all’unanimità
come Presidente per il biennio 2006-2007. Da
parte mia mi impegnerò a portare a termine le iniziative in corso ed a proporne nuove che diano una
sempre maggiore visibilità alla nostra associazione, principalmente in ambito europeo. Tra le più
importanti iniziative portate a termine dal precedente CD è senz’altro notevole la costituzione di un
buon sito Web, ricco di servizi e facilmente consultabile. Ciò ha richiesto un ingente sforzo economico da parte dell’AIM ed un notevole impegno da
parte di alcuni membri del CD e della segreteria
amministrativa. Sarà mia cura stimolare i respon-
sabili a fare in modo che il sito sia sempre aggiornato e che offra sempre più servizi. Il sito Web
dovrà essere nei prossimi anni il canale attraverso
il quale creare un collegamento diretto tra i soci e i
coordinatori del lavoro dell’associazione.
Il momento più importante di aggregazione dei soci
è rappresentato dal Convegno dell’associazione
che, come sappiamo, si svolge ogni due anni nelle
varie città italiane nelle quali è sviluppato lo studio
dei materiali polimerici. Il XVII Convegno AIM, che
cadeva nel trentennale dell’associazione, si è svolto a Napoli dal 11 al 15 settembre 2005 nel Centro
Congressi dell’Università “Federico II” di Napoli
sito in via Partenope, di fronte a Castel dell’Ovo.
Per celebrare degnamente i 30 anni dell’AIM non si
poteva trovare una sede migliore, ricca di un panorama splendido esaltato dalla luce e dal sole che
caratterizza il clima di Napoli. La partecipazione è
stata nutrita e molto attiva ed, essendo uno dei
principali organizzatori, ho avuto modo di raccogliere molti apprezzamenti da parte dei soci. Siamo
anche riusciti a portare a termine la preparazione
di un volume di Macromolecular Symposia che
uscirà a breve con il titolo Trends and Perspectives
in Polymer Science and Technology, che raccoglie
un’ampia selezione di interessanti lavori presentati
al Convegno. Questa iniziativa segue quella intrapresa per la prima volta dagli organizzatori del XVI
Convegno AIM tenuto a Pisa e spero che tali iniziative si ripetano in modo da diventare una tradizione della nostra associazione. Intanto, gli organizzatori del XVIII Convegno AIM che si terrà a Catania
nel settembre 2007 si sono già impegnati, dietro
mio invito, a mantenerla.
Scorrendo l’elenco delle città nelle quali si sono
tenuti i precedenti Convegni AIM, si nota, purtroppo
l’assenza di Roma. Auspico che il XIX Congresso
AIM si possa tenere nella nostra bella capitale.
Intanto auguro a tutti un ottimo biennio AIM.
5
IL CONVEGNO
DI
NAPOLI
UN’ANALISI DEL XVII CONVEGNO
BIENNALE AIM 2005 A NAPOLI
di Rosario Palumbo
Le previsioni (quelle meteorologiche, però!) non
erano delle migliori, eppure per celebrare degnamente i 30 anni dell’AIM anche il tempo ha deciso
di comportarsi da gentiluomo offrendo agli iscritti
al XVII Convegno luce e sole per incorniciare nel
migliore dei modi lo splendido panorama che si
ammirava dalla sede di via Partenope. L’apertura
del Convegno, dopo gli interventi del Rettore
dell’Università “Federico II” e del Preside della
Facoltà di Scienze, è stata segnata dalla cerimonia
di consegna del sigillo in oro dell’Università
“Federico II” al prof. Paolo Corradini per l’attività
didattica e di ricerca svolta in oltre 40 anni a
Napoli dove ha creato una vera e propria scuola di
“polimeristi”. Il prof. Corradini ha quindi tracciato
una sintesi storica dello sviluppo della scienza
macromolecolare in Italia evidenziandone le tappe
più significative, dalle scoperte del Premio Nobel
Giulio Natta fino alle più recenti conquiste.
Quanto al Convegno, due cose meritano innanzitutto di essere segnalate: la partecipazione di tanti
giovani e, soprattutto, la assidua presenza ai lavori da parte di tutti gli iscritti nonostante le tentazioni del clima. Le conferenze plenarie, tenute da
Bernard Lotz (CNRS, Strasburgo), Etienne
Schacht (Università di Gent) e da Luigi Resconi
(Basell Poliolefine, Ferrara) in un’Aula Magna
completamente riempita, sono state dedicate a
temi di grande interesse, come la superstruttura di
polimeri cristallini, i polimeri biodegradabili per
applicazioni biomediche e la polimerizzazione di
alfa-olefine. Grande e attenta partecipazione
anche alla presentazione delle key notes e, sorprendentemente, finanche alle comunicazioni
tenute nelle ultime due sessioni nel giorno di chiusura del Convegno!
Il numero degli iscritti, nel suo complesso, è stato
molto alto, al di là delle previsioni, se si tiene
conto della concomitanza con altri due Convegni
su tematiche riguardanti la scienza dei materiali
polimerici, uno a Sorrento (European Conference
on Biomaterials) e un altro a Tirrenia (IUPAC Int.
Symp. on Macromolecule-Metal Complexes). Ciò
ha comportato che alcuni aspetti della ricerca nel
campo dei polimeri, in particolare quelli concernenti i biomateriali, sono rimasti parzialmente in
ombra e, pertanto, è auspicabile un più attento
coordinamento sulle date di futuri convegni sui
materiali polimerici.
I partecipanti, come consuetudine di diversa estrazione, sono stati 281, così suddivisi: industria:
10,7%, università 68,0%, enti di ricerca 21,3%.
Attraverso otto key notes e 246 comunicazioni (di
cui 92 orali e 154 sotto forma di poster) è stata
fatta una panoramica sui principali temi di ricerca
attualmente in corso di svolgimento nelle varie
sedi in Italia. Alla fine delle presentazioni, sia delle
key notes che delle conferenze plenarie, tutte
seguite da un numeroso pubblico, il dibattito
scientifico è stato vivace, trattandosi di argomenti
di ampio interesse e tali da coinvolgere buona
parte dell’uditorio. Non altrettanto si è verificato
per molte delle comunicazioni orali, e ciò può
essere attribuibile ad un fenomeno che sta verificandosi da alcuni anni a questa parte: la frammentazione in tanti “rivoli” di quelle che erano in
passato le “tematiche guida” della ricerca in
campo macromolecolare, cioè la polimerizzazione
Zigler-Natta, la policondensazione e i biopolimeri,
sulle quali erano impegnati folti e qualificati gruppi di ricerca. Ciò ha comportato che ricerche sempre più specialistiche e diversificate, su materiali
polimerici sempre più sofisticati, vengano portate
avanti da gruppi talvolta piccoli, disseminati in
varie sedi, il che spiega lo scarso numero di potenziali interlocutori e il dialogo scientifico piuttosto
asfittico constatato nelle brevi presentazioni orali.
L’impressione generale è stata che in Italia sono
attivi numerosi gruppi di ricerca nel campo dei
materiali polimerici ma che non esistono più sedi
6
specializzate in particolari tematiche.
Al di là di queste impressioni di primo impatto, tuttavia, si è avuta la conferma che è sempre viva,
produttiva e di buon livello la linea di ricerca tradizionale, cioè quella riguardante la sintesi e modifica di polimeri (aspetti sia tradizionali che innovativi della catalisi, funzionalizzazione, sistemi ibridi),
la caratterizzazione strutturale e superstrutturale
dei polimeri (numerosi i lavori nel campo dei
nanocompositi) e lo studio delle relazioni tra struttura, architettura e proprietà di macromolecole
(proprietà termiche e reologiche). Molto affollata
anche la sessione “Polimeri funzionali e per usi
speciali” (oltre 40 tra comunicazioni orali e poster)
e ciò è indice di un indirizzo della ricerca verso usi
applicativi dei polimeri in senso mirato. In questa
linea, è senz’altro positivo constatare la sempre
crescente disponibilità di diversi gruppi di ricerca
al dialogo e alla collaborazione con quanti operano in altri settori, come ad esempio i fisici (polimeri per ottica non lineare, polimeri conduttori), i
medici, i farmacologi e i biologi (biomateriali, biosensori), nonché l’attenzione rivolta a problemi di
caratteri ambientale e socio-culturale (riciclaggio
di polimeri, conservazione di beni culturali, …).
Tutte queste iniziative dimostrano quanto alto, e
ancora solo parzialmente esplorato, sia il potenziale applicativo delle macromolecole e, quindi,
evidenziano la necessità di incrementare le ricerche interdisciplinari soprattutto per quanto riguarda gli aspetti relativi alle conoscenze di base.
Infine, un’osservazione che riguarda i rapporti con
quanti operano nel campo industriale: la loro partecipazione al Convegno è sembrata alquanto
ridotta laddove sarebbe stata auspicabile in
maniera più numerosa al fine di rendere sempre
più stretti i rapporti di collaborazione tra Industria,
Università e Istituti di Ricerca extra-universitari.
La Tavola Rotonda, coordinata da Pietro Greco,
editorialista scientifico, e con la partecipazione dei
proff. Dante Gatteschi (Università di Firenze) e
Luigi Nicolais (Università “Federico II” di Napoli) e
del dott. Riccardo Fabiani (Federchimica, Milano)
ha toccato alcuni aspetti di grande attualità come
quelli relativi al ruolo della ricerca scientifica nel
panorama poco promettente dello sviluppo culturale ed economico del paese. Il prof. Gatteschi con
un lucido e dettagliato intervento ha esposto le
attuali potenzialità dell’ISTM e la politica che esso
intende seguire nel prossimo futuro. Il prof.
Nicolais ha posto l’accento sull’attuale stato
dell’Università, in termini di risorse umane e finanziarie. Tra i suggerimenti per un salto di qualità
della ricerca, la necessità di interventi da parte di
Enti locali, in particolare le Regioni, e il richiamo
nelle nostre strutture di ricerca di ricercatori qualificati dall’estero. Nel dibattito che ne è seguito,
vari interventi hanno messo in evidenza soprattutto la mancanza di politiche e mezzi adeguati per
garantire la formazione di giovani ricercatori e la
loro occupazione, che oggi si esprime in dilaganti
condizioni di precariato e subalternità. Tutti hanno
espresso grande preoccupazione per la grave
situazione esistente sia nell’ambito della ricerca
pubblica – con problemi relativi all’attuazione della
riforma dell’Università e del CNR – che della ricerca industriale, con i risultati che sono ampiamente visibili nelle graduatorie internazionali sulla
spesa per ricerca, innovazione e produttività, nelle
quali l’Italia si colloca agli ultimi posti.
Infine, l’“Assemblea Plenaria Eno-gastronomica”
di chiusura, tenutasi nell’“Aula Magna” della
Masseria “Giò Sole”, in quel di Capua, ha visto riuniti tutti i partecipanti ai lavori che si sono salutati
con un caloroso “Arrivederci a Catania”!!
NOTA REDAZIONALE
Rosario Palumbo ci ha voluto far sapere che per il suo articolo a pag. 34 di AIM Magazine 2-3/2005
dal titolo “La storia della pastiera napoletana” ha in gran parte utilizzato materiale che ha trovato in
Internet sul sito www.pastiera.it. I cultori della pastiera possono continuare ad approfondire il problema andando su questo sito e su altri equivalenti.
7
IL CONVEGNO
DI
NAPOLI
AL
MARGINE DEL CONVEGNO AIM
DI NAPOLI: UNA GITA A CAPUA
E A S. LEUCIO
di Roberto Filippini Fantoni
GITA
A
CAPUA
anche alla clemenza di Giove Pluvio e alla felice
posizione di quella specie di reggia-officina da
dove si ammirava l’imponenza della rocca di
Gaeta e della pianura sottostante.
Chi l’avrebbe detto mai che ai reali borbonici
napoletani potesse essere venuto in mente di
costruire una dimora abbastanza sobria, anche se
elegante, considerando la loro barocca dignità?
Poi, questo sì veramente inaspettato, chi avrebbe
potuto pensare che ne avessero voluto adibire una
parte a industria per la filatura della seta con macchinari che per l’epoca erano da considerare all’avanguardia?
Proprio questo abbinamento, che si rivelò alquanto felice, è la caratteristica di questa reggia provvisoria. E fu felice anche per la popolazione di
quella parte della Campania che per diversi lustri
seppe sfruttare proprio l’arte della seta per mantenere un po’ più alto il proprio tenore di vita, che
per il popolo di quelle contrade era in generale
miserrimo.
I visitanti, divisi in due gruppi, hanno goduto delle
piacevoli spiegazioni delle accompagnatrici che
hanno veramente fatto del loro meglio per farli
compartecipare, almeno con lo spirito, alla vita di
corte e a quella, meno nobile ma più produttiva,
del lavoro tessile.
Poi dobbiamo citare come interessante la visita
alle seterie, non certo settecentesche, con la quale
abbiamo avuto un’idea di come l’arte antica, per
quanto aiutata da macchine tecnologicamente
avanzate, resti comunque il cuore di questa industria sempre più rara benché preziosa.
A seguire, l’immancabile visita allo spaccio della
seta, per la gioia delle congressiste e delle consorti dei congressisti e la disperazione di questi ultimi
che vedevano minate le potenzialità del loro portafoglio.
Il programma del pomeriggio turistico a Capua e
dintorni prevedeva la visita alla Basilica di S.
Angelo in Formis, un vero gioiello dell’architettura
trecentesca, splendidamente conservato, la visita
del Castello di Carlo V e di alcune delle sette chiese longobarde in Capua. Purtroppo non fu possibile la visita della Basilica di S. Angelo a causa di un
matrimonio che ivi si celebrava proprio nell’orario
di visita da noi programmato. La visita al Forte di
Carlo V invece è stata una vera “chicca” in quanto i resti di questo castello-fortezza sono all’interno delle mura dello Stabilimento Militare
Pirotecnico dell’Esercito e vi si può accedere solo
chiedendo preventivamente un permesso alle
autorità competenti.
La costruzione di questa fortezza, voluta da Carlo
V, rappresenta un esempio tipico di architettura
militare del periodo della dominazione spagnola.
La visita, guidata con estrema cortesia dagli stessi dipendenti del Pirotecnico, ha lasciato sicuramente in molti dei visitatori una notevole impressione. Più rapida, invece la visita delle chiese longobarde. Districandoci nel caotico traffico di
Capua, guidati da graziose fanciulle che facevano
da guida illustrandocene i pregi architettonici, ne
abbiamo visitate solo tre delle sette in quanto l’ora
dell’aperitivo alla Fattoria GioSole si avvicinava
velocemente! Anzi, era già passata da un bel po’!
GITA
A
S. LEUCIO
Mentre coloro che avevano scelto Capua come
meta dei loro interessi turistico-culturali cercavano
a tutti i costi di essere puntuali all’aperitivo, senza
riuscirci, l’altro gruppo di visitatori, si godeva una
magnifica e inusuale visita a S. Leucio, da dove
poteva godere un panorama delizioso, grazie
8
“chiacchiere” a ruota libera intra- e inter-tavoli
(non poteva mancare un’espressione tipica di un
sintetizzatore macromolecolare!) ad eccezione
dell’annuncio del nome del nuovo presidente
dell’AIM, uscito dalle rapide decisioni prese dal
neo-eletto Consiglio Direttivo.
Purtroppo il ritardo di cui abbiamo detto precedentemente, ci ha costretto ad accelerare un poco
i tempi della cena per evitare che gli autisti dei
pullman se ne tornassero a casa anzitempo
lasciandoci a piedi.
Poi gli arrivederci a Catania per coloro che si
vedono e sentono solo in occasione del
Congresso, gli arrivederci “al solito posto” di lavoro per coloro che invece lavorano fianco a fianco,
e gli “a risentirci a presto” per coloro che, come
sempre accade, hanno trovato al congresso AIM
nuovi amici, con cui semplicemente scambiarsi
idee, oppure con i quali iniziare qualche buon
lavoro in comune.
Poi via di corsa alla fattoria GioSole ad attendere i
ritardatari di Capua.
Per fortuna un quartetto di musicanti ci ha dilettati con della buonissima musica folcloristica napoletana, interpretata con buon gusto e così l’attesa
dell’altro gruppo è stata meno gravosa.
CENA
ALLA
MASSERIA GIOSOLE
Che a Napoli e dintorni la puntualità sia qualcosa di quasi misconosciuto, era noto a tutti e
anche questa volta non c’è stata eccezione alla
regola.
Comunque, pur in ritardo, l’aperitivo nel cortile
della Masseria, accompagnati dalla musica folcloristica, è stato piacevolissimo e i primi arrivati,
dato l’incombente tramonto, si sono goduti un
caleidoscopio di colori via via smorzantisi.
Cena di buon livello, divisi in tavolate da otto, con
nessun discorso ufficiale – meno male – ma tante
9
ATTUALITÀ & DIVULGAZIONE
Polimeri alle stelle!!
No, no, questa frase d’inizio non è la solita lamentela (tra parentesi, comunque, purtroppo fondata)
sull’incremento dei prezzi!
È che la rubrica “L’attualità” di questo numero ci arricchisce con un contributo originale, competentemente preparato dalla collaborazione tra i ricercatori dell’Università di Pisa e della società AVIO di
Roma, che ci spiega le fondamentali proprietà dei materiali polimerici quali leganti impiegati per conferire le adeguate prestazioni meccanico-reologiche alle miscele solide comburente-combustibile adottate per condurre uomini e mezzi nello spazio.
In questi casi qualcuno obbietta sempre che la ricerca dovrebbe preoccuparsi maggiormente di quello che succede qui sulla Terra; è vero però che le tecnologie aerospaziali ci stanno dando grandi soddisfazioni nell’ambito satellitare a scopi civili e, d’altronde, come si può frenare l’istinto umano a cercare di superare sempre i propri limiti?
Per dimostrarvi che la ricerca macromolecolare è tutt’altro che silente anche sulla terraferma, vi invito a leggere il pezzo di Enrico Pedemonte che ci racconta come sfruttare i polimeri acrilici, siliconici e
fluorurati per salvaguardare i manufatti lapidei distribuiti nella nostra bella Italia, nonché l’articolo di
Gianluca Tell in “Polymers and Life”. Qui vi raccontiamo di come polimeri a porosità controllata, sia
di origine naturale che sintetica, svolgano un ruolo chiave nella innovativa branca della medicina rigenerativa, operando come supporti per la crescita delle cellule staminali e prospettando un futuro in cui
molte malattie degenerative si possano curare semplicemente ricostruendo il tessuto naturale degli
organi e delle strutture danneggiate, riportandole al loro grado di funzionalità iniziale.
E se alla medicina per il corpo associamo quella per lo spirito, che cosa c’è di meglio di un bel pezzo
di cioccolata per tirarsi su di morale? I segreti di questa affermazione li trovate descritti da Roberto
Filippini Fantoni nel “Forse non sapevate che …”.
Per concludere, torniamo ancora un attimo alla questione dell’uomo e della sua voglia di superare se
stesso.
Quale esempio migliore di questa tendenza inarrestabile se non quello dello sport?
Eleonora Polo, in “Macrotrivial”, ci spiega quali incredibili sforzi, in termini di studi e di investimenti
finanziari, si stiano facendo per aumentare anche di poche frazioni di secondo le prestazioni dei campioni di nuoto. C’è da sbalordirsi nello scoprire che le scienze dei materiali in questo campo ricorrono
persino alla scansione tridimensionale del corpo degli atleti, progettando costumi, cuffie ed occhialini
capaci di contrastare quello che, ironicamente, è proprio il peggior nemico del nuotatore professionista: l’acqua!!
Michele Suman
10
I
POLIMERI ENERGETICI: NUOVI LEGANTI
PER PROPELLENTI SOLIDI COMPOSITI
di Ugo Barbieri*, Giovanni Polacco*, Roberto Massimi**
I vettori aerospaziali possono avere diversi tipi di
motori, i quali vengono classificati in base allo
stato di aggregazione di combustibile e comburente. Si distinguono quindi in motori a propellente
liquido (tipicamente a base di idrogeno ed ossigeno), solido ed “ibrido” nei quali una componente è
solida ed una è liquida. I propellenti solidi sono,
per esempio, attualmente utilizzati nei due booster
di accelerazione del lanciatore europeo Ariane 5,
ed il loro impiego è previsto nei primi tre (P80,
Zefiro 23 e Zefiro 9) dei quattro stadi del Vega, che
presto dovrebbe affiancare Ariane 5 per carichi
paganti fino a 1.500 kg, in funzione dell’orbita di
destinazione. Per “visualizzare” le dimensioni di un
lanciatore, si può far riferimento alla Figura 1,
dalla quale si vede che l’Ariane 5 ha approssimativamente la stessa altezza della torre pendente. I
due booster laterali hanno altezza complessiva e
diametro di 26,2 metri e 3 metri, rispettivamente,
cui corrisponde un volume utile di circa 135 m3,
riempito con 239 tonnellate di propellente solido
che viene completamente consumato in circa 2
minuti dall’accensione.
Ovviamente, combustibile e comburente devono
essere premiscelati nei propellenti solidi, i quali,
pertanto, sono materiali polifasici. Oltre alle proprietà energetiche indispensabili per vincere l’attrazione gravitazionale, il propellente deve soddisfare una serie di esigenze reologiche e meccaniche. Esso deve esibire buona fluidità durante le
fasi di miscelazione delle componenti e di riempimento del motore, ed elevata consistenza durante
il lancio, per poter resistere alle notevoli sollecitazioni meccaniche cui è sottoposto. Per questo
motivo, una tipica formulazione di propellente
solido oltre a combustibile e comburente (generalmente alluminio e perclorato d’ammonio) contiene dei plastificanti ed un 10-15% in peso di legante polimerico. Quest’ultimo è costituito da un polimero viscoso amorfo, di peso molecolare mediobasso, che viene mescolato alla carica e reticolato chimicamente in situ, ovvero all’interno del
motore. In tal modo il legante dà luogo alla formazione di un network che conferisce compattezza e
proprietà elastomeriche all’intera massa, per far sì
che questa possa resistere alle sollecitazioni del
lancio, ma anche assorbire e dissipare l’energia
proveniente da sollecitazioni accidentali durante la
fase di trasporto e montaggio delle componenti.
Attualmente, il legante polimerico più comunemente utilizzato nella formulazione dei propellenti
solidi è il polibutadiene idrossi-terminato (HTPB)
che viene reticolato mediante reazione con isocianati per dare una rete poliuretanica. Per quanto
Figura 1
*
Università di Pisa, Dipartimento di Ingegneria Chimica, Chimica Industriale e Scienza dei Materiali, Via Diotisalvi 2, Pisa; E-mail:
[email protected]
**
AVIO SpA, Corso Garibaldi 22, 00034 Colleferro (RM)
11
riguarda il futuro, l’industria aerospaziale rivolge la
sua attenzione verso propellenti con sempre maggior capacità di spinta, per poter aumentare il carico massimo dei vettori e quindi ridurre i costi di
lancio. In questo senso, la via più promettente ed
interessante è quella che prevede la sostituzione
dell’HTPB con un legante che, oltre a svolgere le
funzioni suddette, dia anche un contributo significativo dal punto di vista energetico. Un legante di
questo tipo potrebbe essere impiegato in percentuali più elevate di quanto non lo siano quelli
attuali, permettendo quindi di ridurre la carica solida complessiva, a vantaggio sia della processabilità, sia della successiva vulnerabilità del composito finale.
Sulla base di queste considerazioni, negli ultimi
anni la ricerca scientifica si è concentrata sulla sintesi di polimeri “energetici”, caratterizzati cioè dalla
presenza di gruppi funzionali in grado di decomporsi esotermicamente ad alte temperature, dando
luogo allo sviluppo di elevati volumi di gas, e/o con
proprietà ossidanti. L’introduzione di questi nuovi
materiali leganti dovrebbe conferire al propellente
un elevato contenuto energetico, senza gravare in
termini di sicurezza sulle fasi di fabbricazione, stoccaggio e trasporto del materiale.
È ovvio, tuttavia, che i nuovi polimeri energetici
potranno competere favorevolmente con i leganti
polimerici attualmente in uso solo se, oltre a contenere gruppi energetici e/o ossidanti, saranno
anch’essi in grado, dopo miscelazione con il combustibile ed il comburente, di subire un processo di
reticolazione capace di trasformare la miscela in
una massa di composizione il più possibile uniforme e con proprietà elastomeriche. I polimeri devono pertanto essere caratterizzati da:
• bassa temperatura di transizione vetrosa
(Tg < -35 °C) e basso (possibilmente nullo)
grado di cristallinità, in modo che le macromolecole abbiano discreta “mobilità” a temperatura ambiente e sia garantito, macroscopicamente, un appropriato comportamento
visco-elastico del materiale;
• presenza di gruppi funzionali in grado di reagire con l’agente reticolante.
I polimeri energetici possono essere classificati in
funzione dei gruppi sostituenti in essi presenti: azidici (gruppo funzionale -N3), nitrici (-ONO2) o
fluorurati (-NF2). È inoltre possibile impiegare
copolimeri “misti”, derivati cioè da due o più
monomeri appartenenti a classi energetiche differenti (es. copolimeri a blocchi nitrico/azidici).
POLIMERI
prietà dei polimeri azidici, risalgono ai primi anni
Ottanta, quando alcuni ricercatori della Rockwell
International Co. sintetizzarono il GAP (Glycidyl
Azide Polymer) per azidazione con NaN3 di poliepicloridrina di basso peso molecolare 1. Qualche
anno più tardi, Manser 2 brevettò la sintesi e la polimerizzazione di due monomeri ossetanici 3-azidosostituiti: il 3-azidometil-3-metil ossetano
(AMMO) ed il 3,3-bis(azidometil)ossetano
(BAMO), che ancora oggi, dopo circa vent’anni,
destano l’interesse della ricerca nel settore aerospaziale.
Figura 2: Principali monomeri ossetanici 3-azido sostituiti
La polimerizzazione degli ossetani è condotta per
via cationica, utilizzando un catalizzatore acido di
Lewis ed un promotore, generalmente un diolo (il
primo sistema catalitico impiegato fu il trifluoruro
di boro eterato/1,4-butandiolo TFBE/1,4 BDO).
Successivamente furono studiati sistemi catalitici
(es. AgSbF4/BSB 3, sale alchilante/1,4-butandiolo
4
) in grado di garantire un miglior controllo su
alcune importanti proprietà del polimero energetico, quali il peso molecolare e il numero delle funzionalità ossidriliche terminali per macromolecola.
Il contenuto energetico dei tre omopolimeri azidici
è proporzionale alla rispettiva percentuale ponderale di azoto, cioè pAMMO (33%) < GAP (42%) <
pBAMO (50%). Il pBAMO sarebbe pertanto, fra i
tre, il miglior candidato per la sostituzione
dell’HTPB, ma, purtroppo, non può essere utilizzato tal quale come legante elastomerico, a causa
della sua elevata cristallinità. Di conseguenza, la
soluzione migliore sembra quella di sfruttare l’elevato contenuto energetico del BAMO, introducendolo in copolimeri random (per esempio con
AMMO o glicidil azide) o a blocchi. Occorre cioè
sacrificare parzialmente il contenuto energetico, a
favore della lavorabilità del legante. Nel caso dei
copolimeri random, si deve cercare il quantitativo
minimo di comonomero necessario a garantire la
formazione di un materiale amorfo, mentre relativamente ai copolimeri a blocchi è stata studiata la
possibilità di produrre elastomeri termoplastici
(ETPE “Energetic Thermoplastic Elastomers”)
costituiti da un copolimero a tre blocchi avente il
segmento centrale amorfo e quelli laterali cristallini 5-8. In questo caso viene ovviamente a cadere il
AZIDICI
I primi brevetti sullo studio della sintesi e delle pro-
12
prerequisito della non cristallinità e si ottengono
materiali con morfologia analoga a quella degli
elastomeri termoplastici tipo l’SBS (stirene-butadiene-stirene), nei quali il recupero di forma non è
garantito da vincoli chimici intermacromolecolari,
bensì dalla rigidità dei blocchi terminali del copolimero (con l’ovvia differenza che nel caso degli
elastomeri la rigidità è dovuta alla presenza di
domini stirenici amorfi che si trovano in uno stato
vetroso piuttosto che cristallino). Il principale vantaggio di questi ETPE è legato al fatto che con essi
non è più necessaria la fase di reticolazione in situ,
mentre lo svantaggio è che probabilmente diviene
piuttosto complicata la fase di miscelazione delle
componenti solide, che deve garantire la formazione di un reticolo che sia intimamente distribuito
nell’intera massa di propellente.
L’analisi termogravimetrica effettuata su polimeri
azidici ha mostrato che il gruppo -N3 è soggetto a
due stadi di decomposizione. Il primo, esotermico,
è dovuto alla liberazione di azoto dal polimero
(Fig. 3); il secondo, atermico, è causato dalla
frammentazione delle catene macromolecolari in
molecole leggere (HCN, CO, CO2, CH4 etc.).
o 5 kg da diverse altezze su un campione di alcuni milligrammi e riporta il minimo valore (espresso in Joule e calcolato come prodotto dei kg peso
per altezza di caduta) necessario per innescare l’esplosione. Il test di frizione consiste nel sottoporre
a sfregamento il campione mediante applicazione
di una forza di taglio che viene gradualmente
incrementata e riporta il valore minimo (espresso
in kg) necessario per osservare l’intervento di
fenomeni degradativi.
Come si può vedere dalla Tabella, per i monomeri
energetici non è riportata una temperatura di
decomposizione, in quanto a pressione atmosferica interviene prima l’evaporazione e la decomposizione si può osservare solo in ambiente pressurizzato (almeno 15 psi per il BAMO e 500 psi per
l’AMMO 9). Tuttavia, entrambi i monomeri manifestano una sensibilità all’impatto ed alla frizione
molto maggiore di quelle dei rispettivi omopolimeri. Si osserva, inoltre, che non esiste il dato relativo al monomero del GAP, perché questo viene
prodotto per azidazione della poliepicloridrina, la
quale deriva da un monomero non energetico.
Dai dati di Tabella 1 appare chiaro che i margini di
sicurezza del processo di sintesi di polimeri azidoossetanici sarebbero certamente più ampi conducendo la reazione di azidazione su substrati polimerici preformati, analogamente a quanto già
accade nella sintesi del GAP. In tal modo, si
potrebbe evitare la sintesi del monomero energetico che, senza dubbio, costituisce lo stadio più
pericoloso della preparazione.
Seppur sia attesa una maggiore lentezza cinetica
dell’azidazione quando essa è condotta su matrici
polimeriche, sono molto poche le pubblicazioni
che approfondiscono dettagliatamente le effettive
potenzialità e i limiti di questa strategia sintetica
applicata a substrati poliossetanici 10. Per tale
ragione, presso i nostri laboratori, sono attualmen-
Figura 3: Primo stadio di decomposizione di un polimero
La Tabella 1 riporta alcune delle più importanti
proprietà (misurate nei nostri laboratori) dei suddetti monomeri e relativi omopolimeri azidici. Il
test di impatto consiste nel far cadere un peso di 1
Tabella 1:
Alcune proprietà dei più comuni monomeri ed omopolimeri azidici.
13
Tabella 2:
Alcune proprietà dei più comuni polimeri nitrici 13.
ossidrilici in cloruro di metilene, che è utilizzato
anche nella successiva reazione di polimerizzazione; infatti, a causa dell’elevata instabilità dei
monomeri nitrici, si preferisce non isolarli, ma
mantenerli in soluzioni organiche sufficientemente
diluite da garantire buoni margini di sicurezza in
tutte le fasi della sintesi 12. Ovviamente, anche in
questo caso tutte le fasi di manipolazione dei
materiali, dalla sintesi alla carica e trasporto del
motore, devono poter essere svolte in sicurezza e
di nuovo i test di stabilità (Tab. 2) mostrano che i
polimeri sono piuttosto sicuri da questo punto di
vista. Le temperature di decomposizione, come
era prevedibile, sono più basse di quelle viste per
i polimeri azidici, ma restano sufficientemente elevate per poter dire che anch’esse non sono un fattore critico. Inoltre, entrambi gli omopolimeri
hanno carattere amorfo (con temperatura di transizione vetrosa sufficientemente bassa) e si presentano come liquidi oleosi, di viscosità variabile
in funzione del loro peso molecolare e quindi sono
da considerare a tutti gli effetti come validi candidati per essere utilizzati come leganti. Viste le loro
caratteristiche, i polimeri nitrici possono anche
essere utilizzati come segmento centrale di copolimeri a blocchi, aventi caratteristiche di ETPE e
quindi, se i blocchi esterni sono di pBAMO, il
legante viene ad essere azido/nitrico.
te in corso prove di azidazione condotte su substrati polimerici aventi in catena laterale gruppi
uscenti di varia natura, per cercare di trovare le
condizioni più agevoli per il processo di azidazione
diretta del polimero.
POLIMERI
NITRICI
I polimeri energetici, appartenenti a questa classe
sono polieteri, ossetanici o ossiranici, contenenti
gruppi nitrici -ONO2. Utilizzando un polimero nitrico nella composizione di un propellente solido, il
surplus energetico deriva dall’azione ossidante dei
gruppi nitrato che va a sommarsi a quella del perclorato. Questo comporta la possibilità di ridurre la
percentuale di quest’ultimo nella formulazione
complessiva, con il vantaggio di avere un propellente con minor contenuto di cloro e quindi meno
inquinante. È chiaro che il numero di lanci che vengono effettuati è piuttosto limitato e pertanto, quale
che sia la composizione del propellente, l’impatto
ambientale che ne deriva è estremamente modesto, se non trascurabile, a confronto con le moltissime altre fonti di inquinamento. Ciononostante,
oggi come oggi questo è un aspetto che deve
comunque essere valutato e che può assumere un
peso significativo (a parità di caratteristiche prestazionali) nella scelta delle formulazioni.
Attualmente, i polimeri nitrici più studiati sono il
poli-3-nitratometil-3-metil ossetano (pNMMO) e il
poli-glicidil nitrato (pGLYN), ottenuti per omopolimerizzazione cationica ad apertura di anello dei
rispettivi monomeri energetici 11.
DIFLUOROAMMINO
POLIMERI
I polimeri difluoroamminici sono caratterizzati
dalla presenza in catena laterale di gruppi -NF2.
Da un punto di vista energetico, questi polimeri
sono potenzialmente molto interessanti in quanto
durante la decomposizione liberano esotermicamente HF gassoso ed anche una certa quantità di
F2, il che consentirebbe loro di contribuire all’azione propellente sia grazie all’elevato sviluppo di
gas, sia fornendo un buon agente ossidante il
quale potrebbe sostituire parte del perclorato
d’ammonio presente nella carica redox.
Purtroppo, però, dalla tendenza del gruppo NF2 ad
interagire con gli atomi di idrogeno vicini e liberare spontaneamente acido fluoridrico, derivano
Figura 4: Monomeri nitrici.
Generalmente, questi monomeri sono preparati
per nitrazione con N2O5 dei rispettivi precursori
14
Sebbene gli studi effettuati sulle proprietà meccaniche, reologiche e termiche sembrino incoraggiare l’applicazione di questi nuovi materiali nella
futura tecnologia dei propellenti solidi, le maggiori perplessità permangono circa i costi di produzione. Infatti, come detto, la via sintetica più semplice dal punto di vista chimico è quella che passa
attraverso la produzione dei monomeri energetici,
la cui instabilità è stata più volte ricordata. È evidente che una produzione industriale, sia pure su
scala limitata, rispetto al caso dell’HTPB dovrebbe
sopportare investimenti molto maggiori in termini
di materie prime e di impianto, per garantire condizioni di sicurezza accettabili per la sintesi e lo
stoccaggio dei prodotti. Per tale ragione, è forse
necessario approfondire le possibilità di sintesi
alternative dei medesimi materiali energetici, che
forniscano cioè maggiori margini di sicurezza e
quindi minori investimenti nell’ottica di uno scaleup industriale. In questo senso la funzionalizzazione di precursori polimerici non energetici merita
maggiore attenzione, perché le difficoltà sintetiche
di questa via sono probabilmente più facili da
affrontare di quanto non lo siano quelle indicate
sopra per la sintesi e la polimerizzazione di monomeri energetici.
un’elevatissima sensibilità all’impatto ed una scarsa stabilità chimica. Per questo motivo le applicazioni pratiche di questo gruppo funzionale vanno
limitate a composti in cui il gruppo NF2 è inserito
in strutture neopentiliche, che sembrano essere
quelle che garantiscono maggiori margini di stabilità della molecola.
Omo- e copolimeri difluoroamminici sono stati
sintetizzati per via cationica 14, impiegando monomeri ossetanici (Fig. 5) ed il classico sistema iniziatore TFBE/1,4 BDO.
Figura 5: Monomeri ossetanici 3-difluoroammino sostituiti.
Questi monomeri sono preparati mediante due
passaggi consecutivi, partendo dalle rispettive
ammine primarie ossetaniche: per prima cosa si
sintetizza un dicarbammato che poi viene sottoposto ad un trattamento in corrente di fluoro gassoso per permettere la formazione dei gruppi NF2.
Nonostante il fatto che, analogamente a quanto
visto per i materiali azidici, la sensibilità alle sollecitazioni meccaniche si riduca notevolmente passando dai monomeri ai rispettivi polimeri, negli
ultimi anni lo studio dei polimeri difluoroamminici
è stato progressivamente abbandonato a favore
dei polimeri azidici e nitrici. Questo non solo per la
maggiore complessità di sintesi, ma anche per
problemi insiti nella stessa natura dei polimeri
difluoroamminici che hanno temperatura di transizione vetrosa piuttosto elevata (Tg ≈ -20 °C) ed
inferiore stabilità a lungo termine. Tutti questi
motivi, nonostante la buona potenzialità della
molecola, rendono piuttosto improbabile una loro
futura applicazione in propellenti solidi compositi.
BIBLIOGRAFIA
1
2
3
4
5
6
7
8
9
CONCLUSIONI
10
L’uso di leganti azido e/o nitrato sostituiti è una via
molto promettente al fine di aumentare la prestazione energetica dei propellenti solidi, espressa in
termini non solo di impulso specifico (Isp), ma
anche di impulso volumetrico (Iv = Isp·η, dove η è
la densità) grazie al fatto che questa nuova generazione di propellenti ha una densità maggiore
rispetto a quelli a base di HTPB. Si stima che complessivamente l’impulso volumetrico potrebbe
avere un guadagno addirittura del 10-12% grazie
all’introduzione dei nuovi leganti.
11
12
13
14
15
Frankel MB, Flanagan JE. US Patent 4,268,450,
1981.
Manser GE. US Patent 4,483,978, 1984.
Talukder MA. Makromol Chem, Macromol Symp
1991;42:501-11.
Wardle RB, Edwards WW. US Patent 6,100,375,
2000.
Talukder MA, Lindsay GA. J Polym Sci: Part A
Polym Chem 1990;28:2393-401.
Xu B, Lin YG, Chien CW. J Appl Polym Sci
1992;46:1603-11.
Hsiue GH, Liu YL, Chiu YS. J Polym Sci: Part A
Polym Chem 1994;32:2155-9.
Sanderson AJ, Edwards WW. PTC WO 00/34350
2000.
Oyumi Y, Brill TB. Combustion and Flame.
1986;65:127-35.
Jutier JJ, De Gunzbourg A, Proud’Homme RE. J
Polym Sci: Part A Polym Chem 1999;37:10271039.
Desai HJ, Cunliffe AV, Hamid J, Honey PJ, Steward
MJ. Polymer 1996;37:3461-9.
Golding P, Millar RW, Paul NC. UK Patent
2,240,779, 1992.
Provatas A. Energetic polymer and plasticisers for
explosive formulations. DSTO-TR-0966, 2000.
Archibald TG, Manser GE, Immons JE. US Patent
5,272,249, 1993.
IL
CONSOLIDAMENTO E LA PROTEZIONE
DEI MANUFATTI LAPIDEI DI INTERESSE
STORICO E INDUSTRIALE MEDIANTE
MATERIALI POLIMERICI
di Enrico Pedemonte*
L’AZIONE
DELL’ACQUA
agenti inquinanti veicolati dall’acqua è più o meno
marcato a seconda della natura chimica della pietra stessa: le rocce carbonatiche sono più facilmente degradabili delle siliciche, che sono relativamente stabili. Il marmo è quindi una roccia particolarmente degradabile, anche perché, pur avendo una porosità complessiva relativamente bassa
(circa il 4%) ha una distribuzione incentrata sui
micropori.
È ben noto che la principale responsabile del
degrado della pietra è l’acqua, sia piovana che di
condensa; essa determina il degrado sia attraverso fenomeni fisici (gelo/disgelo) sia, soprattutto,
mediante l’attacco chimico, in quanto veicola le
sostanze nocive per la pietra presenti nell’atmosfera (anidride carbonica, ossidi d’azoto e anidridi
dello zolfo).
La veicolazione degli agenti inquinanti ad opera
dell’acqua avviene attraverso i pori della pietra,
per effetto di capillarità; è ben noto che i pori della
pietra possono essere distinti in macro pori, con
diametro maggiore di 500 Å, mesopori, con diametro compreso tra 500 e 20 Å e micropori, con
diametro inferiore ai 20 Å: questi ultimi sono i più
pericolosi dal punto di vista del degrado, in quanto in essi la penetrazione dell’acqua per capillarità
è più profonda.
Ovviamente il degrado della pietra ad opera degli
GLI
EFFETTI DEL DEGRADO
L’effetto del degrado, sia fisico che chimico determinato dall’acqua, consiste in un aumento della
porosità complessiva della pietra: per questo
motivo il marmo di Carrara della colonna Traiana
di Roma, dopo duemila anni di esposizione agli
agenti atmosferici, ha una porosità totale del 7%,
che, pur essendo nel complesso ancora relativamente bassa, è tuttavia quasi il doppio di quella
del marmo di cava.
Figura 1: Esempi di degrado di materiali lapidei: il Partenone di Atene con un particolare del fregio.
*
Dipartimento di Chimica e Chimica Industriale, Università di Genova
16
Ne consegue che, considerando la stratigrafia
della pietra degradata, si può distinguere la parte
originaria, sana, caratterizzata da una sua particolare porosità, a cui succede uno strato di pietra
degradata a porosità maggiore, che può raggiungere lo spessore del centimetro, ed a cui si sovrappone ancora uno strato sottile (dell’ordine del millimetro) di materiale estraneo derivante dallo
sporco che con il tempo si accumula sulla pietra.
Gli aspetti chimici del degrado sono variegati, ma
i più importanti sono quelli della solfatazione e
della formazione delle croste nere.
La solfatazione è dovuta alla trasformazione del
carbonato di calcio costituente la pietra in solfato
di calcio ad opera delle anidridi solforosa e solforica, contenute nell’atmosfera e provenienti dai
processi di combustione; si presenta talvolta come
spolvero fine e talvolta come crosta dura e compatta.
La crosta nera è un sistema complesso, costituito
da diverse componenti: in primo luogo dai residui
cristallini della roccia carbonatica su cui si forma,
che in generale hanno grana piuttosto grossa
(ricordiamo che il marmo è una roccia metamorfica e come tale è caratterizzata da grani cristallini
ben formati e di grosse dimensioni); in secondo
luogo da carbonato di calcio di grana cristallina
molto piccola, derivante dalla trasformazione del
bicarbonato di calcio che si è prodotto per azione
della pioggia acida e che si trova disciolto nell’acqua. Nella crosta sono inoltre presenti solfato e
nitrato di calcio, derivati dalla trasformazione del
carbonato ad opera degli inquinanti atmosferici, e
particellato, derivante dai processi di combustione
e che conferisce alla crosta il caratteristico colore
nero. La crosta nel suo complesso è dura e compatta per la presenza del gesso.
Figura 2: Esempi di degrado di materiali lapidei: statua
di marmo (Pontremoli).
applicata ad un manufatto non ancora esposto
all’azione dell’atmosfera oppure ad un manufatto
degradato e consolidato e dunque restaurato.
Il consolidamento si realizza attraverso il parziale
riempimento dei pori dello strato decoeso, in
modo da riportare il suo valore della porosità
totale a quello della pietra sana. Le caratteristiche
fondamentali di un buon consolidante debbono
essere:
– profondità di penetrazione;
– affinità chimica con la pietra, in modo che il
materiale consolidante distribuito all’interno dei
pori aderisca bene alle loro pareti interne;
– affinità fisica con la pietra, in modo che le sue
proprietà non si discostino troppo da quelle
della matrice ospitante;
– stabilità agli agenti fisici e chimici dell’atmosfera, in particolare alla luce, alle radiazioni ultraviolette, ed agli agenti inquinanti anche gassosi;
– mancanza di sottoprodotti dannosi per la pietra
in fase di applicazione;
– occupazione dei pori solo parziale, in modo da
IL RESTAURO: PULITURA, CONSOLIDAMENTO E PROTEZIONE
In base a quanto detto è facile intuire che le fasi
del restauro di un manufatto lapideo dovranno
essere tre: la pulitura, il consolidamento e la protezione.
La pulitura ha come obiettivo quello di rimuovere
le sostanze estranee alla pietra che si sono accumulate sulla superficie a seguito dei processi di
degrado. Si realizza con diverse tecniche, ma non
è questo l’argomento qui trattato.
Il consolidamento interessa lo strato ad alta porosità ed ha come obiettivo quello di ridare consistenza meccanica alla parte decoesa.
La protezione interessa lo strato superficiale del
manufatto, ed ha come obiettivo quello di isolare il
manufatto dall’ambiente esterno. Essa può essere
preventiva o conservativa, secondo che venga
17
consentire una buona permeabilità della pietra
ai gas e ai vapori;
– reversibilità; questo requisito (richiesto dalla
carta del restauro di Atene – 1931) è oggi
molto discusso in quanto si ritiene assolutamente inutile all’atto pratico, nella comune
consuetudine del cantiere.
I consolidanti attualmente utilizzati possono essere
classificati in due gruppi, a seconda della natura
chimica, in consolidanti inorganici e organici.
I primi sono composti che vengono veicolati nei
pori della pietra degradata in soluzione acquosa o
alcolica e che, per reazione con un componente
dell’ambiente, danno luogo ad un precipitato insolubile, che si deposita all’interno dei pori. I consolidanti organici invece sono sostanze polimeriche,
che vengono veicolate all’interno della pietra degradata sciolte in un solvente organico e che formano
un film continuo sulle pareti interne dei pori, per
semplice evaporazione del solvente stesso.
Tra i consolidanti inorganici, a titolo di esempio, si
può citare l’idrato di bario che, veicolato in soluzione acquosa, reagisce con l’anidride carbonica
dell’aria per formare all’interno dei pori un precipitato di carbonato di bario, insolubile. Come sottoprodotto della reazione si forma semplicemente
acqua, che, unitamente all’acqua del veicolante,
evapora attraverso i pori della pietra. Un secondo
esempio interessante è il silicato di etile, veicolato
in un solvente misto acqua/etanolo, il quale subisce una reazione d’idrolisi che porta alla precipitazione di silice; come sottoprodotto della reazione
si forma alcol etilico, molto volatile.
I consolidanti organici sono composti polimerici,
che appartengono a classi diverse: possiamo
ricordare i polimeri acrilici, i siliconici ed i fluorurati.
Ovviamente non esiste un consolidante ideale, che
abbia contemporaneamente tutti i requisiti sopra
elencati. Si proverà dunque a fare un confronto fra
i consolidanti organici e inorganici per illustrarne
pregi e difetti.
Per quanto concerne la profondità di penetrazione,
è indubbio che i consolidanti inorganici sono maggiormente efficaci, in quanto sono costituiti da
molecole di piccola dimensione, che possono
penetrare con facilità all’interno dei pori, anche a
diametro minore; i composti polimerici, d’altra
parte, sono sostanze macromolecolari, il cui diametro in soluzione è dell’ordine di alcune centinaia
di Å e come tali hanno difficoltà a penetrare nei
pori della pietra, limitandosi dunque a consolidare
solo lo strato più superficiale.
Per quanto concerne invece l’affinità chimica con
la pietra e dunque la possibilità di interagire con i
costituenti delle pareti dei pori, i polimeri hanno un
Figura 3: Esempi di degrado di materiali lapidei: chiesa
di Ferla (Siracusa).
indubbio vantaggio, in quanto non si limitano a
riempirli in parte con un semplice meccanismo
fisico (come fanno i consolidanti inorganici), ma
attraverso la formazione di un film continuo aderiscono bene alle pareti dei pori stessi.
L’affinità fisica rappresenta anch’essa un aspetto
favorevole ai consolidanti inorganici, in quanto
questi hanno la stessa natura chimica della pietra.
In particolare si rivela importante, a questo proposito, il coefficiente di dilatazione termica che deve
essere dello stesso ordine di grandezza per la pietra e per il consolidante; infatti un riscaldamento
accidentale del manufatto consolidato non deve
determinare dilatazioni diverse, capaci di produrre
scollamenti tra le due fasi.
La stabilità alla luce, alle radiazioni ultraviolette e
agli agenti chimici esterni è indubbiamente superiore per i consolidanti inorganici rispetto agli
organici, in quanto questi ultimi si degradano facilmente, tendendo ad ingiallire.
Per quanto concerne i sottoprodotti in fase di
applicazione, i consolidanti organici sono da preferirsi a quelli inorganici, in quanto il meccanismo
attraverso il quale si realizza il consolidamento
prevede, nel caso dei polimeri, la semplice evaporazione del solvente usato come mezzo veicolante,
senza che sia necessaria alcuna reazione chimica.
Negli esempi riportati per i consolidanti inorganici,
i sottoprodotti della reazione non sono dannosi per
la pietra in quanto possono facilmente evaporare,
ma altri composti comportano reazioni che lasciano nel manufatto sottoprodotti non volatili; questi
rimangono stabilmente nei pori, sono solubili in
acqua e, sciolti in essa, possono migrare da un
poro all’altro dentro la pietra.
Per quanto concerne infine la reversibilità, i con-
18
Figura 4: Esempi di degrado di materiali lapidei: Palazzo
del Toro, piazza San Babila (Milano).
solidanti organici sono migliori di quelli inorganici,
in quanto permane nel tempo la loro solubilità
nello stesso solvente organico che è stato impiegato per veicolarli. I consolidanti inorganici sono
precipitati insolubili e come tali del tutto irreversibili.
In conclusione, come si è detto, non si può individuare un consolidante che abbia contemporaneamente tutte le caratteristiche richieste. Di volta in
volta bisogna scegliere il consolidante più appro-
19
priato e molto spesso questa scelta viene fatta
sulla base di considerazioni del tutto soggettive.
Indubbiamente oggi i consolidanti organici sono
preferiti a quelli inorganici; questo richiede, considerati gli aspetti sopra riportati, che si tenti una
spiegazione possibile.
A tal proposito è necessario considerare la terza
fase del restauro e cioè la protezione che, come si
è detto, ha come obiettivo quello di isolare il
manufatto dall’azione dell’ambiente esterno, in
particolare dall’acqua, sia meteorica che di condensa. Questo si realizza con materiali idrorepellenti e dunque con composti polimerici, che, se
opportunamente scelti, hanno un elevato valore
dell’angolo di contatto.
È chiaro allora che se si impiega, nel restauro di
un manufatto lapideo, un composto polimerico,
questo può consentire il raggiungimento contemporaneamente di due obiettivi: il consolidamento e
la protezione. I consolidanti inorganici non sono
mai idrorepellenti e quindi non possono avere
azione protettiva: la loro applicazione alla pietra
richiede un successivo trattamento con un protettivo polimerico.
È ovvio che la scelta di un materiale polimerico
riduce i tempi del cantiere e quindi i costi complessivi del restauro.
Tra le classi dei polimeri ordinariamente impiegati
(acrilici, siliconici e fluorurati) i siliconici rappresentano un buon compromesso qualità/prezzo. I
polimeri acrilici hanno prezzi molto bassi, ma qualità modeste, sia per quanto riguarda la stabilità,
sia per quanto riguarda l’idrorepellenza; per contro
i fluorurati hanno stabilità eccezionale e valori dell’angolo di contatto molto elevati, ma il loro impiego è fortemente condizionato dal costo, che è
eccessivo per la maggior parte dei casi.
Stabilita dunque la preferenza accordata in generale ai materiali polimerici, rimane da risolvere il
problema della profondità di penetrazione. Questo
è un aspetto fondamentale per un consolidante,
che, per essere tale, deve penetrare nella pietra
degradata sino a raggiungere lo strato sano e non
può limitarsi a consolidare lo strato superficiale.
La soluzione al problema può essere trovata se si
considerano gli alchilalcossisilani. Questi composti sono precursori di consolidanti polimerici
siliconici, che si formano all’interno dei pori della
pietra a seguito di una reazione d’idrolisi dei
gruppi alcossi, seguita da un processo di policondensazione dei gruppi ossidrilici che si formano. Si tratta, come si vede, di un consolidante
polimerico che si forma all’interno della pietra a
seguito di una reazione chimica, caratteristica
questa che è propria dei consolidanti inorganici,
come detto.
LA
BIBLIOGRAFIA
POLIMERIZZAZIONE IN SITU
1
È questa la premessa per la polimerizzazione “in
situ” dei monomeri acrilici e fluorurati, che è stata
realizzata nei nostri laboratori. La pietra degradata
viene trattata non con il polimero preformato, ma
con il monomero o con una miscela di monomeri.
Queste sono molecole piccole e, come tali, possono agevolmente penetrare in profondità.
Successivamente questi monomeri vengono
indotti a polimerizzare mediante una semplice reazione radicalica che porta alla formazione del polimero direttamente all’interno dei pori, anche di
quelli più piccoli, che sono ordinariamente preclusi al polimero preformato.
Il processo è molto duttile ed attraverso di esso si
possono applicare alla pietra sia omopolimeri che
copolimeri; particolarmente interessanti si dimostrano i copolimeri contenenti piccole percentuali
di unità fluorurate, e che pertanto acquisiscono
migliori proprietà protettive.
Infine si sottolinea il fatto che questa tecnica è
applicabile non solo ai manufatti lapidei degradati, ma anche agli intonaci e ai calcestruzzi, che
presentano gli stessi problemi di consolidamento.
2
3
4
5
6
Figura 5: Schema generale della polimerizzazione in situ.
20
ESSENZIALE
Lazzarini L, Laurenzi Tabasso M. Il restauro della
pietra. Padova: Cedam 1996.
Amoroso GG, Camaiti M. Scienza dei materiali e
restauro. Alinea 1997.
Vicini S, Princi E, Moggi G, Pedemonte E. La
Chimica e l’Industria 1999;81:1013.
Vicini S, Margutti S, Princi E, Moggi G, Pedemonte
E. Macromol Chem Phys 2002;203:1413.
Vicini S, Margutti S, Moggi G, Pedemonte E. J
Cultural Heritage 2001;2:143.
Vicini S, Princi E, Pedemonte E, Lazzari M,
Chiantore
O.
J
Applied
Polymer
Sci
2004;91:3202.
POLYMERS
AND
LIFE
CELLULE
STAMINALI ACCOPPIATE
A SUPPORTI DI CRESCITA POLIMERICI:
NUOVA FRONTIERA DELLA MEDICINA
RIGENERATIVA O “ELISIR DI LUNGA VITA”?
di Gianluca Tell*
COSA
assicurato. Quindi, le cellule staminali sono potenzialmente in grado di ovviare alla scarsità di cellule e tessuti da trapiantare e quindi rappresentano
un’ottima alternativa terapeutica.
SONO LE CELLULE STAMINALI?
Le cellule staminali sono le cellule “fondatrici”
(capostipiti) di ogni organo, tessuto e tipo cellulare dell’organismo. Rappresentano una sorta di
microchip programmabile ad eseguire qualsiasi
tipo di operazione specializzata. Le cellule staminali sono cellule “indifferenziate” (vedi articolo
dello stesso autore AIM Magazine, vol. 57 1-2,
2003), che non hanno ancora acquisito alcuna
specifica funzione se non la capacità di poter divenire un qualsiasi tipo cellulare. In particolari condizioni, le cellule staminali iniziano a “differenziare” e a svilupparsi in specifici tessuti ed organi.
Una delle caratteristiche fondamentali delle cellule
staminali è la loro capacità di “autoriprodursi” per
lunghi periodi di tempo. Sono, per così dire,
immortali.
Queste specifiche caratteristiche rendono le cellule staminali molto promettenti per la cura di
malattie degenerative gravemente debilitanti
come il morbo di Alzheimer, il diabete di tipo 1, il
morbo di Parkinson, l’infarto e le cardiopatie, l’osteoartrite e l’artrite reumatoide, nonché il cancro.
Oggigiorno, la strategia adottata per rimpiazzare
un organo non funzionante, come il fegato, il
cuore, il pancreas o i reni, è il trapianto da donatore. Sfortunatamente, però il numero dei pazienti
che necessitano di un tale intervento supera di
gran lunga la disponibilità degli organi da trapiantare e, nonostante siano comunque migliorate
ampiamente, le strategie di trapianto presentano
dei rischi e il successo terapeutico non è sempre
DOVE
ORIGINANO LE CELLULE STAMINALI?
Si riconoscono due categorie principali di cellule
staminali: quelle embrionali e le staminali adulte.
Tutti gli esseri umani iniziano la propria vita da una
singola cellula detta zigote, che si forma dopo la
fecondazione dell’ovulo. Lo zigote, dopo una serie
di divisioni multiple successive che dura circa 5
giorni, dà origine ad un agglomerato sferico cavo
detto blastocisti. Questa struttura, più piccola di un
granello di sabbia, contiene due tipi di cellule: il
trofoblasto e le cellule della massa interna. Le cellule staminali embrionali costituiscono queste ultime
cellule. Poiché le cellule staminali embrionali sono
in grado di dare origine a tutti i tipi di cellule adulte,
vengono anche definite cellule staminali pluripotenti o totipotenti. Gran parte delle conoscenze relative
alle cellule staminali provengono dagli studi effettuati nel topo come organismo modello. Infatti,
mentre la scoperta delle cellule staminali embrionali nel topo risale al 1981, nell’uomo è molto più
recente, essendo datata 1998.
È possibile trovare alcune cellule staminali anche
in tessuti di individuo adulto, che vengono pertanto definite staminali adulte. Per esempio, le cellule staminali del midollo osseo possono dare origine a tutti i tipi specializzati di cellule del sangue
(cellule staminali ematopoietiche). Inoltre, nel
*
Docente di Biologia Molecolare presso il Corso di Laurea in Biotecnologie, Dipartimento di Scienze e Tecnologie Biomediche,
Facoltà di Medicina e Chirurgia, Università di Udine
21
vo trapianto nel paziente affetto. Dal punto di vista
pratico, tuttavia, vi sono una serie di difficoltà
all’applicazione delle terapie basate sull’utilizzo
delle cellule staminali nella medicina rigenerativa.
Una prima difficoltà è quella di identificare le cellule staminali dal tessuto adulto che è costituito da
diverse popolazioni di cellule e dove le cellule staminali rappresentano un esiguo numero.
Un secondo problema, una volta identificate le cellule staminali, è rappresentato dalla messa a
punto di un’opportuna strategia volta al differenziamento della cellula staminale nella cellula specializzata voluta.
In generale, si ritiene che le cellule staminali di
derivazione embrionale e fetale siano più versatili
di quelle di derivazione adulta, tuttavia gli studi
mirati allo sviluppo di strategie adeguate per il differenziamento di cellule staminali embrionali in
cellule specializzate sono ancora in corso. Un problema ancora aperto riguarda le caratteristiche
delle cellule staminali embrionali che, data la loro
elevata velocità di crescita, sono in grado di generare tumori detti teratomi.
Un successivo problema, non secondario, è rappresentato dall’interazione della cellula staminale
differenziata “in vitro”, una volta “trapiantata” nel
paziente: questa cellula deve “integrarsi” nel tessuto del paziente ed “imparare” a funzionare nel
contesto in cui è inserita. Ad esempio, le cellule
cardiache differenziate che in vitro hanno capacità
contrattili possono non averle una volta trapiantate o possono non contrarsi in maniera sincrona
con le cellule del tessuto circostante. Inoltre, come
nei trapianti classici, rimane il problema del rigetto qualora le cellule trapiantate fossero di derivazione eterologa.
Quindi, la ricerca sulle cellule staminali e la loro
applicazione in ambito biomedico è ancora agli
inizi nonostante i risultati preliminari sui modelli
animali siano piuttosto confortanti.
midollo osseo, vi sono cellule staminali endoteliali, che daranno origine alle cellule del sistema
vascolare (di arterie e vene) e le cellule staminali
mesenchimali che formeranno l’osso, la cartilagine e i muscoli. Le cellule staminali adulte, tipicamente programmate per dare origine a diversi tipi
cellulari del tessuto da cui derivano, vengono definite multipotenti proprio per indicare il fatto che
non possono dare origine a tutti i tipi cellulari ma
solo ad alcuni. Recentemente, è stata coniata una
teoria della cosiddetta “plasticità delle cellule staminali adulte” secondo la quale queste cellule
avrebbero una maggiore potenzialità a dare origine a più tipi cellulari diversi rispetto all’atteso. Ciò
significa che le cellule staminali presenti nel
midollo osseo potrebbero dare origine ad altri tipi
cellulari rispetto a quelli indicati precedentemente,
potendo così contribuire a rimpiazzare cellule danneggiate di tessuti specializzati come il fegato, il
rene, il cuore ecc.
Le cellule staminali adulte non sono state individuate in tutti i tessuti ed organi. In alcuni tessuti,
come il cervello, benché esse esistano, tuttavia
non sono molto attive e quindi non rispondono
così prontamente ai danni cellulari.
Uno degli obiettivi degli scienziati è quello di individuare nuove metodologie atte a promuovere la
crescita delle cellule staminali e il loro differenziamento nei tipi cellulari in grado di rimpiazzare le
cellule morte o danneggiate. Ancora, le cellule
staminali possono anche essere ottenute da altre
fonti quali il cordone ombelicale dei neonati: risulta evidente che questo costituisca una sorgente
molto più accessibile di cellule staminali rispetto al
cervello e al midollo osseo dell’adulto.
Recentemente, infine, altre fonti di cellule staminali si sono dimostrate essere i denti dei bambini e
il fluido amniotico; queste cellule possono essere
cresciute in laboratorio ma solo per limitati periodi di tempo e quindi la ricerca in questi ambiti
scientifici è ancora agli albori.
QUALI
QUALI
SONO LE POTENZIALI APPLICAZIONI DELLE CELLU-
PATOLOGIE
POSSONO
ESSERE
ATTUALMENTE
CURATE CON LE CELLULE STAMINALI?
LE STAMINALI UMANE E GLI ATTUALI LIMITI?
In linea teorica tutte le patologie su base degenerativa (vedi sopra) potrebbero essere affrontate
con l’utilizzo delle cellule staminali per rimpiazzare cellule morte o difettose. Inoltre, la totipotenzialità delle cellule staminali embrionali fa sperare
che, un giorno, sarà possibile produrre un intero
organo (cuore, fegato, reni) o tessuto (pelle, cartilagine, osso) risolvendo quindi gran parte dei problemi legati ai trapianti.
Un esempio delle applicazioni attuali della terapia
con cellule staminali è rappresentato dalla cura di
alcuni tumori di origine ematopoietica, quali le
La maggior parte delle cellule del corpo umano
non possono essere rimpiazzate in maniera efficiente attraverso i naturali processi rigenerativi
qualora subiscano danni di tipo irreversibile.
Quindi, le cellule staminali, essendo in grado di
generare cellule specializzate sane, possono, in
linea di principio, essere utilizzate allo scopo di
sostituire le cellule danneggiate. Per esempio, nel
caso del morbo di Parkinson, l’utilizzo delle cellule
staminali è volto alla generazione di cellule nervose in grado di produrre dopamina per il successi-
22
leucemie, i linfomi e alcune malattie ereditarie,
attraverso i trapianti di midollo osseo che, come
abbiamo visto, contengono un certo numero di
cellule staminali ematopoietiche adulte in grado di
differenziare nei tipi cellulari del sangue.
Attualmente, nuove strategie per applicazioni in
ambito prettamente clinico delle cellule staminali
sono in fase di studio per la terapia di patologie
epatiche, patologie vascolari, disturbi metabolici,
patologie autoimmuni, malattie infiammatorie di
tipo cronico (lupus) nonché per il trattamento di
altri tipi di tumori.
COS’È
numerosi tumori che causano perdita di massa
ossea.
Quest’area applicativa richiede la messa a punto
di una serie di dettagliati ed efficienti protocolli
sperimentali al fine di dirigere il differenziamento
delle cellule staminali in cellule della linea osteogenica (in grado di produrre la matrice ossea),
seguita dalla selettiva purificazione di queste cellule e dalla loro proliferazione in vitro. Questi protocolli devono ridurre la possibilità di un differenziamento spontaneo delle cellule, una volta trapiantate, in altri tipi cellulari ed impedire la formazione di teratomi, nel caso dell’utilizzo di cellule
staminali embrionali. A tali fini, è indispensabile lo
sviluppo di opportuni trattamenti farmacologici
associati ad adeguati tests per lo screening della
citotossicità dei biomateriali che vengono utilizzati
per il trapianto stesso.
Il tessuto osseo è costituito da un insieme eterogeneo di tipi cellulari (cellule della linea osteoide e
cellule della linea endoteliale) situate all’interno di
una matrice tridimensionale mineralizzata che
serve per il mantenimento della propria integrità
strutturale. Questa matrice è costituita sia da componenti organiche che inorganiche. Queste ultime,
che costituiscono la maggior parte del peso secco
della matrice, sono composte essenzialmente da
minerali di calcio nella forma di idrossiapatite e da
numerose altre impurità come il carbonato.
Inoltre, sono presenti anche sali inorganici di
magnesio, potassio, fluoruro, fosfato e citrato. La
componente organica è composta essenzialmente
da collagene di tipo I (> 95% del peso secco), da
altri tipi di collagene e da proteine non collageniche come l’osteocalcina, l’osteopontina, la fibronectina, la trombospondina e i proteoglicani. Oltre
al ruolo di tipo strutturale, la matrice extracellulare svolge anche un importante ruolo di tipo regolativo nei confronti della proliferazione e del differenziamento delle cellule del tessuto osseo stesse.
Pertanto, l’introduzione di opportune componenti
della matrice extracellulare nelle colture “in vitro”
di cellule staminali sembra essere di fondamentale importanza per il loro differenziamento a cellule
che costituiranno la matrice ossea. A questo
scopo si stanno utilizzando sia componenti naturali della matrice sia composti e strutture di sintesi.
Una delle importanti caratteristiche dei biomateriali che vengono utilizzati per gli scopi sopraccitati è la biocompatibilità e la biodegradabilità. Allo
scopo vengono spesso utilizzate strutture polimeriche tridimensionali di opportuna porosità in
grado di consentire la vascolarizzazione e la crescita delle cellule del trapianto. Infatti, queste
strutture di matrice vengono spesso fabbricate
sottoforma di schiume porose o di granuli.
LA MEDICINA RIGENERATIVA?
L’obiettivo principale della medicina rigenerativa è
la riparazione di organi o tessuti danneggiati da
eventi patologici, invecchiamento o traumi in
maniera da ripristinarne o migliorarne il funzionamento biologico. Il termine viene comunemente
utilizzato ad indicare quelle strategie mediche in
ambito di ricerca o terapeutico che fanno uso delle
cellule staminali (embrionali o adulte) a tali fini.
Questo può essere ottenuto attraverso diverse
modalità: primo, mediante la somministrazione di
cellule staminali o determinate cellule derivate
dalle cellule staminali ottenute in laboratorio;
secondo, tramite la somministrazione di farmaci in
grado di stimolare le cellule staminali già presenti
nell’organismo malato ad una più efficace attività
di riparo del tessuto malato. Attualmente, l’unica
strategia applicativa in ambito medico che fa uso
delle cellule staminali è il trapianto di midollo
osseo. Seppur promettente, l’utilizzo delle cellule
staminali embrionali per la terapia medica è, come
detto, ancora nelle sue fasi iniziali.
LA
MEDICINA RIGENERATIVA PER LA PRODUZIONE DI TES-
SUTO OSSEO: UN ESEMPIO CONCRETO
Una delle maggiori aree di interesse per la medicina rigenerativa è rappresentata dall’utilizzo delle
cellule staminali nella ricostruzione dell’osso e nell’ingegneria tissutale ossea per la chirurgia ricostruttiva. Quest’ambito di ricerca sta gradualmente acquisendo ulteriore importanza in seguito alla
crescente incidenza di patologie di tipo osteodegenerativo associate all’aumento della vita
media delle popolazioni nei paesi sviluppati. In
particolare, l’osteoporosi e l’osteoartrite rappresentano uno dei maggiori problemi di sanità pubblica poiché affliggono una significativa percentuale della popolazione anziana. Inoltre, l’ambito
applicativo di questa branca della medicina rigenerativa ricopre anche le patologie ossee di tipo
traumatico nonché quelle di origine genetica e
23
L’attecchimento, la proliferazione e il successivo
differenziamento osteogenico delle cellule staminali mesenchimali sulla matrice artificiale dipende
da una serie di fattori: a) la composizione chimica
del substrato; b) la carica elettrostatica; c) la ruvidità e la configurazione geometrica spaziale del
supporto. Tutti questi parametri svolgono senz’altro un ruolo importante ma forse quello fondamentale è la natura chimica del supporto.
Normalmente, le matrici artificiali sono costituite
da componenti organiche ed inorganiche in buona
parte di origine naturale come il collagene, l’acido
ialuronico, il calcio mineralizzato, la fibrina; tuttavia, anche matrici di origine sintetica (costituite da
polimeri sintetici di acido-co-glicolico, di glicole
etilenico, di ε-caprolattone, per esempio) sono
state ampiamente utilizzate.
Comunque, nonostante le promettenti prospettive,
siamo solo di fronte all’alba di una nuova era della
moderna medicina e molta strada resta ancora da
percorrere attraverso la comprensione dei complessi meccanismi responsabili del differenziamento cellulare per un fine applicativo.
Parafrasando un recente saggio di A. Vescovi, è
piacevole però pensare alla promessa delle cellule staminali come “la cura che viene da dentro” di
noi: è forse questo l’elisir di lunga vita??
BIBLIOGRAFIA
CONTATTI IN RETE
http://www.stemcellnetwork.ca
http://stemcells.nih.gov
http://www.stemcellresearchnews.com
http://www.clinicaltrials.gov
Vescovi A. La cura che viene da dentro. Mondadori
2005.
La nuova frontiera della medicina rigenerativa, l’utilizzo delle cellule staminali per la riparazione di tessuti danneggiati, riprende il mito
di Prometeo dell’antichità classica. Il C.I.M.E. è
il Centro Interdipartimentale di Medicina
Rigenerativa che si è costituito a Udine con l’obiettivo di implementare questi studi nell’ambito delle patologie dell’osso, della rigenerazione cardiaca ed epatica.
24
POLYMERS
FORSE
AND
LIFE
NON SAPEVATE CHE
…
di Roberto Filippini Fantoni
PREMESSA
Continuiamo questa rubrica prendendo in considerazione le proprietà di un alimento molto comune e
gradito non solo per il fatto di essere dolce.
Dopo aver trattato dei miasmi provocati dal solfuro di selenio e dell’infido veleno qual è il solfato di tallio sono stato scherzosamente accusato di catastrofismo.
Con questo panegirico sulle positive proprietà del cioccolato, e soprattutto della cioccolata, spero di
confortare coloro che si erano smarriti nella negatività dei due precedenti articoli.
Tutte le notizie più importanti sono, ancora una volta, tratte dal libro “Molecules at an Exhibition.
Portraits of intriguing in everyday life” di John Emsley.
Buona lettura!
LA
CIOCCOLATA E I SOGNI
AZTECHI
La cioccolata contiene 60% di carboidrati, 8% di
proteine e 30% di grassi e 100 grammi forniscono
520 calorie. Ci sono però vari minerali e vitamine
essenziali:
Nessun alimento provoca reazioni emotive come
la cioccolata.
Alcuni la considerano alla stregua di “tentazione
diabolica” e cercano di evitarla.
Tra gli effetti negativi che più si evidenziano c’è la
grossa concentrazione di zuccheri e di grassi, le
enormi calorie assorbite e il cacao che può generare emicranie.
Un’indagine nel Regno Unito ha dimostrato che i
maggiori consumatori sono le donne (40%) mentre i bambini sono al secondo posto (35%) e gli
uomini buoni ultimi (25%).
Alcune donne si dichiarano cioccolatomani e non
riescono a farne a meno; inoltre il maggior consumo sembra collocarsi nei giorni pre-mestruali.
L’autrice del libro “Chocolate” ritiene che se anche
la cioccolata contiene molte sostanze attive sull’organismo, alcune delle quali sono simili agli
ormoni naturali, non si può averne dipendenza.
Nella cioccolata esse cercano conforto attirate
dalla dolcezza, dal gusto voluttuoso e dalla sua
consistenza in bocca.
Minerali
mg
Vitamine
potassio
420
A
8
cloro
270
B1
0,1
fosforo
240
B2
0,24
calcio
220
E
0,5
sodio
120
PP
1,6
magnesio
25
55
ferro
2,6
rame
0,3
zinco
0,2
mg
Si può notare che nonostante non sia un alimento
completo (mancano le vitamine C e D) la cioccolata e il cioccolato costituiscono eccellenti razioni
di emergenza per soldati ed esploratori.
Inoltre contiene tre sostanze non nutrienti ma che
sono influenti sull’organismo.
Una delle tre sostanze è la feniletilammina che può
avere qualche effetto inebriante sul cervello.
Già i Maya quando scoprirono la cioccolata, una
bevanda consumata dalle classi dominanti, sapevano di questi effetti stimolanti.
La nobiltà azteca che la chiamava xocalatl “acqua
amara”, da cui il nome attuale (in realtà era un
liquido schiumoso mescolato con cannella e farina
di mais), aveva riservato per sé il cacao e ne
aveva vietato l’uso alle donne – per i mariti il vietarlo alle mogli era come tirarsi la zappa sui piedi,
ma ben si sa che la gelosia è più forte della soddisfazione sessuale in famiglia.
Quando il cacao arrivò in Europa lo seguì la fama
di alimento afrodisiaco. La fama crebbe a tal punto
che nel 1624 uno scrittore dedicò un libro intero
per condannarla affermando, in un eccesso di
puritanesimo, che era capace “di accendere violente passioni”. In poche parole un Viagra ante-litteram.
Lo stesso Casanova asseriva di esserne un forte
consumatore.
Nonostante le convinzioni del famoso amatore
veneziano la cioccolata non è un afrodisiaco, ma
la verità sta nel fatto che può influenzare il cervello. Delle 300 sostanze che gli analisti hanno trovato nella cioccolata due hanno effetti stimolanti e
sono la caffeina, a tutti ben nota, e la teobromina,
simile alla prima dal punto di vista chimico e che
deve il suo nome all’albero del cacao scientificamente chiamato Teobroma cacoa (cibo degli dei).
Comunque è la feniletilammina (FEA) il componente capace di indurre un senso di benessere ai
golosi bevitori di cioccolata o ai mangiatori di
cioccolato: essa è presente in riguardevoli concentrazioni (0,7%). Test eseguiti iniettandola in
individui umani hanno dimostrato che la pressione
sanguigna aumenta così come il livello di zucchero nel sangue: due effetti entrambi capaci di dare
lucidità e sensazione di benessere. Può essere che
la FEA stimoli la produzione di dopamina dei cui
effetti sul cervello siamo tutti al corrente, dopo che
molti dei nostri giovani s’impasticcano con l’estasy. Anche il nostro organismo produce la FEA e
soprattutto in situazioni di stress. Nei bambini
schizofrenici e iperattivi il livello di FEA sale a
livelli abbastanza alti. Ci sono individui che non
sopportano bene l’eccesso di FEA e quindi mangiando cioccolato si ritrovano con forti dolori di
testa a causa di una costrizione dei vasi sanguigni
celebrali. L’organismo, che non la sopporta molto,
utilizza l’enzima monoamminoossidasi per eliminarla in buona parte e pare che quelli che soffrono di mal di testa mangiando cioccolato non producano sufficienti quantità di tale enzima.
E cosa diciamo dell’alto livello di grassi contenuti
nel cacao?
Le moderne teorie dicono di non preoccuparcene:
pare che non faccia aumentare il colesterolo.
Infatti quei grassi sono quasi esclusivamente grassi saturi.
Tali grassi non si sciolgono lentamente come gli
insaturi. Allora è consigliato tenere in bocca un
pezzo di cioccolato per un po’ di tempo affinché i
grassi saturi presenti possano sciogliersi e inoltre
si avrà il vantaggio che l’intenso aroma e il sapore possono diffondersi meglio. Il burro di cacao
può solidificare in diverse forme cristalline a
seconda della temperatura. Solo una di queste è
adatta a fare cioccolato ed è per questo che il
lavoro del cioccolataio è un’arte raffinata e delicata. Il fuso necessita di una cura particolare per il
suo raffreddamento in modo che solidifichi nella
forma cristallina corretta. La patina bianca che
dopo un po’ di tempo si nota su cioccolati conservati a lungo non è muffa ma solo una delle tante
forme cristalline del burro di cacao ed è perfettamente commestibile.
Fu lo svizzero Henri Nestlè che nel 1876 inventò il
cioccolato al latte mescolando al cacao il latte
condensato così da rendere il gusto più leggero e
adatto ai bambini.
L’ACIDO
OSSALICO, UNA TOSSINA PERICOLOSA: MA CHE
PENTOLE!
Il cacao contiene anche acido ossalico – una
sostanza dannosa – in ragione dello 0,5% ed è una
delle sostanze nutrienti che ne è più fornito (lo precedono la bietola con 0,7%, gli spinaci con 0,6%).
Il rabarbaro che ne contiene la stessa quantità ha
fama di contenerne assai per aver causato la
morte di alcune persone ghiottissime delle torte
nella quale si inserisce tale rabarbaro e della quale
gli americani sono ghiotti.
L’acido ossalico diventa fatale a livelli di 1.500
mg.
Oggi il rabarbaro non è molto usato ma nel passato era famoso per i suoi effetti lassativi in quanto l’intestino era stimolato a liberarsi rapidamente
del suo composto tossico, l’acido ossalico appunto. I cioccolatomani non devono comunque temere perché il contenuto di acido ossalico nel cioccolato è talmente basso che si arriverebbe alla
saturazione prima di poter raggiungere il livello
fatale.
26
perché. Questa sua dote di reagire facilmente con
i metalli impedisce all’organismo di assorbirne
quantità utili e pertanto è definito un anti-nutriente. Gli spinaci, famosi per il loro contenuto in ferro,
in effetti non permettono all’organismo di utilizzarne più del 5% in quanto il resto del ferro è bloccato dall’acido ossalico in essi presente. Se volete
imitare Braccio di Ferro non mangiate spinaci!
L’acido ossalico in forti quantità è un veleno in
quanto abbassa a valori critici la quantità di calcio
nel sangue. In dosi non letali è comunque pericoloso in quanto l’ossalato di calcio, insolubile,
forma dolorosi calcoli ai reni e alla cistifellea.
Eccessi di uso di vitamina C possono far sì che
l’organismo la trasformi in acido ossalico con i
conseguenti calcoli.
Per ritornare al nostro cioccolato ricordiamoci che,
se ne faremo un uso modesto e tale da consentirci anche di non ingrassare a causa del suo alto
contenuto calorico, non ci avveleneremo con l’acido ossalico in esso contenuto, né ci drogheremo
con la feniletilammina.
Al contrario, se il rabarbaro, come accadeva all’inizio del secolo scorso, viene mangiato come verdura il raggiungimento della soglia letale è assai
più facile e si devono registrare molte morti per
avvelenamento.
Nella medicina tradizionale cinese il rabarbaro è
impiegato da oltre 4.000 anni e proprio da lì fu
importato un paio di secoli prima della nascita di
Cristo.
Fu il famoso chimico-farmacista svedese Scheele
che, nel 1784, lo scoprì nelle radici e dimostrò che
le foglie ne contenevano troppo per poter essere
commestibili. Si pensa che la pianta di rabarbaro
lo usi come difesa contro il bestiame.
In epoca vittoriana se ne usava in grandi quantità
per fare torte, marmellate e persino vino di rabarbaro. Si cucinavano gli steli lessandoli con un po’
di acqua e zucchero. Quando si cominciarono a
usare pentole di alluminio si scoprì un’altra dote
del rabarbaro: al termine della cottura le pentole
erano perfettamente pulite e questo era dovuto
alla presenza di acido ossalico. Oggi nella pulizia
industriale di parti metalliche l’acido ossalico è
usato come decapante e tutti i chimici sanno il
Cioccolata sì, ma in giusta misura!
Avviso
Per aiutare a tenere alto il livello di interesse di questa rubrica invitiamo i lettori che disponessero di notizie strane o aneddoti su materiali macromolecolari di inviarli, via posta elettronica, al curatore di questa rubrica ([email protected])
27
MACROTRIVIAL
A THORPEDO’S
TALE:
POLIMERI E NUOTO
di Eleonora Polo
Thorpedo, uno dei soliti errori di battitura che ci
scappano qua e là? Nooo! Thorpedo è il soprannome del famoso campione di nuoto australiano
Ian Thorpe, che ci accompagnerà in questa carrellata sulla tecnologia associata al nuoto.
UN
PESCE FUOR D’ACQUA
Pur essendoci lasciati alle spalle la nostra vita
acquatica primordiale da qualche era geologica,
l’elemento liquido, pur suscitando a volte timori e
paure, non ha mai cessato di affascinarci e attirarci. L’acqua costituisce per noi un limite da superare e una sfida per le nostre capacità, messe a dura
prova dalla ricerca esasperata di velocità e resistenza alla fatica delle competizioni sportive.
Come sempre, il risultato è frutto della combinazione di carattere, talento, tecnica sportiva e tecnologia. Doti naturali ed allenamento sono punti di
partenza irrinunciabili, ma tecnica e materiali
fanno la differenza. Vediamo come.
SCIVOLARE
decine di migliaia di anni perché la tecnica natatoria si evolvesse fino al punto in cui siamo oggi, e
ancora non sappiamo per certo se siamo sulla strada giusta oppure no” 1.
Per muoversi in un ambiente liquido gli esseri
umani devono necessariamente affidarsi ad una
tecnica che comporta la produzione di forti turbolenze. La resistenza dell’acqua, che a dispetto dell’apparenza resta comunque un liquido viscoso, è
il più grande alleato di un nuotatore, ma anche un
nemico da sconfiggere; infatti, permette la messa
in moto di un corpo, ma allo stesso tempo ne rallenta il movimento. La velocità raggiunta da un
nuotatore dipende sia dalla potenza della propulsione sia dalla riduzione del freno prodotto dagli
attriti viscosi tra corpo e acqua. Quindi, la posizione ed il movimento di braccia e gambe devono
essere attentamente controllati per spingere indietro quanta più acqua possibile senza creare eccessivi vortici e turbolenze. In un regime turbolento,
infatti, gli attriti viscosi sono maggiori che in un
regime laminare.
I principali tipi di resistenza che i nuotatori devono
affrontare sono:
a) attrito superficiale (8%): è dovuto a rugosità e
irregolarità delle superfici (pelle, capelli, peli,
costumi da bagno) a contatto l’acqua. Per ridur-
VIA: CI VUOLE UN FISICO BESTIALE?
“Nonostante il nostro organismo sia costituito per il
65% da acqua, quando un essere umano entra in
acqua la percepisce come un elemento estraneo,
per il quale risulta scarsamente dotato ai fini della
locomozione. Mentre i pesci e altri animali acquatici sono forniti di pinne relativamente piccole rispetto alle loro dimensioni corporee, noi abbiamo due
paia di arti lunghi e sottili con una scarsa superficie da opporre alla resistenza dell’acqua. Possiamo
raggiungere una velocità massima in acqua di
appena sei miglia all’ora, mentre i delfini e alcuni
pesci arrivano a cinque volte tanto. Ci sono volute
28
= 1,97 m/sec; vmedia = 1,83 m/sec). Il nuotatore,
al massimo del rendimento, riesce a produrre
due onde (una grossa davanti al petto e un’altra
fra cosce e piedi) di dimensioni tali da poter letteralmente “surfare” su di esse, una volta raggiunta la velocità ottimale. Il suo modo di nuotare è stato definito anche come “un coltello arroventato che taglia un panetto di burro”.
lo i nuotatori indossano costumi aderenti che
esercitano anche un’azione contenitiva sui
muscoli, lubrificano la pelle esposta, si depilano, rasano barba, capelli e sopracciglia (o
indossano cuffie);
b) resistenza di forma (56%): dipende dalla struttura corporea del nuotatore ed aumenta quanto
più il corpo affonda nell’acqua. Essa produce
una vasta area superficiale che spinge l’acqua
in direzione opposta al movimento. Si può ridurre adottando un assetto di nuoto non proprio
naturale, ma più idrodinamico, cioè facendo
rotolare il corpo da un lato all’altro ad ogni bracciata e sollevando la testa il meno possibile
durante la respirazione;
c) resistenza trasversale (36%): è dovuta alla turbolenza prodotta dall’avanzamento di un corpo
in movimento. L’acqua non riesce a colmare
immediatamente il vuoto che si produce dietro
il nuotatore, per cui si creano microvortici di
acqua e bolle d’aria. Per farci un’idea di quanto
“pesi” questo tipo di attrito, basti pensare che è
stato calcolato che sulla schiena di Ian Thorpe
si producano circa 70 kg di “acqua morta”.
Un controllo costante dell’assetto del corpo è fondamentale nel corso di allenamenti e gare, ma è
inevitabile che l’affaticamento finisca per far perdere coordinazione muscolare, per cui bisogna riuscire a ritardare il più possibile il momento in cui
insorge la fatica. Qui entrano in campo le nuove
tipologie di divise da nuoto adottate negli ultimi
otto anni dai nuotatori professionisti; esse hanno
reso possibile un maggiore controllo motorio in
acqua e l’innalzamento della soglia di fatica, attraverso la riduzione dell’oscillazione dei muscoli e
della produzione di acido lattico. Per la loro messa
a punto sono state adottate le stesse tecniche di
calcolo fluidodinamico impiegate nella progettazione di automobili, aerei e barche.
Vari campioni e campionesse di nuoto hanno collaborato al loro perfezionamento in due modi:
i) direttamente, facendosi studiare in acqua o
nella galleria del vento;
ii) per mezzo di manichini perfettamente identici
realizzati a Hollywood sulla base di scansioni
computerizzate dei loro corpi, per tutti quegli
studi che richiedevano una permanenza in
acqua troppo prolungata.
DAI
CURIOSITÀ N° 1 – SURF
MUTANDONI AI NUOVI COSTUMI DA COMPETIZIONE
Se confrontiamo la foto di Alfréd Hojós, il nuotatore ungherese vincitore dei 100 e 200 metri stile
libero alle Olimpiadi di Atene del 1896, con quella di Ian Thorpe, sempre ad Atene, ma nel 2004,
ci rendiamo subito conto di quanto sia cambiata la
concezione di costume da competizione in poco
più di un secolo di gare olimpiche.
Nel 1998 Adidas è stata la prima azienda a pro-
IN PISCINA
Il dott. Bruce Mason, del Dipartimento di
Biomeccanica dell’Istituto Australiano dello
Sport, ha elaborato una teoria per spiegare la
velocità (v) elevata raggiunta nello stile libero
dal campione Ian Thorpe (ad es., nei 200 m, vmax
29
nuovo di tipo di divisa da nuoto basato sulla tecnologia degli aerei, l’Adidas JetConceptTM, indossata per la prima volta in gara da Ian Thorpe ai
Campionati del Mondo di Barcellona (2003).
Le divise hanno cuciture piatte, gambe e braccia
presentano zone a compressione differenziata e
sono stati introdotti nelle aree di propulsione (dalle
ascelle, attraverso la zona lombare, fino ai glutei)
fasci di pannelli a coste triangolari che aiutano a
controllare la turbolenza intorno al corpo e incanalano l’acqua, in modo da ridurne la quantità che
si scarica sulla schiena. L’ispirazione è venuta studiando le scanalature a V che sono collocate su ali
e fusoliera degli aerei di linea per migliorarne l’ae-
durre divise da nuoto che coprono interamente il
corpo dei nuotatori. I nuovi materiali impiegati (a
base di Lycra® Power) si sono dimostrati più efficaci di qualsiasi depilazione nella riduzione dell’attrito superficiale ed hanno anche consentito un
migliore galleggiamento, perché sono così aderenti al corpo che l’acqua non riesce a penetrare
all’interno da collo, polsi e caviglie. Questa fibra
esercita anche una compressione graduata in vari
punti del corpo con un meccanismo analogo alle
calze contenitive. Questa compressione migliora il
microcircolo sanguigno e stimola le terminazioni
nervose superficiali, agendo anche a livello subconscio sulla percezione del movimento e fornendo la sensazione di possedere una “seconda
pelle”. Tutti questi fattori contribuiscono a ritardare l’insorgere dell’affaticamento muscolare e riducono la conseguente perdita di coordinazione
motoria.
Una volta affrontato il problema dell’attrito superficiale, dopo le Olimpiadi di Sydney (2000),
Adidas si è impegnata anche nel cercare di ridurre la resistenza di forma. È stato messo a punto un
rodinamicità.
I punti più critici da risolvere sono stati:
a) trovare un materiale che non compromettesse
l’estensibilità e l’aderenza dei costumi: il silicone è risultato il più adatto a questo scopo;
b) ottimizzare le dimensioni dei pannelli: se sono
troppo piccoli o troppo grandi, l’acqua scorre
nei solchi sviluppando un’area superficiale
maggiore di quella di un costume standard.
Con le nuove divise le prestazioni degli atleti sono
migliorate del 3% e non si tratta di un guadagno
trascurabile, visto che ormai una manciata di cen-
CURIOSITÀ N°2
L’antenata
del
JetConceptTM
venne
inventata nel 1915 da
Charles Homewood. Nella
tuta sono inserite piccole
tasche triangolari che si
chiudono quando gli arti si
muovono in avanti e si
aprono nella fase di propulsione per dare più forza
ai movimenti di braccia e
gambe.
30
tesimi di secondo può fare la differenza fra medaglia d’oro e medaglia d’argento.
Naturalmente anche le altre aziende concorrenti
(Speedo, Nike, Tyr, Arena) non sono rimaste a
guardare ed hanno prodotto nuovi costumi da
competizione: anche in questo caso i miglioramenti ottenuti sono il risultato di una sapiente
combinazione di materiali e modifiche strutturali.
Il modello Fast Skin II® (prodotto da Speedo e
indossato da Michael Phelps, Amanda Beard,
Grant Hackett, Inge de Bruijn alle Olimpiadi di
Atene) è stato sviluppato imitando la tessitura
della pelle degli squali; studi recenti hanno infatti
scoperto che i “dentelli” presenti sulla loro pelle
creano microturbolenze in grado di favorire la
penetrazione nell’acqua.
L’Aqua Shift® (prodotto da Tyr e utilizzato da Yana
Klochkova, Mark Gangloff, Martina Moravcova,
Erik Vendt) si avvale della tecnologia TripwireTM,
che consiste nell’uso di sottili strisce di tessuto in
rilievo, posizionate su petto, anche e glutei, che
funzionano come lo spoiler di un tir.
Il modello Swift Swim® (di Nike, indossato anche
da Pieter van den Hoogenband, Jason Lezak,
Haley Cope e Kristy Kowal) è costituito da un vero
patchwork di sezioni di vari materiali ad elasticità
e compressione differenziata in tutte le zone del
corpo ed orientati in modo da ridurre quanto più
possibile gli attriti.
Il nuovo Powerskin Xtreme® (di Arena, che veste
anche il team italiano), il più diffuso in Europa,
sviluppato in collaborazione con il Politecnico di
Milano, è costituito da un materiale che è circa il
30% più leggero (125g/m2) di qualsiasi altro, perché non è lavorato a maglia, bensì filato al 100%.
Anch’esso si avvale di pannelli a coste per agevolare lo scorrimento dell’acqua ed uno strato esterno di poliammide lo rende particolarmente impermeabile.
I
CURIOSITÀ N°3 – COME MAI NEL NUOTO CI SONO COSÌ
POCHI CAMPIONI OLIMPIONICI DI COLORE?
Due fattori sfavoriscono il galleggiamento degli
atleti di colore: hanno ossa più dense e minore
percentuale di massa grassa rispetto ai loro colleghi di razza caucasica; inoltre, le loro fibre
muscolari sono particolarmente adatte a sforzi
intensi e rapidi, come la corsa su brevi distanze.
Nel nuoto, invece, i muscoli lavorano più lentamente: la durata media della gara più breve di
nuoto (i 50 metri) è intorno ai venti secondi,
contro i dieci dei 100 metri su pista.
Anche il paese d’origine dell’atleta svolge un
ruolo rilevante nella scelta della disciplina sportiva. In Kenia ed Etiopia, patrie di molti maratoneti, le persone sono abituate a coprire a piedi o
di corsa lunghissime distanze. Inoltre, le gare
internazionali si svolgono generalmente a basse
altitudini, per cui gli atleti africani, abituati ad
allenarsi su altopiani in cui la percentuale di
ossigeno nell’aria è inferiore, risultano favoriti.
Negli Usa, invece, basket, football e baseball
sono gli sport prediletti dai giovani afro-americani, perché costituiscono un valido e rapido
strumento di promozione sociale ed economica.
richiesto una scelta accurata dei materiali. I principali componenti sono fibre altamente elastiche,
come poliesteri e Lycra®, rivestite da uno strato di
Teflon® o poliammide per ridurre l’assorbimento
di acqua e migliorare il galleggiamento.
La Lycra®, o Spandex® o Elastam® (nome con
cui è più nota in Europa), commercializzata da
DuPont nel 1962 ed utilizzata per i costumi da
bagno fin dal 1970, è un poliuretano termoplastico, elastomero in grado di allungarsi fino a 5-7
volte rispetto alla dimensione originaria e di ritornarvi senza subire deformazioni rilevanti; inoltre
ha una capacità di contenimento fino a sei volte
superiore rispetto ai comuni nylon elasticizzati, pur
essendo notevolmente più leggera. Questa parti-
MATERIALI
L’alto rendimento di queste divise da nuoto ha
31
campo del nuoto. Oltre a sostituire i materiali tradizionali per blocchi di partenza, placche di virata
e piscine, sono state efficacemente impiegate nei
galleggianti che separano le corsie. Si tratta di
dischi di polietilene infilati in un cavo d’acciaio
rivestito da un polimero vinilico. I dischi consentono il libero scorrimento dell’acqua fra le varie corsie e, dato che si muovono ognuno indipendentemente dagli altri, riescono ad assorbire l’energia
delle onde prodotte dai nuotatori in modo che non
si disturbino reciprocamente.
Un elemento quasi sempre presente nell’abbigliamento dei nuotatori sono gli occhialini. Sono indispensabili perché è necessario che la luce venga
rifratta quando incontra la superficie dell’occhio,
se vogliano che formi un’immagine definita sulla
retina. Poiché acqua ed occhio hanno densità ottiche molto simili, gli effetti di rifrazione sulla superficie che li separa sono trascurabili e l’immagine
sulla retina risulta piuttosto confusa. Grazie agli
occhialini lo strato d’aria che rimane davanti
all’occhio assicura una corretta rifrazione della
luce ed una visione nitida sott’acqua. Il vetro,
usato in passato per le lenti, è stato abbandonato
da molti anni per i problemi di sicurezza legati alla
sua fragilità. Ora si usano lenti in policarbonato,
molto trasparenti, leggere, infrangibili e resistenti
ai graffi. Le guarnizioni che garantiscono la tenuta
all’acqua sono in neoprene, mentre le cinghie che
fissano gli occhiali dietro la testa
sono in PVC.
Gli occhialini hanno forma idrodinamica e sporgono pochissimo
dalle orbite oculari. Nike è andata
addirittura oltre sviluppando lenti
che sono fissate separatamente
agli occhi per mezzo di un adesivo
(una sorta di supercolla) impiegato in chirurgia.
Anche le cuffie, in silicone o Spandex®, devono
dare aerodinamicità al capo e presentare il meno
possibile increspature e protuberanze.
colare elasticità è dovuta alla struttura caratterizzata da blocchi alternati di sezioni flessibili, composte da polieteri o poliesteri a terminali ossidrilici, di solito a 40 unità ripetitive, condensati a diisocianati organici e diammine alifatiche (estenso-
ri di catena), che costituiscono la parte rigida del
polimero.
Ossido di zinco o altri additivi minerali sono spesso inseriti nella fibra per inibire la degradazione
prodotta dal cloro impiegato per la disinfezione
delle piscine.
La fibra Lycra® Power, costituita da un 78% di
Elastam® e dal 22% di poliammide, sviluppata dal
dott. William Kraemer, del Penn State Center for
Sports Medicine in collaborazione con DuPont, è il
risultato di anni di ricerche sulla relazione fra compressione dei muscoli e performance sportiva. I
capi confezionati con Lycra® Power sono in grado
di contenere l’oscillazione muscolare, causa principale dell’affaticamento, e stimolano i recettori nervosi sulla pelle con un conseguente miglioramento
della precisione ed efficienza del movimento.
UNO
CURIOSITÀ N°4
Un’antica armatura da
samurai? No! Non è
altro che una graziosa
tuta fatta con cordini e
pezzi di sughero, inventata da Paschal Plant nel
1882 per stare meglio a
galla. Finalmente sappiamo cosa fare dei
tappi rimasti dai brindisi
di Capodanno!
SGUARDO AGLI ACCESSORI
Le divise da nuoto non costituiscono l’unica innovazione introdotta dalle materie plastiche nel
32
Quale sarà il passo successivo, mani e piedi palmati?
Arrivati alla fine di quest’analisi, non ci resta ormai
che un solo dubbio: fino a che punto potrà arrivare la tecnologia per aiutare un atleta a migliorarsi?
12
13
“May the best swimsuit win”
K. Clark, R. Milliken, US News and World Report
(21/08/2000)
14
BIBLIOGRAFIA
15
1
Counsilman JE, Counsilman BE. La nuova scienza
del nuoto. Ed. Zanichelli 2005 (prefazione).
2 Krieger K. Do pool sharks swim faster? Sciente
2004;305:636-7.
3 Wang Q. Breakthrough in the science of swimming.
Yale Scientific Magazine 2004:18-21.
4 Lowensteyn I, Signorile JF, Giltz K. The effect of
varying body composition on swimming performance. J Strength Conditioning 1994;8:149-54.
5 Lochhead JH. Control of swimming position by
mechanical factors and proprioception. Quarterly
Rev Biol 1942;17:12-30.
6 Mason B, Portus M. Biomechanical support in sport.
Lancet 2005;366:S25-S26.
7 Troup JP. The physiology and biomechanics of competitive swimming. Clin Sports Med 1999;8:267-85.
8 Pendergast D, Zamparo P, di Prampero PE, Capelli
C, Cerretelli P, Termin A, et al. Energy balance of
human locomotion in water. Eur J Appl Physiol
2003;90:377-86.
9 Costill DL, Kovaleski J, Porter D, Kirwan J, Fielding
R, King D. Energy expenditure during front crawl
swimming: predicting success in middle-distance
events. Int J Sports Med 1985;6:266-70.
10 Choi SW, Kurokawa T, Ebisu Y, Kikkawa K,
Shiokawa M, Yamasaki M. Effect of wearing clothes
on oxygen uptake and ratings of perceived exertion
while swimming. J Physiol Anthropol Appl Hum Sci
2000;19:167-73.
11 Fujimoto H, Inokuchi S, Ishida H. Effects of physical
training and mental practice of in-clothes swim-
16
SITI
ming: assessment by physiological parameters.
Tokai J Exp Clin Med 2001;26:139-45.
Zamparo P, Bonifazi M, Faina M, Milan A, Sardella
F, Schena F, et al. Energy cost of swimming of elite
long-distance swimmers. Eur J Appl Physiol
2005;94:697-704.
Yanai T. Buoyancy is the primary source of generating bodyroll in front-crawl swimming. J Biomech
2004;37:605-12.
Yanai T. Stroke frequency in front crawl: its mechanical link to the fluid forces required in non-propulsive directions. J Biomech 2003;36:53-62.
Capelli C, Pendergast DR, Termin B. Energetics of
swimming at maximal speeds in humans. Eur J
Appl Physiol Occup Physiol 1998;78:385-93.
Kolmogorov SV, Duplishcheva OA. Active drag,
useful mechanical power output and hydrodynamic force coefficient in different swimming strokes
at maximal velocity. J Biomech 1992;25:311-8.
WEB
Sulla fisica del nuoto e le tecnologie
http://ffden-2.phys.uaf.edu/211.fall2000.web.
projects/Tina%20Osness/Physics%20Project%20I
ndex.html
http://en.wikipedia.org/wiki/Swimming
http://swimming.about.com/od/swimsuits
http://www.dupont.com/hagley/index.html
http://www.sweatitout.com/newsweat/lycrapower.htm#5
http://www.usaswimming.org
http://www.msnbc.msn.com/id/5289344/
Le aziende ed i prodotti
http://www.lycra.com
http://www.tyr.com/science.html
http://www.teamarena.com
http://www.swimtowin.com
http://www.adidas.com
http://www.nike.com/nikebiz (cercare Swift Swim)
Avviso
Le immagini di Ian Thorpe e del JetConceptTM sono tratte dal sito:
http://www.swim.ee/adidas/index_adipics.html
Le immagini dei brevetti si trovano all’indirizzo:
http://patft.uspto.gov/netacgi/nph-Parser? Patentnumber = inserire il numero del brevetto
33
L’AMBIENTE
Si parla molto in questi tempi di riscaldamento del pianeta e delle conseguenti variazioni climatiche e
come sempre le opinioni sono varie e talvolta radicalmente diverse. È quindi d’obbligo il punto interrogativo nel titolo: c’è chi sostiene che è determinante il fattore antropico, c’è invece chi sostiene che
il surriscaldamento del pianeta, se ci sarà, non sarà così drammatico. L’informazione disponibile sull’argomento è vastissima, scrittori, opinionisti e ricercatori continuano a produrre materiale sull’argomento e spesso siamo testimoni di veri e propri scontri, si può dire che si va dal terrorismo ecologico
allo scetticismo e siamo ben lontani, per ora, da cedimenti sui due fronti. Il 16 febbraio 2005 è entrato in vigore il Protocollo di Kyoto che si pone come obiettivo minimo la riduzione di un 5,2% delle emissioni di gas-serra entro il 2012, ma nello stesso tempo c’è chi suggerisce il ritiro dell’Italia dal protocollo e chi propone tagli delle emissioni più drastici (50-60%).
AIM Magazine ospita in questo numero un interessante contributo di Luciano Lepori, chimico e ricercatore del CNR presso l’Istituto per i Processi Chimico-Fisici nell’area di ricerca di San Cataldo a Pisa,
dedicato a questi problemi. Il lettore sarà facilitato nella lettura da una struttura tipo intervista dell’articolo. Potrà non essere sempre d’accordo con le considerazioni di Lepori ma l’articolo è estremamente
stimolante e direi anche, per certi aspetti, positivamente provocatorio.
Oltre alla letteratura scientifica ed ai siti web citati nei riferimenti bibliografici dell’articolo, consiglierei
ai nostri lettori più curiosi due testi sull’argomento completamente diversi ma utili per un’ampia visione sul problema dei problemi del primo secolo del nuovo millennio, l’ultimo romanzo di Michael
Crichton State of fear, uscito nel 2004 e che ha avuto un grandissimo successo in USA (uscito in Italia
nel 2005 nelle edizioni Garzanti con il titolo Stato di paura). È un romanzo molto avvincente ma è
anche un tentativo di denunciare con tanto di grafici e riferimenti bibliografici il terrorismo ecologico,
dice Crichton, di certi ambientalisti. Il secondo è un volumetto dal titolo Cambiare aria al mondo – La
sfida dei mutamenti climatici a cura di Claudio Martini, presidente della Regione Toscana, che contiene gli interventi tenuti al Meeting di San Rossore 2004 dedicato ai mutamenti climatici. Il volume è
edito da Baldini Castaldi Dalai Editore e sono nettamente in maggioranza gli interventi a sostegno dell’opinione che i mutamenti climatici siano il frutto delle attività dell’uomo.
Mauro Aglietto
MUTAMENTI
CLIMATICI
E RISCALDAMENTO GLOBALE:
QUANTO INCIDE IL FATTORE ANTROPICO?
di Luciano Lepori*
Spesso, quasi quotidianamente, sui giornali e alla
televisione si ripete che le variazioni climatiche
dipendono dall’aumento dell’effetto serra, causato
dalle attività umane che immettono anidride carbonica nell’atmosfera. Questa, che è una ipotesi o teoria,
*
è talmente diffusa e pubblicizzata che è diventata un
fenomeno reale, un dato di fatto, e la stragrande
maggioranza della gente ritiene che il riscaldamento
del pianeta sia colpa dell’uomo. Probabilmente invece è colpa del sole, come spiegato più avanti.
Istituto dei Problemi Chimico-Fisici del CNR (IPCF-CNR), sezione di Pisa, [email protected]
34
globo. Non sappiamo se questo incremento porterà danni o benefici. Le misure prospettate per
limitare i temuti danni sono inefficaci e pericolose.
Per prima cosa, cos’è l’anidride carbonica? È velenosa?
La anidride carbonica o biossido di carbonio (CO2)
è un composto che si forma per combustione (reazione con ossigeno) di sostanze contenti carbonio
quali petrolio e derivati, carbone e legna. È un gas
incolore, inodore, più pesante dell’aria, solubile in
acqua, quasi inerte e non tossico. La CO2 si forma
nella respirazione e nelle fermentazioni. È indispensabile per l’accrescimento delle piante che la
usano per formare carboidrati nella fotosintesi clorofilliana. È impiegata come fertilizzante.
Consideriamo una cosa alla volta. Il riscaldamento
del pianeta è reale?
I valori di temperatura registrati dalle stazioni di
misura di superficie indicano che negli ultimi cento
anni si è avuto un aumento della temperatura media
del globo di circa 0,5 °C. Tale aumento è concentrato nelle regioni più fredde, nel periodo invernale,
e durante le ore notturne (e non in estate nelle temperature massime, come comunemente si crede).
Vi sono tuttavia molti dubbi su queste misurazioni.
Sono stati denunciati errori in eccesso per l’effetto
“isola di calore urbano” attorno alle stazioni, e per
la scarsa manutenzione di queste. La temperatura
degli Stati Uniti, da rilievi terrestri, è aumentata di
0,2 gradi tra il 1895 e il 1997 2. Le stazioni costiere della Groenlandia rivelano una chiara tendenza
al raffreddamento nella seconda metà del secolo
scorso 3. L’Antartide dal 1966 si sta raffreddando
4
. Misure effettuate dopo il 1960 da palloni e dopo
il 1975 da satelliti sono in perfetto accordo e indicano aumenti di temperatura del globo piccoli o
nulli 2. Non sappiamo quindi con certezza se il
riscaldamento è reale. Qualora lo fosse, l’incremento di temperatura è assai minore di 0,5 °C per
secolo e non uniformemente distribuito.
Perché si vogliono ridurre le emissioni di CO2?
Stiamo assistendo ad un continuo incremento nell’atmosfera di CO2, metano, e altri gas serra minori. La concentrazione di CO2 è aumentata da 280
ppm (parti per milione) dell’era pre-industriale a
380 ppm, il livello più alto degli ultimi 420.000
anni. Anche la velocità di crescita (1,5 ppm/anno)
è più elevata rispetto al passato. La maggioranza
dei climatologi 1 ritiene che l’incremento della CO2
sia principalmente causato dall’attività umana,
che questo produrrà un crescente effetto serra e
quindi un riscaldamento eccezionale e senza precedenti del globo ed effetti catastrofici sul clima:
scioglimento dei ghiacci, innalzamento del livello
del mare, desertificazione di zone verdi, aumento
di fenomeni climatici estremi come uragani. Per
scongiurare ciò, prima che sia troppo tardi, è stato
proposto dal Intergovernmental Panel on Climate
Change (IPCC) il protocollo di Kyoto (PdK) in cui
i paesi industrializzati si impegnano a ridurre le
emissioni di CO2.
Supponiamo che vi sia un riscaldamento della
terra. È questo colpa dell’uomo?
Una risposta, seppure non esaustiva, si può avere
esaminando il clima del passato. Nei ghiacci
dell’Antartide è scritta la storia del nostro pianeta.
Ogni strato di ghiaccio corrisponde ad una diversa
era geologica. Gli strati più profondi sono quelli
più antichi, quelli più superficiali sono i più recenti. Dalla analisi delle bollicine d’aria intrappolate
nel ghiaccio si può determinare il contenuto di
CO2 della atmosfera, mentre dalla composizione
isotopica dell’idrogeno e dell’ossigeno nei vari
strati di ghiaccio si può stabilire la temperatura
della superficie terrestre nelle varie ere.
Certamente, se le previsioni dell’IPCC sono vere ci
attende un futuro disastroso
Per fortuna le cose non stanno così e non sono
così semplici. Per prima cosa non è certo che il
pianeta si stia davvero scaldando. Non sappiamo
se la causa dominante del riscaldamento è di origine antropica. Vi sono notevoli incertezze nella
stima dell’effetto serra e nel prevedere quale sarà
nei prossimi decenni l’aumento di temperatura del
35
Figura 1: Concentrazione di CO2 (ppm
volume, grafico superiore) e temperatura della atmosfera (°C, grafico inferiore) durante gli ultimi 420.000 anni.
Fonte: www.clearlight.com/~mhieb 5.
1940 e non può essere attribuito alle emissioni di
CO2 poiché l’82% della CO2 è stata emessa dopo il
1940. Tra il 1940 e il 1970 la temperatura è diminuita di 0,2 gradi mentre la CO2 aumentava fortemente 2.
E cosa dicono i ghiacci?
Negli ultimi 420.000 anni, come illustrato in
Figura 1, abbiamo avuto un susseguirsi, ogni
100.000 anni circa, di ere glaciali lunghe e fredde
intercalate da ere interglaciali corte (10-20.000
anni) e calde. Durante l’ultima era glaciale la temperatura era 8 °C più bassa di oggi. Poi, 18.000
anni fa, la terra ha iniziato a scaldarsi: i ghiacci
hanno smesso di avanzare, il livello del mare ha
cessato di calare e si è alzato di oltre 100 metri, si
è formato lo stretto di Bearing, le foreste hanno
preso il posto del ghiaccio. Tutto questo è avvenuto per cause naturali, indipendenti dalle attività
umane. Adesso ci troviamo in un era interglaciale
calda 5. In un futuro più o meno lontano, probabilmente entro 10.000 anni, dobbiamo attenderci il
ritorno al grande freddo. Altro che riscaldamento!
Le passate ere glaciali dimostrano che il clima può
cambiare radicalmente nell’arco di decine di millenni. Ci sono evidenze di forti variazioni climatiche anche più recenti e nell’arco di tempi più
brevi?
Ve ne sono parecchie, ottenute in modi diversi da:
carote di ghiaccio, sedimenti di fondali marini,
coralli, anelli degli alberi. Ecco alcuni esempi 8.
Circa 12.000 anni fa in Scandinavia si è passati da
clima caldo a clima freddo durante un millennio.
Tra il 7500 e il 4000 a.C. si è avuto il cosiddetto
Holocene maximum, il periodo più caldo della storia umana. Successivamente tra il 1000 e il 1500
abbiamo avuto l’Ottimo Climatico Medioevale,
con temperature superiori a quelle attuali, seguito
da una piccola glaciazione (1400-1800). Si è
avuta cioè una successione rapida e irregolare di
L’incremento di temperatura avvenuto dopo l’ultima glaciazione è stato causato da un incremento
di CO2 o no?
L’analisi delle carote di ghiaccio indica che la temperatura T e la CO2 hanno avuto nel tempo un
andamento alternante con massimi e minimi, e
sono strettamente correlate, cioè ogni aumento o
diminuzione di T è accompagnato da un aumento
o diminuzione della concentrazione di CO2. Ma la
cosa più interessante è che ogni incremento di T
precede (e non segue) quello della CO2 di un lasso
di tempo di 800 ± 600 anni 6. Nonostante la forte
incertezza di questo dato, sembra che sia un
aumento di temperatura a causare un aumento
della CO2 e non il contrario. Probabilmente molti
scienziati hanno scambiato la causa, aumento di
T, con l’effetto, aumento di CO2 7.
La passata evoluzione del clima indica quindi che
un forte incremento di CO2 non determina necessariamente un drammatico aumento della temperatura. Anche i rilevamenti terrestri degli ultimi
100 anni sembrano confermare ciò, come mostra
la Figura 2. Più della metà del recente riscaldamento globale di 0,5 gradi è avvenuto prima del
Figura 2: Temperatura della superficie terrestre (°C, linea
sottile) e contenuto di CO2 nella atmosfera (ppm, linea
spessa)
durante
il
secolo
scorso.
Fonte:
www.oism.org/pproject 2.
36
periodi glaciali e interglaciali, con aumenti di temperatura fino a 10 °C, nell’arco di un millennio.
Recentemente è stato scoperto che in Groenlandia
si sono verificate drammatiche diminuzioni di temperatura in pochi secoli e aumenti anche di 7 °C
nell’arco di alcuni decenni o di pochi anni.
Si può quindi affermare che il presunto eccezionale ed eccezionalmente rapido cambiamento climatico di cui saremmo testimoni, non ha niente di
eccezionale perché fenomeni simili e di entità
maggiore sono già avvenuti in passato. Le attuali
temperature rientrano nella naturale variabilità sia
come valore che come rapidità di cambiamento 8.
aumento dei gas serra inferiore al 2%.
Da cosa dipende il clima della terra?
Le principali cause delle variazioni di temperatura
del nostro pianeta sono le seguenti 5:
1) cause cosmiche o astronomiche come: rotazione della terra intorno al sole su orbita ellittica
(periodo di 1 anno); variazione dell’attività
solare (periodi di 11 e 206 anni); rotazione
della direzione dell’asse terrestre o precessione
degli equinozi (periodo 21.000 anni); variazione dell’inclinazione dell’asse di rotazione
(periodo 41000 anni); variazione dell’eccentricità dell’ellisse dell’orbita (periodo 100.000
anni). Variazioni del flusso di raggi cosmici
(periodo 100 milioni anni) 13;
2) cause atmosferiche come variazioni dell’effetto
serra di alcuni gas dell’atmosfera (gas serra) e
variazioni del potere riflettente di nuvole, polveri vulcaniche, e calotte polari di ghiaccio;
3) cause tettoniche: deriva dei continenti con conseguenti cambiamenti delle correnti oceaniche,
e variazioni del fondo e dei rilievi sottomarini
che causano lo spostamento degli oceani.
Qual è l’effetto serra causato dalle attività umane?
Mentre sull’effetto serra naturale vi è un sostanziale consenso, su quello di origine umana gli scienziati non sono d’accordo. La controversia è sul
riscaldamento del globo: è questo un fenomeno
naturale o causato principalmente dalle emissioni
industriali di CO2? Come abbiamo visto, alcuni
ritengono che il riscaldamento della terra non sia
reale o almeno minore di quello registrato dalle
stazioni di superficie. Altri ritengono che non sia
un aumento di CO2 a causare l’aumento di temperatura, ma il contrario.
Nell’ipotesi che il riscaldamento di 0,5 °C negli
ultimi 100 anni sia reale e causato dall’aumento
del 30% della CO2, si hanno stime molto diverse
sul riscaldamento futuro. I climatologi dell’IPCC
prevedono per il 2100 un aumento di temperatura
compreso tra 1,4 e 5,8 °C, a seconda delle ipotesi
di partenza 1. Altri 9 considerando che il 98% dell’effetto serra è naturale e solo il 2% antropogenico, stimano che un raddoppio della concentrazione di CO2 provocherà un aumento di T di 0,7 °C
senza amplificazione e 1,8 °C con l’amplificazione
del vapor d’acqua. Altri ancora, estrapolando le
misure di T al suolo prevedono un aumento di 1,5
°C 10, mentre estrapolando le misure satellitari si
ottiene un aumento di 0,5 °C 11. Hieb 5, considerando l’acqua come il principale gas serra, stima
che solamente lo 0,28% dell’effetto serra è dovuto
a emissioni dell’uomo. Infine Khilyuk e Chilingar 7
con un modello adiabatico, che tiene conto del trasferimento di calore per convezione, stimano che
un raddoppio della CO2 provocherà un aumento di
temperatura di appena 0,01 °C.
Che cosa è l’effetto serra?
È il processo con cui l’atmosfera scalda il pianeta.
La terra riceve dal sole una enorme quantità di
radiazioni bilanciate da una uguale quantità di
radiazioni riemesse nello spazio. L’effetto serra è
dovuto al fatto che l’atmosfera assorbe buona
parte della radiazione termica (infrarossa) emessa
dalla superficie. Così si scalda e scalda la superficie. Senza atmosfera non si avrebbe effetto serra e
la temperatura della terra sarebbe più fredda di
circa 32 °C 7. Non tutti i gas che costituiscono l’atmosfera producono effetto serra. Tra questi l’azoto e l’ossigeno che sono i principali costituenti dell’aria. Tra i gas serra, di gran lunga il più importante è l’acqua (vapore, non goccioline) che ha
una concentrazione (~ 2%) molto maggiore della
CO2 (0,038%) e di tutti gli altri gas serra messi
insieme, compreso il metano 5. Un raddoppio della
CO2 (che non si avrebbe nemmeno dopo aver bruciato tutto il petrolio esistente) porterebbe ad un
Ma se l’uomo non è responsabile, qual è la causa
dell’aumento della temperatura e delle conseguenti variazioni climatiche?
Certamente le principali cause delle remote evoluzioni del clima sono di natura astronomica, come
mostra la periodicità dei dati paleoclimatici (Fig.
1). Le variazioni di temperatura recenti sono probabilmente da attribuirsi a variazioni dell’irraggiamento solare, e solo in piccola parte ad un aumento dell’effetto serra. È stato osservato che dal
1860 al 1990 la temperatura della terra e l’andamento dell’attività solare (numero delle macchie)
hanno avuto un andamento parallelo 2 8. Dalle
variazioni d’irraggiamento (0,5%) si possono calcolare delle variazioni di T di 0,15 °C, inferiori a
quelle rilevate. Tuttavia, poiché un aumento di
0,15 °C fa evaporare dagli oceani acqua, CO2 e
metano, è ragionevole attendersi un effetto serra
indotto ed un riscaldamento molto maggiore, fino
a 0,6 °C. Un altro fenomeno, finora trascurato, si
37
somma a questo: l’effetto di schermo della radiazione solare sui raggi cosmici. Questi, ionizzando
l’atmosfera, inducono la formazione di nuvole. Il
vento solare, schermando i raggi cosmici, riduce
le formazioni nuvolose producendo un aumento di
temperatura tanto maggiore quanto maggiore è
l’attività solare 12.
romperà in alcuni decenni, che il petrolio non si
esaurisca, e che i paesi in via di sviluppo raggiungeranno o addirittura supereranno il livello dei
paesi industrializzati 11.
In caso di riscaldamento, quali danni dobbiamo
attenderci? E benefici ce ne saranno?
La ricchezza prodotta nel 2100 in presenza di un
raddoppio della CO2, sarebbe dell’1-2% inferiore a
quella che si avrebbe in assenza di un aumento di
temperatura 11.
Il livello dei mari si alzerà nel peggiore degli scenari di 90 centimetri 1, una evenienza che anche i
paesi più poveri saprebbero fronteggiare.
L’innalzamento del livello dei mari è iniziato circa
15.000 anni fa alla fine dell’ultima era glaciale: da
allora il livello dei mari è cresciuto di più di 120
metri con l’aumentare della temperatura e con il
procedere dello scioglimento dell’Antartide 11.
Le malattie trasmesse da insetti come la malaria
erano molto più diffuse in Europa e Nord America
nel secolo scorso, quando la temperatura era più
bassa. Il tasso di mortalità per caldo anomalo è
drasticamente diminuito a partire dal 1960. Inoltre
è noto che il freddo estremo favorisce i decessi più
del caldo estremo. Dato che il riscaldamento globale determinerà maggiori aumenti di temperatura nelle stagioni fredde, esso potrebbe determinare un beneficio 11.
I fenomeni meteorologici estremi, quali uragani,
tempeste tropicali ed extra-tropicali non sono
aumentati di intensità e di frequenza nel ventesimo
secolo. È lo stesso IPCC ad ammetterlo 1. Le tempeste sono originate dalla differenza di temperatura tra i poli e i tropici, che diminuisce con il riscaldamento del pianeta.
Per quanto riguarda l’agricoltura, qualche effetto
negativo potrebbe verificarsi nei paesi poveri solo
in presenza di un rapido e irrealistico aumento
della temperatura maggiore di 4 °C Un modesto
global warming invece porterebbe benefici all’agricoltura, specialmente se accompagnato da un
incremento della CO2. È ormai accertato che la
CO2 agisce come fertilizzante, favorisce la crescita delle piante, migliora l’adattamento a numerosi
stress e l’efficienza nell’uso dell’acqua. Nelle serre
si pompa CO2 per aumentare la produttività 8.
In sintesi, se avremo un riscaldamento del pianeta, esso non sarà realisticamente superiore a
1,5 °C da qui al 2100 e produrrà, nel complesso,
più effetti benefici che negativi.
Le previsioni del clima sono fatte col computer utilizzando modelli matematici. Come funzionano
questi modelli?
Come per le previsioni meteorologiche, l’atmosfera è suddivisa in tante “scatole” ed in ognuna di
queste si fissano le condizioni iniziali di temperatura, pressione, umidità, composizione, velocità
del vento, etc. Utilizzando alcune equazioni fondamentali si fa evolvere nel tempo la situazione e si
calcolano i valori futuri delle grandezze fisiche. Si
prova il modello cercando di “prevedere” le evoluzioni climatiche del passato. Se queste non sono
riprodotte correttamente si modificano le condizioni iniziali e i parametri del modello finché non si
ottengono le “previsioni” giuste. Data l’enorme
complessità del problema, è questo il miglior
modo di procedere. Non bisogna dimenticare però
che un modello costruito su di un numero sufficientemente elevato di parametri è in grado di
riprodurre qualsiasi fenomeno da qualunque insieme di dati di partenza 8.
I climatologi dell’IPCC osservano che i modelli
matematici riproducono l’attuale riscaldamento
globale solo a patto che siano incluse le emissioni
antropogeniche dei gas serra, e pertanto ritengono
che vi sia una ben distinguibile influenza umana
sui cambiamenti climatici 1. Questa opinione non
è unanimemente condivisa perché i modelli 1)
contengono un numero molto grande di parametri;
2) falliscono quando si includono gli aerosol; 3)
danno risultati molto diversi tra loro per la difficoltà connessa al trattamento delle nuvole; 4) non
sono in grado di riprodurre in modo sufficientemente accurato l’andamento della temperatura del
passato 8 11.
Quali sono le previsioni dei modelli per il futuro?
L’IPCC, prese per buone le rilevazioni terrestri e
attribuendo all’uomo la causa del riscaldamento
globale, esamina 40 possibili scenari e prevede da
qui a 100 anni un aumento di temperatura minimo
di 1,4 °C e massimo di 5,8 °C 1.
Queste previsioni sono poco affidabili sia perché
fatte con modelli (problemi connessi al numero di
parametri, agli aerosol, e alle nuvole) e per un
futuro molto lontano, sia perché basate su assunzioni opinabili (economiche, politiche, e tecnologiche) sullo sviluppo dell’umanità. Ad esempio si
assume che la crescita della popolazione si inter-
Ammettiamo che le previsioni più pessimistiche
dell’aumento di temperatura e dei suoi effetti dannosi siano corrette. Le misure prospettate per limitare i danni che effetto avranno?
Il PdK impone ai paesi industrializzati (non a quelli
38
in via di sviluppo) di ridurre entro il 2012 le emissioni di gas serra nella misura del 5% rispetto a
quelle del 1990. È questo un provvedimento per
prevenire pericolose interferenze umane sul clima,
preso in base al principio di precauzione 8, in assenza di una completa conoscenza del problema.
È stato stimato che il contenimento delle emissioni provocherebbe da qui al 2100 una riduzione
della temperatura di 0,15 gradi, cioè il temuto
riscaldamento sarebbe 0,15 gradi più basso.
Oppure, il raggiungimento della temperatura atteso per il 2100 sarebbe ritardato al 2101. I benefici
derivanti dalla applicazione del PdK sarebbero
quindi ben poca cosa: ad esempio il minor aumento del livello del mare sarebbe pari a 2,5 cm 8 11.
Mentre i benefici sarebbero minimi, si avrebbero
gravi danni per rendere operativo il protocollo.
Prima di tutto una minore crescita economica dei
paesi obbligati a ridurre le emissioni. Il costo del
PdK sarebbe enorme per Stati Uniti, Europa,
Giappone e altri paesi industrializzati: 1% del PIL
nel 2010, 2% nel 2050, 4% a fine secolo.
Nell’ipotesi che gli Stati Uniti non ratifichino il protocollo, le nazioni europee subirebbero una riduzione del PIL ancora maggiore. Il prezzo del gasolio da riscaldamento potrebbe aumentare di oltre il
20% e quello della benzina tra il 5 e il 10%.
L’energia elettrica raddoppierebbe.
Aumenterebbero i disoccupati di circa 1,5 milioni
di unità. Solo in Italia si avrebbe una perdita di
posti di lavoro di 51.000 unità nel 2010, e 277.000
nel 2025. La minor crescita economica dei paesi
sviluppati avrebbe ripercussioni negative anche
sui paesi poveri, riducendo le loro esportazioni, e
di conseguenza il loro reddito, le condizioni di alimentazione e quelle sanitarie 11.
sa efficacia e gravi conseguenze economiche.
Lasciamo il pessimismo e le previsioni catastrofiche, siamo ottimisti: le variazioni climatiche che ci
attendono non sono diverse da quelle passate, e
l’uomo è sempre sopravvissuto ad esse. Non interveniamo se non vi sono pericoli scientificamente
accertati, e se l’intervento comporta più costi che
benefici. Intanto, dato che il petrolio è destinato ad
esaurirsi, cerchiamo di risparmiare e di utilizzare
fonti di energia alternative: il carbone pulito, il
nucleare, l’energia idroelettrica, solare, eolica, e
geotermica.
BIBLIOGRAFIA
1
2
3
4
5
6
7
8
9
10
Si può trarre una conclusione sul clima futuro?
Come dobbiamo comportarci?
Vista l’evoluzione del clima nel passato, l’attuale
riscaldamento della terra non ha niente di eccezionale e non è attribuibile all’uomo se non in piccola
parte. L’aumento di temperatura nei prossimi 100
anni, se ci sarà, probabilmente non supererà 1,5 °C,
e porterà più benefici che danni. Al contrario le
misure (PdK) volte a ridurre i danni avrebbero scar-
11
12
13
39
Intergovernmental Panel on Climate Change. Climate
change 2001: the scientific basis. Cambridge University
Press 2001; http://www.ipcc.ch
Robinson AB, et al. Environmental effects of increased
atmospheric carbon dioxide. 2001; http://www.oism.org /pproject/s33p36.htm
Chylek P, et al. Global warming and the Greenland ice
sheet. Climate Change 2004;63:201-21.
Doran PT, et al. Antartic climate cooling and terrestrial ecosystem response. Nature 2002;415:517-20.
Hieb M, Hieb H. Global worming: a chilling perspective.
2002; http://www.clearlight.com/~mhieb
Monnin E, et al. Atmospheric CO2 concentrations over
the last glacial termination. Science 2001;291:112-4.
Khilyuk LF, Chilingar GV. Global warming: are we
confusing cause and effect? Energy Sources
2003;25:357-70.
Battaglia F. Il Principio di precauzione: precauzione o
rischio? 2004; http://www.Galileo2001.it, e riferimenti ivi citati.
Real Climate, Water vapour: feedback or forcing? 2005;
http://www.realclimate.org/pproject/index.php?p =
142, comment 6.
Lean J, Rind D. Climate forcing by changing solar radiation. J Climate 1998;11:3069-94.
Ramella F. Greenhouse effect: be prudent, look before
you leap. 2004; http://www.sepp.org/NewSEPP/
Ramella%20English1.htm, e riferimenti ivi citati.
Shaviv NJ. Seminario di Erice sulle “Emmergenze planetarie”. 2003; http://www.giornaleingegnere.it/num_162003/articolo.htm
Shaviv NJ, Veizer J. Celestial driver of Phanerozoic climate? GSA Today 2003;13:4-10.
LA
PRODUZIONE BIOLOGICA DI IDROGENO:
IL RUOLO DEI MATERIALI POLIMERICI
di Pierfrancesco Cerruti, Cosimo Carfagna, Mario Malinconico
INTRODUZIONE
*
soddisfatto da fonti fossili, il 7% dall’energia
nucleare e solo l’8% da fonti rinnovabili 2.
Una transizione su grande scala verso le energie
rinnovabili non è pensabile a breve termine, a
causa dei costi ancora troppo elevati. La Tabella 1
mostra un confronto tra i costi di produzione dell’elettricità da varie fonti nell’unione europea 3. È
chiaro come, con le tecnologie attualmente disponibili, il costo dell’energia da fonti rinnovabili è 23 volte maggiore rispetto ai combustibili fossili.
Il fabbisogno energetico planetario è ad oggi quasi
completamente basato su fonti fossili contenenti
carbonio, quali petrolio, carbone e gas naturale,
formatisi durante molti milioni di anni dalla
decomposizione di biomassa di origine perlopiù
vegetale. Tuttavia, l’utilizzo sempre più intenso di
queste fonti, dovuto anche al veloce sviluppo di
paesi intensamente popolati come Cina, India,
Brasile, ecc., oltre a preoccupazioni che riguardano l’approvvigionamento energetico in sé, provoca il rilascio del carbonio legato sottoforma di
CO2. L’aumento della concentrazione di CO2 nell’atmosfera terrestre è generalmente riconosciuto
come la causa principale del riscaldamento globale e dei conseguenti cambiamenti climatici. Nel
quadro del Protocollo di Kyoto (PdK), attualmente
ratificato da 140 paesi (con eccezioni importanti,
quali USA e Australia) 1, un certo numero di nazioni industrializzate si è impegnato per ridurre il proprio livello di emissioni di CO2 del 5% tra il 1990 e
il 2010.
Le emissioni di CO2 possono essere ridotte
aumentando l’efficienza dei processi di produzione
di elettricità e tramite l’uso più efficiente di energia
nell’industria e per il trasporto. Altre opzioni prevedono la sostituzione di alcuni combustibili fossili con altri a più bassa emissione, come il gas
naturale.
Ovviamente, metodi più radicali prevedono l’utilizzo di fonti di energia rinnovabile (eolica, solare,
idroelettrica, biomasse). Tutte queste fonti si basano direttamente o indirettamente sull’energia solare, in maniera da non rilasciare CO2 all’atmosfera
(CO2 neutre). Attualmente, l’effettivo consumo
mondiale di energia è di circa 4 1020 J, equivalente ad appena lo 0,01% della disponibilità di energia solare 2. Tuttavia, anche se il rifornimento
annuale di energia solare eccede di gran lunga il
nostro fabbisogno, esistono ostacoli di natura in
gran parte economica che impediscono la creazione di un sistema energetico “rinnovabile”. Così,
circa l’85% del fabbisogno energetico mondiale è
Tabella 1. Costi di produzione per l’elettricità da fonti rinnovabili nella UE
Fonte energetica
Costo medio in Euro per KW/h
celle solari fotovoltaiche (PV)
0,30-0,80
energia idroelettrica
0,04-0,25
biomasse
0,07-0,19
energia eolica
0,04-0,08
combustibili fossili
0,03-0,05
L’IDROGENO
COME FONTE DI ENERGIA
Nel romanzo L’Isola Misteriosa (1870), Jules
Vernes scriveva: “Credo che l’acqua un giorno
sarà impiegata come combustibile, l’idrogeno e
l’ossigeno che la costituiscono, usati separatamente o insieme, forniranno una fonte inesauribile di
calore e di luce, di un’intensità di cui il carbone
non è capace. Credo allora che quando i depositi di
carbone saranno esauriti, ci riscalderemo con
acqua. L’acqua sarà il carbone del futuro”. Al giorno d’oggi, più di 130 anni dopo, non è soltanto l’esaurimento delle fonti di energia fossili che impone con forza di studiare nuove possibilità per produrre energia; la spinta dell’opinione pubblica e le
problematiche ambientali impongono la ricerca di
fonti di energia alternativa. Le fonti rinnovabili e
sostenibili di energia contribuiscono sempre più al
nostro fabbisogno energetico. La maggior parte di
queste fonti di energia sono però limitate a determinate località come le zone ricche di vento o di
*
Istituto di Chimica e Tecnologia dei Polimeri del CNR, Pozzuoli, Napoli (ICTP – CNR)
Per informazioni: [email protected]
40
sole, e l’energia deve essere trasportata dai luoghi
di produzione a quelli in cui è necessaria. Inoltre,
l’energia deve essere immagazzinata, poiché la
maggior parte delle fonti di energia rinnovabile
non sono disponibili con continuità. Sotto forma di
idrogeno, l’energia può essere immagazzinata fino
a che non sia necessaria e trasportata là dove è
necessaria. I benefici dell’idrogeno lo rendono un
componente ideale per lo sviluppo del concetto di
energia rinnovabile e sostenibile nel futuro.
L’idrogeno è un vettore energetico. Non esiste
alcun giacimento di idrogeno: è necessario produrlo. La produzione dell’idrogeno è una forma di
immagazzinamento di energia. Questa viene restituita al momento dell’impiego finale dell’idrogeno.
La reazione di combustione dell’idrogeno è la
seguente: H2 + 1/2 O2→H2O + Energia. Come vettore energetico esso presenta degli indubbi vantaggi: oltre ad essere un combustibile pulito (l’unica emissione inquinante è costituita da ossidi di
azoto, NOx, con miscele povere di H2, ad alte temperature di combustione), 1 kg di H2 fornisce 33,4
kWh, 9 kg di H2O, e nessuna emissione di CO2. Lo
stesso contenuto energetico è fornito da circa 3 kg
di CH4, che però producono 4,5 kg di H2O, e ben
11 kg di CO2.
METODI
tonnellate, ottenuti per il 60% dal processo chimico di reforming degli idrocarburi leggeri, principalmente il metano, per il 30% dal cracking di idrocarburi più pesanti (petrolio) e per il 6% dalla gassificazione del carbone. Solo il 4% dell’attuale produzione è ottenuta per elettrolisi (Fig. 1).
STEAM
REFORMING DI IDROCARBURI
Lo steam reforming (trasformazione con vapore) si
effettua, partendo da gas metano o da frazioni leggere di petrolio, con vapore d’acqua in presenza di
un catalizzatore (generalmente nichel) alla temperatura di 800 °C. Il gas risultante contiene anche
monossido di carbonio che, reagendo con il vapore, si trasforma in biossido di carbonio (anidride
carbonica). Un’evoluzione dello Steam reforming
consente di ottenere idrogeno estremamente puro
con temperature di reazione particolarmente
basse, rendendo il processo più economico.
GASSIFICAZIONE DEL CARBONE
L’idrogeno si produce facendo reagire a 900 °C il
vapor d’acqua con carbone coke e poi, a 500 °C,
con un catalizzatore a base di ossidi di ferro; il gas
risultante, formato da idrogeno e monossido di
carbonio, era un tempo utilizzato come gas di
città. La produzione di idrogeno mediante gassificazione del carbone è una tecnologia che trova
numerose applicazioni commerciali, ma è competitiva con lo steam reforming solo dove il costo del
gas naturale è molto elevato.
PER LA PRODUZIONE DI IDROGENO
La produzione mondiale annua di idrogeno è di
500 miliardi di Nm3, equivalenti a 44 milioni di
Figura 1. Fonti di produzione di idrogeno.
41
Tabella 2. Efficienze e costi della produzione di H2.
ELETTROLISI
DELL’ACQUA
LA
Attualmente è l’unico metodo per ottenere idrogeno (e ossigeno) dall’acqua. Consiste nell’introdurre nell’acqua un anodo e un catodo e stabilire una
differenza di potenziale affinché avvenga la separazione dell’idrogeno dall’ossigeno. Gli elettrolizzatori in commercio ottengono un metro cubo di
idrogeno con 3,7 kWh di energia elettrica. È un
metodo con una efficienza elevata e produce idrogeno con un alto grado di purezza. Attualmente
per elettrolisi si producono circa 20 miliardi di
metri cubi all’anno di idrogeno, pari al 4% della
produzione mondiale di idrogeno, e solo per soddisfare richieste limitate di idrogeno estremamente puro.
Un altro metodo di produrre idrogeno dall’acqua
usando fonti rinnovabili è costituito da processi
che utilizzano microrganismi (accoppiando gli
enzimi idrogenasi alla fermentazione o alla fotosintesi), di cui si parla successivamente.
La Tabella 2 mostra un confronto tra le efficienze
e i costi della produzione di idrogeno con differenti metodi. Si nota come tra i metodi già impiegati
il reforming del gas naturale sia conveniente dal
punto di vista economico, mentre i processi basati sulla fermentazione o sulla biofotolisi operata da
microrganismi necessitano di essere ulteriormente
sviluppati.
PRODUZIONE BIOLOGICA DI IDROGENO
La produzione di metano attraverso la digestione
anaerobica di acque di scarico e di residui (compresi i fanghi provenienti da depurazione e la frazione organica di rifiuti urbani) è già largamente
applicata. In questo processo, l’idrogeno è un prodotto intermedio, ma non disponibile perché convertito velocemente in metano dai microrganismi
metanogeni. Oggi, ancora oltre il 96% dell’idrogeno prodotto in tutto il mondo dipende da fonti
energetiche fossili, e consuma circa il 2% della
domanda energetica mondiale. Parecchi programmi di ricerca internazionali sono orientati allo studio di mezzi alternativi per la generazione ecosostenibile di idrogeno, tra cui la produzione biologica dell’idrogeno (bioidrogeno) 4-7. Parecchi processi sono attualmente allo studio, tra i quali le fermentazioni di biomasse o i processi fotobiologici
con cui l’idrogeno può essere prodotto direttamente dalla luce solare. La Tabella 3 descrive
alcuni dei processi biologici per la produzione dell’idrogeno che sono attualmente oggetto di ricerca. Come si nota dalla Tabella, il bioidrogeno può
essere prodotto sia attraverso processi che prevedono la fermentazione di substrati organici al buio
o alla luce, sia mediante la diretta fotolisi dell’acqua, in cui l’energia per la reazione è fornita dalla
luce (solare, se si vuole che il processo sia ecosostenibile).
42
Tabella 3. Metodi di produzione di bioidrogeno.
scenedesmus obliquus di metabolizzare l’idrogeno
molecolare 15. Anche se il significato fisiologico del
metabolismo dell’idrogeno nelle alghe è ancora
pertinente alla ricerca di base, il processo di produzione di fotoidrogeno dalle alghe verdi è di grande interesse tecnologico perché genera idrogeno
dalle risorse universalmente più abbondanti, luce e
acqua 6 11 16 17. Il requisito preliminare è l’adattamento delle alghe ad una atmosfera anaerobica.
Purtroppo, la quantità di idrogeno prodotta in questo processo è abbastanza ridotta poiché l’ossigeno
simultaneamente prodotto inibisce l’enzima idrogenasi. Quindi, in presenza di luce, lo sviluppo di idrogeno cessa solitamente dopo alcuni minuti a causa
dell’inibizione da parte dell’ossigeno. Attualmente,
l’efficienza di conversione in condizioni ideali è di
circa il 10%. Tuttavia, i sistemi algali si saturano ad
elevati valori di irraggiamento solare.
In questo campo, la maggior parte degli sforzi
sono quindi rivolti allo studio dei requisiti fisiologici necessari per il metabolismo dell’idrogeno in
presenza di luce in alghe verdi 11 16 18-21, cianobatteri 10 22 23 ed altri batteri fotosintetici 7 12, e allo sviluppo di tecnologie impiantistiche (fotobioreattori)
con l’obiettivo di aumentare l’efficienza degli
impianti.
Un reattore per la produzione fotobiologica di idrogeno deve soddisfare alcuni requisiti. Poiché l’idrogeno deve essere raccolto, è necessario che il
sistema sia chiuso. Deve inoltre essere possibile
Molti microrganismi contengono enzimi, conosciuti come idrogenasi, che ossidano l’idrogeno formando protoni ed elettroni, o riducono i protoni
liberando idrogeno molecolare. Il ruolo fisiologico
e le caratteristiche biochimiche di queste idrogenasi sono variabili 8-12. La maggior parte dell’idrogeno prodotto da fonti biologiche nella biosfera
deriva da processi di fermentazione microbica.
Questi organismi decompongono la materia organica in anidride carbonica e idrogeno, come è
stato indicato già 100 anni fa dal biochimico
Hoppe-Seyler 4. La riduzione dei protoni ad idrogeno serve a diminuire l’eccesso di elettroni all’interno della cellula e generalmente fornisce l’energia
supplementare che genera alcuni processi metabolici. L’idrogeno prodotto è solitamente catturato
direttamente da sistemi consumatori di idrogeno
all’interno dello stesso ecosistema. Questi organismi usano il potere riducente dell’idrogeno per
innescare alcuni processi metabolici. I batteri a
idrogeno (batteri di Knallgas) possono persino svilupparsi autotroficamente con l’idrogeno come
solo substrato di riduzione di energia e di alimentazione.
LA
PRODUZIONE DELL’IDROGENO DALLE ALGHE VERDI
Per quanto riguarda la produzione di idrogeno
mediante la fotobiolisi dell’acqua, già 70 anni fa
Hans Gaffron mostrò la capacità dell’alga verde
43
avere una monocoltura per un tempo esteso (reattore facilmente sterilizzabile). Siccome la fonte di
energia preferibile è la luce solare, il rendimento di
un fotobioreattore è limitato dalla luce stessa, un
elevato rapporto superficie/volume è un requisito
preliminare per un reattore. L’efficienza fotochimica percentuale (% = tasso di produzione di H2 x
contenuto energetico di H2/energia solare assorbita) è relativamente bassa (teoricamente un massimo di circa il 10%) e diminuisce per alte intensità
luminose (l’energia fotonica non può essere utilizzata completamente, ma è dissipata come energia
termica). Ciò significa che per generare un processo biologico efficiente, è importante sia “diluire” la luce sia distribuirla al meglio su tutto il volume del reattore, o usare alte velocità di agitazione
della coltura in modo da esporre le cellule alla luce
soltanto per brevi periodi.
Tra le geometrie più utilizzate, ci sono quella planare e quella tubolare.
REATTORI PLANARI
Figura 2. Fotobioreattore a geometria planare.
Tali reattori sono costituiti da contenitori trasparenti rettangolari di profondità compresa tra 1 e 5
cm (Fig. 2).
La miscelazione della coltura è in genere operata
da aria introdotta attraverso il pannello inferiore. I
pannelli sono disposti verticalmente e illuminati
solitamente su un lato dalla luce solare diretta. I
cicli luce/buio sono in genere brevi e questo è probabilmente il fattore chiave che conduce ad una
elevata efficienza fotochimica.
Uno svantaggio di questi sistemi è che presentano
un elevato assorbimento di energia per la miscelazione.
FOTOBIOREATTORI
FOTOBIOREATTORI:
NUOVI SVILUPPI
Una possibilità per aumentare le efficienze è quella
di separare l’assorbimento di luce dalla zona di coltura della biomassa 24. La luce potrebbe essere raccolta mediante specchi parabolici e quindi convogliata sul fotobioreattore mediante fibre ottiche.
Tale soluzione attualmente è costosa, ma è auspicabile che l’abbattimento dei costi per specchi,
lenti, e sistemi di trasporto della luce possa rendere questo tipo di strategia di applicabilità generale.
Il design di un fotobioreattore con un sistema di
redistribuzione della luce è un’importante sfida
ingegneristica. Già nel 1985 Mori 24 utilizzò una
colonna verticale con un gran numero di fibre di
TUBOLARI
I reattori tubolari consistono in lunghi tubi trasparenti con diametri che variano da 3 a 6 centimetri
e lunghezze da 10 a 100 m. Il mezzo di coltura
viene fatto circolare attraverso i tubi per mezzo di
pompe (Fig. 3).
I tubi possono essere posizionati in differenti geometrie, sul piano orizzontale o verticale. La lunghezza dei tubi è limitata a causa dell’accumulazione di gas all’interno, benché ciò potrebbe non
essere così importante per i processi basati su
nitrogenasi, poiché essi sono poco inibiti dall’idrogeno prodotto.
In generale, i reattori planari mostrano un buon
rendimento fotochimico. I reattori tubolari in teoria
dovrebbero mostrare migliori efficienze a causa
dei cicli medi luce/buio più brevi.
Figura 3. Fotobioreattore tubolare per la coltivazione di
alghe verdi.
44
vetro fissate lungo l’asse. Ogbonna et al. 25 hanno
sostituito le fibre con alcune barre trasparenti solide (vetro o quarzo) in un reattore stirred-tank.
Entrambi i sistemi non sono scalabili, perché un
elevatissimo numero di fibre o barre sarebbero
necessarie in un fermentatore su grande scala.
L’implementazione di tali sistemi è riportata in
Figura 4, in cui è mostrato un sistema sviluppato
presso l’Università di Wageningen in Olanda 26.
Quest’ultimo dispositivo prevede la presenza di un
fotobioreattore rettangolare in cui sono inserite
alcune piastre in materiale plastico (PMMA o policarbonato) in grado di diffondere la luce all’interno del sistema. La miscelazione è garantita da aria
iniettata nello spazio fra le piastre. La luce solare è
convogliata direttamente alle piastre interne
mediante fibre ottiche. Sembra che un tale sistema
possa essere scalabile fino a volumi dell’ordine di
oltre 100 m3.
2. sviluppo di sistemi a fibre ottiche per la canalizzazione della radiazione luminosa;
3. sviluppo di materiali e trattamenti superficiali
dei bioreattori in grado di ottimizzare la produttività dei microrganismi impiegati, aumentando
così l’efficienza globale degli impianti;
4. sviluppo di matrici per l’immagazzinamento dell’idrogeno.
Relativamente al punto 3, le attività di ricerca
attualmente in corso prevedono la preparazione di
film o coatings polimerici in grado di ottimizzare la
trasmissione delle bande luminose capaci di promuovere il massimo di crescita dei microorganismi, e che possano attenuare le più elevate intensità luminose che producono fotoinibizione nelle
cellule;
In particolare, due sono le strade potenzialmente
perseguibili:
a. realizzazione di filtri per l’assorbimento della
componente della radiazione solare potenzialmente dannosa (UV e vicino IR), massimizzando la trasmissione nel visibile di frequenze associate con i massimi di assorbimento delle colture cellulari (cianobatteri e alghe verdi);
b. realizzazione di film polimerici che convertano
la radiazione inutilizzata dalle colture cellulari
(UV e IR) in radiazione visibile.
La Figura 5 mostra un confronto tra lo spettro
della radiazione solare che raggiunge la superficie
terrestre, e lo spettro di assorbimento della
microalga Chlamydomonas Reinhardtii. Si nota
come il microrganismo presenti due ampi massimi di assorbimento nelle regioni 400-500 nm, e
attorno a 650 nm, mentre l’assorbimento nel vicino infrarosso è praticamente trascurabile. La presenza delle componenti IR e UV nello spettro solare è tuttavia fonte di potenziali complicazioni.
Infatti, l’assorbimento di radiazione IR porta all’emissione di radiazione sotto forma di energia termica, incrementando così la temperatura del
sistema con conseguente diminuzione della produttività. Ciò impone la necessità di utilizzare
sistemi di raffreddamento, che in genere sono
PROGETTO HYDROBIO
Nell’ambito delle ricerche in corso a livello internazionale sulla produzione biologica di idrogeno,
si colloca il progetto di ricerca: Metodologie
Innovative per la Produzione di Idrogeno da
Processi Biologici (Idrobio), finanziato dal MURST,
che vede coinvolti diversi partners del mondo
accademico e della ricerca italiana (alcuni istituti
del CNR e dell’ENEA, l’Università di Padova,
l’Università di Verona, e l’Università di Firenze). Un
progetto così ambizioso necessita di riunire insieme competenze diversificate, che vanno dalla
Biologia molecolare all’ingegneria genetica, alla
biochimica, fino alla scienza dei materiali.
L’Istituto di Chimica e Tecnologia dei Polimeri del
CNR di Pozzuoli è coinvolto nelle seguenti attività
di ricerca:
1. sviluppo di idrogeli in grado di immobilizzare le
colture cellulari e di favorirne la crescita;
Figura 4. Fotobioreattore con separazione del sistema di
captazione della luce dalla crescita batterica 26.
Figura 5. Confronto tra lo spettro di emissione solare e lo
spettro di assorbimento di alghe verdi.
45
d’onda a cui si verificano i massimi di assorbimento dei microrganismi impiegati, e di impiegarli come additivi in materiali polimerici con cui ricoprire la superficie del reattore.
È noto che alcuni sali organici e inorganici di terre
rare quali europio, ittrio, erbio, hanno la caratteristica di assorbire la radiazione UV e di fotoemettere nel rosso. La Figura 7 mostra gli spettri di eccitazione e di emissione di un film di polietilene
additivato con un complesso Eu(III)-fenantrolina
28
. Si osserva come il film abbia un notevole assorbimento nell’UV, e fotoemetta nel rosso visibile
(λMAX = 611 nm), con una resa quantica del 5%. È
interessante notare anche che l’intensità e la frequenza di emissione possono variare in dipendenza del tipo di matrice e di fotoemettitore utilizzati
29
. Altri composti noti per le loro caratteristiche di
fotoemissione sono macromolecole dendritiche 30
e oligomeri coniugati a base di tiofene 31.
costituiti da bagni d’acqua in cui sono immersi i
bioreattori. L’elevata energia associata alla componente UV invece può inibire la crescita batterica. È noto che la radiazione UV-B solare, ha effetti inibitori sull’assorbimento fotosintetico degli elementi nutritivi e può danneggiare il DNA dei
microrganismi fotosintetici. È stato dimostrato che
la produzione primaria dal fitoplancton in acque di
superficie antartiche (laddove maggiori sono gli
effetti della riduzione dell’ozono stratosferico) può
essere inibita fino al 30% 27.
La strategia perseguita presso il nostro Istituto prevede la realizzazione di film polimerici da utilizzare
come coating sul bioreattore, che possano efficacemente assorbire le radiazioni UV e IR termica,
preservando nel contempo la trasmissione della
componente visibile.
La Figura 6 mostra lo spettro in trasmissione di un
film polimerico a base di poliossadiazoli (pod) sintetizzato nel nostro laboratorio. È interessante
notare come tale polimero assorba efficacemente
la radiazione UV potenzialmente dannosa, presentando nel contempo una trasmittanza di circa il
90% su tutto il resto dello spettro investigato.
Il secondo punto indicato in precedenza è sicuramente quello che presenta la maggiore attrattiva
dal punto di vista scientifico e tecnologico. Sono
noti in letteratura svariati materiali, inorganici e
organici, che hanno la caratteristica di assorbire
radiazione in un certo range di frequenza e di
fotoemettere a frequenze diverse. In tal caso la
strategia perseguita è quella di selezionare materiali opportuni, che fotoemettano alle lunghezze
CONCLUSIONI
Non esiste una soluzione unica al problema dell’approvvigionamento energetico, e la diversificazione delle fonti rappresenta un approccio anche
culturalmente stimolante. La produzione biologica
di idrogeno da microalghe e batteri rossi rappresenta una frontiera tecnologica dove si incontrano
la biochimica, la chimica, la fisica e l’ingegneria.
Così come nelle celle a combustibile l’aumento
dell’efficienza passa anche attraverso i materiali
polimerici, anche nei bioreattori è possibile applicare la scienza e la tecnologia delle macromolecole per ottenere migliori rese a costi contenuti.
Figura 6. Spettro di assorbimento di un poliossadiazolo
(pod), con n = 8.
Figura 7. Spettri di emisssione e di assorbimento di un
film di polietilene additivato con un complesso di eu(iii)fenantrolina.
46
BIBLIOGRAFIA
1
2
3
4
5
6
7
8
9
10
11
12
13
14
Website United Nations Framework Convention on
Climate Change: http://www.unfccc.int.
Energy Needs, Choices and Possibilities. Scenarios
to 2050. Shell International 2001.
Haas R, et al. Review report on Promotion Strategies
for electricity from renewable energy sources in EU
countries. 2001.
Miyake M, Schnackenberg J, Nakamura C, Asada
Y, Miyake J. Molecular handling of hydrogenase. In:
Miyake J, Matsunaga T, Pietro AS, Miyake J,
Matsunaga T, eds. Biohydrogen II. Amsterdam, The
Netherlands: Elsevier Publishers 2001, p. 205-19.
Zaborsky OR. Biohydrogen. New York, USA:
Plenum Press 1998.
Benemann J. Hydrogen biotechnology: progress
and prospects. Nat Biotechnol 1996;14:1101-3.
Debabrata D, Vezirolu TN. Hydrogen production by
biological processes: a survey of literature. Int J
Hydrogen Energy 2001;26:13-28.
Vignais MV, Billoud B, Meyer J. Classification and
phylogeny of hydrogenases. FEMS Microbiol Rev
2001;25:455-501.
Adams MW, Mortenson LE, Chen JS. Hydrogenase.
Biochim Biophys Acta 1980;594:105-76.
Appel J, Schulz R. J Photochem Photobiol B: Biol
1998;47:1-11.
Schulz R. J Mar Biotechnol 1996;4:16-22.
Boichenko VA, Hoffmann P. Photosynthetica
1994;30:527-52.
Hoppe-Seyler F. Die Methangarung der Essigsaure.
Z Phys Chem 1887;11:561-8.
Baelaich J-P, Bruschi M, Garcia J-L. Microbiology
and biochemistry of strict anaerobes involved in
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
47
interspecies hydrogen transfer. New York, USA:
Plenum Press 1990.
Gaffron H. Am J Bot 1939;27:273-83.
Melis A, Happe T. Plant Physiol 2001;127:740-8.
Benemann JR. Int J Hydrogen Energy 1997;22;
979-87.
Wunschiers R, Heide H, Follmann H, Senger H,
Schulz R. FEBS Lett 1999;455:162-4.
Wunschiers R, Senger H, Schulz R. Biochim Biophys
Acta 2001;1503:271-8.
Melis A, Zhang L, Forestier M, Ghirardi ML, Seibert
M. Plant Physiol 2000;122:127-36.
Ghirardi ML, Zhang L, Lee JW, Flynn T, Seibert M,
Greenbaum E, et al. Trends Biotechnol
2000;18:506-11.
Hansel A, Lindblad P. Appl Microbiol Biotechnol
1998;50:153-60.
Tamagnini P, Axelsson R, Lindberg P, Oxelfelt F,
Wunschiers R, Lindblad P. Microbiol Mol Biol Rev
2002;66:1-20.
Mori K. Biotechnol Bioeng Symp 1985;15:331-345.
Ogbonna JC, Soejima T, Tanaka H. J Biotechnol
1999;70:289-297.
Janssen M, Tramper J, Mur LR, Wijffels RH.
Biotechnol Bioeng 2003;81:2.
Xu XQ, Beardall J, Hallam ND. Phytochemistry
1998;49:1249.
Pogreb R, et al. Polym Adv Technol 2004;15:414.
Bonzaninia R, et al. Polymer 2005;46:253.
Adronov A, Fréchet J. Chem Commun 2000;1701.
Gonzalo Rodrıguez J. Tetrahedron Letters
2004;45:7061.
BIOPOLIMERI
Eccoci all’appuntamento annuale con la nomina dei premi Nobel. Nel 2005 è stato riconosciuto l’importante contributo dato da Yves Chauvin, Robert Grubbs e Richard Schrock nel campo della chimica
organica, con lo studio sulla reazione di metatesi. Mi sono quindi rivolto ad una collega di chimica
organica, Lucia Pasquato, professore associato presso il Dipartimento di Scienze Chimiche
dell’Università di Trieste, perché scrivesse per AIM Magazine una illustrazione della ricerca eseguita dai
Nobelists. Lucia ha accettato volentieri e di questo la ringrazio sentitamente.
Roberto Rizzo
LA
REAZIONE DI METATESI:
UNA REAZIONE DA NOBEL
di Lucia Pasquato
INTRODUZIONE
*
greco metáthesis che significa spostamento, trasposizione).
Come in molti altri casi la reazione di metatesi di
olefine è stata trovata per caso nel 1955. In particolare si è trovato che catalizzatori formati in situ
usati nelle polimerizzazione di tipo Ziegler-Natta
non portano solo alla reazione di polimerizzazione
di olefine ma possono anche catalizzare una reazione meccanicisticamente completamente diversa, la reazione di metatesi. Negli anni ’60 Natta et
al., nella estensione degli studi sulla polimerizzazione, hanno riportato la polimerizzazione con
apertura di anello di olefine cicliche in catalisi
omogenea 2. Successivi studi di Calderon e di Mol
hanno cominciato a fare luce sul meccanismo di
Il premio Nobel per la Chimica 2005 è stato assegnato a tre ricercatori: Yves Chauvin, Robert
Grubbs e Richard Schrock che hanno studiato ed
hanno fatto diventare la reazione di metatesi una
delle più importanti reazioni della chimica organica, uno strumento che consente la sintesi di polimeri e di nuove complicate molecole e farmaci
rispettando i criteri della “chimica verde”.
La reazione di metatesi e le sue applicazioni sono
state oggetto di numerose reviews 1 oltre ad essere riportate nei libri di chimica organica e quindi in
questa sede saranno ripresi alcuni punti salienti
raggiunti dai vari studi su questa reazione e saranno discussi alcuni esempi di applicazioni alla sintesi di composti che rivestono importanza in diversi settori della chimica e che sono una scelta personale dell’autore.
La reazione di metatesi è una reazione d’equilibrio
e il sistema più classico prevede la reazione tra
due doppi legami carbonio-carbonio in cui, in presenza di un catalizzatore opportuno, si rompono i
due doppi legami presenti nei reagenti e si formano due nuovi doppi legami tra gli atomi di carbonio che prima non erano legati come illustrato
nella Figura 1 e come indica il nome stesso (dal
Figura 1. Principio generale di metatesi di olefine sostituite in modo simmetrico.
*
Università di Trieste, Dipartimento di Scienze Chimiche, via L. Giorgieri 1, 34127 Trieste; Fax 040 5583903; E-mail: [email protected]
48
questo processo, dimostrando che durante la reazione si ha uno scambio di alchilidene. Chauvin è
stato il primo a postulare un meccanismo in cui è
coinvolto un metallo-carbene come specie catalitica che evolve a metallo-ciclobutano 3. Questo
meccanismo è stato successivamente supportato
dagli studi dei gruppi di Casey, Katz e Grubbs.
Come illustrato in Figura 2, questa trasformazione
presenta una varietà di applicazioni. Come esempi
sono illustrate le seguenti reazioni: “ring-opening
methatesis polymerization” (ROMP), “ring-closing
methatesis” (RCM), “acyclic diene methatesis
polymerization” (ADMET), “ring-opening methatesis” (ROM) e “cross-methatesis” (CM). Negli ultimi
anni la reazione è stata estesa anche ad alchini. Il
triplo legame può essere presente in una sola parte
reagente e in questo caso per RCM si ottiene un
sistema 1,3-dienico che può poi subire successive
trasformazioni (per esempio cicloaddizioni). Se il
triplo legame carbonio-carbonio è presente su
entrambi i siti reagenti si ottiene per reazione RCM
un prodotto contenente un triplo legame C-C.
Inoltre, esempi di catalizzatori od olefine, supportate per la sintesi in condizioni di catalisi eterogenea, sono stati sviluppati con l’obiettivo di ottenere processi più adatti ad una chimica verde.
Le conoscenze acquisite sul meccanismo hanno
dato impulso allo sviluppo di catalizzatori di nuova
generazione con prestazioni migliori, più stabili e
soprattutto con una miglior tolleranza a diversi gruppi funzionali
rispetto ai catalizzatori inizialmente usati. In Figura 3 sono
riportati alcuni catalizzatori o precursori che vengono trasformati
in situ in metallo-alchilidene, tra
questi il complesso tungsteno- o
molibdeno-alchilidene 1 sviluppato da Schrock et al. e il complesso di rutenio 2 introdotto da
Grubbs et al. che sono i più conosciuti e forse i più versatili.
Entrambi questi reagenti sono
commerciali ed il catalizzatore 2
è stato riconosciuto come reagente Fluka dell’anno nel 1998.
Figura 2. Diverse reazioni di metatesi di olefine.
industriali. Un esempio classico è il processo
Phillips in cui il propene è convertito in una miscela di etene e 2-butene. Attualmente l’applicazione
più importante dal punto di vista tecnico è uno
APPLICAZIONI
Questi catalizzatori sono stati utilizzati in aree diverse della chimica e, poiché questo settore di
ricerca proveniva dall’industria
chimica del petrolio e delle polimerizzazioni, le prime applicazioni sono state in diversi processi Figura 3. Alcuni catalizzatori e pre-catalizzatori usati nelle reazioni di metatesi.
49
stadio del processo “Shell Higher Olefin Process”
(SHOP) in cui a partire da una miscela di olefine a
catena corta e olefine a catena lunga si ottengono
olefine a catena media da 11-14 atomi di carbonio. La reazione di metatesi in questo processo utilizza la prima e l’ultima frazione di distillazione
della oligomerizzazione dell’etano catalizzata da
nichel. In seguito ad una doppia isomerizzazione e
successiva metatesi è possibile ottenere olefine
con il numero desiderato di atomi di carbonio. Il
processo SHOP è stato iniziato nel 1979 e sono
stati costruiti impianti con capacità di 100.000
tonnellate/anno. Un’altra area di applicazione
della reazione di metatesi è la polimerizzazione di
olefine. Un esempio è il processo Norsorex della
compagnia CDF-Chimie e il processo HülsVestenamer (Fig. 4). Questi processi si basano
sulla polimerizzazione per apertura di anello
(ROMP) del norbornene (Norsorex, 45.000 tonnellate/anno) e del ciclottene (Vestenamer), rispettivamente.
Queste metodologie di polimerizzazione sono state
applicate in modo originale da Kiessling per la sintesi di leganti multivalenti 4. È noto che l’aggregazione cellulare da parte di lectine o anticorpi riveste una notevole importanza biotecnologica per
applicazioni terapeutiche. Per aumentare l’avidità
e le proprietà di aggregazione di sistemi sintetici il
gruppo del prof. Kiessling ha agito sull’aumento
del numero di siti leganti. La valenza (il numero di
siti di riconoscimento) presenti in lectine e anticorpi è limitato dalla loro struttura quaternaria. Il
problema è stato affrontato usando polimeri generati con reazioni di polimerizzazione ROMP come
scaffold (Fig. 5) per riconoscere coppie di lectine,
in particolare la Con A. Con questo approccio gli
Autori hanno dimostrato che complessi tra questi
scaffold polimerici e Con A portano all’aggregazione di cellule di una linea di cellule T di leucemia
più efficacemente della sola Con A.
Figura 4. Reazione di metatesi applicata ad alcuni processi industriali.
Per realizzare la strutturazione in elica di brevi
sequenze peptidiche sono state elaborate diverse
strategie incorporando elementi opportuni nelle
catene laterali di ammino acidi (naturali o non
naturali) per formare, per esempio, ponti a disolfuro o interazioni idrofobiche o legami con metalli di
transizione. A questo scopo i sostituenti sono posti
tra il residuo i ed il residuo i + 4 della catena peptidica cioè si trovano sullo stesso lato dell’elica e
distanziati da un giro di elica (in alfa-elica). Il gruppo di Grubbs ha riportato un elegante metodo per
bloccare un eptapeptide in alfa-elica usando una
reazione di metatesi tra doppi legami carbonio-carbonio presenti nella catena laterale di due O-allil
serine inserite nella sequenza peptidica (Fig. 6) 5.
Una delle frontiere della reazione di metatesi di
alcheni è la sua applicazione nel generare stereocentri. Per raggiungere questo scopo sono stati
applicati due metodi:
1) reazioni diastereoselettive di RCM con catalizzatori achirali su sistemi contenenti centri stereogenici pre-esistenti;
Figura 5: Monomero e polimeri preparati nel gruppo della prof. Kiessling usando la reazione ROMP. I polimeri si diversificano per numero di monomeri, variazione di valenza, e per densità, in questo caso introducendo derivati del mannosio e del galattosio in rapporti diversi.
50
Figura 6: Sintesi del peptide-macrociclo a partire dalle sequenze Boc-Val-Ser-Leu-Aib-Val-Ser-Leu-OMe 9 e Boc-ValHse-Leu-Aib-Val-Hse-Leu-OMe 10, dove Hse indica la L-omoserina.
2) reazioni di metatesi enantioselettive di substrati achirali con catalizzatori chirali.
Un esempio del primo metodo è la sintesi selettiva
innovativa dell’antagonista del recettore NK-1 sviluppato da ricercatori alla Merck 6. Come mostrato in Figura 7 la reazione del derivato della (S)fenilglicina tetraene 15 con il catalizzatore di
Grubbs 2 (R = Ph) (4 mol %) in cloroformio a temperatura ambiente porta alla formazione dei due
diatereoisomeri 18 e 19 con una resa chimica del
86% e una diastereoselettività del
70%. Si pensa che nel processo
maggioritario ci sia la formazione
di un anello a 5 membri per generare gli intermedi diidrofurani 16
e 17, che poi danno una seconda
più lenta chiusura di anello. La
diastereoselettività del processo
generale deriva dal primo stadio
con la preferenziale ciclizzazione
del gruppo O-allile con uno dei
due gruppi vinilici in C5 diastereotopici controllata dallo stereocentro adiacente. Dopo separazione del prodotto maggioritario
18 dal composto 19 non desiderato si usa la reazione di Heck, in
questo caso altamente chemoregio- e stereoselettiva, per
aggiungere il sistema aromatico
al C3 dell’anello del dididrofurano
ottenendo il composto triciclico
20 che viene trasformato nella
struttura del target finale 21 in
due stadi.
Lo sviluppo di metodologie di sintesi asimmetriche
è particolarmente importante per la sintesi totale
di prodotti naturali. Le reazioni di metatesi sono
state utilizzate in numerosi spettacolari esempi di
sintesi totale. In alcuni casi la disponibilità di processi asimmetrici è fondamentale.
Il primo esempio di RCM enantioselettiva è stata
riportata da Grubbs nel 1996 in una risoluzione
cinetica usando un catalizzatore di molibdeno ma
i valori di enantiodifferenziazione erano piuttosto
Figura 7: Sintesi dell’antagonista del recettore NK-1 via doppia RCM diastereoselettiva e reazione di Heck riduttiva (Merck).
51
bassi (krel < 2.2) 7. Studi in collaborazione tra i
gruppi di Hoveyda e Schrock hanno portato alla
sintesi di catalizzatori chirali di molibdeno efficienti nelle reazioni di metatesi asimmetriche di alcheni1h 8. Gli esempi di applicazioni nella sintesi di prodotti naturali sono ancora pochi. Un esempio
applicato alla sintesi “target-oriented” può dimostrare l’enorme potenzialità di questo processo 9. Il
trattamento del diene 22 con il complesso di
molibdeno chirale 23 in pentano a temperatura
ambiente porta alla sua conversione nella struttura biciclica riarrangiata 24, ottenuta in resa quasi
quantitativa (97%) e con una buona enantioselezione (87%). Questa reazione può essere condotta
anche ad elevate concentrazioni usando la quantità di solvente strettamente necessaria alla dissoluzione dei reagenti senza ottenere omodimeri. In
pochi stati si ottiene il sesquiterpenoide (+)-africanolo 25.
Applicazioni nella sintesi di nuovi materiali ibridi
formati da nanoparticelle metalliche e polimeri
hanno visto la reazione di metatesi (ROMP) utilizzata per la preparazione di una nuova classe di
materiali formati da nanoparticelle di oro protette
da uno shell polimerico “costruito su misura” 10. A
questo scopo sono state preparate nanoparticelle
di oro di circa 3.0 nm di diametro protette da un
monostrato misto formato da un rapporto 3:1 di 1dodecantiolo e di 1-mercapto-10-(exo-5-norbornen-2-oxy)decane rispettivamente, seguendo la
procedura di Brust e Schiffrin 11. La reazione di
metatesi del norbornene presente nel monostrato
è stata condotta in presenza del catalizzatore commerciale di rutenio 2 (R = Ph) ed è stata monitorata per mezzo della spettroscopia 1H NMR in
CDCl3 (Fig. 9). Dopo 10 minuti è stato aggiunto
un eccesso (20 equiv. rispetto al catalizzatore) del
complesso redox-attivo 26 che porta alla formazione di un primo shell polimerico. Dopo 30 minuti la polimerizzazione è completa (non ci sono più
i segnali del monomero 26) e per la terminazione
è stato aggiunto un eccesso di etil vinil etere. In
alternativa, è possibile aggiungere un secondo
monomero, prima della terminazione, per creare
un secondo shell intorno al primo e questo è stato
realizzato con il composto 27. La presenza dei
gruppi elettro-attivi consente di quantificare, con
misure di voltametria ciclica, i monomeri 26 e 27
presenti nel polimero che avvolge le nanoparticelle di oro. Questa strategia può essere estesa ad
altre nanoparticelle metalliche o di materiali semiconduttori per applicazioni in chimica e biochimi-
Figura 8: Reazioni di metatesi consecutive di chiusura e apertura di anello nella sintesi enantioselettiva del (+)-africanolo.
52
Figura 9. Sintesi di nanoparticelle di oro protette da due shells polimerici ancorati sulla superficie di oro.
Martin SF. Synthesis of oxygen- and nitrogen-containing heterocycles by ring-closing methatesis.
Chem Rev 2004;104:2199-238. (e) Piscopio AD,
Robinson JE. Recent applications of olefin methatesis to combinatorial chemistry. Curr Opin Chem Biol
2004;8:245-54. (f) Connon SJ, Blechert S. Recent
developments in olefin cross-methatesis. Angew
Chem Int Ed 2003;42:1900-23. (g) Leeuwenburgh
MA, van der Marel GA, Overkleeft HS. Olefin methatesis in glicobiology: new routes towards diverse
neoglycoconjugates. Curr Opin Chem Biol
2003;7:757-65. (h) Schrock RR, Hoveyda AH.
Molybdenum and Tungsten Imido Alkylidene complexes as efficient olefin-methatesis catalysts.
Angew Chem Int Ed 2003;42:4592-633. (i) Trnka
TM, Grubbs RH. The development of L2X2Ru=CHR
olefin methatesis catalysts: an organometallic success story. Acc Chem Res 2001;34:18-29. (l)
Fürstener A. Olefin methateis and beyond. Angew
Chem Int Ed 2000;39:3012-43. (m) Grubbs RH,
Chang S. Recent advances in olefin methatesis and
its application in organic synthesis. Tetrahedron
1998;54:4413-50. (n) Schuster M, Blechert S.
Olefin methatesis in organic chemistry. Angew
Chem Int Ed Engl 1997;36:2036-56.
ca e può essere sfruttato per incorporare nanoparticelle in altri materiali polimerici e formare superstrutture organizzate di nanoparticelle.
CONCLUSIONI
L’esplosione di conoscenze e applicazioni della
reazione di metatesi negli ultimi 10 anni è senza
precedenti. Nonostante gli incredibili progressi
raggiunti ci sono ancora delle limitazioni da superare. Queste lacune comprendono la piuttosto
scarsa possibilità di prevedere e di controllare il
rapporto E/Z dei prodotti olefinici (ad eccezione
dei più comuni e piccoli idrocarburi ciclici) e la
quantità, in alcuni casi piuttosto grande, di catalizzatore necessario per portare a completamento la
reazione. Inoltre, è necessario trovare nuovi catalizzatori chirali più efficienti e pratici per processi
di catalisi asimmetrica. Sicuramente il successo
raggiunto da questa classe di reazioni vedrà nei
prossimi anni il raggiungimento di nuovi traguardi
e la soluzione di alcuni dei problemi citati e consentiranno applicazioni ancora più spettacolari.
2
BIBLIOGRAFIA
1
Alcune reviews recenti: (a) Nicolau KC, Bulger PG,
Sarlah D. Metathesis Reactions in Total Synthesis.
Angew Chem Int Ed 2005;44:4490-527. (b)
Amblard F, Nolan SP, Agrofoglio LA. Methatesis
strategy in nucleoside chemistry. Tetrahedron
2005;61:7067-80. (c) Grubbs RH. Olefin methatesis. Tetrahedron 2004;60:7117-40. (d) Deiters A,
53
(a) Natta G, Dall’Asta G, Mazzanti G, Mortoni G.
Stereospecific polymerization of cyclobutene.
Makromol Chem 1963;69:163-79. (b) Natta G,
Dall’Asta G, Mazzanti G. Stereospecific hompolymerzation of cyclopenene. Angew Chem (English)
1964;3:723-9. (c) Natta G, Dall’Asta G, Bassi IW,
Carella G. Stereospecific ring cleavage homopolymerization of cycloolefins and structural examination of the resulting homologous series of linear crystalline trans-polyalkenamers. Makromol Chem
1966;91:87-106.
3
4
5
6
Enantioselective Synthesis of NK-1
Antagonists. Org Lett 2001;3:671-4.
Herisson J-L, Chauvin Y. Catalysis of olefin transformations by tungsten complexes. II. Telomerization of
cyclic olefins in the presence of acyclic olefins.
Makromol Chem 1971;141:161-76.
(a) Gestwicki JE, Strong LE, Cairo CW, Boehm FJ,
Kiessling LL. Cell aggregation by scaffolded receptor
clusters. Chem Biol 2002;9:163-9. (b) Cairo CW,
Gestwicki JE, Kanai M, Kiessling LL. Control of multivalent interactions by binding epitope density. J
Am Chem Soc 2002;124:1615-9. (c) Gestwicki JE,
Kiessling LL. Inter-receptor communication through
arrays of bacterial chemreceptors. Nature
2002;415:81-4. (d) Gestwicki JE, Cairo CW, Strong
LE, Oetjen KA, Kiessling LL. Influencing Receptorligand binding mechanism with multivalent ligand
architecture. J Am Chem Soc 2002;124:14922-33.
Receptor
7
Fujimura O, Grubbs RH. Asymmetric Ring-Closing
Metathesis: Kinetic Resolution Catalyzed by a Chiral
Molybdenum Alkylidene Complex. J Am Chem Soc
1996;118:2499-500.
8
Alexander JB, La DS, Cefalo DR, Hoveyda AH,
Schrock RR. Catalytic Enantioselective Ring-Closing
Metathesis by a Chiral Biphen-Mo Complex. J Am
Chem Soc 1998;120:4041-2.
9
Weatherhead GS, Cortez GA, Schrock RR, Hoveyda
AH. Mo-catalyzed asymmetric olefin metathesis in
target-oriented synthesis: Enantioselective synthesis
of (+)-africanol. Proc Natl Acad Sci USA
2004;101:5805-9.
Blackwell HE, Grubbs RH. Highly efficient synthesis
of covalently cross-linked peptide helices by ringclosing methatesis. Angew Chem Int Ed
1998;37:3281-4.
10 Watson KJ, Zhu J, Nguyen SBT, Mirkin CA. Hybrid
Wallace DJ, Goodman JM, Kennedy DJ, Davies AJ,
Cowden CJ, Ashwood MS, et al. A Double Ring
Closing Metathesis Reaction in the Rapid,
Synthesis of thiol-derivatised gold nanoparticles in a twophase liquid-liquid system. J Chem Soc Chem Commun
1994:801-2.
nanoparticles with block copolymer shell structures. J Am Chem Soc 1999;121:462-3.
11 Brust M, Walker M, Bethel D, Schiffrin DJ, Whyman R.
54
POLYMERS ABROAD
L’ASSOCIAZIONE BRASILIANA
DEI POLIMERI: UN’INASPETTATA
E CONSOLIDATA REALTÀ
di Roberto Filippini Fantoni
Chi di noi sente parlare di Brasile pensa subito a
foreste immense, spiagge incantevoli, degradanti
favelas, samba, carnevale e mulatte mozzafiato e
poco conosce della realtà di quell’immenso paese
(il quinto al mondo per estensione).
Sono gli stereotipi che ogni paese porta con sé. A
noi italiani fa rabbia quando il nostro bel paese è
ricordato per pizza, canzoni napoletane e mafia,
ma questa è la realtà alla quale bisogna, volenti o
nolenti, adeguarsi. Anche se in fondo le persone
con un minimo di cultura sanno che l’Italia è ben
altro che pizza, mafia e mandolino, di primo acchito sono queste le cose che saltano alla mente.
Per uno come me che del Brasile ha fatto la sua
seconda patria dovrebbe essere implicito il fatto
che questo immenso paese sia una fucina di sorprese e che il suo sviluppo industriale sia qualcosa di assolutamente inimmaginabile. Eppure,
anche dopo oltre vent’anni di frequentazioni gialloverdi, non ho ancora finito di meravigliarmi.
Ultimamente è stato il Congresso dell’Associazione
Brasiliana dei Polimeri, l’esatto equivalente della
nostra AIM, a destare in me meraviglie e a farmi
capire quanto grande sia la forza dell’industria brasiliana dei polimeri e quanto sviluppata sia la ricerca universitaria in questa disciplina.
Ma andiamo con ordine.
Per una fortuita serie di circostanze mi sono trovato Invited Guest all’8° Congresso della Associação
Brasileira de Polímeros (in breve ABPol) che si
svolgeva dal 6 al 10 novembre a Lindoia, un’amena località termale a 170 km da São Paulo, proprio al confine tra lo stato di São Paulo e quello di
Minas Gerais. Di invitati italiani al momento del
mio ingaggio c’era solo il prof. Luigi Costa
dell’Università di Torino che doveva tenere una
delle Main Lectures. Dopo di me si è aggiunto alla
comitiva italiana anche il prof. Giuseppe Di
Silvestro, dell’Università di Milano e che in AIM
non ha certo bisogno di presentazioni.
Decisi, tramite le conoscenze brasiliane, di contattare il Direttore della loro rivista, che, tra l’altro, si
chiama “Polímeros – Ciência e tecnologia” e
festeggiava nel 2005 il suo quindicesimo anno di
vita.
Il personaggio, Silvio Manrich, si dimostrò quello
giusto per avere notizie sull’Associazione. Infatti
oltre ad essere stato uno dei soci fondatori ne è
stato presidente per più mandati e di quella realtà
conosceva ogni minimo particolare.
Che l’ABPol fosse qualcosa di realmente importante ce lo disse subito il numero di iscritti al
Congresso (più di 700), il numero di articoli presentato e l’immensità della sezione posters.
I lavori presentati sono stati parecchie centinaia di
cui 456 nelle due sezioni posters che si sono alternate nel corso della settimana; poi 7 Main Lectures
e ben 83 presentazioni orali, divise tra interventi
da 20 minuti e altri da 40 minuti.
Come potete vedere si tratta di “grandi numeri”
che solo un paese industrialmente avanzato e con
180 milioni di abitanti, la maggior parte dei quali
insediati in grandissime città e in zone industriali,
può dare.
E la qualità degli interventi era mediamente
buona, con i soliti alti e bassi tipici anche dei nostri
Congressi AIM.
L’organizzazione è stata eccellente e lì noi italiani
dovremmo proprio imparare. Innanzitutto c’era
una sala di incontri con parecchi tavoli e che
aveva disponibili tre computer collegati a internet.
Per coloro che erano muniti di portatile c’era una
saletta con due cavi ethernet a disposizione. Per i
più avanzati, che possedevano anche il sistema
55
wireless, ci si poteva piazzare in qualsiasi posto
della sala per essere collegati a Internet.
Insomma qualcosa da imparare e copiare per il
prossimo congresso, visto che a Napoli per connettermi a internet con il mio portatile ho dovuto
“scocciare” una gentile signora che lavorava in
uno degli uffici del primo piano.
E a proposito di organizzazione dobbiamo dire
che per tutti i partecipanti al congresso erano previste, a modica spesa, pranzi e cene con buffet
assai ricchi.
Per non parlare della serata ufficiale quando dopo
la cena tutti indistintamente, professori, ricercatori, studenti, si sono lanciati in balli di ogni genere
che andavano dal samba al forró, una danza originaria del nord-est del Brasile, tornata prepotentemente alla ribalta alcuni anni or sono e che da
allora tiene banco. Al confronto le nostre serate
ufficiali al Congresso AIM sono mesti incontri di
pensionati! Ma il Brasile è questo e quando comincia la musica davvero … comincia la festa!
Con Silvio Manrich organizzai un incontro per
capire come tutta l’organizzazione dell’ABPol funzionava. Se prima di quell’incontro potevo avere
solo sospetti sulla forza di questa associazione,
dopo aver sentito la sua storia e la sua organizzazione i sospetti si sono tramutati in certezze e ho
capito qual è il peso dell’intervento dell’industria
brasiliana a questi livelli. Esattamente l’opposto di
AIM che ormai da anni fatica ad avere l’appoggio
della grande industria petrolchimica e dei polimeri, sempre che si possa trovare da noi una grande
industria italiana degna di tale nome.
L’ABPol ha solo 17 anni di vita e quindi poco più
della metà di AIM.
È costituita da un Consiglio Direttivo formato da 28
membri. Sei di questi sono eletti dai Soci
Patrocinatori ognuno dei quali può proporre un solo
nome. Gli altri 22 sono Soci Collettivi e Soci
Individuali, che si candidano, restano in carica quattro anni, ma ogni due anni se ne sostituiscono 14,
di cui 3 eletti dai Soci Patrocinatori e 11 dai Soci
Collettivi e Soci Individuali. I 14 eletti nel 2005 provengono per metà dall’industria (Petrobras, Ciba,
Polibrasil, Rhodia, Braskem, General Electric Plastic
per segnalarvi le provenienze di quelli in carica) – e
non sono industrie di poco conto – e per metà da
università e centri di ricerca.
Ma vediamo quanti tipi di soci sono previsti dallo
statuto.
I Soci Patrocinatori sono soci industriali o istituzionali che con quote per altro modeste entrano a far
parte di questa categoria (5.000 R$/anno e cioè
circa 1.800 €). Hanno diritto a cinque rappresentanti che ricevono la Rivista e altre pubblicazioni
che l’Associazione edita.
I Soci Collettivi entrano con una quota di 1.500
R$/anno (circa 500 €) e hanno diritto a tre rappresentanti.
I Soci Individuali sono 450 e pagano circa 85 R$
(~ 30 €) e ricevono la Rivista e hanno sconti per
gli eventi organizzati da ABPol (esattamente come
per i nostri soci AIM). Poi ci sono i soci Junior che
sono generalmente studenti per i quali il costo di
associazione è quasi simbolico (25 R$ – meno di
10 €).
Infine ci sono due Soci Onorari. Uno è lo stesso
Silvio Manrich, socio fondatore, presidente per
diversi mandati e ora direttore della Rivista. L’altro
è la famosissima Eloísa Biasoto Mano, un’istituzione dei polimeri brasiliani e autrice di parecchi libri,
in onore della quale nel 2004 l’ABPol ha fatto uscire un’edizione straordinaria della rivista. A proposito di questa famosa Professoressa, posso dire
che ho avuto l’opportunità di conoscerla, grazie
alla sua amicizia con il prof. Mario Farina. La contattai e nel 1994 mi invitò a fare un seminario
all’Università Federale di Rio de Janeiro.
Tornando al Consiglio Direttivo, dobbiamo dire
che i suoi membri scelgono i nove membri che
comporranno la Direzione vera e propria. È sempre il Consiglio che poi, su proposta della
Direzione, sceglie il Presidente. Quest’anno per la
prima volta è stata scelta una donna (in AIM
capitò con Gianna Costa nel 2001) e cioè la professoressa Raquel S. Mauler dell’Università
Federale del Rio Grande do Sul, una zona del
Brasile dove l’etnia sassone e in particolare germanica è assai diffusa e il nome stesso della
Professoressa lo sta chiaramente ad indicare.
Per la scelta del Consiglio Direttivo, sei mesi prima
della scadenza si invia a tutti i soci una lettera che
ricorda di segnalare i nomi dei candidati. Si prepara una lista con due gruppi (3 + 11 come spiegato in precedenza). Si invia la lista via E-mail a
tutti i soci i quali possono scegliere 3 nomi della
prima lista e 11 nomi della seconda.
Il Consiglio Direttivo al completo (28 persone)
scrutina i voti.
A scrutinio avvenuto si convocano i 14 nuovi eletti e i restanti 14 del precedente consiglio che avevano solo due anni di anzianità.
In questo modo si garantiscono rappresentanze
dei patrocinatori e si dà continuità al lavoro del
Consiglio Direttivo che mantiene metà dei membri
in servizio.
Ai 28 consiglieri si aggiungono due Direttori
Regionali (Est e Sud). Il Consiglio Direttivo nomina la Direzione e, su proposta di quest’ultima, il
Presidente e il suo vice.
Normalmente i nove membri della Direzione provengono 4 dall’industria e 5 dall’Università o Enti
56
Statali: anche se questa non è una regola statutaria, quasi mai è stata elusa.
Come vedete un’organizzazione molto estesa nella
quale l’industria gioca un ruolo importante e quindi ha interesse a parteciparvi e a contribuire economicamente come socio patrocinatore, vista tra
l’altro l’abbordabilissima quota richiesta (5.000
R$/anno). Interessanti e da imitare sono le elezioni via internet su una rosa di candidati ampie.
Infatti le elezioni del CD del AIM si fa sempre con
troppo pochi partecipanti e la scelta è fatta dopo
incontri da parrocchietta tra pochi intimi. Di questo in AIM se ne sono accorti da tempo tanto che
si sta pensando a una modifica delle procedure e
la votazione via internet sembra essere una di
quelle più papabili.
Per la Rivista “Polímeros – Ciência e Tecnologia”
l’organizzazione è ancora più complessa.
Il Consiglio Editoriale della stessa è composto da
30 membri più un Presidente. Qui l’apporto dell’università è decisamente maggiore e dei 30 al
momento solo quattro provengono dall’industria.
C’è poi un Comitato Editoriale composto da 9-10
membri con un proprio Presidente.
Esistono poi tre comitati tecnico-scientifici:
Reologia e processo, Riciclaggio, Caratterizzazione
e sviluppo materiali. Tali comitati si riuniscono
circa ogni 3 mesi e ne fanno parte esperti che non
necessariamente devono essere soci di ABPol. Le
commissioni organizzano un seminario collettivo
rivolto in modo totale all’industria. Il seminario si
sviluppa su due giornate.
La Segreteria e la Direzione organizzano poi una
decina di Corsi e ogni Direttore ha un compito
specifico.
La Rivista esce ogni 3 mesi (marzo, giugno, settembre e novembre), Nell’ultimo numero dell’anno
si pubblica la lista di tutti gli articoli pubblicati
durante l’annata.
Quello che mi ha sorpreso è il buonissimo livello
scientifico e tecnologico degli articoli ma dopo che
mi hanno spiegato come vengono scelti ho capito
anche il perché. Infatti ogni articolo viene sottoposto al Comitato Editoriale il quale, in base agli
argomenti trattati sceglie 3 tra i 187 consulenti a
disposizione della rivista per un’analisi del lavoro
presentato; ovviamente sono tre persone esperte
dell’argomento trattato. Il risultato di questo
esame può tramutarsi in:
a) accettazione del lavoro così come è presentato
(cosa che avviene raramente);
b) accettazione con poche correzioni;
c) accettazione con molte correzioni;
d) ricusazione.
La decisione di ricusazione può non essere accettata dal Comitato Editoriale che in tal caso rimanda il lavoro agli esperti per una rivalutazione.
I casi di ricusazione del lavoro non sono pochi (nel
2002, anno in cui sono stati presentati molti lavori, 33 su 92 sono stati ricusati) e per la maggior
parte dei pubblicati è stato fatto un notevole lavoro di correzione e riadattamento.
Ovviamente il taglio degli articoli è del tipo classico delle maggiori riviste scientifiche di polimeri e
completamente diverso dal quello che il nostro
Magazine dà soprattutto con Polymer&Life.
Ne ho parlato con Manrich che ha preso visione di
qualche numero del nostro Magazine ed è stato
favorevolmente sorpreso dall’impostazione, tant’è
che abbiamo deciso di proporre ai rispettivi
Comitati Editoriali di scambiarci un articolo all’anno.
Ho saputo poi che nel caso di libri in uscita che
trattino l’argomento polimeri tutti gli Autori chiedono a ABPol di valutarli e se il libro viene giudicato interessante il Presidente della ABPol scrive
un editoriale di presentazione dello stesso. I soci
ABPol possono acquistare il volume con il 30% di
sconto.
Come potete chiaramente capire da quanto appena relazionato, questi tipi di incontri e di scambi di
vedute servono a migliorarsi e a prospettare modifiche costruttive. Era proprio lo scopo per il quale
ho voluto quell'incontro con l’Associazione
Brasiliana dei Polimeri e mi pare che i risultati
ottenuti possano considerarsi positivi.
57
INTELLECTUAL PROPERTY MONITOR
IL
RISCHIO DI UNA FAMA ECCESSIVA
di Antonella Scotton*
Finora in questa rubrica ci siamo dedicati esclusivamente al più tecnico dei diritti di proprietà intellettuale: il brevetto per invenzione industriale. Esistono peraltro altre forme di diritti esclusivi ed in questo numero ci occupiamo di quello che, insieme al brevetto per invenzione, può essere considerata a
buona ragione uno dei due pilastri di questa disciplina: il marchio.
Ringrazio Antonella Scotton per aver accettato di fornire quest’utile ed interessante contributo alla
rubrica basato sulla sua esperienza di marchi nel settore delle materie plastiche, maturata tra l’altro
all’interno del gruppo Basell Polyolefins.
qualità stessa dei prodotti sui quali il marchio è
apposto. Sono, dunque, dei potenti catalizzatori di
clientela.
Più il marchio si radica sul mercato e maggiore è
il valore che acquisisce per il suo titolare. Esistono
alcuni casi dove il valore economico dell’azienda
si basa di fatto in modo esclusivo sul valore del
marchio sul mercato. È il fenomeno delle c.d.
“brand companies”, particolarmente diffuso nel
settore della moda e dei beni di lusso, ma anche
nel settore dell’abbigliamento e dello sport (una
citazione per tutti è l’americana Nike, brand-company per eccellenza).
Quando un marchio viene registrato, generalmente (esistono alcune sporadiche eccezioni dovute
alle diverse normative nazionali) dura 10 anni e,
previo pagamento delle relative tasse, può essere
rinnovato indefinitamente per ulteriori periodi di
dieci anni. Un esempio per tutti è il marchio “CocaCola” che fu per la prima volta registrato alla fine
del 1800 ed è tuttora in vigore.
Nella nostra vita di tutti i giorni il marchio ha
assunto un ruolo sempre più importante e visibile.
Ovunque siamo circondati da marchi, dal supermercato ai cartelloni stradali, dalle riviste alla televisione, tutti propongono e promuovono i propri
marchi: ma – al di là degli addetti ai lavori – la funzione che svolge il marchio, da un punto di vista
sia giuridico che economico è probabilmente poco
conosciuta.
Ma che cos’è un marchio? Giuridicamente, un
marchio è un segno in grado di essere rappresentato graficamente (in particolare parole, disegni,
ma anche lettere, numeri e pure suoni o colori
possono essere registrati come marchio) che sia
idoneo a distinguere i prodotti ed i servizi di un’impresa da quelli di altre imprese.
Di regola, i diritti derivanti dal marchio si ottengono tramite la registrazione: in particolare, la registrazione conferisce al titolare il diritto esclusivo
all’uso ed allo sfruttamento economico del proprio
marchio e parallelamente di vietare usi non autorizzati da parte di terzi.
I marchi sono formidabili strumenti di marketing
ma anche e soprattutto un asset da proteggere.
Non solo identificano i prodotti di una data azienda sul mercato ma incarnano e simbolizzano la
*
LUNGA
VITA AL MARCHIO, SE NON SE NE ABUSA
A differenza di altri diritti in proprietà industriale
(quali brevetti e modelli di utilità o disegni orna-
European Trademark Attorney, Zanoli & Giavarini, Intellectual Property, Milano www.ipeuro.com
58
mentali) il marchio ha quindi un’ulteriore caratteristica che lo rende particolarmente attraente: infatti,
una volta registrato, un marchio può essere mantenuto in vita per un periodo illimitato di tempo, purché alcune semplici regole vengano rispettate.
In particolare, l’uso o l’abuso dei marchi da parte
di terzi non deve venir tollerato, ma anzi combattuto e il marchio deve essere effettivamente e correttamente usato da parte del titolare.
Queste minime regole si impongono per evitare
che il marchio possa perdere la propria capacità
distintiva e diventare così un’indicazione generica
del prodotto, appropriabile pertanto anche da altri.
Molto importante, anche se a volte poco compresa, è la regola che riguarda l’uso “corretto” dei
marchi e a questo riguardo vorremmo proporre
una piccola case-history che riguarda da vicino il
settore delle materie plastiche.
IL
distinguere uno specifico materiale prodotto da
una specifica azienda, ma per indicare, indistintamente, tutti i prodotti di quel genere. Questo passaggio inverso da “species” a “genus” è il primo
ben noto sintomo del processo di volgarizzazione.
La disfatta si ebbe nel 1936, quando DuPont fece
causa a Sylvania per aver commercializzato un
plastic wrap utilizzando il nome cellophane.
Sylvania si difese sostenendo che, poiché non esisteva alcun altro sinonimo per quel tipo di materiale, cellophane non poteva essere considerato
come un marchio, ma doveva considerarsi come
un termine generico e quindi di libero utilizzo.
DuPont perse la causa poiché il tribunale ritenne
che la società non avesse sufficientemente protetto il proprio marchio, tracciando una netta linea di
confine tra il prodotto commercializzato come cellophane e l’equivalente prodotto generico.
Nel 1935 la DuPont concepì un polimero dalle
caratteristiche del tutto nuove, destinato a diventare una di quelle invenzioni che ora chiamiamo
breakthrough. A questo nuovissimo prodotto, di
cui non esistevano precedenti sul mercato, la
DuPont impose il nome, pure esso innovativo, di
nylon e ne iniziò la commercializzazione nel 1938,
anche se il vero e proprio boom commerciale
arrivò nel 1940, quando il nylon venne utilizzato
per la produzione di calze da donna.
Memore dell’insuccesso avuto con il cellophane, la
DuPont decise di non proteggere il nome nylon
come marchio e di lasciare che divenisse un nome
generico, appropriabile da tutti.
Una scelta assolutamente drastica e forse senza
precedenti, ma che parla da sola di come la volgarizzazione del marchio cellophane avesse portato un duro colpo – di immagine ed economico –
alla società americana.
Nel settore delle materie plastiche la volgarizzazione – che spesso studiamo sui testi come un caso
di scuola – è un evento che si è verificato con
un’incidenza molto maggiore che in altri settori,
proprio per l’alta propensione di questo settore a
giungere sul mercato con prodotti assolutamente
nuovi e senza precedenti nel loro genere.
La volgarizzazione è di norma un evento geograficamente circoscritto anche perché si tratta di un
fenomeno che attiene alla sfera della comunicazione e del linguaggio è che è quindi in larga parte
imputabile al pubblico, cioè ai consumatori di
quello specifico tipo di bene.
Un caso emblematico è quello dell’Aspirina, marchio non volgarizzato in Europa ma volgarizzato
negli USA, dove da decenni il termine viene utilizzato in modo assolutamente generico e non viene
associato dal pubblico al prodotto originale della
Bayer.
TROPPO SUCCESSO PUÒ NUOCERE: IL CASO CEL-
LOPHANE ED ALTRI ANCORA
Il settore delle materie plastiche ha visto molti
marchi colpiti dalla volgarizzazione: una delle
prime vittime illustri di questo fenomeno fu il cellophane.
Il Cellophane fu inventato in Svizzera nel 1912.
DuPont ne acquistò i diritti brevettuali per gli USA
nel 1923 e cominciò la produzione un anno dopo.
Nel 1927 i laboratori di ricerca della DuPont riuscirono a risolvere il problema tecnico legato alla
non-permeabilità del film e nel 1927 brevettarono
un sistema “moisture-proofing”. Il cellophane
costituì una vera e propria rivoluzione per i consumatori e la DuPont utilizzò una campagna pubblicitaria molto aggressiva per aumentare le vendite
del prodotto, riuscendoci a tal punto che nel 1939
le vendite di cellophane costituivano il 25% del
profitto annuo della società. Ma questo successo
commerciale fu fatale al marchio.
Cos’era accaduto? Per anni il pubblico era stato
abituato a chiamare con il nome cellophane quel
particolare prodotto, che non aveva altri termini di
paragone sul mercato. Quando altri operatori
cominciarono a introdurre sul mercato prodotti
analoghi, il pubblico, semplicemente, continuò a
designare con il medesimo nome anche i prodotti
della concorrenza.
Iniziò quindi quel processo che è tecnicamente definito come “volgarizzazione”, e che sta ad indicare la
perdita di capacità distintiva, che è uno dei requisiti indispensabili per la validità di un marchio.
Paradossalmente, proprio per il fatto di essere il
primo prodotto di quel genere ad essere posto sul
mercato e per l’assenza di prodotti analoghi, il termine cellophane venne utilizzato non più per
59
propilene inventato in Italia nel 1953, il Moplen (il
primo deposito italiano risale al 1957) ebbe alla
sua comparsa sul mercato un successo straordinario, grazie specialmente ad una allora famosa
campagna pubblicitaria che per alcuni anni ebbe
come testimonial Gino Bramieri nei panni
dell’“avventuroso casalingo”: il successo immediato ed il fatto che il prodotto pubblicizzato fosse
assolutamente nuovo costituivano due fattori pericolosi e la volgarizzazione del marchio era dietro la
porta.
Tuttavia, rispetto ai marchi nel campo delle materie plastiche, la volgarizzazione ha spesso assunto
un connotato particolare, ovvero quello di verificarsi a livello mondiale, probabilmente a causa
della natura “globale” del mercato di riferimento.
LA
RISCOSSA DI
DUPONT
Un’azienda che, dopo la debacle del cellophane,
ha virato a 180° e, sin dagli anni ’70, ha attuato e
continua ad attuare una politica di difesa attiva dei
propri marchi è proprio DuPont: d’altro canto, parliamo di un gruppo che è da sempre un key player
nel settore delle materie plastiche e i cui marchi
sono stati frequentemente minacciati dalla volgarizzazione.
Uno dei marchi di punta che DuPont per molti anni
ha efficacemente protetto da tentativi di volgarizzazione è Lycra. Per Lycra sono state in particolare utilizzate campagne pubblicitarie mirate a sottolineare l’esclusività del prodotto contraddistinto da
tale marchio (Lycra è solo di DuPont, si leggeva
sulle etichette dei prodotti che hanno tale materiale nella propria composizione). Recentemente, il
marchio Lycra è stato ceduto ad INVISTA, società
che ha acquisito la Textile & Interior Division di
DuPont e con essa una serie di marchi molto noti
tra i quali Cordura, Teflon e Tactel, tutti potenzialmente ad alto rischio di volgarizzazione.
INVISTA sembra aver adottato una politica diversa
da DuPont nella lotta alla volgarizzazione e il
tempo ci dirà se questo approccio, che non punta
in modo deciso alla differenziazione del marchio,
quasi dandone per scontata la notorietà e la capacità distintiva, si mostrerà o meno efficace.
MA
SIGNORA BADI BEN
…
CHE SIA FATTO DI
Paradossalmente il Moplen riuscì a salvarsi dalla
volgarizzazione proprio perché, spenta l’eco della
pubblicità, il marchio perse “presa” presso il pubblico generale e continuò ad essere noto solo presso gli addetti ai lavori, dove peraltro continua ad
essere un marchio di punta del polipropilene da
ormai quasi 50 anni.
PIÙ
MOPLEN!
DIVENTA DI SUCCESSO, PIÙ VA DIFESO
La volgarizzazione, se da un lato testimonia l’innegabile successo del prodotto sul mercato, produce
conseguenze indubbiamente negative sul piano
economico.
Infatti, la perdita di capacità distintiva e la progressiva genericizzazione, impediscono al titolare
di continuare a fare uso esclusivo del marchio, il
che significa non poter capitalizzare l’accreditamento del prodotto presso il pubblico in termini di
riconoscibilità, qualità, eccellenza.
Come salvarsi dalla volgarizzazione? Occorre
sicuramente un comportamento di “difesa attiva”
da parte del titolare che deve, come minimo:
– diffidare i concorrenti dall’usare il marchio
come denominazione generica;
– esigere rettifiche sulle pubblicazioni che gli
abbiano attribuito tale significato;
– pretendere che, qualora il proprio marchio
venga inserito come una voce in un dizionario,
Finiamo questa breve carrellata con un ultimo
esempio, tutto italiano, di marchio che sebbene
inizialmente minacciato di volgarizzazione, è stato
preservato: il Moplen.
Nato come marchio per contraddistinguere il poli-
60
SUL WEB
accanto alla stessa appaia chiaramente l’indicazione che si tratta di un marchio;
– apporre il simbolo TM o ® accanto al marchio
ovvero indicare il marchio con caratteri particolari, ad esempio il corsivo.
LA
http://www.ets-corp.com/tradenames/pa.htm
(indice dei marchi di materiali plastici)
http://www.wipo.int/freepublications/en/marks/4
83/ (introduzione ai marchi per non adepti)
http://www.wipo.int/freepublications/en/marks/4
50 (idem come sopra)
MORALE DELLA STORIA
Infine, va detto che talora, nonostante gli sforzi
compiuti dalla titolare per evitarlo, la volgarizzazione si verifica comunque, poiché, come detto,
siamo di fronte ad un fenomeno dove l’atteggiamento del pubblico gioca un ruolo rilevante e non
sempre controllabile.
In questi casi il marchio volgarizzato troverà un
posto di onore là dove finiscono i marchi prematuramente venuti meno per troppa gloria … nel
cimitero dei marchi.
61
DAL MONDO
DELLA
SCIENZA
GLI
ITALIANI NEGLI EDITORIAL BOARDS
DELLE RIVISTE MACROMOLECOLARI:
UN AGGIORNAMENTO
È giunta alla redazione una segnalazione di una omissione nell’elenco degli italiani presenti nei board
delle riviste del settore macromolecolare: in quelli di Biopolymers e International Journal of Biological
Macromolecules, infatti, compare Evaristo Peggion.
Scusandoci con Evaristo per la dimenticanza, prendiamo atto di questa segnalazione e ripubblichiamo
la tabella 1 dell’articolo di Riccardo Po’ su AIM Magazine, Vol. 60, n. 2-3/2005, pag. 53 opportunamente integrata ma dalla quale abbiamo tolto, elencandole a fine tabella, le riviste senza italiani nei
board.
Il Comitato Editoriale
Riviste macromolecolari
Membri Totali*
Rivista
Biopolymers
Italiani
E. Peggion
Designed Monomers and Polymers
34
G. Galli
European Polymer Journal
43
G. Camino
International Journal of Biological Macromolecules
E. Peggion
Journal of Applied Polymer Science
70
G. Carpaccio, L. Nicolais
Journal of Inorganic and Organometallic Polymers
34
C. Carlini, M. Gleria
Journal of Macromolecular Science - Physics
34
G. Zerbi
Journal of Polymers and the Environment
28
C. Bastioli, E. Chiellini
Macromolecular Chemistry and Physics
53
V. Busico, G. Galli
Macromolecular Rapid Communications
53
V. Busico, G. Galli
Macromolecular Theory and Simulation
25
M. Vacatello
Macromolecules
38
C. DeRosa
Polymer
91
F. Ciardelli, C. De Rosa
*
Sono stati conteggiati tutti i componenti, a vario titolo, dei board
62
Polymers for Advanced Technologies
64
G. Allegra, F. Ciardelli
Polymer Bulletin
27
F. Ciardelli
Polymer Degradation and Stability
21
G. Camino, E. Chiellini,
F.P. La Mantia,
G. Montaudo
Polymer International
48
L. Ambrosio, F. Ciardelli,
G. Montaudo
Polymer Journal
40
G. Allegra
Polymer Technology
27
E. Martuscelli
Non sono presenti italiani nei board delle seguenti riviste (tra parentesi i membri totali nei board):
Cellular Polymers (14), Journal of Elastomers and Plastics (8), Journal of Macromolecular Science Polymer Reviews (20), Journal of Macromolecular Science - Pure and Applied Chemistry (49), Journal
of Polymer Science - Polymer Chemistry (55), Journal of Polymer Science - Polymer Physics (57),
Macromolecular Bioscience (25), Macromolecular Materials and Engineering (26), Polymer Engineering
and Science (23), Polymer Testing (16), Progress in Polymer Science (30).
63
POLIMERI
E
… SOCIETÀ
R & S IN ITALIA, DATI ISTAT
2003-2005: TRA SCILLA E CARIDDI
di Mariano Pracella
*
Sul sito web dell’Istat (www.istat.it) sono recenteIn generale, secondo l’Istat, la diminuzione delle
mente apparsi i risultati delle rilevazioni statistiche
spese delle imprese per R&S contribuisce alla consu Ricerca e Sviluppo intra-muros in Italia per gli
tinua contrazione della spesa totale in R&S già in
anni 2003 (consuntivo) e 2004-2005 (preventiatto da alcuni anni nel nostro paese: il contributo
vo), riferite alle imprese, amministrazioni pubblidelle imprese scende infatti dal 50% del 2000 al
che e istituzioni private. Riportiamo qui in breve i
47,3% del 2003. Questo dato si pone in netto conrisultati principali di questa indagine, esaminando
trasto con l’andamento rilevato per i principali
sia i dati relativi alle spese per R&S che quelli relapaesi UE, dove la quota di spesa del settore privativi al personale addetto.
to supera mediamente il 60% e, nel caso di paesi
Per il 2003, la spesa totale nazionale (14.769
nordici, raggiunge anche valori del 70%! Ne conmilioni di euro), incluse le università e le istituziosegue che, secondo l’Istat, “la tenuta del sistema
ni private no-profit, è aumentata dell’1,2% circa in
nazionale della R&S è garantita dalle amministratermini monetari (-1,7% in termini reali), con un
zioni pubbliche e, soprattutto, dalle università (per
netto rallentamento rispetto alla crescita registrata
le quali la spesa è cresciuta in media del 10% tra il
nei tre anni precedenti. L’incidenza percentuale
2000 e il 2003)”.
della spesa per R&S sul Prodotto Interno Lordo
Ma, considerando il rallentamento osservato nel
(PIL) risulta pari all’1,14% con una riduzione, se
2003 anche per tutto il settore pubblico, sorgono
pur contenuta, rispetto all’1,16% del 2002.
naturalmente seri dubbi circa la “tenuta” del sisteAnalizzando le spese per comparti, si nota che la
ma ricerca complessivo nei prossimi anni senza
spesa intra-muros, rispetto al 2002, cresce nelle
un’inversione di tendenza negli investimenti privati.
università (+ 4,3%) e nelle amministrazioni pubbliAnalizzando più in dettaglio i dati per le imprese, il
che (+ 0,7%), mentre diminuisce nelle imprese (72,7% della spesa per R&S è sostenuto dalle gran1,1%) e rimane quasi costante per gli Enti Pubblici
di imprese (con almeno 500 addetti), mentre le
di Ricerca (EPR) (- 0,1%).
piccole imprese (con meno di 50 addetti) contriLe imprese svolgono il 47,3% dell’attività nazionabuiscono solo per 5,1%. Nella distribuzione delle
le di R&S, seguite dalle università (33,9%), dagli
spese secondo il settore in cui le imprese svolgoEPR (14,3%) e dalle altre istituzioni pubbliche e
no la loro attività economica “prevalente”, nel
private non-profit (4,3%).
2003 i livelli di spesa maggiori sono stati raggiunConsiderando le imprese, le istituzioni pubbliche e
ti nel settore della fabbricazione di apparecchiatuquelle non-profit, la spesa effettuata nel 2003
re radiotelevisive e per telecomunicazioni (913
riguarda prevalentemente la ricerca applicata
Meuro), dei prodotti chimici e farmaceutici (819
(48,5%), seguita dalle ricerche per sviluppo speriMeuro), delle macchine e apparecchi meccanici
mentale (35,4%) e dalla ricerca di base (16,1%).
(802 Meuro), degli autoveicoli (723 Meuro) ed
Per quest’ultima permane un andamento crescenaltri mezzi di trasporto (706 Meuro). Questi settote (+ 13,1% rispetto al 2002), in particolare nelle
ri – “produttori” di R&S – rappresentano complesamministrazioni pubbliche, mentre verrebbe consivamente circa il 66% della spesa per R&S delle
fermata la tendenza degli enti pubblici di ricerca a
imprese italiane. D’altro lato se si considerano i
limitare la ricerca applicata (-12,0%) e a incresettori “utilizzatori” di servizi R&S, forniti da altri, si
mentare lo sviluppo sperimentale (+ 19,8%).
trovano quelli della componentistica elettronica
* Istituto per i Materiali Compositi e Biomedici, CNR, Pisa
64
(497 Meuro), delle gomme e plastiche (408
Meuro), l’agro-alimentare (224 Meuro), le costruzioni e il tessile.
Per quanto riguarda il personale complessivamente impegnato in R&S (ricercatori, tecnici e personale di supporto, espressi in “equivalenti tempo
pieno”) i dati 2003 indicano una situazione recessiva con una flessione generale dell’1,3% rispetto
al 2002, anno che aveva invece mostrato un andamento di forte crescita. L’Istat attribuisce tale riduzione di personale prevalentemente al ridimensionamento dell’impegno delle imprese nella R&S (3,2% di personale, - 4,1% di ricercatori), mentre la
riduzione è più contenuta per le università (- 1,5%
di personale, - 1,9% di ricercatori). In tendenza
opposta sia le amministrazioni pubbliche (+ 1,7%
di personale, + 3% di ricercatori) che le istituzioni
non-profit (+ 26,5% di ricercatori) registrano un
aumento dell’occupazione. Comunque, anche per
le imprese si registra una crescita del personale di
ricerca in alcuni settori prevalenti, come il settore
delle comunicazioni, dei mezzi di trasporto e dei
servizi pubblici.
Un altro importante aspetto del consuntivo 2003 è
quello relativo all’analisi delle spese per R&S a livello regionale. La quasi totalità della spesa delle
imprese (89,9%) resta concentrata nell’Italia settentrionale e centrale (di cui 30,9% in Lombardia,
19,3% in Piemonte, 11,7% in Emilia-Romagna),
mentre il Mezzogiorno contribuisce per il 10,1% del
totale nazionale. Diversamente, la quota di spesa del
Mezzogiorno diventa significativa nel settore pubblico (15,3%) e nelle università (28,3%). Tre regioni –
Lazio, Piemonte e Lombardia – si contendono il primato delle attività per R&S assorbendo complessivamente il 59,8% della spesa delle imprese e il
63,2% di quella delle amministrazioni pubbliche.
Per quanto riguarda la distribuzione regionale del
personale per R&S, si registra un netto aumento al
sud con il 20,2% del totale (in particolare dovuto
all’incremento di addetti nelle università e nelle
istituzioni non-profit), a fronte del 18,8% di personale presente nel Lazio e del 18,2% in Lombardia.
I dati di previsione 2004-2005 riguardanti le spese
per R&S dei vari comparti (esclusa l’università)
mostrano alcune significative inversioni di tendenza, con aspetti alquanto incoerenti: le spese per le
imprese risultano in aumento rispettivamente del
7,5% nel 2004 e del 5,1% nel 2005, mentre quelle
delle pubbliche amministrazioni sono in diminuzione del 9,5% nel 2004 e in aumento dell’1,6% nel
2005.
In conclusione, pur nella complessità del quadro
che emerge dalle rilevazioni statistiche si possono
evidenziare alcuni aspetti fondamentali:
– l’impegno decrescente di spesa totale per R&S,
con valori di incidenza sul PIL che permangono
ben al di sotto della media europea;
– la diminuzione di investimenti e di personale per
R&S da parte delle imprese con le gravi conseguenze che ne derivano allo sviluppo produttivo
del paese;
– la situazione di stallo che si registra nelle istituzioni pubbliche e nelle università soprattutto per
quanto riguarda l’occupazione e i processi di
formazione del personale di ricerca (le previsioni per il 2005 appaiono troppo ottimistiche);
– la scarsa attenzione rivolta al ruolo della ricerca
fondamentale (anche in campo industriale) e
all’innovazione tecnologica in settori strategici;
– il divario ancora ampio esistente tra Nord e Sud
in merito allo sviluppo imprenditoriale e alla
situazione occupazionale nel campo della ricerca e settori collegati.
QUO VADIMUS?
NOTE
INFORMATIVE
L’attività di Ricerca e Sviluppo viene definita dal
Manuale di Frascati (1964) dell’Ocse come quel complesso di lavori creativi intrapresi in modo sistematico
sia per accrescere l’insieme delle conoscenze (inclusa la
conoscenza dell’uomo, della cultura e della società), sia
per utilizzare tali conoscenze in nuove applicazioni. Essa
viene distinta in tre tipologie:
Ricerca di base: lavoro sperimentale o teorico intrapreso principalmente per acquisire nuove conoscenze sui
fondamenti dei fenomeni e dei fatti osservabili, non finalizzato ad una specifica applicazione.
Ricerca applicata: lavoro originale intrapreso al fine di
acquisire nuove conoscenze e finalizzato anche e principalmente ad una pratica e specifica applicazione.
Sviluppo sperimentale: lavoro sistematico basato sulle
conoscenze esistenti acquisite attraverso la ricerca e l’esperienza pratica, condotta al fine di completare, sviluppare o migliorare materiali, prodotti e processi produttivi, sistemi e servizi.
Relativamente alle imprese, la rilevazione viene svolta
su un campione effettivo di 24.000 imprese. Il campione è composto da tutte le imprese italiane con almeno
100 addetti e da tutte le imprese che, a prescindere
dalla loro dimensione, risultino nelle condizioni di poter
avere svolto attività di R&S nel corso dell’anno di riferimento (circa 3.400 imprese nel 2003).
Analogamente, vengono individuati gli Enti pubblici,
circa 800, e le istituzioni private no-profit, circa 1.350,
che potrebbero avere svolto R&S nell’anno di riferimento (240 enti pubblici e 240 istituzioni private nel 2003).
Nel settore delle imprese sono considerati gli addetti con
mansioni di R&S ed i consulenti, qualora operino all’interno dell’impresa. Nel settore pubblico sono considerati i dipendenti con contratto a tempo determinato o a
tempo indeterminato che svolgono attività di R&S. Nelle
università sono considerati i docenti, i ricercatori e l’altro personale di ruolo che collabora ad attività di R&S.
65
I GIOVANI
Uno degli obiettivi primari di AIM è sempre stato quello di rivolgere particolare attenzione al mondo dei giovani che lavorano in ambito macromolecolare. In tal senso AIM ha programmato di impegnarsi in questa
direzione facendosi promotrice di diverse iniziative che possano favorire gli incontri tra giovani ricercatori
(neolaureati, borsisti, dottorandi, assegnisti, giovani ricercatori dell’industria e dei Centri di Ricerca) e i ricercatori “più maturi” (professori universitari, ricercatori del CNR e dell’industria). Lo scopo primario è quello
di favorire gli scambi culturali fra giovani provenienti da contesti lavorativi e geografici molto diversi fra loro,
spesso troppo ermetici, e fra le varie componenti degli Enti presso cui si svolge la loro ricerca.
La “Commissione Giovani” dell’AIM, appositamente nata alcuni anni fa e che ha ora due nuove coordinatrici, Sabrina Carroccio e Silvia Vicini, sta organizzando il prossimo evento AIM rivolto proprio ai giovani:
“Macrogiovani 2006”.
“Macrogiovani”, che rimane una delle esperienze cardine di AIM, quest’anno sarà inserito all’interno del
XXVII Convegno-Scuola AIM “Mario Farina” che si terrà a Gargnano dal 2 al 5 Maggio. Per facilitare i giovani studenti e laureandi che parteciperanno solo a Macrogiovani 2006 l’AIM ha previsto una quota associativa speciale ridotta a soli 20 euro.
Prima di passare ai dettagli dell’evento, invito i docenti/tutori dei partecipanti al Convegno-Scuola, a coinvolgere i loro giovani ed a darne la massima divulgazione perché simili eventi hanno portato in passato e porteranno in futuro inevitabili ricadute positive, tra le quali: dare modo ai giovani di conoscersi a vicenda, creando la possibilità di collaborazioni scientifiche e favorendo il trasferimento tecnologico tra mondo della ricerca
pubblica e privata. La finalità ambiziosa è tesa a creare un network di persone di cultura macromolecolare
che potrebbe portare nuova linfa vitale nel sistema indivisibile “Industria-Ricerca-Università” italiano.
Loris Giorgini
MACROGIOVANI 2006
GIORNATE
DI DISCUSSIONE SU PROGETTI
DI RICERCA MACROMOLECOLARE
Palazzo Feltrinelli, Gargnano (Brescia), 4 maggio 2006
di Sabrina Carroccio e Silvia Vicini
Facendo seguito all’iniziativa realizzata con successo negli ultimi anni, per il 2006 l’AIM propone
“Macrogiovani 2006”, un incontro tra i “giovani”
impegnati nella ricerca in campo macromolecolare che si terrà a Gargnano il 4 maggio 2006, all’interno del XXVII Convegno Scuola AIM “Mario
Farina” dal titolo: Leghe e formulati polimerici:
miscelazione fisica e reattiva.
Obiettivo dell’evento è quello di promuovere un
dibattito e favorire gli scambi “culturali” fra giova-
ni, provenienti da contesti lavorativi e geografici
molto diversi, operanti nel settore delle macromolecole, avendo come base le ricerche che, a diverso titolo, essi conducono nelle università, nel CNR
o nell’industria: dunque l’incontro è aperto a giovani tecnici, a dottorandi, a specializzandi, ad
assegnisti di ricerca, a borsisti, a laureandi e a studenti che avranno modo di scambiarsi le proprie
esperienze e di discutere i temi scientifici dei propri studi.
66
A tal fine è prevista una sessione poster allestita
per tutta la settimana dal 2 al 5 maggio. In questo
modo i partecipanti alla Scuola ed a
“Macrogiovani 2006” potranno presentare i propri
lavori con tempi e modi flessibili, dando anche
modo a chi parteciperà al Convegno Scuola a
diverso titolo di poter visionare e discutere con gli
Autori questi contributi scientifici.
Nel pomeriggio di Giovedì 4 maggio sono previsti
brevi interventi orali della durata di circa 10 minuti, in cui ciascun relatore potrà illustrare il tema su
cui lavora ed i risultati più importanti della propria
ricerca. Alla fine di ogni relazione sarà aperta la
discussione.
Le relazioni dei giovani saranno precedute da una
relazione introduttiva dei Coordinatori della
Commissione Giovani dell’AIM sulle prospettive
occupazionali nel settore della scienza e tecnologia delle macromolecole.
PREPARAZIONE
E INVIO DEGLI ABSTRACTS
Gli abstracts (max una pagina formato A4, tutti i
margini 2,5 cm, redatti in times new roman, corpo
12) devono evidenziare il titolo del lavoro in grassetto e successivamente, in corsivo, il nome
dell’Autore con relativa chiara indicazione dei
recapiti dell’Ente o Azienda di provenienza e indirizzo e-mail. Nel testo non devono essere inserite
tabelle e figure di nessun tipo.
Questi contributi saranno pubblicati on-line sul
sito Web dell’AIM: http://www.aim.it
Il mancato invio degli abstracts non compromette
la possibilità di presentare il proprio lavoro sia
come poster durante tutta la durata dei lavori che
oralmente il 4 maggio.
Infatti, per evitare di essere vincolati a rapporti
strettamente scientifici, sarà dato spazio anche a
chi non vorrà, per diversi motivi, presentare contributi scritti.
SESSIONE POSTER
COMITATO ORGANIZZATIVO
L’evento consisterà in una sessione poster allestita
per tutta la durata del XXVII Convegno Scuola AIM.
I poster, possono essere preparati su argomenti
specifici delle proprie ricerche in corso o su tematiche macromolecolari di aspetto generale (per
facilitare la partecipazione di soggetti legati all’industria ed impegnati in ricerche riservate). È prevista la premiazione dei migliori poster presentati.
Dimensioni max: 90 cm (larghezza) x 120 cm
(altezza).
Giovedì 4 maggio pomeriggio:
– relazione introduttiva dei Coordinatori della
Commissione Giovani dell’AIM.
– brevi presentazioni delle proprie ricerche da
parte dei Giovani partecipanti.
– saluti del Presidente dell’AIM, conclusione e
premiazione dei poster.
Consiglio Direttivo dell’AIM: Beniamino Pirozzi,
Università, Napoli; Riccardo Po’, Polimeri Europa,
Ist. Donegani, Novara; Maurizio Galimberti,
Consulente Industriale, Milano; Daniele Caretti,
Università, Bologna; Silvia Destri, ISMAC-CNR,
Sez. di Milano; Concetto Puglisi, ICTP-CNR, Sez. di
Catania; Piero Sozzani, Università, Milano
Commissione Giovani: Sabrina Carroccio, CNR,
Catania; Silvia Vicini, Università, Genova; Loris
Giorgini, Università, Bologna; Giuliana Gorrasi,
Università, Salerno; Elisabetta Princi, Università,
Genova; Luciano Falqui, Sicarb, Siracusa; Laura
Mazzocchetti,
Università,
Bologna;
Laura
Boggioni, CNR, Milano; Simona Losio, CNR,
Milano; Gianluca Melillo, Pirelli, Milano; Eleonora
Ciaccia, Basell, Ferrara
ISCRIZIONE
Prof. Mauro Aglietto dell’Università di Pisa, segretario amministrativo e responsabile editoriale
dell’AIM
Prof. Enrico Pedemonte dell’Università di Genova,
responsabile del Convegno-Scuola “Mario Farina”
La partecipazione a Macrogiovani 2006 è gratuita
per i soci AIM 2006 e per tutti i partecipanti al
XXVII Convegno Scuola AIM “Mario Farina” che si
terrà a Gargnano (BS) il 2-5 Maggio 2006. Per
facilitare giovani studenti e laureandi che parteciperanno solo a Macrogiovani è prevista una quota
speciale ridotta a 20 euro. I partecipanti al
Convegno Scuola e Macrogiovani 2006 potranno
beneficiare di un numero limitato di borse di studio e contributi spese di viaggio per coloro che
risiedono al di là dei 600 km da Gargnano.
L’iscrizione all’evento dovrà essere effettuata unitamente all’invio degli eventuali abstracts (vedi
punto successivo) mediante e-mail a Sabrina
Carroccio ([email protected]) e Simona
Losio
([email protected])
“Iscrizione
a
Macrogiovani 2006 Paolo Rossi”.
Per informazioni contattare i Coordinatori della
Commissione Giovani dell’AIM:
Silvia Vicini
E-mail: [email protected]
Sabrina Carroccio
E-mail: [email protected]
... e visitare il Sito Web dell’AIM: http://www.aim.it/
67
RECENSIONI
CERVELLI
IN GABBIA
a cura del Comitato editoriale dell’ADI
Da dicembre è in tutte le librerie “Cervelli in gabbia”, l’ultima fatica dell’ADI (Associazione dottorandi
e Dottori di ricerca Italiani) edito da Avverbi.
Una miniera di conoscenze, competenze e capacità, in molti casi poco sfruttate, poco considerate e
inspiegabilmente limitate; sono i “Cervelli in gabbia” italiani i protagonisti del libro che ho il piacere di
ospitare nella Rubrica i Giovani del nostro Magazine.
Alla base del progetto, la volontà di mettere in luce, attraverso racconti autobiografici, e contestualizzare, con un’analisi approfondita, la situazione di chi lavora per il progresso all’interno del sistema italiano: in poche parole, l’altra faccia della fuga dei cervelli.
Davanti a questo fenomeno, affrontato nel precedente “Cervelli in fuga”, la risposta del sistema politico non è stata una naturale riflessione su come cambiare le regole del gioco per attirare talenti verso
il nostro Paese, scrivono Marco Bianchetti e Augusto Palombini nel prologo del libro. Piuttosto, un palliativo programma di “rientro dei cervelli” e discutibili riforme che fingono di affrontare i problemi reali.
Per questo i curatori di “Cervelli in gabbia” hanno concentrato l’attenzione sulle battaglie quotidiane di
chi, in campi diversi, contribuisce allo sviluppo della conoscenza. In un contesto che spesso non dimostra una reale volontà di gestire in modo efficiente il patrimonio di intelligenze di cui dispone e che,
come scrive Piero Angela nella prefazione, “compie un vero e proprio suicidio se tiene i suoi giovani
in gabbia”.
Il libro, che consiglio a tutti di leggere, non solo racconta, ma analizza e delinea, con dati, approfondimenti tecnici e valutazioni politiche, le possibili direzioni che si potrebbero seguire per migliorare la
situazione attuale.
Passi necessari perché, come scrive il premio Nobel Samuel C.C. Ting nell’introduzione, “Gli studiosi
italiani sono noti a livello internazionale per l’eccellenza nella loro formazione, l’originalità e l’impegno
nella ricerca, l’abilità nell’ispirare l’interesse ed il supporto pubblico … Con un forte supporto, la ricerca e la formazione scientifica in Italia continueranno la tradizione di eccellenza impersonificata da
Galileo, Marconi e Fermi”.
Loris Giorgini
IMPOSTAZIONE
Cervelli in Fuga … il primo libro dell’ADI. Abbiamo
raccontato nel 2001 le storie di “Cervelli in Fuga”.
Vicende personali, dalle quali però emerge con
chiarezza, grazie anche al contesto inquadrato
dagli interventi e dai dati dell’ADI, una critica
profonda e argomentata al sistema Università e
Ricerca italiano, sostenuta con discrezione dalla
generazione più giovane dei ricercatori. Il tema,
già ampiamente sfruttato, è stato riproposto e
reinterpretato in maniera originale, gradevole e
godibile, che attira e coinvolge il pubblico, sia
degli addetti ai lavori che dei comuni frequentatori delle librerie, e lo avvicina a un problema importante in maniera piacevole, efficace, diretta, non
lamentosa, tramite le testimonianze dei protagonisti. In “Cervelli in Fuga” la gravità della situazione
in cui versa il sistema Università-Ricerca Italiano
68
Le storie vere raccontate sono contenute nella
Parte I: i protagonisti sono persone che si occupano di ricerca a qualsiasi livello e in qualsiasi ambito: dottorandi e dottori di ricerca, ricercatori e
docenti, junior e senior. Lo stile è simile a quello
dei cervelli in fuga: no a toni forti, polemiche, rancori, denuncie, analisi, bensì ampio spazio a fatti e
considerazioni personali, anche introspettive, sincere ed ingenue. I vari contributi sono raccolti in
sezioni corrispondenti a diversi ambiti:
• Sezione 1: L’università;
• Sezione 2: Gli enti di ricerca;
• Sezione 3: La Pubblica Amministrazione;
• Sezione 4: L’impresa;
• Vita da Dottorando, a fumetti, di Giovanni di
Gregorio.
Nella Parte II si contestualizza e si analizza la situazione che emerge dai contributi autobiografici.
Sulla base di questi, si innestano considerazioni e
proposte per il miglioramento del sistema
Università&Ricerca del nostro Paese:
• La gabbia, di Flaminia Saccà
L’Università, di Marta Rapallini
Gli Enti Pubblici di Ricerca, di Fabio
Monforti e Sabina de Innocentiis
La Pubblica Amministrazione, di Franca
Moroni e Giuseppe Noce
L’Impresa, di Marco Bianchetti e Gabriele
Orlandi
• La strategia di Lisbona e la politica europea per
l’alta formazione e la ricerca, di Renzo Rubele
• Cervelli che vanno, cervelli che non vengono, di
Augusto Palombini
• Cervelli in ... cinti, di Rosa Gini
Nell’Appendice infine, Renzo Rubele Presidente di
EURODOC (associazione dei Dottori di Ricerca
Europei) presenta “La legislazione in materia di
università e ricerca: istruzioni per l’uso”.
emerge indirettamente, in filigrana, come causa
sottostante e trasversale, ma non esplicitata, analizzata, della fuga di tanti giovani ricercatori Italiani
verso paesi esteri in grado di offrire migliori condizioni e prospettive di lavoro, dove l’efficienza e il
merito sono valori acquisiti e riconosciuti. La questione va affrontata in modo diretto.
… e Cervelli in Gabbia … Vogliamo ora raccontare le storie dei tanti, tantissimi cervelli italiani che,
dopo una formazione di altissimo livello, dopo
anni di lavoro e di risultati di ricerca, si trovano “in
stallo”, “a bagnomaria”, “in stasi”, “insabbiati”,
appunto “in gabbia”, cioè in condizioni di lavoro
tali da impedire la piena realizzazione della loro
creatività e potenzialità scientifica. Persone che
lavorano in ambiti diversi, con problemi diversi, a
diversi livelli di carriera, ma tutti ugualmente portatori del desiderio di generare nuova cultura,
scienza, tecnologia, prodotti, servizi, benessere, in
una sola parola, progresso. Ma che quotidianamente si scontrano con l’inefficienza, la burocrazia, le logiche clientelari e non meritocratiche, con
il lavoro malpagato, la mancanza di autonomia
nell’entourage di un docente, la cronica indifferenza del sistema economico-produttivo. Con meccanismi che frenano i loro progetti, comprimono le
loro personalità, impediscono le loro ambizioni. È
un grande patrimonio di intelligenze e conoscenze
che si trova congelato, in stasi, ingabbiato in un
sistema che non gli consente di manifestare appieno le proprie potenzialità e di competere ad armi
pari con altri paesi più avanzati.
… ma senza piagnistei. Non crediamo sia utile
dare spazio a toni forti, polemiche, rancori, denuncie, certamente più adatte ad altre sedi.
Cerchiamo invece testimonianze di tono semplicemente e genuinamente autobiografico, personale,
anche introspettivo, nella convinzione che raccontare delle proprie condizioni di lavoro, della gabbia
che si vive ogni giorno, quale che sia, costituisca
già di per sé una denuncia, molto più solida e
costruttiva. Il contesto, l’analisi della “gabbia”, le
possibili direzioni di miglioramento vengono invece affrontati nella parte analitica, dedicata ai dati,
agli approfondimenti tecnici e alle valutazioni politiche, in cui trovano spazio gli interventi di esperti
del settore e di autorità istituzionali.
PIANO
COME
COMPRARLO
• Al prezzo scontato per i soci ADI (9 € anziché
12 €): di persona, agli eventi organizzati
dall’ADI, oppure presso la sede locale ADI della
tua città.
• In libreria: se non c’è, potete sempre ordinarlo,
generalmente senza sovrapprezzo.
• Online: ad esempio su Kelkoo, Ebay, Bol.it, etc.
• Direttamente dall’editore Avverbi: info su
www.avverbi.it
DELL’OPERA
Nell’introduzione viene inquadrato il tema e presentato il libro, il suo significato e la sua struttura.
• Prefazione, di Piero Angela;
• Introduzione, di Samuel C.C. Ting;
• Prologo, di Marco Bianchetti e Augusto
Palombini.
Il Comitato Editoriale dell’ADI
www.dottorato.it
69
COMMENTI E CONSIDERAZIONI
SUL RENDICONTO FINANZIARIO AIM
di Mauro Aglietto
ne del biennio precedente, avanzo che ha sempre
permesso di pianificare con cauto ottimismo l’attività futura. Nel rendiconto riportato in Tabella 1
compaiono poche voci fondamentali, 3 per le
entrate e 4 per le uscite che andremo separatamente ad esaminare. Notate comunque che malgrado le notevoli uscite legate all’attivazione del
nuovo sito AIM, l’avanzo gestione si mantiene
quasi integro al 30.06.2005.
I miei commenti alle voci fondamentali del
Rendiconto finanziario, presentato il 14 settembre
2005 all’Assemblea generale dei soci AIM a Napoli,
sono stati solo leggermente ampliati e resi leggibili.
In più i lettori troveranno puntuali aggiornamenti sui
numeri sociali e sullo stato attuale delle finanze AIM.
Siamo infatti ormai a quasi un anno dalla chiusura del Rendiconto finanziario AIM 01.07.200330.06.2005 approvato a Napoli e le finanze AIM
hanno ricevuto benaccette integrazioni dalla chiusura del bilancio del XVII Convegno biennale AIM.
A consuntivo dell’attività svolta nel biennio che va
dal 1 luglio 2003 al 30 giugno 2005 vi presento
qui a Napoli il Rendiconto finanziario dell’AIM che
parte quindi dall’avanzo gestione al 30 giugno
2003. Su indicazione del commercialista, proseguiamo, nella tradizione AIM, a presentare all’assemblea dei soci non un vero e proprio bilancio
aziendale (non essendo proprietari di nulla e non
avendo nemmeno la partita IVA) ma un rendiconto finanziario a partire appunto dall’avanzo gestio-
Partiamo dalle quote associative, che riportiamo
in dettaglio nella Tabella 2.
Come potete notare il numero di quote pagate non
è elevato. Ci sono sempre stati picchi negli anni
dispari, gli anni del Convegno biennale, e un
numero molto più ridotto di adesioni AIM negli
anni pari. Va sottolineato infatti che il 2004 si riferisce all’intero anno solare mentre il 2003 copre i
sei mesi da luglio a dicembre e quasi tutte le quote
sono state riscosse in occasione del Convegno di
Pisa.
Tabella 1: Rendiconto finanziario dal 01.07.2003 al 30.06.2005
Entrate
Avanzo gestione al 30 giugno 2003
Uscite
19.266,24
Entrate
Quote associative
33.569,28
Giornate e Convegni AIM
25.368,44
Contributi a chiusura attività sponsorizzate dall’AIM
3.460,08
Uscite
Spese di segreteria
11.650,20
Contratti di collaborazione
17.880,75
AIM Magazine e Sito Web
35.427,72
Rapporti internazionali, EPF
983,30
Totale
81.664,04
Avanzo gestione al 30 giugno 2005
15.722,07
65.941,97
Tabella 2: Soci AIM nel biennio 2003-2005
Anno
2003
2004
2005
2006
Totale
Quote
317
192
201
135
846
Totale
9.916,54
7.375,34
9.879,11
8.048,29
33.569,28
70
Se però sommiamo a questo numero le quote
riscosse nei sei mesi precedenti (110 che sono
rientrate nel rendiconto 2001-2003), arriviamo ad
un numero di quote doppie rispetto al 2004.
Il 2005 è ancora “orfano” delle quote relative alla
partecipazione al Convegno di Napoli e non ci
sono dubbi che al 31 dicembre 2005 le quote
sociali saranno equivalenti se non superiori a quelle raggiunte nel 2003. Il controllo eseguito per stabilire gli aventi diritto a votare per il rinnovo del
Comitato direttivo ci porta già ad una quota mai
raggiunta prima, oltre 500 soci in regola al 12 settembre 2005 *.
avuto 1 o al massimo due contatti con l’AIM (sono
oltre il 75%) **.
Per quanto riguarda la voce giornate e convegni
AIM la cifra che compare a saldo è un consuntivo
di diversificate attività che si sono svolte nel biennio 2003-05.
Le ho suddivise in 4 Tabelle, la Tabella 3 dedicata
al Convegno di Pisa, la Tabella 4 alle scuole di
Gargnano, la Tabella 5 alle giornate della
Commissione Tecnologia e infine la Tabella 6 a
manifestazioni organizzate in collaborazione con
altri enti. Per ognuna delle attività compare un
saldo a consuntivo nonché, a parte, le quote AIM
riscosse in occasione della manifestazione.
Partiamo dunque dal Convegno di Pisa (Tab. 3)
che, come potete notare, ha dato un saldo nettamente positivo e non ha bisogno di commenti particolari. Il polmone vero dell’AIM per le future attività si basa sul saldo attivo del Convegno biennale e sulle quote riscosse nell’occasione.
I consuntivi delle Scuole di Gargnano del 2004 e
del 2005 vengono riportati in Tabella 4.
Commento: sono pochissimi i soci che rinnovano
la quota sociale regolarmente, quasi sempre l’adesione è legata alla partecipazione ad una attività
AIM. Adesione che nella stragrande maggioranza
dei casi non viene rinnovata l’anno successivo.
Vi rimando, per informazioni più dettagliate, ai dati
della ricerca sul movimento soci negli ultimi 11-12
anni a partire dal 1995. Ebbene è preponderante il
numero di persone che in questo periodo hanno
Tabella 3: XVI Convegno biennale AIM – Pisa 2003
Titolo & data
n° partecipanti
Entrate
Uscite
Saldo
Quote sociali
364
60.311,86
55.713,79
4.598,07
8.645,00
Entrate
Uscite
Saldo
Quote sociali
34.718,74
28.626,88
6.156,86
3.450,00
27.310,00
29.800,92
- 2.490,92
5.950,00
XVI Convegno Italiano di Scienza
e Tecnologia delle Macromolecole
Pisa, 21-25.09.2003
Tabella 4: Convegni-Scuola “Mario Farina” e Macrogiovani
Titolo & data
n° partecipanti
Tecniche avanzate e nuovi sviluppi nella
caratterizzazione di materiali polimerici
159
Gargnano, 24-28.05.2004
Macrogiovani 2004
42
Gargnano, 26.05.2004
Caratterizzazione termica di materiali
polimerici
119
Gargnano, 23-24.05.2005
Macrogiovani 2005
42
Gargnano, 25.05.2005
Caratterizzazione meccanico-dinamica
di materiali polimerici
105
Gargnano, 26-27.05.2005
*
**
Al 31.12.2005 i soci AIM 2005-2006 ammontano a 527; al momento di andare in stampa 403 soci sono in regola con la quota
sociale AIM 2006.
Vedi l’articolo di M. Aglietto e Riccardo Po’ “Quanto sono fedeli i nostri soci? Una storia dell’AIM (1995-2005) attraverso la sua
Mailing List” a pag. 75 di questo numero di AIM Magazine.
71
Il saldo negativo del 2005 è in parte dovuto alla
struttura diversa, due moduli separati con partecipanti anche ad un solo modulo. La struttura è stata
senz’altro più dispendiosa (non abbiamo aumentato le quote ridotte per i borsisti, due volumi, un
numero più elevato di docenti). Maggiori spese ma
quasi il doppio di quote sociali riscosse e grazie a
questo il bilancio complessivo è risultato positivo.
Ottimi possiamo dire i risultati delle giornate organizzate dalla Commissione Tecnologia che vengono riportati in Tabella 5.
Le cinque manifestazioni hanno tutte dato un
saldo positivo e hanno permesso di avvicinare
all’AIM un numero elevato di persone.
È importante sottolineare infine che l’AIM ha con-
tribuito all’organizzazione di tre giornate promosse
da altri enti o nell’ambito di manifestazioni importanti come le giornate della Scienza di Genova
(Tab. 6).
Commento: è doveroso informarvi che nelle Tabelle
sulle attività AIM sono riportati i saldi finali di queste manifestazioni e la somma dei saldi non coincide con il saldo riportato nel rendiconto finanziario
chiuso al 30.06.2005. Molte nostre attività infatti si
svolgono in maggio-giugno e i versamenti relativi a
queste manifestazioni sono arrivati all’AIM dopo il
30 giugno e non sono rientrate nel rendiconto
finanziario. Avremmo avuto un saldo attivo ancora
maggiore.
Tabella 5: Commissione Tecnologia AIM
Titolo & data
n° partecipanti
La miscelazione nell’industria dei polimeri
Entrate
Uscite
Saldo
Quote sociali
76
6.460,00
1.873,54
4.586,46
1.450,00
65
5.398,46
3.776,10
1.622,36
1.215,00
27
1.260,00
1.254,00
6,00
480,00
28
1.980,00
1.757,82
222,18
350,00
45
2.475,00
453,85
2.021,15
245,00
Quote sociali
Milano, 11.06.2004
Polimeri da fonti rinnovabili
nell’imballaggio
Bologna, 14.01.2005
Plasticoltura, innovazione e sostenibilità
Bari, 12.02.2005
Reologia e stampaggio a iniezione
di polimeri
Alessandria, 14.03.2005
Il colore nelle fibre sintetiche e naturali
Como, 10.06.2005
Tabella 6: Manifestazione organizzate in comune con altri enti
Titolo & data
n° partecipanti
Entrate
Uscite
Saldo
70
–
459,93
-459,93
50
–
500.00
-500.00
40
–
–
Polimeri e Beni Culturali
Firenze, 4-5.06.2005
Macromolecole e Futuro
Genova, 05.11.2005
Iniziativa AIM-Istituto Italiano Imballaggio
Milano, 09.02.2005
Tabella 7. Contributi a chiusura attività sponsorizzate dall’AIM
Attività
Totale
Restituzione anticipo per spese iniziali della 2nd EPF Summer School 2003
882,00
Contributo all’AIM a chiusura del ccB della 2nd EPF Summer School 2003
79,69
Contributo all’AIM a chiusura del ccB di EUPOC 2004
500,14
Contributo iniziale all’AIM a chiusura del bilancio di EUPOC 2005
1.998,25
Totale
3.460,08
72
In Tabella 7 sono riportati i contributi trasferiti
all’AIM a chiusura di manifestazioni sponsorizzate
dall’associazione e organizzate da soci AIM delegati dal Direttivo a tale compito con l’accordo
appunto di restituire il prestito iniziale e di trasferire eventuali utili all’AIM.
derate a parte le spese per le riunioni del Direttivo
AIM (fondamentalmente rimborsi spese dei partecipanti alle riunioni) e le spese bancarie, sempre
più esose. Nelle spese bancarie sono inserite
anche tutte le percentuali che vengono trattenute
per pagamenti effettuati tramite Carta Sì e
American Express.
Avere alle spalle un serio commercialista, dal
costo contenuto, ci permette di utilizzare e ricom-
Commento: devo spendere due parole in più su
EUPOC 2005 per la parte che mi compete ed espriTabella 8: Spese di segreteria
01.07-31.12.2003
Gestione corrente
1.441,09
01.01-31.12.2004
01.01-30.06.2005
Gestione corrente 2.794,05
Gestione corrente
Totale
3.913,18
8.148,32
Direttivo AIM
537,37
Direttivo AIM
760,49
Direttivo AIM
224,85
1.522,71
Spese bancarie
662,54
Spese bancarie
958,40
Spese bancarie
358,23
1.979,17
Totale
2.641,00
Totale
4.512,94
Totale
4.496,26
11.650,20
Tabella 9: Contratti – Prestazioni occasionali
Collaboratori
Versamento INPS
Ritenute d’acconto
Compenso lavoro
Totale
200,00
1.000,00
1.200,00
Settore editoriale (1)
Pisa 2003 (3)
§
807,00
2.497,91
807,00
418,48
9.462,22
11.290,07
Sito Web (1)
120,00
600,00
720,00
Napoli 2005 (1)
400,00
2.000,00
2.400,00
1.463,68
1.463,68
14.525,90
17.880,75
Segreteria a Pisa (1)
1.409,37
Studio Commerciale
Totale
§
1.409,37
1.945,48
questa cifra è rientrata nel bilancio del Convegno di Pisa e viene qui riportata per avere un consuntivo globale sui contratti di
mere i più vivi ringraziamenti al prof. Galli che ha
chiuso definitivamente il ccB aperto per EUPOC
2005 col trasferimento di un congruo residuo utile
all’AIM che ci permette di stilare un ottimistico
bilancio preventivo per il prossimo anno. Per una
valutazione sul successo scientifico di questa conferenza europea vi consiglio di leggere l’articolo a
firma di Giancarlo Galli su AIM Magazine***
Tabella 10: Spese per AIM Magazine e Sito Web
Attività
AIM Magazine, 56, n. 2 (2002)
5.504,04
AIM Magazine, 56, n. 3 (2002)
5.984,46
AIM Magazine, 57, n. 1-2 (2003)
5.920,92
AIM Magazine, 58, n. 3 (2003)
5.064,30
Educom srl
Passiamo ora ad analizzare le 4 voci che comWEP srl
paiono in uscita e che sono riportate rispettivaTotale
mente nelle Tabelle 8, 9, 10 e 11.
Nelle spese di segreteria
(Tab. 8), oltre alle spese Tabella 11: Spese per attività internazionali
correnti che riguardano la
Attività
classica attività di un lavoro di segreteria (spese Partecipazione al Meeting EPF, Stoccolma, 28.02-02.03.2003
postali, cancelleria, rinno- Partecipazione al Convegno YES 2005, Cracovia, 13-18.09.2005
vo computer, stampante,
fax, etc.), sono state consi***
Vol. 60, n. 2-3, luglio-dicembre 2005, pag. 70
73
Totale
954,00
12.000,00
35.427,72
Totale
679,80
303,50
pensare in modo corretto competenze utili alla
nostra associazione. Tutti i contratti a progetto,
come CO.CO.CO. prima, nonché le prestazioni
occasionali relative al biennio 2003-2005 sono
gestiti secondo le leggi vigenti e sono riportati
nella Tabella 9.
Ritengo di poter sottolineare che sono soldi ben
spesi e che ci hanno permesso di organizzare al
meglio l’attività di segreteria AIM.
La voce successiva riguarda le spese per la pubblicazione di AIM Magazine e per l’apertura e la
gestione del sito Web (Tab. 10).
Siamo passati a due numeri l’anno ma mi auguro che la rivista continui a essere gradita a tutti
voi lettori di AIM Magazine. Come membro del
Comitato editoriale vi posso assicurare che l’impegno è notevole ma dà anche molte soddisfazioni.
Commento: gli introiti delle quote sociali servono a
malapena a coprire le spese per la stampa della
rivista e per la gestione del sito Web. Mi auguro che
il passaggio alla quota biennale migliori in parte la
situazione.
Infine nella Tabella 11 sono riportate le spese relative all’attività internazionale dell’AIM; sono rimborsi spese e contributi a giovani ricercatori. È
questa una voce che ci sarà sempre visto la forte
presenza AIM all’interno di EPF.
Termino riportando in Tabella 12 il bilancio preventivo 2005-2006.
Aggiungo due parole al momento di andare in
stampa (fine marzo 2006). I numeri del bilancio
preventivo si stanno rivelando una previsione corretta e quindi AIM può continuare a navigare tranquilla.
Tabella 12: Bilancio preventivo 2005-2006 (01.07.2005-30.06.2006).
Entrate
Avanzo gestione
Uscite
15.000,00
Entrate
Quote associative
20.000,00
Giornate e Convegni AIM
5.000,00
Contributi a chiusura attività sponsorizzate dall’AIM
10.000,00
Uscite
Anticipi per attività organizzate dall’AIM
3.500,00
Attività internazionali
1.500,00
Spese di segreteria
5.000,00
AIM Magazine e Sito Web
16.000,00
Contratti di collaborazione
8.000,00
Totale
50.000,00
Avanzo gestione
16.000,00
74
34.000,00
QUANTO SONO FEDELI I NOSTRI SOCI?
UNA STORIA DELL’AIM (1995-2005)
ATTRAVERSO LA SUA MAILING LIST
di Mauro Aglietto e Riccardo Po’
Il numero complessivo di persone entrate in contatto con AIM nel corso del periodo esaminato, e
quindi socie per almeno un anno, è pari a 2.190.
Contando anche coloro che hanno ricevuto una
copia omaggio di AIM Magazine, il totale sale a
2.380. Lascia un po’ l’amaro in bocca il fatto che
alcune figure storiche del panorama nazionale dei
polimeri facciano parte di questi ultimi 190, cioè,
in altre parole, non si siano mai iscritti dal 1995 a
questa parte.
Fa molto piacere sapere che c’è un forte senso di
appartenenza all’associazione ma ribadirlo con il
pagamento regolare della quota sociale sarebbe
molto auspicabile. Senza il solido gruzzoletto delle
quote è difficile programmare attività future.
La Tabella 1 dà un’idea della “fedeltà” dei soci,
ovvero quanti anni ciascuno di loro sia stato iscritto ad AIM. Come si nota la larghissima maggioranza (quasi il 74%) è stata iscritta solo per uno o
due anni; meno del 13% (284) è stata socia almeno 5 anni
I decani (o dovremmo dire gli “undecani”?), che
sono stati sempre iscritti ad AIM nel periodo considerato di 11 anni, sono solo 10.
Nel trentennale della nostra associazione ci è sembrato giusto tracciare un profilo statistico attraverso l’analisi della cronistoria delle quote associative
sottoscritte dai singoli soci.
L’analisi svolta è riferita al lasso di tempo di undici anni che va dal 1995 al 2005 (ma per effetto
delle quote biennali è possibile proiettarsi già in
parte nel 2006) ed è stata resa possibile dalla
disponibilità della quantità di dati memorizzati
nella mailing list archiviata presso la segreteria
amministrativa di Pisa. Un doveroso ringraziamento a Mariarita Gambini che ci ha permesso, con i
suoi accurati controlli, di disporre dei dati per questa analisi approfondita. Un database di tali
dimensioni non è di facile gestione, e già in via
preliminare l’estrazione ed organizzazione delle
informazioni da cui è partita l’analisi ha richiesto
uno sforzo (e una pazienza) non trascurabili.
Nel tempo, infatti, non sono stati eliminati i dati a
disposizione dell’AIM. Ogni anno si salvava, al 31
dicembre, una copia della Mailing List che veniva
archiviata. La copia base poteva di conseguenza
essere modificata ed integrata per l’anno solare
successivo.
Tabella 1: Numero di soci AIM distribuiti secondo il numero di anni di appartenenza
all’associazione
n.
Persone che sono state socie “n”
Incluso 2006
volte nel periodo 1995-2005
1
1227
1093
2
387
479
3
182
191
4
110
118
5
85
78
6
53
67
7
50
47
8
48
40
9
27
40
10
11
20
11
10
9
12
–
8
75
Figura 1: Distribuzione del numero di soci AIM (A) e del numero di quote (B) secondo il numero di anni di appartenenza all’associazione.
Il motivo di ciò non è molto sorprendente: molte
persone dell’industria che non svolgono attività
strettamente inerenti alla scienza e tecnologia dei
polimeri, ma operano in settori contigui (per
esempio in certe attività manifatturiere) si iscrivono ad AIM in occasione di specifiche Giornate,
Scuole, etc. di loro interesse, e successivamente
non hanno più modo di rientrare in contatto con
AIM. Nel caso dei giovani, poi, può succedere che
l’iscrizione avvenga nel breve periodo in cui si
occupano di macromolecole all’Università e che
successivamente i loro interessi professionali
(accademici o aziendali) prendano altre strade.
La Figura 1A mostra i dati della Tabella 1 in forma
grafica. Nella Figura 1B, derivata dalla 1A, viene
riportato invece il contributo percentuale alle
quote di chi è stato socio “n” volte: in altre parole
ogni iscrizione viene moltiplicata per un fattore
pari alla sua durata per determinare il totale delle
quote versate dai 2.190 soci negli 11 anni (che è
pari a 4.927) e le percentuali corrispondenti. In
questo caso ovviamente cala il peso complessivo
dei soci che tali sono stati solo per pochi anni.
Nella Figura 2 viene riportata la distribuzione dei
Figura 2: Numero di soci negli anni solari; le prime due tonalità indicano le frazioni di soci con anzianità almeno triennale e almeno quinquennale, quella terminale si riferisce ai soci totali.
76
soci negli anni solari (naturalmente per il 2006 il
dato è parziale, aggiornato con le quote pagate
fino al 30.9.05). La media è di 448 soci/anno.
La diversa tonalità delle barre indica i soci totali e
coloro che sono stati iscritti almeno 3 (576) o 5
anni (284) dal 1995 al 2005, comunque distribuiti. La percentuale di questi ultimi, è riportata in formato numerico anche in Tabella 2.
In ogni organizzazione è fisiologico che nuovi
appartenenti vengano acquistati o persi definitivamente nel corso degli anni. La Tabella 3 si riferisce
a questo aspetto, limitatamente a coloro che contano almeno tre anni di associazione (anche non
consecutivi); nell’ultima colonna è riportato il
saldo. A partire dal 2000 tale saldo è negativo (è
questo è più o meno in linea con il massimo di
Figura 2), segno che molti soci non occasionali
hanno cessato di far parte di AIM, in misura preoccupantemente superiore rispetto a quanti ne siano
entrati (il grafico corrispondente è in Figura 3). La
speranza è che i giovani che attualmente hanno 12 anni di anzianità continuino ad appartenere ad
AIM per riportare il saldo in positivo.
Nella Figura 4 viene illustrato un altro parametro,
che indica quante volte nel periodo 95-05 il socio
ha mutato il proprio stato associativo da un anno
a quello successivo. Per chiarire il significato con
un esempio, se con “X” si indica lo status di socio
e con “O” di non socio, nel caso di un socio con la
seguente “storia”: OOXXXXXOXXX, cioè iscritto
ad AIM dal ’97 al 2001 e dal 2003 al 2005, le
variazioni sarebbero 3.
In pratica, le variazioni di status associativo, riportate in ascissa, hanno il seguente significato:
0 = si è sempre iscritto;
Tabella 2: Percentuale di soci con anzianità almeno triennale e quinquennale rispetto al totale dei soci in ogni
dato anno solare.
anno
% soci con
% soci con
almeno 3 quote
almeno 5 quote
1995
49
35
1996
45
29
1997
54
36
1998
54
35
1999
75
48
2000
81
50
2001
58
37
2002
61
44
2003
59
39
2004
64
44
2005
51
35
2006
51
36
Tabella 3 e Figura 3: Numero di soci con anzianità almeno triennale iscritti per la prima o ultima volta in
un dato anno.
anno
2003
2002
2001
2000
1999
1998
1997
prima (soci acquisiti)
19
19
38
25
75
47
79
ultima (soci persi)
76
49
53
60
7
13
7
Balza all’occhio l’andamento altalenante delle
barre, con massimi relativi negli anni dispari e
minimi relativi negli anni pari: il motivo di ciò è
molto semplice, e dipende dal fatto che in occasione dei Convegni Biennali AIM (che si svolgono
in anni dispari) molti “ricordano” di rinnovare l’iscrizione ad AIM. Questo andamento è destinato
probabilmente a modificarsi (livellandosi?) con la
recente soppressione della quota di iscrizione
annuale a favore di quella biennale.
Altro elemento degno di nota è il massimo della
“campana” verificatosi nel 2001, con 579 iscritti; il
picco è molto più piatto e si colloca invece nel
triennio 1999-2001 se si considerano gli iscritti
“fedeli” (3 anni di anzianità AIM).
Figura 3
77
saldo (= acquisti - persi anno precedente)
- 30
- 34
- 22
+ 18
+ 62
+ 40
n.a.
Figura 4: Numero di soci (con anzianità almeno triennale) che hanno variato il proprio status associativo da un anno
al successivo.
1 = ha iniziato (o cessato) ad iscriversi da un
certo anno in poi;
2 = ha omesso di pagare la quota per un anno;
oppure è stato iscritto solo per un certo periodo (continuativo) di anni;
........
9 = si iscrive ad anni alterni.
Una associazione solidamente radicata dovrebbe
avere un picco in corrispondenza dei valori 0-2;
valori superiori e crescenti sono indicativi di avvicinamenti random, e tutto sommato incidentali,
all’associazione stessa, pur da parte di persone
comunque vicine al mondo delle macromolecole
(si tenga infatti presente che anche questa analisi
è riferita alle 576 persone con almeno 3 anni di
Figura 5: Numero di soci (con anzianità almeno quinquennale) che hanno variato il proprio status associativo da un
anno al successivo.
78
appartenenza all’associazione nel periodo contemplato). Ricordando che la partecipazione ad
una attività AIM – Convegno Biennale, Giornate
Tecnologiche, Scuole … – comporta l’iscrizione
automatica all’associazione per un anno (per due
dal 2006), vedendo questi numeri viene il forte
sospetto che in un numero non trascurabile di casi
essere soci AIM sia il frutto di questo automatismo, e non una scelta cosciente. Non a caso, i
soci con il maggior numero di variazioni tendenzialmente risultano essere stati iscritti negli anni
dei convegni biennali.
Se l’analisi viene effettuata per i 284 soci con 5
anni di anzianità (Fig. 5) il profilo della distribuzione non cambia di molto, anche se ovviamente in
valore assoluto tutte le barre sono più basse, e la
media si sposta appena da 3,41 a 3,62.
La Figura 6 rappresenta la distribuzione dei soci
secondo il numero di anni di anzianità e il numero
di variazioni dello status associativo (in pratica
combina le Figure 1A e 4) e mette ancora in evidenza quanto sia tutto sommato non esaltante il
numero di coloro che sono realmente “vicini” ad
AIM.
Fare considerazioni finali su questa puntuale e
direi graffiante analisi pensiamo non abbia senso.
I numeri parlano da soli.
Aspettiamo invece dai nostri lettori considerazioni
(o anche critiche) e proposte atte a responsabilizzare maggiormente i soci.
Figura 6: Distribuzione dei soci secondo il numero di anni di anzianità e il numero di variazioni dello status associativo.
79
LIBRI
E
ATTI AIM
Materiali polimerici strutturali
Atti dell’XI Convegno-Scuola AIM, Gargnano 1989, volume di
425 pagine, € 18,07
Copolimeri
Atti del XII Convegno-Scuola AIM, Gargnano 1990, volume di
440 pagine, € 18,07
Processi industriali di polimerizzazione:
aspetti fondamentali e tecnologici
Atti del XIII Convegno-Scuola AIM, Gargnano 1991, volume di
433 pagine, € 23,24
Metodi spettroscopici di caratterizzazione dei polimeri
Atti del XIV Convegno-Scuola AIM, Gargnano 1992, volume di
477 pagine, € 25,82
Massa e dimensioni di macromolecole
Atti del XV Convegno-Scuola AIM, Gargnano 1993, volume di
347 pagine, € 25,82
Materiali polimerici: struttura e processabilità
Atti del XVII Convegno-Scuola AIM, Gargnano 1995, volume
di 386 pagine, € 23,24
Degradazione e stabilizzazione dei materiali polimerici
Atti del XVIII Convegno-Scuola AIM, Gargnano 1996, volume
di 408 pagine, € 23,24
Polimeri in medicina
Atti del XIX Convegno-Scuola AIM, Gargnano 1997, volume
di 355 pagine, € 20,66
I polimeri espansi
Atti del XX Convegno-Scuola AIM, Gargnano 1998, volume di
363 pagine, € 20,66
Materiali polimerici cristallini e liquido cristallini
Atti del XXI Convegno-Scuola AIM, Gargnano 1999, volume di
438 pagine, € 20,66
SCHEDA PER ACQUISTO VOLUMI AIM
disponibili presso Pacini Editore
Per dettagli sui contenuti consultare www.aim.it
1
2
3
Materiali polimerici strutturali
Copolimeri
Processi industriali di polimerizzazione:
Aspetti fondamentali e tecnologici
4 Metodi spettroscopici di caratterizzazione dei polimeri
5 Massa e dimensioni di macromolecole
6 Materiali polimerici: struttura e processabilità
7 Degradazione e stabilizzazione dei materiali polimerici
8 Polimeri in medicina
9 I polimeri espansi
10 Materiali polimerici cristallini e liquido cristallini
11 Atti del XIV Convegno Italiano di Scienza e Tecnologia delle Macromolecole
12
13
14
15
16
17
18
19
Fondamenti di Scienza dei polimeri
Physical Properties of Polyelectrolite Solutions
Produzione industriale di polimeri
Additivi per materiali polimerici
Tecniche avanzate e nuovi sviluppi nella
caratterizzazione dei materiali polimerici
Caratterizzazione termica di materiali polimerici
Caratterizzazione meccanico-dinamica di materiali polimerici
Leghe e formulati polimerici
Vi preghiamo di inviarci n. … copie dei volumi (siglare i volumi prescelti): 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19
Sig. ................................................................................................................................................................................
Ente ................................................................................................................................................................................
Indirizzo ..............................................Città ................................Cap ................Prov. ....................
E-mail ..................................................Tel. ..........................................................Fax ......................
Data ....................................Pagamento:
a ricevimento fattura contrassegno Il pagamento, maggiorato di € 4,00 per le spese di spedizione, dovrà essere effettuato direttamente alla Pacini Editore, richiedendo invio di fattura o di contrassegno
Pacini Editore SpA, Via Gherardesca, Zona Industriale Ospedaletto, 56121 Pisa, Tel. 050/313011 - Fax 050/3130300
Su richiesta, al prezzo di € 25,00 cadauno, spese di spedizione incluse, sono disponibili i CD delle seguenti giornate tecnologiche AIM:
1.
Materiali Polimerici per l'Imballaggio Alimentare, Fiera del Levante, MacPlast Sud, Bari, 15 febbraio 2002
2.
Polimerizzazione in emulsione, Auditorium Mapei, Milano, 6 marzo 2002
3.
Poliammidi: produzione, proprietà e applicazioni, Centro Cultura Ingegneria Materie Plastiche, Alessandria, 10 aprile 2002
4.
Il colore in materiali polimerici termo- e foto-indurenti, Fiera di Milano – MacPlas03, Milano, 6 maggio 2003
5.
La miscelazione nell’industria dei polimeri, Università Milano-Bicocca, Milano, 11 giugno 2004
6.
Polimeri da fonti rinnovabili nell'imballaggio, Università di Bologna, Bologna, 14 gennaio 2005
7.
Plasticoltura, innovazione e sostenibilità, Fiera del Levante, Bari, 12 febbraio 2005
8.
Reologia e stampaggio a iniezione di polimeri, Centro di cultura per l’ingegneria delle materie plastiche, Alessandria, 14 marzo 2005
Inviare la richiesta tramite fax (050-2219260) o tramite e-mail ([email protected]) alla segreteria amministrativa AIM
80

Documenti analoghi

AIM Magazine AIM Magazine

AIM Magazine AIM Magazine l’adesione e come agiscono gli adesivi. Kasji Mittal, un simpatico ricercatore di origine indiana, ora editor di Journal of Adhesion Science and Technology, sostiene di avere inventato la più preci...

Dettagli

AIM Magazine AIM Magazine

AIM Magazine AIM Magazine M. Savino, A. Scipioni) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Dettagli

AIM Magazine

AIM Magazine Piazza Bovio, Palazzo Borsa, 80138 Napoli (IBAN IT14 G010 1003 4011 0000 0005 184), intestato a: Associazione Italiana di Scienza e Tecnologia delle Macromolecole • sul c/c postale n. 10267565 del...

Dettagli