AIM Magazine AIM Magazine

Transcript

AIM Magazine AIM Magazine
ASSOCIAZIONE ITALIANA
DI
SCIENZA
E
TECNOLOGIA
DELLE
MACROMOLECOLE
AIM Magazine
B
O
L
L
E
PERIODICO QUADRIMESTRALE SPED. IN A.P. 45% ART. 2 COMMA 20/B LEGGE 662/96 - FILIALE DI PISA - AUT. TRIB. DI PISA N. 13/96 DEL 04/09/1996 STAMPE A TARIFFA RIDOTTA - TASSA PAGATA - AUT. E.P.I. DIR. FILIALE DI PISA - N. A.S.P./32424/GB DEL 30/12/1997 - TAXE PERCUE - ITALIA
Anno XXVII • vol. 56 • n° 1
T
T
I
N
O
A
I
M
Gennaio-Aprile 2002
MACROMOLECOLE NELLO SPAZIO
ADESIONE E ADESIVI
MATERIALI NANOSTRUTTURATI
IL SISTEMA RICERCA IN ITALIA ED IL FABBISOGNO
DI INNOVAZIONE DELLE IMPRESE
Sommario
TUTTO
È POLIMERO
Adesione e adesivi: un approccio scientifico (C. Della Volpe, S. Siboni) . . . . . . . . . . . . . . . . . . . . . . pag.
3
Macromolecole nello spazio (C. Guaita) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
»
15
Le prestazioni dei polimeri conduttori nel settore dei “nasi elettronici” (M. Suman) . . . . . . . . . . . . . .
»
23
»
27
»
30
»
34
»
37
»
39
»
41
»
46
Journées Transalpines des Polymères 2002 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
»
54
“Stereospecific Polymerization and Stereoregular Polymers” (EUPOC 2003) . . . . . . . . . . . . . . . . . .
»
55
CALENDARIO
............................................................
»
56
Presentazione del volume “Mass Spectrometry of Polymers” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
»
59
L’ATTUALITÀ
Template polimerici per lo sviluppo di materiali nanostrutturati (M. Lazzari) . . . . . . . . . . . . . . . . . . .
L’AMBIENTE
La valutazione del ciclo di vita del pneumatico (C. Regazzoni) . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
I BIOPOLIMERI
Darbepoietina ed Olimpiadi invernali: il nuovo caso doping (R. Rizzo) . . . . . . . . . . . . . . . . . . . . . . .
I GIOVANI
Chimica, ambiente, giovani: parole chiave per “accedere” ad un futuro più pulito (G. Gorrasi) . . . . .
DIDATTICA
MACROMOLECOLARE
La comunità delle mani legate (R. Filippini Fantoni) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
I MUSEI
A Napoli il primo Science Centre Italiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
POLIMERI
E SOCIETÀ
Il sistema ricerca in Italia ed il fabbisogno di innovazione delle imprese:
un rapporto possibile (e necessario) (A. Casale) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
I
CONGRESSI FUTURI
CONGRESSI
LA BIBLIOTECA
1
DAL
MONDO DELLA TECNOLOGIA
Overview (R. Po’) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
»
61
Libri e Atti AIM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
»
63
L’Evoluzione Normativa nel Packaging Alimentare (Ciba Speciality Chemicals SpA) . . . . . . . . . . . .
»
64
IL
MONDO DI
AIM
XVI Convegno Italiano di Scienza
e Tecnologia delle Macromolecole
Pisa, Area della Ricerca CNR, 22-25 settembre 2003
L’organizzazione del Convegno è ancora in una fase iniziale, troverete le informazioni preliminari
quanto prima sul nostro sito web: www.aim.it. Rivolgersi per informazioni a Mariano Pracella ([email protected]) e a Piero Cerrai ([email protected]).
2
Tutto è polimero
ADESIONE
E ADESIVI:
UN APPROCCIO SCIENTIFICO
di Claudio Della Volpe e Stefano Siboni*
il piano che delimita un corpo, una struttura, una
massa, o la parte esterna di un corpo materiale, o
il confine superiore di un liquido o qualunque dei
confini di un corpo solido.
Potremmo dire che, nelle scienze naturali, le
superfici costituiscono la “zona di separazione fra
fasi diverse”, laddove una fase è una porzione di
materia di costituzione omogenea.
Tale zona possiede uno spessore?
Leonardo aveva risposto negativamente alla
domanda:
“Tutti i termini delle cose non sono parte alcuna d’
esse cose, perché il termine d’ una cosa si fa principio d’ un altra. Adunque poi ch’ e termini delle
cose non so’ parte d’ esse cose né di quelle che co’
lor si toccano, essi termini niente occupano” (2).
Secondo Leonardo quindi le superfici sono di
spessore infinitesimo.
Oggi noi sappiamo che questa è una approssimazione. Una definizione più precisa, e per certi
aspetti sorprendente, è quella di G. Lanzavecchia:
“Le sostanze allo stato condensato, liquide o solide,
presentano, in regioni sufficientemente lontane
dalle superfici, delle proprietà che dipendono dalla
natura degli atomi e delle molecole che le costituiscono e dalla loro struttura.
Esse vengono considerate come indefinite e in pratica la superficie rappresenta una discontinuità da
trattarsi come un difetto” (3).
La superficie è quindi, secondo Lanzavecchia, un
“difetto” delle fasi condensate le cui proprietà non
sono esattamente quelle della fase stessa ed il cui
spessore è indefinito.
Sembrerà strano, ma l’idea di superficie di
Leonardo non è poi tanto lontana dal modello di
Gibbs, un modello che costituisce ancora la base
del più comune trattamento termodinamico delle
superfici; nel suo famoso articolo (4) in cui fonda
L
’uso di potenti adesivi istantanei, come
quelli a base di cianoacrilato, rende visibili
a chiunque i notevoli risultati ottenuti anche
in questo settore dalla chimica contemporanea;
tuttavia non tutti conoscono i meccanismi che
sono alla base di queste capacità apparentemente
miracolose.
In questo breve articolo cercheremo di spiegare in
modo semplice, ma con precisione, da dove nasce
l’adesione e come agiscono gli adesivi.
Kasji Mittal, un simpatico ricercatore di origine
indiana, ora editor di Journal of Adhesion Science
and Technology, sostiene di avere inventato la più
precisa e compatta definizione di adesione:
“Adhesion is the quantity and the quality of intimacy”, che si potrebbe tradurre come “L’adesione
corrisponde alla qualità e alla quantità del contatto intimo (fra due fasi)”.
Un qualunque dizionario ci informa che l’adesione
è: “il fenomeno di mutua attrazione tra le superfici
a contatto di due corpi diversi” (1), mentre per
adesivo si intende “una sostanza di varia origine
che consente l’unione di due superfici”(1).
Per meglio comprendere questi concetti occorre
partire da una più precisa definizione di superficie
ed analizzare in dettaglio quali sono le forze di
attrazione fra i corpi e i loro costituenti, atomi e
molecole; dovremo introdurre alcuni semplici concetti di termodinamica, come il lavoro di adesione,
e servirà inoltre, per rendere più concreto tutto il
discorso, una illustrazione seppure elementare
della chimica degli adesivi e delle tendenze principali in atto nel loro uso e nella loro produzione.
Cosa è una superficie?
Superficie viene dal latino super facies, faccia
superiore, e può essere variamente definita come
*
Dipartimento di Ingegneria dei Materiali, Università di Trento, Via Mesiano 77, 38050 Trento
E-mail: [email protected]
3
la termodinamica delle superfici, pur conscio che
una superficie è una zona di separazione fra fasi
diverse, il cui spessore non è affatto infinitesimo,
Gibbs propone di trattare tale zona come una
superficie geometrica, una interfaccia, priva di
spessore; a tale scopo egli ipotizza che la composizione delle due fasi rimanga omogenea fino alla
superficie di separazione ed introduce il concetto di
concentrazione superficiale in eccesso per conservare le quantità dei vari componenti in ciascuna
fase, rispettando il principio di Lavoisier (Fig. 1).
L’articolo di Gibbs è della fine del XIX secolo; tuttavia già pochi decenni dopo Guggenheim ha proposto un modello più articolato (5), rappresentato
nella Figura 2, in cui la superficie è una vera e propria fase, sebbene di spessore piccolo, ma non
infinitesimo. Tale modello ha avuto successo
soprattutto nel campo della scienza dei materiali,
in cui le tecniche di analisi mostrano con evidenza
che la superficie non è in realtà una interfaccia,
ma una vera e propria fase, una interfase; l’approssimazione di Guggenheim è quella di considerare tale interfase a composizione costante.
Un modello ancora più realistico, fondato su un
insieme di strati a composizione diversa (multilayer) è stato poi proposto quasi 50 anni fa da
Prigogine (6).
Mai la superficie può essere considerata una semplice sezione della fase di cui fa parte: la sua composizione, l’energia delle sue particelle, il loro ordinamento, tutto insomma la rende diversa, specifica, W. Pauli diceva addirittura “diabolica”!
Le particelle atomiche o molecolari presenti alla
superficie si trovano in una situazione peculiare,
che viene di solito schematizzata come in Figura 3.
Figura 2: Secondo il modello di Guggenheim fra le due
fasi a e b esiste una interfase di caratteristiche costanti,
s; tale interfase ha tutte le caratteristiche di una fase vera
e propria. Dal punto di vista termodinamico questa scelta non conduce a equazioni diverse da quelle di Gibbs;
tuttavia, nell’ambito della scienza dei materiali questa
impostazione ha avuto un notevole successo concettuale, ed è preferita in parecchi testi. Il modello più completo delle superfici è, comunque, quello del multilayer, proposto da Prigogine e che rappresenta un completamento
dell’impostazione di Guggenheim.
Esse non risentono delle stesse interazioni cui
sono sottoposte le altre particelle della fase, in
quanto la funzione di distribuzione delle particelle
alla superficie risente dell’esistenza del “difetto”
costituito dalla “altra” fase o dal vuoto. Il loro stato
energetico è quindi diverso, come lo è il loro ordinamento e dunque, se la superficie è estesa,
dovremo tener conto di tale asimmetria con uno
specifico contributo allo stato termodinamico della
fase stessa.
Ciò è stato variamente interpretato: “come se” esistesse una vera e propria pellicola superficiale,
“come se” una pressione “interna” si esercitasse
sulla fase stessa, e così via e tutti questi modelli
hanno la loro ragion d’essere, perché contribuiscono alla comprensione dei fenomeni superficiali; l’esistenza di una sorta di membrana superficiale contribuisce a spiegare il fenomeno per cui un
oggetto più denso dell’acqua se di dimensioni
opportune e dotato di una superficie di scarsa
bagnabilità (o in altri termini di opportuna energia
superficiale) può galleggiare anche in assenza di
una efficace spinta di Archimede. Fra l’altro questo fenomeno consente ad uno dei pochi insetti
che hanno colonizzato l’ambiente marino,
l’Halobates, di passare la sua vita in pieno oceano.
Figura 1: La quantità Ci, varia fra le due fasi a e b secondo la linea continua; Gibbs ipotizza che il suo valore
rimanga costante all’interno di ciascuna fase fino alle
sezioni x o x’ che rappresentano la superficie di separazione o interfaccia; questo comporta delle quantità
eccesso qui rappresentate dalle zone tratteggiate, che
possono essere positive o negative; la scelta della sezione è arbitraria.
4
Figura 3: Le particelle all’interfaccia o nell’interfase,
risentono di un campo di forze notevolmente diverso; è
quindi giustificato riconoscere loro uno stato termodinamico e microscopico diverso da quello delle particelle
che si trovano nella fase vera e propria; la risultante totale delle forze è sbilanciata verso l’interno; tale “pressione
interna” vale nell’acqua liquida 0.528 GPa!
Figura 4.
Quello che si può ragionevolmente concludere è
che la superficie di una fase è una zona di spessore piccolo, ma non trascurabile, la cui profondità
varia con la tecnica che usiamo per analizzarla.
Per un esperto di usura la superficie del materiale è spessa anche millimetri; per un utente di
microanalisi a raggi X (EDXS) o di spettroscopia
infrarossa la superficie è spessa qualche micron;
per un utente di microscopia a forza atomica
(AFM), di angolo di contatto o di spettroscopia
elettronica per analisi chimica (ESCA) a basso
angolo (o anche per una cellula vivente) la
superficie è spessa solo qualche nanometro o
qualche angström. Tutte queste diverse “immagini” della superficie devono essere considerate
insieme per avere un modello veritiero dei fenomeni superficiali.
Se le due fasi sono identiche l’energia libera interfacciale del materiale puro lungo una superficie
omogenea sarà nullo e allora il lavoro di adesione
(o meglio di coesione, in questo caso) sarà uguale a due volte la energia libera superficiale del
materiale che stiamo considerando. Il segno negativo del risultato corrisponderà al fatto che l’energia del sistema è diminuita e che dobbiamo fornire energia per staccare le due fasi e creare nuova
superficie, lottando contro le forze di coesione del
materiale stesso:
Se l’energia libera dello stato finale viene indicata
con γ12 e con γ1 e γ2, rispettivamente quelle delle
due fasi separate, il lavoro di adesione sarà:
Wad = γ12 – γ1 – γ2
Wad = γ11 – γ1 – γ1 = –2γ1
(1)
2)
Questo equivale ad affermare che in un processo
ideale come quello descritto l’energia necessaria a
creare una “frattura” nel materiale prima omogeneo è pari a due volte l’energia libera superficiale.
Un processo reale che possa simulare il fenomeno
ideale sopra illustrato è la frattura “fragile” di un
materiale come il vetro, un processo di frattura
che non preveda cioè fenomeni di deformazione
“viscoelastica” in grado di dissipare energia con
meccanismi non previsti nel nostro semplice
esempio; quando questi fenomeni ricorrono, come
in un metallo o in un polimero, simili meccanismi
possono moltiplicare l’energia di frattura anche di
1000 volte.
Se le due fasi sono diverse non potremo introdurre alcuna semplificazione; tuttavia ci soccorre l’equazione di Young (7); supponiamo di considera-
Il punto di vista macroscopico: l’adesione termodinamica
Consideriamo due superfici di estensione unitaria
appartenenti ad una fase condensata, lisce e perfettamente omogenee, prima separate e poi ad
intimo contatto, come nella figura 4; supponiamo
che il processo avvenga in modo reversibile e che
nel nostro sistema non si produca alcuna altra
variazione, immaginiamo di operare a P e T
costanti e definiamo la differenza di energia libera
fra lo stato finale e quello iniziale “lavoro di adesione termodinamica”.
5
re liquida una delle due fasi e con un volume piccolo. Cosa succederà se realizzeremo lo stesso
processo sopra descritto? La fase liquida darà
luogo ad una goccia di forma definita e lungo la
linea trifase che appartiene al solido, al liquido e al
vuoto (o al gas) potremo definire un angolo con il
vertice su questa linea e giacente sul piano ad
essa perpendicolare nella zona di spazio occupata
dal liquido (Fig. 5a): l’angolo di contatto. Se il solido è sufficientemente rigido esso non sarà deformato dalla presenza della goccia, altrimenti la
deformazione sarà vistosa(Fig. 5b). Per scrivere
l’equazione di Young si usa di solito una sorta di
“trucco contabile”; invece di ragionare in termini
di energie superficiali ovvero Energia/Lunghezza2,
ci si ricorda che una energia è una forza per una
lunghezza e si dividono numeratore e denominatore per L ottenendo Forza/Lunghezza, ovvero una
forza per unità di lunghezza. Vi possiamo assicurare che questo non è a rigore necessario, ma solo
un poco più facile e comune. Secondo questa
descrizione, le energie superficiali appaiono come
forze per unità di lunghezza applicate al confine
delle superfici considerate e si possono più facilmente scrivere i corrispondenti bilanci; nella figura 5a abbiamo allora per le componenti orizzontali e verticali:
γ1 = γ12 + γ2 cosθ
e R = γ2 sinθ (3)
dove gli indici 1 e 2 specificano le fasi solida e
liquida, θ è l’angolo di contatto e R la reazione vincolare del solido; l’equazione di Young è la prima
delle due.
Se la sostituiamo nella (1) otteniamo Wad = –γ2
(1+cosθ), conosciuta come equazione di YoungDupré, che correla l’angolo di contatto con il lavoro termodinamico di adesione: più l’angolo di contatto è basso, maggiore è il lavoro di adesione, il
cui segno negativo corrisponde ad una riduzione
dell’energia libera del sistema.
Se consideriamo una goccia d’acqua sul vetro
pulito e sul teflon con angoli di contatto, rispettivamente di 0° e 120° il lavoro di adesione sarà più
alto per la coppia vetro-acqua di un fattore 4
rispetto a quello teflon-acqua.
Lo stesso rapporto vale approssimativamente
anche fra gli sforzi necessari a separare (sempre in
modo reversibile) due lastre di materiale fra cui sia
posta una goccia di liquido; il calcolo corretto è un
poco complesso e consiste nel determinare l’energia libera superficiale del sistema (ossia delle tre
interfacce coinvolte, liquido-solido, liquido-vapore, solido-vapore) per una distanza assegnata fra
le lastre ed un volume assegnato di liquido e nel
calcolare quindi la variazione di tale energia libera
al variare della distanza fra le superfici solide. Il
tasso, cambiato di segno, di questa variazione fornisce la stima della forza agente fra le lastre. Il
risultato del calcolo è simile, almeno nell’ordine di
grandezza, a quello che si potrebbe ottenere dividendo brutalmente il lavoro di adesione per la
distanza fra le superfici, sebbene questa metodologia sia fondamentalmente scorretta.
Se le due fasi considerate sono entrambe solide
non si può misurare il loro angolo di contatto, ma
si può calcolare comunque la loro energia interfacciale ed il lavoro di adesione da una stima della
energia libera superficiale dei due solidi, a sua
volta ottenibile dagli angoli di contatto di uno o più
liquidi sui solidi in questione; esistono almeno due
approcci semi-empirici a questo scopo (la cosiddetta teoria acido-base e quella dell’equazione di
stato) (8-9). Pur alquanto diversi dal punto di vista
teorico, sono molto simili nei risultati numerici,
sebbene occorra una notevole attenzione nella
loro applicazione ed esistano interminabili discussioni congressuali e sulle riviste fra i loro sostenitori (10-11).
Figura 5a: Una goccia di liquido su un supporto solido;
le forze agenti comprendono non solo le tensioni interfacciali, ma anche la reazione vincolare che serve ad
equilibrare la componente verticale della tensione superficiale del liquido; trascurare di considerarla corrisponde
ad un errore concettuale comune a molti testi.
Figura 5b: La forma del menisco se la fase inferiore ha
una modulo meccanico basso o è un liquido, evidenzia
l’importanza della reazione vincolare. In questo caso l’equilibrio delle forze sulla linea trifase prende il nome di
triangolo di Neumann.
6
le. Tutte le altre molecole dipolari interagiranno
con questo campo e la interazione effettiva dipenderà dalla mutua interazione delle molecole.
L’equazione di Keesom fornisce una stima dell’energia di interazione fra molecole dipolari,
mediando nel tempo ed assumendo che le molecole si distribuiscano sui vari livelli di energia
disponibili secondo la distribuzione statistica di
Maxwell-Boltzmann, nell’ipotesi che il sistema sia
all’equilibrio termodinamico. Ciasuna molecola,
che possegga o meno un dipolo costante, ha
comunque una nuvola elettronica che può essere
polarizzata dal campo elettrico; essa può essere
polarizzata in modi diversi dalle oscillazioni esterne casuali. London usò l’approssimazione che la
frequenza naturale di oscillazione può essere calcolata dall’energia di ionizzazione della molecola.
Le nuvole elettroniche delle molecole interagenti
oscilleranno in modo sincrono.
L’analogo effetto dovuto all’interazione fra dipoli
permanenti e dipoli indotti può essere calcolato
dall’equazione di Debye, ma generando comunque un contributo inferiore ai precedenti. Nel 1937
Hamaker (14a) applicò il concetto delle forze interagenti fra coppie indipendenti di molecole per
studiare i sistemi macroscopici in fase condensata. Egli usò i potenziali descritti prima e perfino lo
stesso metodo generale di calcolo delle interazioni, sommando le forze interagenti fra molecole,
considerate come coppie indipendenti.
Questo metodo, che potremmo chiamare l’approssimazione bimolecolare, può essere usato se i
materiali interagenti sono “gas diluiti”, ma la situazione è ovviamente differente in fase condensata.
Sfortunatamente queste limitazioni non furono
riconosciute fino almeno al 1955. In quell’anno
Lifshitz (14b) sviluppò un nuovo trattamento, correlato a quello di London, ma applicabile alle fasi
condensate. Nella sua teoria i corpi macroscopici
erano considerati come un mezzo continuo e le
loro interazioni erano calcolate da proprietà
macroscopiche. Il metodo matematico di Lifshitz
era ampiamente basato sulla meccanica quantistica e questo rese più difficile la sua comprensione
fino a che altri ricercatori non mostrarono che
approcci più semplici, introdotti come una sorta di
“metodi di additività modificati” potevano raggiungere gli stessi risultati e superare i problemi
dell’“approssimazione bimolecolare”.
Se infatti si considera che in fase condensata i
dipoli non sono liberi di ruotare, le loro disposizioni corrispondenti a minimi di energia presenteranno una struttura complessa. Se i momenti dipolari sono apprezzabilmente più forti, l’agitazione termica non sarà in grado di rendere effettivamente
casuali le orientazioni dei dipoli. Inoltre occorrerà
Tenete infine presente che la componente verticale
delle forze in gioco esiste, anche se la reazione vincolare la annulla senza effetti visibili sui solidi
comuni; nondimeno su un gel o su un altro liquido
l’effetto sarebbe enorme e, comunque, trascurarla
nell’analisi teorica porta a vistosi errori concettuali.
Il punto di vista microscopico: le forze di interazione
Quali forze si possono stabilire fra due fasi a contatto? In linea di principio le stesse interazioni che
si possono esercitare anche all’interno di una fase,
e cioè tutte le interazioni interatomiche ed intermolecolari che conosciamo.
Legami di tipo ionico o covalente, per esempio, se
le condizioni del contatto favoriscono la loro formazione. Tuttavia le interazioni di questo tipo
necessitano di una vera e propria reazione e quindi non costituiscono la circostanza più comune.
Nei casi più usuali dobbiamo mettere in conto
quelle interazioni che si possano realizzare senza
che si verifichi una vera e propria reazione fra i
costituenti delle due fasi. Tali forze sono comunemente classificate basandosi sul concetto delle
interazioni fra dipoli permanenti o indotti. Tale
classificazione, tuttavia, risulta alquanto datata.
Nel 1872 van der Waals (12), studiando i gas reali,
propose la sua famosa equazione e per spiegare il
termine correttivo sulla pressione di un gas reale
(+a/V2) egli ipotizzò l’esistenza di forze attrattive
fra le molecole (c.d. forze di van der Waals), per le
quali fu assunto un generico potenziale del tipo:
w(r) = A r-n - B r-m
(4)
essendo r la distanza intermolecolare e A, B, n, m
dei parametri costanti.
Negli anni seguenti, fino al 1930, un set di equazioni che definivano le interazioni fra dipoli indotti
o permanenti fu sviluppato da Debye (13a),
Keesom (13b) e London (13c). Nel 1928 LennardJones e Dent (13d) introdussero la componente
repulsiva del potenziale ottenendo il famoso
potenziale <6-12>. In tutti questi casi la teoria considerava esplicitamente la situazione delle forze
agenti fra coppie di singole molecole indipendenti.
Le forze di London possono esistere fra tutti i tipi
di molecole, polari o meno, mentre l’insorgere
delle forze di Debye e Keesom dipende dall’esistenza di dipoli permanenti.
Nelle vicinanze di una qualunque molecola esisterà un campo elettrico, dovuto alla distribuzione
non uniforme della carica elettrica. Questo campo
varierà con il tempo in direzione ed intensità a
causa delle rotazioni ed oscillazioni delle moleco-
7
tenere in considerazione altri elementi, quali la
struttura geometrica delle molecole e le distanze di
minimo avvicinamento dei dipoli. Tutti questi fatti
hanno una conseguenza significativa: l’energia di
interazione dipolo-dipolo attraverso l’interfaccia è
ben al di sotto di quella calcolata dall’approssimazione bimolecolare.
Un esempio qualitativo per comprendere questa
differenza è mostrato in Figura 6; lo stato di minima energia di due dipoli interagenti è mostrato in
a) in fase gassosa e in b) si mostra il minimo energetico di tre dipoli, in fase condensata. Nel caso a)
entrambi i dipoli sono nello stato di energia più
basso se considerati come una coppia; nel caso b)
nessuna coppia di dipoli è nel proprio stato di minima energia. Il minimo energetico è associato alla
struttura “globale” e nessun approccio che consideri solo coppie di dipoli sarà capace di calcolare
in modo corretto il minimo energetico del sistema;
di conseguenza, l’importanza delle interazioni dipolari è stata grandemente e scorrettamente amplificata dall’uso dell“approssimazione bimolecolare”.
ottenne un valore di soli 1.4 mN/m rispetto ad un
totale di 72,8 mN/m della tensione superficiale ed
a 22 mN/m delle interazioni di van der Waals. Solo
tre anni dopo, Fowkes propose di fattorizzare l’energia libera superficiale delle fasi condensate. I
residui 51 mN/m della tensione superficiale dell’acqua furono così attribuiti alle cosiddette forze
acido-base di Lewis, di cui i legami idrogeno sono
l’esempio più conosciuto.
Queste interazioni nascono dal fatto che in meccanica quantistica anche gli orbitali vuoti delle
molecole possono interagire con quelli pieni; in
particolare gli orbitali di frontiera, cioè l’orbitale
pieno ad energia più alta (Higest Occupied
Molecular Orbital, HOMO) e l’orbitale vuoto ad
energia più bassa (Lowest Unoccupied Molecular
Orbital, LUMO) sono il sito delle interazioni di
Lewis, in cui “densità elettronica” ovvero coppie
elettroniche di non legame possono essere condivise, anche in modo parziale, fra molecole diverse.
Il donatore di densità e l’accettore di densità
saranno rispettivamente una base ed un acido di
Lewis “in senso generalizzato”. Queste forze
saranno complesse e specifiche e non si potranno
descrivere con potenziali relativamente semplici
come quelli proposti per le interazioni dipolari.
Solo un calcolo quantomeccanico può renderne
conto in modo soddisfacente. Questa relativa
complessità può parzialmente spiegare le difficoltà
che le interazioni acido-base incontrano nell’essere riconosciute ed accettate come rilevanti nei
fenomeni di adesione. Nondimeno, in settori
scientifici non direttamente connessi allo studio
dei fenomeni adesivi, come la chimica fisica organica, questo tipo di interazioni costituisce la base
dell’interpretazione moderna dei processi chimici.
Si veda a questo proposito un testo classico come
“Frontier Orbitals and Organic Chemical
Reactions” di Fleming (15).
D’altronde in chimica fisica organica l’uso di questi concetti ha una lunga tradizione e l’uso di
approssimazioni basate su di essi come le famose
relazioni di Hammet, l’equazione di Drago, le
Relazioni Lineari di Energia Libera (Linear Free
Energy Relationships, LFER) (16-18), proposte da
Abraham e altri, fa parte della struttura concettuale della chimica organica.
Il legame idrogeno è null’altro che un esempio di
questo tipo di interazioni e quindi sono forze
acido-base di Lewis, non la semplice “polarità”
della molecola che conferiscono all’acqua le sue
straordinarie proprietà; i polimeri comuni possono
essere suddivisi sulla base della loro capacità di
interagire tramite queste stesse forze; i polimeri
come il polietilene, il polipropilene, il politetrafluoroetilene hanno una struttura molecolare in cui
Figura 6: Due dipoli che interagiscono in fase gassosa
(a) si dispongono nella effettiva configurazione di minimo energetico; in fase condensata (b) tale minimo globale corrisponde ad una posizione in cui ciascuna coppia NON si trova nel proprio minimo locale; tuttavia nel
calcolo si usa la cosiddetta “approssimazione bimolecolare” sommando le forze che agiscono fra le molecole,
considerate come coppie indipendenti, cioè continuando
a supporre una situazione del tipo (a). Questo errore di
impostazione è alla base della eccessiva importanza data
alle interazioni “polari” ed all’uso improprio di tale termine in fase condensata.
Fu solo nel 1966 che Good (14c) usando l’approccio di Lifshitz concluse che in molecole “polari” come l’acqua la rilevanza delle interazioni puramente dipolari era molto piccola. Per l’acqua egli
8
l’accettazione o la cessione di densità elettronica
in orbitali di frontiera corrisponderebbe ad una elevata variazione strutturale con un conseguente
innalzamento della loro energia; il processo appare sfavorito e quindi non rimane loro che interagire tramite deboli interazioni di tipo “dipolare”
appartenenti alle tre categorie prima indicate.
Questi polimeri sono chiamati di volta in volta,
dispersivi, idrofobici, ecc.
Viceversa polimeri quali il polietilenossido e il
polimetilmetacrilato, posseggono un elevato
numero di atomi di ossigeno i cui doppietti di
non legame sono in grado di donare densità elettronica e quindi sono in grado di interagire fortemente comportandosi da basi di Lewis; altri polimeri come il polivinilcloruro o il polivinilfuoruro,
eventualmente post-alogenati, sono in condizione di accettare densità elettronica sui siti adiacenti agli atomi di alogeno e si comportano
quindi da acidi di Lewis (badate che la semplice
molecola di cloroformio è già un acido di Lewis
capace di favorire l’ossidazione del ferro). Altri
ancora, come le poliammidi o le proteine, possono comportarsi in entrambi i modi; si intende
che questi stessi polimeri hanno anche una certa
capacità di interagire secondo le interazioni
“dipolari” tipiche dei polimeri idrofobici. Gli
anelli benzenici si comportano da deboli elettrondonatori e quindi da deboli basi, per cui il
polistirene appare dispersivo con una debole
componente basica. Tenete presente che parliamo qui di polimeri puri; gli additivi hanno la
maledetta abitudine, supportata dalla generale
tendenza a minimizzare l’energia libera interfacciale, di segregarsi all’interfaccia!
C’è un semplice ma esemplare esperimento realizzato da Fowkes e pubblicato nel 1987 (19).
Due polimeri, PMMA e PVC-postclorurato si formano per “casting” su due vetri, uno il comune
vetro sodio-silicato, di natura basica, l’altro lo
stesso vetro immerso in una soluzione debolmente acida per una notte, allo scopo di conferirgli una natura acida grazie allo scambio protone-ione sodio.
Un semplice esperimento di misura dell’adesione
meccanica fra film e substrato (peeling) mostra
che le interfacce PMMA-vetro basico e PVC-vetro
acido si rompono, mentre nel caso di PMMA-vetro
acido e PVC-vetro basico sono gli stessi film a
rompersi! (Fig. 7)
In pratica le forze acido-base, se attive, sono
dominanti rispetto alle altre e nel caso che film e
supporto siano l’uno acido e l’altro basico o
viceversa le interazioni adesive all’interfaccia
sono dunque più forti di quelle coesive del film
stesso.
Figura 7: Films di polimero basico o acido aderiscono
preferenzialmente a supporti rispettivamente acidi o
basici, come dimostrato dall’esperimento citato di
Fowkes.
Il punto di vista operativo: l’adesione “pratica”
Dopo tante pagine di discorsi i nostri lettori avranno già moltissime obiezioni e questioni, spesso
tratte dalla loro esperienza; affrontiamo allora in
questo paragrafo le questioni che nascono dalla
esperienza concreta dell’adesione.
L’interpretazione dell’esperienza concreta di quanti operano in un certo settore richiede spesso anni
di lavoro scientifico e molte teorie. Lungi da noi
sostenere che è semplice giustificare le regole pratiche; tuttavia in molti casi si possono avanzare
ragionevoli interpretazioni.
Una questione non banale è la seguente: visto che
ci sono tante forze che si possono sviluppare fra le
fasi, perché abbiamo bisogno di un adesivo per
incollarle? La risposta più banale è che tali forze si
esercitano in modo efficace a distanze molto piccole dell’ordine dei nanometri, per cui la normale
rugosità superficiale di una fase la rende “inavvicinabile” da una fase diversa a distanze veramente
piccole ed efficaci. Un adesivo è quindi un modo
di gettare un ponte fra le due fasi, comunicando
attraverso le proprie forze di interazione con l’una
e l’altra, una sorta di ambasciatore o se volete di
mezzo di comunicazione, capace di stabilire un
contatto con entrambe. Questo è facilitato dal
fatto che un adesivo di norma è liquido e deve
“bagnare” entrambe le fasi, cioè arrivare ad intimo
contatto con entrambe.
Detto questo può sembrare addirittura strano che
sia pratica comune l’irrugosimento delle superfici
da incollare ottenuto attraverso l’abrasione o, ciò
che è equivalente, che sia comune in campo ingegneristico l’idea del cosiddetto “mechanical interlocking”, una espressione che si potrebbe tradurre, “blocco o adesione meccanica”, una componente delle forze adesive dovuta a meccanismi di
contatto; l’argomento è fortemente controverso;
l’irrugosimento di una superficie corrisponde
all’attivazione di un meccanismo indipendente di
adesione o piuttosto non è esso un modo di esaltare i meccanismi di adesione già presenti?
9
L’irrugosimento da un lato aumenta la superficie
specifica, cioè la superficie effettiva disponibile su
una certa area geometrica e contemporaneamente da importanza alla componente della forza adesiva non perpendicolare all’interfaccia, ma ad essa
parallela. In questo modo l’irrugosimento da una
parte incrementa quantitativamente le forze già
esistenti, d’altra parte esso consente l’ingresso in
campo alle forze “repulsive”. Spostare lateralmente due fasi di forma irregolare comporta l’ingresso
in gioco delle formidabili forze repulsive dovute
alla repulsione elettronica fra le nubi elettroniche
di atomi e molecole, teorizzata già da LennardJones e Dent nel 1928. Effetti di questo tipo sono
decisivi nei meccanismi di attrito. Vorremmo notare che tali forze sono maggiori di quelle attrattive:
il potenziale 6-12, è molto più ripido dal lato repulsivo e quindi le forze repulsive, che sono date dalla
derivata dell’energia di interazione contro la
distanza, sono maggiori di quelle attrattive. Esse
rendono conto della impenetrabilità dei corpi.
Esistono poi degli aspetti pratici dell’irrugosimento
che non hanno a che fare direttamente con la
variazione di rugosità: abradere la superficie vuol
dire eliminare sporco, porzioni ossidate, specie per
i metalli, o ancora, nel caso dei polimeri, la cosiddetta “weak boundary layer” (WBE), uno strato
esterno che può contenere molecole più corte,
degradate o additivi. In tal modo, indirettamente, la
superficie migliora dal punto di vista meccanico.
È comune osservazione che il lavoro di adesione
meccanico sia molto diverso, nella maggioranza
dei casi ben superiore, rispetto a quello calcolato
per via termodinamica. Ciò è dovuto in primo
luogo alle ben diverse condizioni sperimentali di
misura. Nella figura 8a sono mostrati alcuni dei
più comuni tipi di giunto; e nella 8b le principali
modalità di sollecitazione di un giunto; in ciascuna
modalità la distribuzione degli sforzi è completamente diversa. Tuttavia si vede abbastanza facilmente che forze non perpendicolari alla superficie
possono avere una importanza notevole. Le superfici reali non sono lisce ed omogenee ed infine il
processo di distacco non è reversibile; esso si
svolge ad una certa velocità e quindi il fenomeno
è funzione del tempo ed interessa una porzione di
materiale il cui spessore non è affatto infinitesimo,
ma può essere molto grande, di migliaia di strati
atomici o molecolari. Per tutti questi motivi ci sono
componenti “irreversibili” della adesione che
entrano in gioco, meccanismi legati anzitutto alla
dissipazione di energia all’interno di ciascuna fase
a contatto, (ed in questo senso l’adesivo è una
fase o una interfase), piuttosto che all’interfaccia,
attraverso meccanismi viscosi che amplificano
centinaia o migliaia di volte il lavoro termodinami-
Figura 8a: I principali tipi di giunto adesivo: A) Lap, B)
Butt-Lap, C) Butt, D) Scarf, E) Strap. L’adesivo è in
colore.
Figura 8b: Le sollecitazioni su un incollaggio possono
essere varie: A) dilatazione o tensione, B) compressione,
C) Shear, D) Cleavage, E) Peeling; a ciascuna corrisponde una ben definita distribuzione di sforzi, che può
anche essere fortemente asimmetrica. L’adesivo è in
colore, mentre le forze indicano le sollecitazioni.
co vero e proprio, trasformando in calore il lavoro
impiegato. In altri casi, come per l’adesione fibramatrice che è molto importante nel caso di materiali compositi, sull’interfaccia si può anche esercitare una pressione notevole che incrementa l’attrito all’interfaccia, e quindi agisce attraverso i tipici meccanismi di attrito: incremento dell’area di
contatto, ruolo delle componenti parallele dovute
a forze repulsive, mechanical interlocking, ecc.
Il problema generale è stato affrontato in modo
esemplare da Maugis (20); la sua conclusione è
che il lavoro di adesione meccanica è pari a
Wad-mecc = Wad-ter + f(v), dove v è la velocità della
sollecitazione ed f una opportuna funzione.
Alcune delle grandezze teoriche che abbiamo introdotto nei paragrafi precedenti subiscono nelle
nuove condizioni “pratiche” cambiamenti inattesi.
L’angolo di contatto, per esempio, che secondo l’e-
10
quazione di Young dovrebbe essere una funzione di
stato, diventa un parametro dipendente dal processo; non è possibile individuare un singolo angolo di
contatto, ma addirittura una serie di valori, compresi fra un massimo ed un minimo, chiamati di
solito, angolo di avanzamento e di recessione. La
spiegazione di tale fatto viene schematizzata in
Figura 9. La energia libera di un sistema interfacciale non possiede in condizioni “pratiche” un solo
minimo assoluto corrispondente allo stato di equilibrio del sistema, ma una serie di minimi “locali”
nei quali il sistema interfacciale può rimanere
intrappolato, stati “metastabili” di equilibrio nei
quali il sistema può permanere per tempi indefiniti, dipendenti dalle condizioni dell’esperimento.
Questi minimi sono legati all’esistenza di eterogeneità chimica o rugosità sulla superficie.
Consideriamo ancora il caso banale di una goccia
di liquido su una superficie solida; in uno dei paragrafi precedenti abbiamo introdotto per questo
caso semplice l’equazione di Young ed il lavoro di
adesione, che esprimono le condizioni di equilibrio
e il lavoro necessario al distacco del liquido dalla
superficie. Nelle nuove condizioni “pratiche” consideriamo cosa avviene se incliniamo la superficie;
quali saranno le condizioni per le quali la goccia
“scivolerà” sulla superficie? È un fenomeno che ha
una diretta importanza in molte applicazioni di
interesse tecnologico, che manipolano gocce; in
pratica, mentre nel primo caso avevamo considerato la resistenza a forze di distacco perpendicolari, adesso consideriamo quella a forze di tipo
parallelo, rispetto alla superficie.
Il calcolo è stato svolto per esempio da Furnidge
nel 1962 (21); il risultato è la seguente equazione,
dove m è la massa della goccia, g l’accelerazione
di gravità, a l’inclinazione del piano, w il diametro
trasversale della sezione di goccia all’interfaccia,
γLV la tensione superficiale del liquido e θA e θR i
due angoli di avanzamento e di recessione.
mg(sinα )
= γ LV (cos υ R − cos υ A )
w
(5)
Le forze di interazione fra le fasi sono comprese
nel parametro w; se una goccia interagisce bene
col substrato essa vi si spanderà (w grande), mentre una scarsa interazione corrisponderà ad una
goccia che ridurrà la sua superficie di contatto (w
piccolo). D’altronde sarà la differenza fra avanzamento e recessione (a volte detta isteresi) a rendere conto dell’“attrito” fra goccia e superficie. A
parità di isteresi una goccia che bagna la superficie avrà bisogno di un angolo di inclinazione maggiore per scivolare via di una che bagna male; ma
d’altra parte su una superficie dotata di ampia
isteresi una goccia che non bagna potrà essere
bloccata, mentre su una a bassa isteresi una goccia che bagna potrà scivolare via, in barba a considerazioni puramente “energetiche”.
Perché un adesivo si comporti come tale, legando
due fasi, esso dovrà dunque:
• avere un contatto intimo con entrambe le fasi,
ovvero bagnarle o ancora avere rispetto ad esse
un angolo di contatto basso;
• possedere una propria significativa energia di
coesione, dell’ordine di quella dell’interfaccia
adesiva;
Le superfici da unire a loro volta dovranno essere
bagnabili ovvero avere una elevata energia superficiale, eventualmente indotta da adeguati metodi
di trattamento delle superfici; fra tali trattamenti
l’irrugosimento, pur non aumentando l’energia
superficiale, consente di aumentare l’area specifica e sfruttare le componenti repulsive delle interazioni, soprattutto per sollecitazioni con una componente parallela alla superficie. Il pretrattamento
delle superfici serve essenzialmente ad innalzare
la loro energia superficiale e quindi a renderle
meglio bagnabili dall’adesivo; eliminare lo sporco
è il primo passo, introdurre funzioni chimiche
capaci di interagire secondo le modalità acidobase il secondo. L’ossidazione chimica delle
Figura 9: L’energia libera interfacciale possiede, nei sistemi reali, un gran numero di minimi locali nei quali il
sistema rimane catturato; tali minimi locali corrispondono a stati metastabili del sistema e danno origine al fenomeno dell’isteresi dell’angolo di contatto.
11
superfici con potenti agenti ossidanti quali l’ozono,
prodotto nelle vicinanze della superficie (effetto
corona), è molto comune e diffuso; a questo si è
aggiunto nel tempo il bombardamento della superficie con particelle ionizzate o radicaliche, come
quelle contenute in una fiamma (fiammatura) o in
una scarica elettrica a bassa pressione (plasma a
radio-frequenza).
Molti sostituti dell’acqua sono stati sviluppati negli
ultimi 5000 anni. Soluzioni acquose di sostanze
naturali come la “colla di pesce” o di riso ottenute
bollendo materiali biologici ed estraendo quindi
proteine e polisaccaridi, che diventano solidi dopo
l’asciugatura, hanno rappresentato delle ottime
colle usate per secoli.
La ceralacca o il bitume sono stati a loro volta i
capostipiti delle colle a caldo, le moderne hot-melt
e dei moderni sigillanti. Un liquido caldo a bassa
tensione superficiale si adatta e bagna molti materiali e la fusione all’aria lo ossida leggermente;
dopo il raffreddamento e la solidificazione esso
rimane adeso al supporto.
Rimangono fuori dalla nostra analisi sostanze prodigiose di origine naturale, come i liquidi adesivi
lungo i fili non-radiali delle tele di ragno, come i
materiali presenti sulle punte delle dita del geco o
quelli che favoriscono l’adesione dei molluschi in
un’ambiente così difficile come la zona intertidale
(come il bisso, che è ricco di amminoacidi capaci
di realizzare legami idrogeno e quindi interazioni
acido-base) (24); tuttavia qui parliamo di prodotti
tecnologici, non naturali.
Dagli antenati tecnologici citati prima, sono venuti fuori nel tempo le varie classi di adesivi; dal
punto di vista dei costituenti potremmo dividerli in
tre gruppi principali:
• soluzioni di polimeri, in genere lineari, termoplastici, in solventi organici o acquosi, la cui fase di
indurimento corrisponde all’eliminazione del solvente;
• soluzioni o miscele di monomeri o di molecole
comunque piccole che si trasformano in un polimero termoplastico o termoindurente o comunque vanno incontro ad una reazione chimica
vera e propria, dopo un opportuno trattamento
(“curing”) legato all’uso di agenti chimici o fisici
specifici che fungano da catalizzatore od iniziatore;
• una sostanza (polimero termoplastico) allo stato
fuso la cui fase di indurimento corrisponde alla
presa dell’adesivo.
Esistono adesivi che mescolano in qualche modo
le tre modalità precedenti. Notate che la formazione di legami covalenti avviene qui all’interno dell’adesivo, non all’interfaccia di adesione fra adesivo e substrato, sebbene ciò possa avvenire in certi
casi e con certi additivi.
Una suddivisione diversa, più legata all’uso pratico
ed al mercato degli adesivi e quindi non “mutuamente esclusiva” potrebbe essere la seguente:
• strutturali; possono sopportare carichi elevati; di
solito sono termoindurenti ad uno o due componenti; hanno bisogno di curing effettuato tramite
calore, presenza o assenza di determinate
Una considerazione finale è necessaria per i meccanismi adesivi di tipo “diffusivo”; la interdiffusione di molecole è efficace quando la fase da incollare ha una relativa mobilità molecolare, come per
esempio nel caso dei polimeri al di sopra della loro
temperatura di transizione vetrosa, Tg, che è la
situazione comune di molti materiali polimerici. Si
tenga presente che dallo studio delle proprietà dell’acqua si è tratto un modello, cosiddetto del “surface melting” (22) per il quale anche un cristallo,
a temperature ben al di sotto di quella di fusione,
possiede una parte più esterna, il cui spessore si
incrementa con la temperatura, che è parzialmente disordinata; dall’analisi dei polimeri si sa che la
superficie, anche al di sotto della Tg, possiede una
mobilità notevole (23) che consente al materiale
di “adattarsi” all’ambiente esterno, esponendo i
gruppi funzionali che meglio interagiscono e quindi minimizzando l’energia del sistema. Tutto ciò
spiega bene quindi come meccanismi diffusivi
possano essere chiamati in causa per spiegare, ad
esempio, l’azione di molti “primers”, sostanze che
facilitano i successivi trattamenti di verniciatura o
di adesione.
Quale adesivo mi serve?
Esistono migliaia di adesivi e sigillanti diversi e va
da se che la loro classificazione non è unica; nel
seguito daremo alcune indicazioni sui principali
tipi di adesivi disponibili, senza alcuna pretesa di
completezza rimandando per questo a qualche
aggiornato handbook (vedi fine paragrafo).
Capostipite di tutti gli adesivi è stata la semplice
acqua, un film sottile della quale riesce a funzionare da adesivo capillare fra due materiali ad alta
energia superficiale, sui quali abbia angolo di contatto zero, come due lastre di vetro ben pulito, con
una forza esprimibile come f = 2γLVA/d, dove A è
l’area di contatto fra liquido e solido e d la distanza delle lastre; due lastre di 1 cm2, bagnate da un
microlitro di acqua saranno a distanza di 10
micron e la forza di adesione sarà quindi circa 1,5
N, ovvero uno sforzo equivalente di 0,015 MPa.
Tuttavia, essendo un liquido e per di più poco
viscoso, essa non presenterà praticamente alcuna
resistenza “coesiva”.
12
- ovviamente sulla rete; per esempio:
http://www.pprc.org/pprc/p2tech/Common98/bib
lio.html;
- un paio di handbooks:
- A. Pizzi, K.L. Mittal(eds), Handbook of adhesive
technology, Marcel Dekker Inc. 1994 (non fatevi
ingannare Antonio Pizzi lavora in Francia)
- Engineered Materials Handbook, vol. 3, ASM
international, H.F. Brinson ed. 1990
- Adhesives and adhesive tapes, G. Gierenz e W.
Karmann, ed. Wiley-VCH, 2001
sostanze; di questo gruppo fanno parte gli adesivi più famosi: resine epossidiche, troppo famose per parlarne, poliuretani usati come schiume
soprattutto nell’industria dei frigoriferi, acrilici
modificati di tipo termoindurente, cianoacrilati a
curing molto veloce che necessitano di acqua
come iniziatore e hanno problemi sulle superfici
acide, anaerobici che induriscono in assenza di
ossigeno, siliconi, resine fenoliche;
• hot-melt; tutti termoplastici che fondono in un
preciso intervallo di temperatura trasformandosi
in liquidi poco viscosi che induriscono rapidamente e senza alcun curing; in principio qualunque termoplastico potrebbe essere usato; in pratica EVA, PVA, PE, PP amorfo;
• sensibili alla pressione (pressure sensitive); la
loro presa necessita di una pressione a temperatura ambiente; possono appartenere ad una
delle altre categorie e sono usati principalmente
su un supporto, come un nastro; i loro costituenti principali sono gomme naturali, poliacrilati, siliconi e elastomeri termoplastici con struttura di copolimero a blocchi, come SBS;
• a base acquosa; sono sciolti o dispersi in acqua
e la presa necessita della evaporazione dell’acqua; troviamo qui gli adesivi di origine naturale:
caseina, amido, destrina, ecc.; abbiamo poi polivinilalcool e polivinilacetato, resine formaldeidiche, policloroprene; nuovi derivati acrilici sono
stati sintetizzati negli ultimi anni;
• a base solvente; sono sciolti in solvente organico
e la presa necessita della sua evaporazione;
sono usati sempre meno per problemi di inquinamento, ma rimangono utili per superfici a
bassa energia;
• “curing” effettuato da radiazioni UV e fasci di
elettroni (UV-EB cured); si tratta di liquidi reattivi che abbisognano di curing per divenire solidi.
Sono in genere monomeri che polimerizzano per
addizione; esteri degli acidi acrilici e resine epossidiche aromatiche od alifatiche, poliuretani,
poliesteri.
Bibliografia
(1)
(2)
(3)
(4)
(5)
(6)
(7)
(8)
(9)
(10)
(11)
(12)
(13a)
Nel corso degli anni si è assistito ad una gara
verso l’uso di nuovi prodotti di sintesi, in grado di
resistere a temperature sempre più alte e a condizioni sempre più estreme; inoltre si vanno affermando i prodotti “ semplici”, gli hot-melts, piuttosto che quelli sciolti in solventi organici. Nuovi settori, completamente nuovi, come adesivi conduttori o adatti per tessuti biologici diventano sempre
più importanti. Il settore è così vulcanicamente
rinnovato che è forse più utile dire…
…dove trovare informazioni specifiche sugli adesivi:
(13b)
(13c)
(13d)
(14a)
(14b)
(14c)
13
Enciclopedia Zanichelli. Bologna: Zanichelli
1995.
Leonardo da Vinci. Opere (RL 19151r).
G. Lanzavecchia, Voce Fenomeni superficiali. In:
Enciclopedia di Scienza e Tecnica. EST,
Mondadori 1968.
J.W. Gibbs. On the equilibrium of heterogeneous
substances. In: The collected works of J.W. Gibbs.
New Haven: Yale Univ. Press 1957:54-355.
E.A. Guggenheim. The thermodynamics of interfaces in systems of several components. Trans.
Faraday Soc. 1940;36:398.
R. Defay, I. Prigoggine, A. Belleman, Everett D.M.
Surface Tension and Adsorption. Longmans:
Green & Company, Ltd. 1966.
T. Young. Phil. Trans. 95, 65, 84 (1805), ma era
stata già pubblicata nel dicembre 1804 su Proc.
Roy. Soc. (Lond.).
A.W. Neumann, J.K. Spelt, eds. Applied Surface
Thermodynamics. NY: Marcel Dekker 1996.
R.J. Good, C.J. van Oss. In: M.E. Schrader, G.
Loeb, eds. Modern Approach to Wettability,
Theory and Application, chap. 1. New York:
Plenum Press 1991.
C. Della Volpe, S. Siboni. Troubleshooting of acidbase theory applied to solid surfaces. In: K.L.
Mittal, ed. Acid-base reactions: relevance to adhesion science and technology. NY: VSP 2000;2:5590.
I.D. Morrison. Langmuir 1991;7:1833-6.
J. van der Waals. Thesis. Leide University 1872.
P.J.W. Debye. Die Van der Waalsschen
Kohäsionkräfte. Phys. Z. 1920;21:178-87,
1921;22:302.
W.H. Keesom. Die Van der Waalsschen
Kohäsionkräfte. Phys. Z. 1921;22:129-41,
1922;23:225.
F. London. Phys. Z. 1930;60:491.
J.E. Lennard-Jones, B.M. Dent. Trans. Faraday
Soc. 1928;24:92-108.
H.C. Hamaker. Physica 1937;4:1058.
E.M. Lifschitz. Zh. Eksp. Teor. Fiz. 1955;29:94,
Sov. Phys. JETP 1956;2:73.
J.R. Good, MC Phillips. In: Proc. Conf. on
Wetting, Bristol, England, Soc. Chem. Ind.
(15)
(16)
(17)
(18)
(London) Monograph n. 25, 1966:44-8.
I. Fleming. Frontier Orbitals and Organic
Chemical Reactions. London: John Wiley & Sons
1976.
L.P. Hammett. Physical Organic Chemistry. New
York: Mc Graw-Hill 1970.
R.S. Drago. Struct. Bond. 1973;15:73-139; M.K.
Kroeger, R.S. Drago. J. Am. Chem. Soc.
1981;103:3250.
M.J. Kamlet, J.M. Abboud, M.H. Abraham, R.W.
Taft. Linear Solvation Energy Relationships. 23. A
Comprehensive Collection of the Solvatochromic
Parameters, p, a, and, ß, and Some Methods for
Semplifying the Generalized Solvatochromic
Equation. J. Org. Chem. 1983;48:2877-91; M.H.
Abraham. Scales of solute hydrogen-bonding:
their construction and application to physicoche-
(19)
(20)
(21)
(22)
(23)
(24)
14
mical and biochemical processes. Chem. Soc.
Rev. 1993:73-83.
F.M. Fowkes. Role of acid-base interfacial bonding in adhesion. J. Adhesion Sci. Technol.
1987;1:7-27.
D. Maugis. J. Material Sci. 1985;20:3041-73.
G.C.L. Furnidge. Studies at phase interface. I. The
sliding of liquid drops on solid surfaces and a
theory for spray retention. J. Colloid Interf. Sci
1962;17:309.
J.S. Wettlaufer. Ice surfaces: macroscopic effects
of microscopic structure. Phil. Trans. R. Soc. Lond
1999;A357:3403-25.
J.D. Andrade, R.N. King, D.E. Gregonis, D.L.
Coleman. J. Polym. Sci. Polym. Symp.
1979;66:313-36.
R. Rizzo. AIM Magazine 2000;54(1):6-8.
MACROMOLECOLE
NELLO SPAZIO
di Cesare Guaita
Perché un articolo di astronomia e perché proprio da Guaita? Due domande a cui è facile rispondere.
Innanzitutto si parla di polimeri sintetizzati nello spazio e l’argomento è pertinente: poi non si tratta di macromolecole strane ma di polimeri di importanza tecnologica che l’uomo è riuscito a sintetizzare solo nell’immediato
dopo guerra, come nel caso del POM.
Che il discorso dovesse essere fatto da uno che conosceva l’astronomia era fuor di discussione ma se lo avessimo affidato a un astronomo-macromolecolare allora il risultato sarebbe stato garantito.
Le mie relazioni con Guaita sono cominciate all’Università di Milano alla facoltà di chimica quando – io iscritto a
pura e lui a industriale – ci riunivamo per le lezioni di Chimica Macromolecolare del prof. Farina, lezioni sicuramente memorabili.
Già allora avevo capito che la grande passione di Guaita erano le stelle e ne fui definitivamente convinto quando
poco tempo dopo me lo ritrovai collega al Centro Sperimentale della SNIA Viscosa. Lui sintetizzava e analizzava
prodotti di riferimento per la sintesi dell’acido w-amminododecanoico (gruppo di ricerca sulla produzione industriale del monomero della poliammide 12) mentre io avevo cominciato ad occuparmi di polimerizzazione di 6 per
il settore tecnopolimeri. Nel suo laboratorio i muri erano tappezzati di foto di pianeti, stelle e galassie.
Quando si chiuse la ricerca sulla PA12 Guaita fu trasferito armi e bagagli (e le armi erano i sofisticati strumenti di
analisi strumentale che lui utilizzava) al Centro Tecnologico Poliammidi della SNIA Tecnopolimeri e venne a lavorare nel laboratorio del quale ero responsabile. Furono quattro anni di lavoro in comune molto fruttiferi. Io, misero appassionato di cosmologia, aprivo spesso discorsi sull’argomento e per lui, esperto di planetologia ma
“sapiente” in quasi tutte le discipline astronomiche e astrofisiche, era un invito a nozze.
Lo definii – e continuo a farlo con più convinzione dopo che ho letto la sua breve presentazione – un astronomo
che per mantenersi e coltivare la sua primaria passione era costretto a fare il chimico delle poliammidi, lavoro che
gli dava da campare e che, nonostante i pochi riconoscimenti aziendali, faceva bene e con grande competenza.
Detto ciò e conoscendo la sua grande capacità didattica e di coinvolgimento – semplicemente entusiasmante
quando lo sentite nelle conferenze di astronomia – il prevedere che un suo articolo sulle macromolecole nello spazio avrebbe potuto, nonostante l’assenza dell’enfasi oratoria, essere stimolante era sin troppo facile e il risultato lo
potete giudicare voi stessi leggendo questo pezzo.
Roberto Filippini Fantoni
Durante la formazione di ogni nuovo sistema planetario, le oltre 100 molecole organiche finora scoperte
negli spazi interstellari si ritrovano inevitabilmente negli oggetti più primitivi come asteroidi e meteoriti e
nei corpi di ghiaccio come le comete. Anzi, i gelidi nuclei cometari sono anche un ottimo supporto catalitico per la trasformazione di molecole organiche semplici in sostanze sempre più complesse a basso e ad
alto peso molecolare. Da qui l’idea che proprio le comete contribuirono ad arricchire la Terra primordiale
di molecole fondamentali per lo sviluppo della vita.
Siccome una reazione organica ben difficilmente
avviene ‘spontaneamente’ ed in presenza di una
bassa concentrazione di molecole reagenti, si
riteneva, fino a 50 anni fa, estremamente improbabile rinvenire composti organici fuori dalla
Terra, in ambiente non biologico.
Invece l’esplorazione ravvicinata dei pianeti e gli
studi sullo spazio interplanetario hanno completamente sconfessato questa opinione.
F
ino alla metà del XX secolo la ricerca planetaria (come del resto tutte le altre branchie
dell’Astronomia) era stata un campo esclusivo di fisici e matematici. Ma con l’avvento dell’esplorazione ravvicinata dei pianeti, anche geologi e
chimici sono diventati, a pieno diritto, ‘colleghi’ degli
astronomi tradizionali. In più, negli ultimi 15 anni, si
è aperto un settore nuovissimo ed appassionante:
quello della chimica organica e macromolecolare
applicata allo studio dei nuclei cometari.
15
8% (si parla allora di condriti di classe C1, come la
famosa meteorite di Orgueil): buona parte di questo materiale carbonioso è insolubile quindi, verosimilmente, ad alto peso molecolare. Certo, in
questo caso una domanda è d’obbligo: da dove
vengono il Carbonio e i suoi composti più semplici con Ossigeno, Idrogeno, Azoto presenti nelle
condriti carboniose? Negli ultimi 25 anni la risposta è divenuta sempre più evidente con la scoperta, mediante indagini in infrarosso e in radio-onde,
che sono almeno un centinaio le molecole organiche che disseminano le nubi interstellari della
nostra e delle altre galassie; qui i granuli di polvere silicatica riescono ad assorbire singoli atomi di
C, H, N, O (fanno cioè da autentici siti ‘catalitici’)
che poi, sotto l’influsso della radiazione ultravioletta, possono legarsi a formare molecole contenenti anche decine di atomi diversi. È evidente che
queste molecole interstellari entrerebbero a far
parte di un eventuale sistema planetario che
nascesse nelle vicinanze. Così il materiale planetario che ha subito meno processi evolutivi o perché non si è mai conglomerato in corpi maggiori
(è il caso delle condriti carboniose) o perché si è
condensato nei gelidi spazi lontano dalla stella
centrale (è il caso dei nuclei cometari) conserverà
la maggior parte delle molecole interstellari originarie e queste saranno un’ottima base di partenza
per la produzione (stimolata, per esempio, dalla
sovrabbondante energia della stella centrale) di
sostanze sempre più complesse.
Dopo queste premesse, non è difficile capire l’importanza da attribuire allo studio della natura chimica delle comete: esse sono degli agglomerati di
materiale presolare originario, quindi ricco delle
semplici molecole carboniose dello spazio interstellare (come le condriti carboniose) ma, in più,
la loro massa è costituita fondamentalmente da
ghiaccio d’acqua a bassissima temperatura.
Abbiamo però già accennato come il ghiaccio sia
un ottimo substrato catalitico per la formazione di
molecole organiche complesse, anche partendo
da composti del C estremamente semplici come
CO2 e CH4: va da sé che se le molecole di partenza hanno già una certa complessità (e tali sono le
sostanze che ogni cometa assorbe quando si
forma nello spazio interstellare) la sintesi chimica
cometaria possa essere estremamente più efficace e ricca di risultati.
Sono ormai una cinquantina le molecole organiche semplici o i loro frammenti (3) rintracciate per
via spettroscopica nelle chiome cometarie. Questo
grazie soprattutto, a tre comete (Fig. 1): la Halley,
che tornò per l’ultima volta nel 1986, la
Hyakutake, ‘facile’ da osservare perché passò a
soli 20 milioni di km dalla Terra nel 1996 e la
CONDRITI CARBONIOSE
Costituiscono circa il 6% delle meteoriti rocciose
attualmente note. Il temine condrite deriva dalla presenza delle cosiddette condrule (piccole sferette di 110 mm di diametro formatesi in seguito ad un repentino ed ancora poco compreso trauma termico subito
dal materiale solare primordiale). Da questo punto di
vista la morfologia interna è simile a quella delle condriti ordinarie (circa l’80% delle meteoriti note). Quello
che però rende assolutamente peculiari le condriti
carboniose e che ne giustifica la denominazione è la
presenza di una elevata quantità (fino al 10%) di composti a base di carbonio. Il 30% di questo materiale è
di natura monomerica ed è stato ben studiato (vi predominano amminoacidi e zuccheri); per contro sul
restante 70%, che appare di natura polimerica, le
indagini chimiche sono ancora molto incerte.
Notevole è anche la presenza di acqua e/o di composti inorganici alterati dall’acqua. Per la loro natura
chimica così particolare, le condriti carboniose potrebbero essere frammenti di nuclei cometari o di corpi
della fascia asteroidica più esterna (i cosiddetti asteroidi di classe C).
Numerosi idrocarburi sono stati rinvenuti nelle
atmosfere riducenti (ossia ricche di idrogeno,
metano ed ammoniaca) dei pianeti esterni e di
alcuni loro satelliti. Da questo punto di vista il caso
di Titano, il maggiore satellite di Saturno, è davvero emblematico. Si tratta infatti di un corpo grande come la nostra Luna ma avvolto da una densa
atmosfera di azoto resa opaca da una sospensione
di idrocarburi ad alto peso molecolare simili a
quelli che si formarono sulla Terra prima della
nascita della vita: sarà entusiasmante, nel gennaio
del 2005, l’esplorazione ravvicinata di questa specie di ‘Terra primordiale’ da parte della capsula
Huygens, sganciata dalla sonda Cassini dopo che,
nel luglio 2004, essa sarà diventata il primo satellite artificiale di Saturno. Un altro chiaro indizio
della presenza di composti carboniosi ad alto peso
molecolare è la colorazione scura della maggior
parte dei corpi dotati di superficie ghiacciata: tra
questi si collocano tutti i satelliti principali di
Saturno, Urano e Nettuno ma, soprattutto, i nuclei
delle comete. Molti esperimenti di laboratorio confermano questa interpretazione: miscele ghiacciate di acqua, metano, ammoniaca e anche anidride
carbonica, sottoposte ad irraggiamento cosmico
simulato, producono pellicole superficiali organiche tanto più scure quanto più è stato prolungato
l’esperimento (1).
Non bisogna inoltre dimenticare che del materiale
organico è presente anche nei campioni più primitivi, e quindi meno evoluti, del Sistema Solare,
come le meteoriti (2). Così nelle condriti carboniose, il contenuto organico può raggiungere il 6-
16
Figura 2: Alcune delle storiche immagini del
nucleo della cometa 19P/Borrelly ottenute nella
notte tra il 22-23 Settembre 2001 dalla sonda DS-1
da circa 2000 km di distanza. Si tratta di uno dei
documenti più importanti di ogni tempo perché,
per la prima volta, si sono potuti osservare dettagli
geologici e morfologici sul nucleo di una cometa.
Figura 1: Le tre comete più importanti della storia,
prima della Borrelly:
• a sinistra la Halley (1986), la prima cometa della
quale si sia visto il nucleo (foto ESO e GIOTTO)
• al centro la Hyakutake (1996) la prima cometa
per la quale si sono studiati in dettaglio fenomeni di fissione e getti ‘a fontana’ emessi inizialmente in direzione solare (foto dell’autore)
• a destra la Hale-Bopp (1997) la prima cometa
per la quale si è trovato un netto collegamento
tra attività nucleare e inclinazione dell’asse di
rotazione verso l’osservatore (shells) e/o effetti
stagionali) (foto dell’autore)
anche analisi episodiche, in quanto sono dovuti passare ben 15 anni perché questa esperienza venisse
ripetuta: il merito, in questo secondo caso, va tutto
alla piccola sonda DEEP SPACE 1, che lo scorso 22
settembre è riuscita nell’impresa ‘impossibile’ di
scrutare da vicino ed analizzare il nucleo della
19P/Borrelly, una cometa completamente diversa
dalla Halley: il suo corto periodo (circa 7 anni contro gli 86 della Halley) ne fanno infatti un oggetto
molto più degasato e, verosimilmente, ancor più
ricco di materiali organici (Fig. 2).
Il ‘mistero’ dell’assorbimento IR a 3,4 µm
Hale-Bopp del 1997, che fu la più studiata della
storia grazie alle gigantesche dimensioni del suo
nucleo (le foto in basso sono relative alla zona del
nucleo).
Per i nostri scopi, comunque, vale la pena di menzionare almeno un paio di molecole cometarie classiche: una è il radicale CN (nitrile), tipico di quasi
tutte le comete (4) e particolarmente importante
perché è il segnale principale dell’inizio di qualunque attività cometaria (la sua rivelazione a 3883 Å
al Multi Mirror Telescope, permise ad una équipe
dell’Università dell’Arizona di annunciare, il 17 febbraio ’85, che la Halley iniziava in quel momento la
sua attività); l’altra è la formaldeide, scoperta la
prima volta in una cometa (la IRAS del 1983) dai
due italiani S. Ortolani e C. Cosmovici (5).
A parte le indicazioni spettroscopiche da Terra
(quindi da lontano), la natura organica di una cometa è stata indagata per la prima volta ‘sul posto’ solo
nella notte tra il 13 e14 marzo 1986: le analisi, effettuate sul nucleo della cometa di Halley dalle sonde
VEGA e GIOTTO, sono state esaurienti e veramente
appassionanti per un chimico. Purtroppo sono state
Le sonde VEGA e GIOTTO recavano a bordo una
decina di strumenti analitici. Due, però, sono risultate le tecniche più utili: la spettrometria di massa
e la spettroscopia infrarossa.
Mediante spettrometria di massa, fu possibile analizzare sia la polvere, sia il gas neutro, sia il gas ionizzato. Del gas già ionizzato si occupavano gli strumenti IMS su GIOTTO e PLASMAG su VEGA; del
gas neutro si occupavano invece gli strumenti NMS
su GIOTTO e ING su VEGA, dopo preventiva ionizzazione positiva. Più complicata (ma anche la più
interessante dal nostro punto di vista) fu l’analisi
delle polveri. Gli strumenti PIA su GIOTTO e PUMA
su VEGA erano praticamente ‘gemelli’: le singole
particelle di polvere incidevano inizialmente su una
placca di Platino, si vaporizzavano e si trasformavano in ioni positivi prima di essere analizzate.
Alla Spettroscopia infrarossa si dedicarono soprattutto le sonde VEGA con due strumenti: il TKS
(Tree Channel Spectrometer) che, in realtà, lavorava, da 0,12 a 1,9 m e l’IKS (Infrared
Spectrometer) che operava esclusivamente nell’infrarosso medio da 2,5 a 12 m (6).
17
La regione infrarossa più interessante si rivelò
immediatamente quella compresa tra 3,4 e 3,7 m.
Intanto, attorno a 3,6 m, apparve inconfondibile il
picco della formaldeide. Ma l’impronta veramente
peculiare era costituita da un doppio assorbimento attorno a 3,4 m, accompagnato da un altro
assorbimento allargato tra 6 m ed 8 m. Un andamento analogo è stato riscontrato nei 45 spettri IR
che la camera MICAS a bordo della sonda DS-1 ha
realizzato il 22 settembre 2001 sul nucleo della
cometa Borrelly (7).
A distanza di molti anni l’individuazione della vera
natura chimica della sostanza (o meglio, delle
sostanze) coinvolta rimane molto discussa (in
fondo qualunque sostanza organica costituita da
lunghe catene di atomi di C presenta picchi analoghi). Un indizio importante, anche se indiretto,
proviene dall’esame della porzione organica delle
condriti carboniose di tipo C1: per circa il 70% si
tratta di una complicata miscela di polimeri insolubili che, guarda caso, presenta anch’essa un
inconfutabile assorbimento a 3,4 m; viene così
spontaneo pensare che pure il materiale organico
cometario sia di natura polimerica (un singolo
polimero o, più probabilmente, una miscela di
polimeri). Ma, ancora una volta, si rimane nell’incertezza: il numero di polimeri noti, infatti è troppo grande per un’individuazione univoca (in effetti, come vedremo, un polimero ben definito è stato
davvero scoperto nella cometa di Halley, ma per
via completamente differente). Forse proprio per
questo, nei mesi successivi, questa storia si è tinta
di nuovi aspetti, alcuni di estremo interesse altri, a
dir poco, paradossali.
Ad ‘attizzare le polveri’ furono F. Hoyle e C.
Wickramasinghe che si lanciarono in un’interpretazione a dir poco sconcertante: l’impronta a 3,4
m fittava molto bene con quella prodotta da batteri disidratati a 60°C, quindi, questa era la dimostrazione che materiali organici di origine biologica esistevano nella cometa di Halley!
Inutile dire che le polemiche che ne sono derivate
sono state molto violente. La prima risposta è
venuta da W. Chyba e C. Sagan: secondo i due
studiosi della Cornell University l’assorbimento a
3,4 m si spiegava brillantemente considerando
che una miscela di ghiaccio e metano (o, meglio,
idrocarburi superiori, data la scarsità di metano
riscontrata nella cometa di Halley) irraggiata da
protoni o raggi cosmici, produceva automaticamente un evidente residuo organico polimerico; e
se negli esperimenti di laboratorio il residuo era
scarso, così non doveva essere nell’ambiente
cometario: un flusso di particelle solari che dura
da 4,5 miliardi di anni, l’energia legata al decadimento radioattivo dell’alluminio 26 per i primi 10
milioni di anni, il riscaldamento superficiale fino a
70-80°C durante i passaggi al perielio (queste
sono le temperature misurate da VEGA 1 per la
Halley e da DS-1 per la Borrelly) sono ragioni più
che valide per postulare un’efficientissima sintesi
organica.
Per tutta risposta F. Hoyle e C. Wickramasinghe
formularono una seconda ipotesi, questa volta
basata su concrete osservazioni sperimentali.
Secondo i due astrofisici (conosciuti in tutto il
mondo come i principali fautori della ‘panspermia’, ossia dell’idea che la vita sulla Terra sia piovuta dallo spazio) il materiale organico ad alto
peso molecolare responsabile dell’assorbimento a
3,4 m non è di origine cometaria ma venne prodotto fuori dalla cometa, prima che essa si agglomerasse. Ci sono infatti indizi che questo materiale si trovi disperso, in abbondanza, già negli spazi
interstellari. E la dimostrazione si basa su un’altra
osservazione clamorosa, effettuata spettroscopicamente dagli autori sulla sorgente IRS 7, in direzione del centro galattico: in questa zona, ricca di
polvere, venne infatti misurato un netto assorbimento a 3,4 m, a dimostrazione che buona parte
di quella polvere interstellare non era di natura silicatica ma organica.
Che la composizione della polvere della Halley
possedesse una consistente componente organica
(diciamo attorno al 10%) non era indicato solo
dall’assorbimento a 3,4 m ma anche dall’esame
degli spettri di massa che le sonde GIOTTO e
VEGA riuscirono ad effettuare su centinaia di singoli granuli di polvere (granuli nella maggioranza
tanto piccoli – massa media = 10-16 g – da garantirne una composizione omogenea). Fu notevole
costatare come esistessero tre categorie principali di particelle: alcuni granuli avevano una composizione da condrite carboniosa in quanto presentavano sia elementi silicatici (Na, Mg, Si, Fe) sia una
buona quantità di Carbonio; altri granuli avevano
una composizione esclusivamente silicatica; infine
un’alta percentuale di granuli era composta totalmente da C, N, H e O, quindi si trattava integralmente di materiale organico (8).
Occupiamoci allora dei cosiddetti granuli CHNO,
perché sono quelli che più ci interessano in questa
sede. Neppure questi granuli erano tutti uguali ed
omogenei. Circa il 30% conteneva effettivamente
sia C, che H, che N, che O: un esame molto sofisticato dei frammenti molecolari indicava, tra le
molecole presenti, alcuni amminoacidi o precursori di amminoacidi (e questo certo non stupisce
se si considera la reattività delle aldeidi cometarie
con una un’altra molecola cometaria tipica come
l’HCN). Un altro 30% di granuli cometari conteneva solamente C ed H: non c’è dubbio che si tratti
18
di miscele di idrocarburi insaturi ed aromatici. Un
altro 20% di granuli conteneva C, H ed N: è la classe dell’HCN (acido cianidrico) e dei suoi derivati
ma, negli spettri di massa, risulterebbe anche la
presenza di basi puriniche e pirimidiniche (!).
Infine il restante 20% di particelle conteneva C, H
ed O e il responso dei frammenti molecolari indicava chiaramente i segnali dell’acido formico, dell’acido acetico, dell’acetaldeide e della (già nota)
formaldeide. Ma, oltre a queste molecole semplici,
la vera base dei granuli CHO potrebbe essere
un’altra. La scoperta, una delle più notevoli dell’intera esplorazione cometaria, è quella della
prima sostanza polimerica sicuramente rinvenuta
fuori dalla Terra (9).
Alla base, questa volta, ci sono misure dello strumento PICCA (Positive Ions Cluster Composition
Analyzer) a bordo di Giotto. Tale strumento era in
grado di determinare masse molecolari anche
piuttosto alte dalla misura delle energie delle varie
specie ioniche presenti. In Figura 3 viene riportata
una media tra vari spettri di massa ottenuti nella
chioma interna della Halley, tra 8200 e 12600 km
dal nucleo (gli ioni pesanti sono molto meno
‘mobili’ dei leggeri e non si trovavano oltre i
15.000 km dal nucleo). Come si può notare, l’andamento dei picchi non è casuale: i vari massimi
sono infatti distanziati alternativamente ora di 16,
ora di 14 unità di massa. In più i frammenti molecolari più pesanti (a destra) sono proporzionatamente meno abbondanti dei più leggeri (a sinistra). Ebbene, queste due caratteristiche sono
esattamente quelle che ci si deve aspettare dalla
frammentazione di una molecola molto lunga, formata da tante unità uguali regolarmente ripetentesi, un polimero insomma. L’individuazione di que-
sto polimero non è poi così difficile: si tratta del
poliossimetilene, un polimero che venne prodotto
industrialmente per la prima volta negli USA nel
1942 ma che evidentemente le comete, ricche
come sono di formaldeide, impararono a sintetizzate qualche miliardo di anni prima…
Gascromatografia ‘naturale’ di materiale organico cometario
Un chimico sa benissimo che l’analisi gascromatografica è una delle tecniche più efficaci per la determinazione qualitativa e quantitativa di molecole
organiche anche molto complesse. Questa tecnica,
che comporta la preventiva vaporizzazione termica
del materiale carbonioso in esame, sembrerebbe
inapplicabile a corpi lontani e gelidi come i nuclei
cometari. Invece, nel luglio 1994, un incredibile
evento naturale ha provveduto a farci superare tutte
le difficoltà ‘tecniche’ cui abbiamo fatto cenno.
Parliamo del famoso impatto con Giove della
cometa Shoemaker-Levy 9 (SL9), un oggetto delle
dimensioni della Halley che essendo passato – l’8
luglio ’92 – a soli 40.000 km da Giove, venne inizialmente catturato in orbita gioviana, quindi
disgregato dalla gravità del grande pianeta in 21
frammenti: due anni più tardi, nella settimana tra il
16 e il 22 luglio ’94 tutti questi frammenti precipitarono contro Giove in quello che è stato, forse, l’evento più seguito di tutta la storia dell’Astronomia.
Ogni impatto ha prodotto su Giove impressionanti
cicatrici scure, grandi come la Terra intera e talmente roventi da vaporizzare completamente tutto
il materiale cometario. Su ciascuno dei questi pennacchi da impatto sono state condotte, da Terra,
accurate indagini spettroscopiche che hanno fornito inestimabili informazioni sia sulla cometa come
tale sia, più in generale, sulle proprietà dell’atmosfera di Giove (Fig. 4).
Anche una semplice sintesi dei principali risultati
raggiunti sarebbe improponibile in questa sede. Ci
sembra però molto interessante fare un cenno al
contributo che chi scrive ha personalmente offerto
alla comprensione di certi fenomeni chimici completamente nuovi ed inaspettati.
Diciamo innanzitutto che, tra le varie decine di molecole rivelate in corrispondenza dei punti d’impatto
della cometa SL-9 con Giove, molto interessante è
stata la presenza massiccia di Ossido di Carbonio,
una molecola di sicura provenienza cometaria in
quanto instabile in una atmosfera riducente come
quella di Giove. Il CO è stato rivelato sia nel radio
che in infrarosso in corrispondenza della caduta di
frammenti di grosse e di piccole dimensioni. In particolare il gruppo di E. Lellouch ha lavorato nel radio
a 230 GHz con il radiotelescopio IRAM da 30 m di
Figura 3: Lo spettro di massa che dimostra come
nelle polveri della chioma interna della cometa di
Halley sia presente del poliossimetilene. L’analisi
venne condotta il 14 marzo 1986 dallo strumento
PICCA a bordo della sonda GIOTTO.
19
Il CO è stato ricercato senza successo nel radio in
vari periodi fino a poco prima dell’impatto (12).
Nel giugno-luglio ’94 all’NTT non si è mai trovata
traccia evidente di CN (13) che pure è considerata una molecola talmente caratteristica da costituire quasi l’impronta digitale tipica dell’inizio di
qualunque attività cometaria. Soprattutto la SL-9
non ha mai mostrato traccia, prima dell’impatto,
dell’emissione più tipica di una cometa, vale a dire
quella del radicale OH dovuto alla dissociazione
dell’H20. Eppure questa ricerca è stata condotta in
maniera intensiva dallo Space Telescope nell’UV a
309 nm (14) fino a poche settimane prima degli
impatti.
Ma se la mancata rivelazione di CN ed H2O può
giustificarsi con la bassa temperatura dei frammenti dovuta all’estrema lontananza della cometa,
questa spiegazione, come si accennava poco fa,
non regge per il CO e rende poco probabile il fatto
che il CO fosse presente come tale in forma gassosa prima dell’impatto.
Una possibile spiegazione della rivelazione di CO
solo durante gli impatti si deve a questo punto rifare alla presenza, nella SL-9, di qualche specie
capace di decomporsi liberando questo gas in
conseguenza del riscaldamento per attrito durante
la penetrazione nell’atmosfera di Giove.
Una molecola che sembra ideale per produrre
questo effetto è il poliossimetilene (POM) un polimero della formaldeide che si può ritenere tipico di
ogni nucleo cometario, dopo la già ricordata scoperta nel nucleo della Halley nel 1986 (15).
Se si fa la ragionevole ipotesi che la SL-9 sia,
nonostante tutto, un oggetto di natura cometaria,
è giocoforza ammettere che anche nel suo nucleo
doveva essere presente (sul modello della Halley)
un 1-2% di POM. Ma il POM è poco stabile alla
temperatura e, sotto riscaldamento, si decompone
completamente liberando HCHO. La velocità di
decomposizione aumenta con l’aumentare della
temperatura ed è facile dimostrare sperimentalmente (Fig. 5) che al di sopra dei 500°C la decomposizione è quasi istantanea.
È ben noto che questa temperatura non solo si è
raggiunta, ma si è abbondantemente superata su
quasi tutti i punti d’impatto della SL9 (16). Questo
è stato certamente un fatto straordinario perché
mai, in precedenza, nessuna cometa aveva sperimentato questo shock termico (per esempio la
temperatura, misurata in infrarosso da VEGA 1 sul
nucleo della Halley al perielio non superava i
100°C). Tutto questo spinse chi scrive a fare nel
novembre 1993 (17) una prima previsione: quella
secondo cui gli impatti maggiori dovessero essere
accompagnati da un autentico flash di HCHO,
rivelabile spettroscopicamente anche da Terra sia
Figura 4: Le cicatrici degli impatti G ed H della
cometa SL9 contro Giove in un’immagine ottica
ripresa dall’autore al riflettore Ruth da 1,4 metri di
Merate (a sinistra) e in un’immagine infrarossa
ripresa al telescopio IRTF della NASA in cima alle
Hawaii (a destra).
Pico Velata rivelando ampie quantità di CO sugli
impatti maggiori (G ed H) e quantità minori su altri
impatti (10). Il gruppo di R. Knacke ha invece lavorato al telescopio UKIRT delle Hawaii ritrovando l’emissione a 2,34 m del CO altamente eccitato termicamente (leggi: T>10.000°C !) in corrispondenza
dell’impatto R (11).
Il CO è anche l’unica molecola che, in una cometa, può essere presente in forma gassosa anche
alle grandi distanze dal Sole tipiche della SL9 che,
trovandosi in orbita attorno a Giove, non si avvicinò mai a più di 5 U.A., dal Sole (1 U.A. =
150.000.000 di km, ossia la distanza media TerraSole). Di fatto il CO rimane gassoso fino a –190°C,
una temperatura che un nucleo cometario normale (quindi tanto scuro da mostrare un albedo prossimo a 0,04) raggiunge solo attorno alle 10 U.A.
Quando la SL-9 si è frantumata il CO era quindi
anche l’unica specie che poteva e doveva essere
rivelabile spettroscopicamente. In realtà prima che
la SL-9 cascasse su Giove nessun tipo di emissione gassosa era stata rivelata.
ALBEDO
Si tratta della capacità di un corpo di riflettere la luce
solare incidente. Più di preciso si tratta del rapporto
tra luce solare riflessa e luce solare incidente: questo
significa che quanto più un corpo è scuro, tanto più il
suo albedo è basso.
Per esempio i nuclei cometari, le condriti carboniose,
gli asteroidi di classe C sono tra gli oggetti più scuri
che si conoscono, dal momento che raramente il loro
albedo supera il 4%: a produrre questa colorazione
così scura sono proprio i materiali a base di carbonio
di cui sono ricchi.
20
Certo, non si può escludere in assoluto che il CO
possa derivare da altre fonti.
È il caso della reazione tra CH4 (di cui è ricca l’atmosfera di Giove) con H2O (tipico componente
cometario). Contro questa possibilità c’era però il
fatto che la SL9 è sempre apparsa una cometa
anormalmente ‘asciutta’: non venne infatti mai rintracciata acqua per via spettroscopica prima degli
impatti, e solo piccole quantità (1-10% della
massa totale) sono emerse su un limitato numero
di impatti (20).
Tutto quanto finora descritto è legato, come detto,
all’ipotesi che le temperature in gioco durante gli
impatti abbiano sempre superato i 1000°C.
Questo è vero in generale, ma non si possono certamente escludere situazioni termiche meno estreme: è il caso, per esempio degli impatti minori
oppure delle regioni limitrofe agli impatti maggiori. In queste regioni l’HCHO non poteva decomporsi totalmente in CO: il fatto, però che, comunque, se ne sia trovata una quantità molto scarsa ci
costringe ad ammettere che si possa essere consumata nella produzione di altre molecole organiche più complesse.
Per capire questo punto, bisogna considerare che
i frammenti della SL9 sono penetrati solo per
poche decine di km nelle nuvole di Giove, laddove
la composizione è ben nota e molto particolare. A
darcene accurate informazioni è stata, il 5 dicembre 1995 una straordinaria indagine spaziale:
quella di una piccola sonda automatica (PROBE)
lanciata nelle nuvole di Giove dalla sonda orbitale
Galileo (21). Secondo le analisi del PROBE della
Galileo, l’atmosfera più esterna di Giove (spessore di 50-100 km) è composta da tre strati ben
distinti: uno superiore di NH3, uno centrale di H2S
(o, meglio di NH4SH) ed uno molto più profondo,
di H2O. In altre parole, il guscio più esterno dell’atmosfera gioviana, quello contemporaneamente
molto ‘secco’ e ricco di NH3, deve essere stato
quello più direttamente coinvolto dal punto di vista
chimico con i frammenti della SL9.
In un ambiente così ‘secco’ è logico ammettere
che la HCHO rilasciata dalla SL9 debba aver reagito direttamente con l’NH3. Col risultato della probabile formazione di composti imminici, poi facilmente ridotti ad ammine dall’idrogeno di cui è
ricca l’atmosfera di Giove:
Figura 5: Velocità di decomposizione termica del
POM in funzione della temperatura (TGA isotermo): come si vede a T>500°C il POM si decompone
quasi istantaneamente in HCHO.
nel visibile che nel radio. In effetti, ci sono indizi
che la HCHO sia stata effettivamente rivelata sia in
infrarosso che nel radio (a Medicina si è lavorato a
4,83 GHz). Di per se stesso questo sarebbe già un
grande risultato ma rimane il fatto che la quantità
assoluta è risultata estremamente piccola, incompatibile con un flash vero e proprio. O meglio,
incompatibile con un flash di lunga durata ma non
certamente priva di spiegazioni.
Le nostre previsioni sulla durata del possibile flash
di HCHO andavano da pochi minuti a poche ore in
conseguenza delle temperature che si sarebbero
sviluppate sui punti d’impatto. Di fatto, gli spettri
infrarossi ottenuti sopra le varie cicatrici per metano, ammoniaca e vari idrocarburi hanno rivelato
per questi gas un tale stato di eccitazione da far
supporre temperature in gioco non di qualche centinaia ma di qualche migliaio di °C. Questo, unito
alla rilevazione di CO solo dopo gli impatti, ha
fatto sì che la nostra ipotesi originale subisse una
naturale e più completa revisione. Vediamola (18).
Intanto è noto (19) che la stessa HCHO si decompone velocemente, a temperatura > 1000°C in CO
e H2. È dunque sensato pensare che proprio la
HCHO, a sua volta derivante dalla decomposizione del POM, sia stata la fonte primaria del CO rivelato sui punti d’impatto:
-CH2O-CH2O-CH2O-CH2OHCHO
→
HCHO + NH3 → H-CH = NH + H2
H-CH2-NH2 -H2O
→ n HCHO
CO + H
→
T>1000°C
L’azione catalitica di certi metalli pesanti presenti
nel materiale cometario deve aver certamente
favorito questa reazione. Reazione che, in presenza di eccesso di HCHO e grazie al violento calore
In questo modo, sarebbe spiegata, contemporaneamente, anche la scarsissima quantità di HCHO
come tale.
21
che gli impatti hanno sviluppato per attrito, dovette produrre composti imminici sempre più complessi, dotati di naturale tendenza ad una veloce
polimerizzazione in materiali resinosi fortemente
colorati e dotati di alto assorbimento in ultravioletto. Questo spiega benissimo perché le cicatrici
degli impatti ci apparvero così intensamente scure
in immagini riprese il 27 luglio 1994 al riflettore
Ruth da 1,3 metri dell’Osservatorio di Merate, cui
avevamo collegato una camera CCD ed un filtro (il
Wratten 80A) trasparente solo tra 300 e 500 nm
(22). Questo spiega altresì perché le immagini più
dettagliate vennero ottenute in ultravioletto dal
Telescopio Spaziale Hubble nei giorni immediatamente seguenti.
Ma se le comete cascano su Giove possono cascare su qualunque pianeta, ivi trasportandovi il
materiale organico di cui sono ricche.
Più di 20 anni fa, nel 1980, Pollack e Yung, dall’esame della frequenza dei crateri lunari, stimarono
che sulla Terra primordiale caddero almeno 1023
grammi di materiale cometario. Se tutte le comete contengono, come la Halley, mediamente un
10% di materiale organico, ecco che le comete
avrebbero dovuto portare sulla Terra una quantità
di composti carboniosi paragonabile a quella che
si stima (23) sia sepolta nei sedimenti terrestri più
antichi (1,2 x 1022 g). In base a queste stime la
conclusione è evidente: le comete devono aver
contribuito sensibilmente ai processi di evoluzione
chimica che hanno portato alla nascita della vita
sulla Terra. Non fosse altro per questo, diventa
non solo interessante, ma addirittura indispensabile raccogliere campioni diretti di materiale cometario. Lo farà la sonda europea ROSETTA che
verrà lanciata nel Gennaio 2003 per atterrare sulla
cometa Wirtanen nel 2011: sarà per chi scrive e
per migliaia di scienziati di tutto il mondo il sogno
di una intera vita.
Bibliografia
(1)
R.E. Jonson.
1987;187:889.
Astronomy
(2)
F.
Robert,
S.
2001;115:271.
(3)
A. Levasseur,
2001;115:261.
(4)
S. Wykoff. Nature 1985;316:241.
(5)
C. Cosmovici, S. Ortolani. Nature 1984;310:122.
D.
&
Derenne.
Despois.
astrophysics
L’astronomie
L’astronomie
(6)
V. Krasnopolsky, et al. Nature 1986;321:269.
(7)
L. Soderblom, et al. DPS33 Proceedings (MICAS
Observations of 19P/Borrelly), New Orleans Nov.
2001.
(8)
J. Kissel, et al. Nature 1986;321:336.
(9)
F. Huebner. Science 1987;237:628.
(10)
E. Lellouch, et al. Nature 1995;373:592.
(11)
Circolari I.A.U. n. 6028 e 6030.
(12)
J. Crovisier. Eureopean
Garching, marzo 1995:42.
(13)
J.A. Siuwe, et al. Eureopean SL9\J Workshop,
Garching, marzo 1995:17.
(14)
A. Weaver. Science 1994;263:787.
(15)
C. Guaita, et al. Giornale di Astronomia
1995;22:65.
SL9\J
Workshop,
(16)
P. Weissman. Nature 1994;372:407.
(17)
C. Guaita, et al. HST Comet Impact Campaign
Proposals, Nov. 1993.
(18)
C. Guaita, et al. Bioastronomy 96 Proceedings,
Capri, luglio 1996:189-95.
(19)
R. Fusco. Chimica oganica industriale,
1970;3:325 (Aldeidi) (Università di Milano).
(20)
C. Cosmovici,
1996;44:735.
(21)
H. Niemann. Science 1996;272:846.
(22)
C. Guaita, et al. Giornale di Astronomia
1996;22:44.
(23)
J. Hunt. Am. Assoc. Pet. Geol. Bull. 1977;61:
100.
at
al.
Planet
Space
Sci.
Cesare Guaita si è laureato in Chimica Industriale nel 1973 conservando inalterata una grande passione per
l’Astronomia coltivata fin dalla prima infanzia. Raro esempio di fedeltà aziendale, lavora da ben 29 anni come ricercatore presso i laboratori della Rhodia Engineering Plastics di Ceriano Laghetto (ex Gruppo SNIA) dove si è sempre occupato di poliammidi. Dopo una lunga esperienza in campo analitico, durante gli anni 90 ha iniziato ad occuparsi anche della sintesi e della caratterizzazione di alcuni nuovi tipi di Nylon a struttura non lineare. In questo
ambito la grande affezione e dedizione alle cosiddette poliammidi “a stella”, recentemente immesse da Rhodia sul
mercato, sembrano un po’ il segno del destino…
L’innata passione per le stelle VERE non è comunque mai venuta meno: non a caso Guaita è socio di molte Società
Astronomiche italiane e straniere, è autore di centinaia di pubblicazioni astronomiche, ha fondato a Tradate una
delle più importanti associazioni di astrofili in Italia, è un attivissimo conferenziere del Planetario di Milano e dovunque altrove (oltre 1000 conferenze pubbliche in 25 anni). Sarà astronomo a tempo pieno tra qualche anno, quando sarà costretto a lasciare le stelle polimeriche…
22
LE
PRESTAZIONI DEI POLIMERI
CONDUTTORI NEL SETTORE DEI
“NASI ELETTRONICI”
di Michele Suman*
La conducibilità elettrica nei materiali solidi
e proprietà elettriche dei materiali solidi
dipendono dal numero di elettroni che
occupano livelli energetici cosiddetti di
conducibilità, cioè condizioni energetiche nelle
quali gli elettroni sono in grado di abbandonare
l’atomo o la molecola di cui fanno parte per muoversi sotto l’applicazione di una differenza di
potenziale opportuna.
Il parametro fisico che fornisce un’indicazione sulle
proprietà dei materiali di condurre corrente elettrica
prende il nome conducibilità ed è indicato con la lettera χ: nell’ambito dei materiali solidi essa varia di
molti ordini di grandezza (Fig. 1) e consente una
generale suddivisione in quattro categorie:
1) Superconduttori ( praticamente infinita (a temperature inferiori ad un particolare valore caratteristico per ciascun materiale)
2) Metalli
χ~106-104 (Ω.cm)-1
(T ambiente)
3) Semiconduttori
χ~103-10-6 (Ω.cm)-1
(T ambiente)
4) Isolanti
χ~10-10-10-20 (Ω.cm)-1
(T ambiente)
L
Nel caso dei semiconduttori, a differenza di
quanto accade nei metalli, la conducibilità
decresce rapidamente al diminuire della temperatura. Infatti, osservando il limitato salto energetico necessario (Fig. 2) a portare almeno una
frazione dei loro elettroni dalla banda di valenza
ai primi livelli energetici vuoti, rispetto ai quali
l’azione di un campo elettrico esterno possa
generare poi un flusso ordinato di cariche, si
comprende come sia vincolante il ruolo giocato
dai moti termici.
Figura 1: Classificazione del comportamento elettrico dei principali materiali solidi
Figura 2: Struttura a bande energetiche di un
materiale semiconduttore.
*
Dipartimento di Chimica Organica ed Industriale, Università di Parma, Parco area delle Scienze 17/a. 43100 Parma. E-mail:
[email protected]
23
Il principio di funzionamento dei polimeri conduttori
Le classi di polimeri maggiormente utilizzate per
l’applicazione nei sensori CP sono: politiofeni,
polipirroli e polianiline (2) - Figura 4.
La struttura chimica comune a tutti i principali
polimeri conduttori è costituita da una catena
lineare in cui vi sia l’alternanza di doppi o tripli
legami coniugati tra le unità di carbonio (l’esempio tipico è quello del poliacetilene - Fig. 3). In
condizioni normali tali polimeri si comportano
come isolanti, ma possono viceversa raggiungere
livelli di conducibilità paragonabili a quelli dei
metalli qualora siano opportunamente drogati con
molecole organiche o inorganiche.
In contrasto con quanto accade nei semiconduttori, gli agenti droganti non occupano il posto di altri
atomi nella struttura cristallina, ma semplicemente “pompano o sottraggono” elettroni al sistema,
che è capace di farli fluire proprio attraverso la sua
struttura a legami coniugati (1).
Un tipico processo di drogaggio è quello con sali
inorganici (ad esempio perclorato rameico, cloruro rameico, perclorato ferrico, cloruro ferrico,
iodio e oro cloruro idrato) che fungono anche da
catalizzatori nella fase stessa di polimerizzazione.
Figura 4: Strutture dei polimeri più utilizzati per l’applicazione nei sensori.
I “nasi elettronici” o SOA
Un termine tecnico più corretto per definirli sarebbe quello di Sistemi Olfattivi Artificiali - SOA (3).
I SOA si propongono di riprodurre artificialmente
lo stesso processo di classificazione di odori che si
verifica all’interno di un organismo vivente, pur
basandosi su di un meccanismo di riconoscimento molecolare sostanzialmente diverso. In particolare la cavità nasale umana contiene oltre un
milione di recettori biologici (che vengono continuamente rigenerati), suddivisi in circa 1000 tipologie di cellule nervose capaci di generare un
segnale elettrico a seguito dell’interazione dei loro
siti proteici specifici con le molecole volatili contenute nell’aria respirata.
I segnali elettrici di questi recettori vengono convogliati al cervello, il quale esegue un confronto
con combinazioni di segnali già precedentemente
ricevuti ed emette il responso.
Parallelamente, la cavità nasale viene riprodotta nei
SOA mediante una camera a tenuta termostatata,
contenente un insieme di sensori chimici che, lambiti da un flusso laminare di una miscela aeriforme,
interagiscono con essa, generando un segnale (ad
esempio proprio una variazione di conducibilità
elettrica) a causa della temporanea presenza delle
molecole volatili sulla loro superficie.
Il naso elettronico necessita di una prima fase di
apprendimento in cui associa i risultati ottenuti
Figura 3: Catena elettroconduttrice del poliacetilene.
Lo sviluppo industriale dei polimeri conduttori
Il maggiore ostacolo allo sviluppo industriale dei
polimeri conduttori è finora rappresentato dalla
loro scarsa stabilità chimica (dovuta ai legami
multipli, molto reattivi), tuttavia stanno emergendo molte interessanti applicazioni tra le quali
spicca proprio l’impiego come sensori chimici
vista la dimostrata proprietà di assorbire o
desorbire specie chimiche differenti a seconda
del potenziale applicato. Le prestazioni dei polimeri conduttori sono oggi di importanza fondamentale in tutto il settore delle nanotecnologie e
della microelettronica; un esempio concreto in
tal senso è rappresentato dallo sviluppo di sempre più sofisticati e miniaturizzati “nasi elettronici”.
Infatti, tra i sensori maggiormente impiegati nei
“nasi elettronici” quelli a polimeri conduttori, i
cosiddetti sensori CP, rivestono un ruolo di primario ordine.
24
alle categorie di riferimento, proprio come avviene
per l’uomo nell’infanzia (Fig. 5). Un computer,
dotato di un opportuno software di elaborazione
dati, svolgerà poi la funzione (analoga a quella
cerebrale) di riconoscimento e classificazione
ti, fornisce una valutazione complessiva dell’intera
frazione volatile e ciò si configura come un enorme
vantaggio, soprattutto nell’analisi di odori complessi spesso costituiti da una molteplicità di molecole
interagenti in modo sinergico tra loro.
Vantaggi e svantaggi dei sensori CP impiegati
nei “nasi elettronici”
I sensori CP si ottengono generalmente per elettropolimerizazione o deposizione spray di un sottile strato di polimero su un substrato ceramico o di
silicio posto tra due elettrodi rivestiti in oro. Il principio di funzionamento dei sensori CP si basa sulla
variazione della loro conducibilità elettrica dovuta
sia all’adsorbimento delle sostanze volatili negli
spazi interstiziali del film (fenomeno di swelling),
sia all’interazione delle stesse con le cariche presenti sul polimero (radicali, radical-cationi, radical-anioni) (6).
Il fenomeno di swelling determina distorsioni locali sulla catena conduttrice; la conducibilità del polimero va perciò aumentando o diminuendo in funzione della polarità dei gruppi funzionali delle
sostanze adsorbite. Il carattere elettron-donatore o
elettron-accettore degli agenti droganti impiegati,
la presenza di sostituenti e le caratteristiche
morfologiche del polimero possono poi determinare una differente risposta del sensore a contatto
con le sostanze analizzate, aumentandone notevolmente le caratteristiche di selettività (7).
Un lato negativo di questi sensori è la durata che
di solito non supera i 6-8 mesi, dato che si ha una
progressiva riduzione nel tempo delle cariche libere sul polimero dovuta sia a piccole molecole
polari (principalmente acqua connessa all’umidità
ambientale) che si associano ai siti cationici, sia
ad eventuali fenomeni ossidativi o di interazione
irreversibile tra il polimero e le molecole oggetto di
analisi.
D’altronde sono numerosi anche i vantaggi caratteristici che possiamo citare:
• una sensibilità differenziata che permette di riconoscere molecole polari volatili di interesse
(alcoli, aldeidi …) senza subire interferenza dalla
contemporanea presenza di molecole apolari
(quali idrocarburi ad esempio);
• una sensibilità discreta (nell’ordine degli 0,1-10
ppm);
• la resistenza all’avvelenamento da parte di sostanze come composti solforati o acidi deboli volatili
che invece bloccano altre categorie di sensori (ad
esempio quelli ad ossidi semiconduttori);
• cinetiche molto veloci di adsorbimento e desorbimento che consentono una rapida esecuzione
di analisi.
Figura 5: Confronto fra lo schema di funzionamento del sistema olfattivo umano e quello di un naso
elettronico.
degli odori.
I segnali emessi dai sensori vengono memorizzati
e sottoposti ad un’elaborazione statistica che in
genere consiste in un’analisi delle componenti
principali (PCA) oppure nell’analisi della funzione
discriminante (DFA) [4); queste procedure permettono anche un’efficace ed immediata rappresentazione grafica a 2 o 3 dimensioni delle zone
relative alle diverse categorie (ad esempio nella
Figura 6 è riportato il caso di una classificazione di
oli (5) provenienti da differenti regioni).
Il naso elettronico si differenzia profondamente dalle
strumentazioni analitiche convenzionali impiegate
nell’analisi ed identificazione di singoli composti
volatili (ad esempio GC, GC-MS, ecc.); esso, infat-
Figura 6: Elaborazione DFA di dati relativi all’analisi di oli d’oliva mediante un naso elettronico che li
ha posizionati in 3 diverse categorie di riferimento.
25
Queste prestazioni consentiranno così, in un futuro
molto vicino, ai nasi elettronici basati su sensori CP
di affiancare in modo vincente ad esempio le metodiche di analisi sensoriale del controllo qualità di
svariati prodotti alimentari oppure le tecniche analitiche di monitoraggio ambientale.
Infatti, la possibilità di operare a temperature vicine
a quella ambiente e il basso consumo energetico
consentiranno anche di rendere questi dispositivi
sempre più miniaturizzati e portatili, per renderli
operativi nel controllo dei materiali in un magazzino
o dell’aria che respiriamo lungo un’autostrada.
(2)
J. Janata. Principles of Chemical Sensors. New
York: Plenum Press 1989.
(3)
M. Suman, C. Ricci, E. Dalcanale, U. Bersellini.
Applicazione dei sistemi olfattivi artificiali a
base di polimeri compositi nel controllo qualità
Imballaggio
di
imballaggi
stampati.
2001;540:70-6.
(4)
Analitica de Mori, Analizzatori Sensoriali. In:
Atti Convegno LabFood, Cernobbio (CO) 2000.
(5)
C. Ricci, M. Allai, L. Ribechini, E. Dalcanale.
Rivista Italiana Sostanze Grasse 2001;78:85.
(6)
E. Schaller, J.O. Bosset, F. Escher. Food
Science and Technology 1988;31:305-16.
(7)
N. Bouzouane. Riconoscimento selettivo di acetati mediante sensori di massa a base di cavitandi. Tesi di laurea in Chimica, A.A. 19992000, Università di Parma.
Bibliografia
(1)
EDUMAT - from stone to microchip. Multimedia
Course. INFM, Physics Department of the
University of Parma 1997.
26
L’Attualità
Attualmente i materiali nanostrutturati sono al centro dell’attenzione della comunità scientifica in quanto le proprietà specifiche che sono in grado di offrire risultano praticamente irraggiungibili sia con i tradizionali materiali
sintetici che con la tecnologia dei compositi. I polimeri hanno un ruolo fondamentale nello sviluppo di questa
nuova classe di materiali, non soltanto per la possibilità di utilizzarli come supporti in microlitografia o per inglobare cluster metallici prevenendone l ossidazione e la sinterizzazione (nanocompositi), ma anche per la possibilità di sfruttarne la caratteristica che quando sottoposti ad opportune condizioni sperimentali possono dare luogo
a fenomeni di riorganizzazione molecolare. In particolare, questo approccio e basato sull’utilizzo di una matrice
costituita da un copolimero a blocchi che può essere trasformata in una maschera (template), all interno del quale
effettuare ulteriori reazioni chimiche per la sintesi di nanostrutture. Come ben evidenziato nell’articolo che segue
le potenzialità offerte dai polimeri sono tali da renderli praticamente insostituibili per lo sviluppo di questa nuova
classe di materiali sintetici.
Gianfranco Carotenuto
TEMPLATE
POLIMERICI
PER LO SVILUPPO DI MATERIALI
NANOSTRUTTURATI
di Massimo Lazzari
I polimeri possono essere utilizzati nella preparazione di nanostrutture (per una loro esauriente
introduzione vedi (1)) non solo attraverso l’utilizzo
di metodi microlitografici su film polimerici oppure nella sintesi di nanocompositi polimerici, ma
anche mediante lo sfruttamento delle loro caratteristiche di materiali che sottoposti ad opportune
condizioni possono dare luogo ad una riorganizzazione a livello molecolare (3). Secondo quest’ultimo approccio, il metodo più semplice ed intuitivo
consiste nell’uso di una matrice costituita da un
copolimero a blocchi che possa essere trasformata in una maschera (template), all’interno del
quale effettuare ulteriori reazioni chimiche.
Il procedimento generale può essere ridotto ad una
serie di fasi successive, schematizzabili come
segue:
i. sintesi del copolimero a blocchi di opportuna
composizione;
ii. ottenimento del film polimerico a morfologia
adeguata;
iii. rimozione selettiva di uno dei blocchi, con
creazione del template;
D
opo la presentazione di un nuovo approccio sintetico per la preparazione di nanocompositi polimerici (1), viene qui esemplificata una diversa metodologia, nelle sue linee
principali di ampia applicabilità, per l’utilizzo di
strutture polimeriche nella realizzazione di materiali nanostrutturati di vario tipo. Un tema “per così
dire” alla moda che apre però orizzonti inimmaginabili sino a pochi anni fa.
Pensare di poter immagazzinare decine di film in
formato DVD su di un supporto delle dimensioni di
un normale floppy vorrebbe dire essere in grado di
raggiungere densità di alcuni terabit per centimetro quadrato, ossia almeno 2 ordini di grandezza
superiori rispetto a quanto oggi commercialmente
disponibile. Fra le diverse vie possibili per il conseguimento di un avanzamento tecnologico di tale
portata, una delle più praticabili è collegata alla
possibilità di produrre elementi ordinati facilmente
magnetizzabili ad altissima densità, con dimensioni che si situano a livello nanometrico ... ed è proprio qui che i polimeri vengono in aiuto (2).
Dipartimento di Chimica IFM, Università di Torino, Via Giuria 7, 10125 Torino - [email protected]
27
Figura 1: Schema semplificato della morfologia dei copolimeri a blocchi.
materiale conduttore, in modo tale da poter sfruttare le due superfici come elettrodi per l’applicazione di un campo elettrico (con la precauzione di
lavorare a temperature superiori a quelle di transizione vetrosa dei componenti polimerici).
(iii) La successiva fase della rimozione selettiva di
uno dei blocchi è una conseguenza diretta della
scelta stessa del copolimero, che a sua volta
dipende dalla possibilità di poter allontanare uno
dei componenti senza modificare la morfologia
complessiva. Fra i diversi metodi sperimentati per
l’ottenimento di film nanoporosi si possono citare:
la fotodegradazione di PMMA in un copolimero
con PS (Fig. 2) (6), la ozonolisi di poliisoprene in
un copolimero sempre con PS (7), oppure la idrolisi di poliacrilati (8).
(iv) Come ultima fase, nel caso si vogliano produrre elementi magnetizzabili ad altissima densità
è sufficiente effettuare l’elettrodeposizione control-
iv. sintesi di nuovi materiali all’interno della matrice.
(i) Come ben noto, i copolimeri a blocchi possono
dare luogo a fenomeni di segregazione molecolare
che portano all’ottenimento di un sistema a due
fasi; in prima approssimazione, nel caso più semplice di un copolimero a due soli blocchi si possono ottenere i seguenti tipi di domini (a partire da
un copolimero A-b-B ad elevato contenuto in B,
fino ad arrivare ad un copolimero di composizione
50/50), visibili in figura 1 (4): sfere del componente A nella matrice B, cilindri, tipo giroide
(bicontinua, con simmetria Ia3d), a strati perforati e a lamelle.
Nel caso specifico citato come introduzione, per la
sintesi di un supporto di memoria ad elementi
ordinati è necessaria la creazione di un template
nanoporoso, per il quale non si può che passare
attraverso l’utilizzo di copolimeri passibili di una
segregazione a cilindri ordinati. Più in generale, la
composizione del polimero è un fattore fondamentale, da cui dipende il tipo di template ottenibile, e
proprio per questo va accuratamente modulata
attraverso opportune tecniche di sintesi; in particolare, un preciso controllo sia in termini strutturali che molecolari è possibile via polimerizzazione
anionica vivente.
(ii) Il conseguimento della segregazione molecolare del film copolimerico (ottenibile per spin-coating oppure per evaporazione controllata da soluzione diluita) può avvenire mediante semplici trattamenti termici o meccanici, mentre per quanto
riguarda l’orientamento dei domini è necessario
l’utilizzo di tecniche più complesse.
Ad esempio, il passaggio da una segregazione anisotropa ad una struttura in cui i cilindri siano
orientati perpendicolarmente alla superficie del
film può essere ottenuta sfruttando interazioni
interfacciali indotte con il supporto (nel caso di
film estremamente sottili) (5), oppure attraverso
l’applicazione di un campo elettrico esterno (6).
Nel secondo caso, il film già supportato su di un
substrato conduttore deve essere rivestito, eventualmente mediante evaporazione, di un secondo
Figura 2: Micrografia TEM di un film nanoporoso
ottenuto da un copolimero a blocchi PS/PMMA per
degradazione selettiva del PMMA (diametro dei
pori 14 nm).
28
lata dell’opportuno elemento (ad esempio cobalto
o rame, Fig. 3) all’interno della struttura nanoporosa ad elevato ordine; mentre più in generale il
template polimerico può essere usato per la produzione di nanostrutture passibili di applicazioni
tecnologiche di vario genere, quali ad esempio l’utilizzo dei nanopori come reattori.
È inoltre importante sottolineare la possibilità di
ottenere template di diverso tipo, sempre per
rimozione selettiva di uno dei componenti a partire da una qualsiasi delle segregazioni molecolari
riportate in Figura 1 per i copolimeri a due blocchi
(vedi ad esempio il riferimento (9) per l’otteni-
mento di una struttura tipo giroide, visibile in
Figura 4). Per dare una ulteriore possibilità di
“sfogo” alla fantasia, si ricorda anche come nel
caso di copolimeri a tre blocchi la separazione
delle fasi dia luogo a domini a maggiore complessità, aprendo quindi orizzonti ancora più ampi per
la preparazione di nanostrutture.
In conclusione, nonostante non siano ancora state
citate le tecniche di monitoraggio delle singoli fasi
di questo particolare processing, è intuitivo rendersi conto di come l’applicabilità di una procedura concettualmente così semplice non possa prescindere dalla disponibilità di metodi di analisi
appropriati che indaghino la struttura della materia a livello nanoscopico, quali le microscopie elettroniche a scansione e a trasmissione, e la microscopia di forza atomica.
Bibliografia
Figura 3: Micrografia SEM di elementi magnetizzabili di cobalto (diametro 14 nm, lunghezza 500 nm,
periodo 24 nm), ottenuti per elettrodeposizione nel
template poroso di Figura 2.
Figura 4: Micrografia SEM di una struttura tipo
giroide ottenuta da un copolimero a blocchi PS/PI
per ozonolisi della parte poliisoprenica.
29
(1)
G. Carotenuto. Nanocompositi polimerici: un
nuovo approccio sintetico basato sull’utilizzo di
macromolecole funzionalizzate. AIM Magazine
2000;3:26.
(2)
M.T. Tuominen, T.P. Russel, T. Thurn-Albrecht, J.
Schotter. Ultra-high density magnetic arrays:
fabrication by electrochemical deposition in a
nanoporous diblock-copolymer template. US
Patent (pending).
(3)
M. Muthukumar, C.K. Ober, E.L. Thomas.
Science 1997;277:1225.
(4)
A.K. Khandpur,
1995;28:8796.
(5)
P. Mansky, et al. Science 1997;275:1458.
(6)
Thurn-Albrecht, et al. Science 2000;290:2126.
(7)
M. Lazzari. Self-assembled polystyrene-polyisoprene copolymer template for nanowire fabrication. Final report: Xunta de Galicia (Spain) PGIDT 2001 visiting researcher fellowship.
(8)
G. Liu, et al. Chem. Mater. 1999;11:2233.
(9)
T. Hashimoto, K. Tsutsumi, Y. Funaki. Langmuir
1997;13;6869.
et
al.
Macromolecules
L’Ambiente
LA
VALUTAZIONE DEL CICLO DI VITA
DEL PNEUMATICO
di Claudia Regazzoni*
tomba.
Si articola essenzialmente in quattro fasi principali:
• la definizione dell’obiettivo e del campo di applicazione, ovvero del sistema in studio;
• la compilazione di un inventario di flussi in entrata (consumi di energia, materie prime, risorse
naturali) e in uscita (emissioni, rifiuti ecc.)
rispetto al sistema;
• la valutazione dei potenziali impatti ambientali
associati agli elementi di input ed output dell’inventario;
• infine l’analisi e l’interpretazione dei risultati.
Per poter realizzare un inventario, che è l’elemento chiave di un LCA occorre avere una “misura di
riferimento” cui riferire i flussi in ingresso e in uscita. Questo riferimento si chiama Unità funzionale e
normalmente è l’unita di prodotto o una quantità
in peso o in lunghezza o temporale di prodotto. Ad
esempio per il case study proposto, l’unità funzionale è un pneumatico, con una durata di 40.000
km di percorrenza.
Il passaggio dall’inventario alla valutazione degli
impatti sull’ambiente avviene utilizzando specifici
indicatori; ne esistono diversi, ma in linea di principio associano a ciascun elemento di input e di
output un valore numerico di effetto sull’ambiente.
Questa associazione avviene in tre passaggi consecutivi:
1. la classificazione e la caratterizzazione dell’inventario in categorie di impatto. In questa fase
viene associato ad ogni consumo o emissione
dell’inventario un effetto sull’ambiente ed un
peso all’interno della categoria di impatto: ad
esempio si associa l’emissione di metano e di
anidride carbonica all’effetto serra e poiché il
Introduzione
A
ncora una volta ad AIM Magazine si parla
di Life Cycle Assessment (LCA), ovvero di
valutazione di ciclo di vita. Ma questa
volta il campo d’applicazione non è propriamente
il mondo dei polimeri o delle macromolecole: il
case study in questione è infatti un prodotto finito
composto prevalentemente di polimeri, uniti a
cariche rinforzanti, oli plastificanti, elementi di
rinforzo metallici e tessili e una svariata quantità di
chemicals.
Il tutto opportunamente dosato, mescolato, confezionato ed infine “cotto” (o più propriamente vulcanizzato) sino a dare un pneumatico, che vogliamo considerare in termini d’impatto ambientale
durante ogni fase del suo ciclo di vita, nell’ottica di
un LCA completo dalla culla alla tomba.
Cos’è il LCA?
L’argomento è stato già trattato in precedenza nell’articolo di AIM Magazine “L’analisi del ciclo di
vita come metodologia d’analisi ambientale: il
caso del PET” del Dott. M. Marino e Dott. D.
Vassallo, ma ricordiamo brevemente che cosa
s’intenda per LCA (repetita iuvant!). Per valutare
l’impatto ambientale di un prodotto esiste un’apposita metodologia denominata appunto LCA, che
permette di valutare tutto il ciclo di vita del sistema in studio, comprendendo l’estrazione e la lavorazione delle materie prime, la fabbricazione, il trasporto, la distribuzione e l’utilizzo del prodotto, la
raccolta dell’usato e lo smaltimento finale. In questo caso si parla di LCA completo, dalla culla alla
*
Ecologia & Salute, Pirelli Pneumatici Spa; E-mail: [email protected]
30
metano è considerato 20 più impattante della
CO2 come effetto serra a parità di volume, i
metri cubi di CH4 sono moltiplicati per 20
(ovvero un mc di metano è pari a 20 mc di CO2
equivalenti);
2. la normalizzazione degli effetti rispetto all’inquinamento esistente. Questo passaggio ha lo
scopo di dare un’importanza relativa ad un
effetto in funzione dell’inquinamento esistente.
Tornando all’esempio dell’effetto serra, la
quantità’ di CO2 equivalente che è stata calcolata che “gravità” ha? Occorre normalizzare
rispetto ad un riferimento; ad esempio utilizzando l’inquinamento di CO2 equivalente dell’abitante medio europeo;
3. La valutazione relativa dei diversi effetti sull’ambiente. Questa fase ha l’obiettivo di permettere di comparare i diversi effetti sull’ambiente tra loro e poter dare allo stesso tempo un
unico riassuntivo indicatore, un unico valore
numerico, ma anche mettere in evidenza le
priorità tra gli effetti sull’ambiente. Un criterio
fra i più usati è il “distance to target” ovvero si
considerano i target prefissati a livello politico
(a scala nazionale, continentali o mondiale) e si
associa un’importanza maggiore, ossia coefficienti moltiplicativi più alti, ad effetti il cui target è più distante dal raggiungimento. Ad
esempio se l’obiettivo di ozone depletion è più
lontano di quello per l’acidificazione dell’atmosfera, al primo sarà associato un peso maggiore. Il metodo qui esemplificato è quello utilizzato nel case study del pneumatico ed è denominato Ecoindicator (v. Box).
Perché occuparsi di pneumatici?
Perché sono un prodotto di larghissimo consumo!
Solo in Italia ogni anno si smaltiscono circa 400
mila tonnellate di pneumatici a fine vita e in
Europa la cifra sale a due milioni e mezzo di tonnellate l’anno. Ma qual è l’impatto sull’ambiente di
queste tonnellate di pneumatici che trafficano per
le nostre strade ed autostrade?
Il ciclo di vita del pneumatico
Consideriamo un pneumatico per vettura rappresentativo per il mercato europeo, in tutte le fasi del
suo ciclo di vita:
• produzione delle materie prime;
• produzione del pneumatico;
• distribuzione del prodotto finito;
• uso su strada (40.000 km di percorrenza);
• raccolta del pneumatico a fine vita;
• smaltimento finale.
Diversi studi di LCA presenti in letteratura mostrano che la fase di maggiore impatto ambientale è
quella di uso, dove il contributo più consistente
proviene dal consumo di carburante necessario
per mantenere in rotazione il pneumatico, ovvero
per vincere la cosiddetta resistenza al rotolamento. Nel grafico portato ad esempio, quest’impatto
è rappresentato principalmente dalla categoria per
il consumo delle risorse fossili (R Fossil) e da quella per l’impatto a livello respiratorio, dovuto alla
combustione (HH Resp). Un ulteriore anche se
marginale contributo all’impatto della fase di uso è
causato dal rilascio di particelle di battistrada (tyre
debris), dovuto all’attrito nell’area di impronta. In
questo caso le categorie di effetto negativo sull’ambiente sono quelle legate all’impatto del particolato sospeso (che incide su HH Resp) e del particolato al suolo (il cui effetto è rappresentato dalla
categoria EQ Ecotox).
Queste valutazioni hanno spinto i produttori di
pneumatici ad orientarsi da tempo verso una
gamma di prodotti a bassa resistenza al rotolamento, che consumano quindi meno carburante
durante l’utilizzo su strada, noti come pneumatici
“verdi”. Il minor consumo è ottenuto grazie all’uso
Il LCA come strumento adeguato allo scopo
Ormai da diversi anni il LCA si è affermato come
metodologia principe nella valutazione dell’ecocompatibilità dei prodotti e processi. Fanno riferimento alla valutazione del ciclo di vita tutti i principali strumenti di certificazione ambientale di
prodotto ed è riconosciuto a livello europeo come
fondamento del Regolamento Ecolabel per l’etichettatura dei prodotti e più in generale del Libro
Verde sulle politiche integrate di prodotto (IPPIntegrated Product Policy).
Il LCA è uno strumento versatile: può essere
utile per identificare le opportunità di miglioramento dell’impatto ambientale di un prodotto,
evidenziando gli elementi di maggiore influenza
sull’ambiente; può essere un supporto alle decisioni di design, progettazione e pianificazione o
ancora essere utilizzato dal marketing per
dichiarazioni ambientali di prodotto od etichettature.
31
nel battistrada della silice al posto del carbon
black come carica rinforzante.
Un’altra fase ad impatto significativo è quella relativa alla produzione del pneumatico, dovuta però
essenzialmente ai consumi energetici per la produzione delle materie prime necessarie (categoria
R Fossil del grafico) più che alla produzione del
pneumatico in sé.
Di particolare interesse è la fase di fine vita. Lo
scenario di smaltimento attuale del pneumatico in
Europa presenta la seguente ripartizione tra i possibili destini finali:
• 27% in discarica;
• 25% come combustibile alternativo nei cementifici;
• 20% come materiale di riciclo;
• 20% riuso dei pneumatici usurati (di seconda
mano);
• 5% ricostruito (alle carcasse ancora integre,
viene riapplicato il battistrada);
• 3% come combustibile alternativo nelle centrali
di energia.
giore inquinamento ambientale) è compensato dal
mancato impatto dovuto al recupero di energia e
di materia che permette di risparmiare il consumo
di risorse non rinnovabili. Il risultato globale è un
effetto praticamente neutro sull’ambiente.
Nota di commento sul fine vita
La conclusione del bilancio sul fine vita ha implicazioni interessanti.
Infatti se con lo scenario di smaltimento del pneumatico attuale si ottiene un effetto a impatto circa
zero sull’ambiente, questo significa che implementando i destini di recupero sia energetico che
di materiale (includendo tutte le forme di energy
recovery e material recycling) a discapito della
discarica, si avrebbe un beneficio ambientale in
termini di mancato impatto, associato alla produzione dell’equivalente energia e materiale recuperato. Allargando il discorso al mondo dei rifiuti, un
recente studio realizzato dall’Istituto Per
l’Ambiente (IPA), e da Corepla, Consorzio per gli
imballaggi in plastica, ha mostrato che massimizzando l’incenerimento con recupero energetico dei
rifiuti domestici si riuscirebbe potenzialmente a
soddisfare il 5% del fabbisogno energetico nazionale! (Fonte: Environment Daily del 28/2/2002).
Il LCA mostra che il bilancio cumulativo della fase
di fine vita è praticamente nullo. Questo significa
che l’impatto derivante dai pneumatici smaltiti in
discarica (lo smaltimento che comporta il mag-
L’indicatore utilizzato per il LCA del pneumatico
Fermo restando che le conclusioni espresse per il LCA del Pneumatico rimangono valide a prescindere dall’indicatore selezionato per valutarne gli impatti, l’indicatore utilizzato nel grafico riportato è l’Ecoindicator 99, un metodo di valutazione damage oriented.
Sostanzialmente le differenti categorie di impatto ambientale sono raggruppate in tre macro-categorie di danno:
• Human Health (HH)
• Ecosystem Quality (EQ)
• Resources (R)
I danni sulla salute umana, Human Health (HH) sono espressi in DALY (Disability Adjusted Life Years). Il modello è stato sviluppato per modellare tutte le sostanze che abbiano un impatto sulla respirazione (composti organici ed inorganici), sulla carcinogenesi, sui cambiamenti climatici e sullo strato di ozono; sono comprese in questa
categoria anche le radiazioni ionizzanti.
I danni alla qualità degli ecosistemi, Ecosystem Quality (EQ) sono espressi come la percentuale di specie che si
stima siano scomparse da una certa area a causa delle mutate condizioni ambientali. L’ecotossicità è espressa
come la percentuale di specie che vivono in una certa area in condizioni di stress (PAF). L’acidificazione e l’eutrofizzazione sono trattate come singole categorie di impatto e vengono modellate utilizzando delle specie target
(piante vascolari). Infine si tiene conto anche dell’utilizzo del suolo e delle sue trasformazioni.
I danni sulle Risorse, Resources (R) comprendono l’estrazione e l’utilizzo di risorse primarie e di combustibili.
L’impatto su questa categoria viene quantificato come maggior costo energetico delle estrazioni future.
Sono possibili diversi modelli d’attribuzione di peso delle categorie di danno, secondo l’importanza attribuita al
danno sull’uomo, sull’ecosistema e sulle risorse. In particolare nello studio riportato si è applicato un modello
cosiddetto “gerarchico”, che assegna un peso paritario alle categorie di danno che valutano gli impatti sull’uomo
e sull’ecosistema, corrispondente al 40%, mentre il danno sulle risorse ha un peso inferiore, del 20%.
32
Figura 2: Life Cycle Assessment di un pneumatico per vettura.
Fonte: “LCA of an average European car tyre”, commissionato a Prè Consultants B.V. dai produttori europei di pneumatici per vettura - Maggio 2001.
Il grafico rappresenta l’impatto ambientale di un pneumatico per vettura con un battistrada rinforzato con
carbonblack. L’indicatore d’impatto usato è l’Ecoindicator 99. Di seguito sono spiegate le categorie d’impatto che comprende.
HUMAN HEALTH (HH) = Salute umana, suddivisa nelle seguenti categorie:
HH Carcinogenesis: danno causato da sostanze cancerogene
HH Respiratory effects (org): danno dovuto ad emissioni di sostanze organiche
HH Respiratory effects (inorg): danno associato a polvere, e ossidi di zolfo e azoto
HH Climate change: danno legato all’aumento di morti e malattie per le variazioni climatiche
HH Ozone layer: danno provocato dall’aumento di radiazioni UV, legato alla diminuzione dello strato di
ozono
HH Ionising radiation: danno causato da radiazioni radioattive
ECOSYSTEM QUALITY (EQ) = Qualità degli ecosistemi, le cui categorie di impatto sono:
EQ Ecotoxicity: danno causato da sostanze ecotossiche
EQ Acidification/Eutrophisation: acidificazione ed eutrofizzazione
EQ Land-use: danno provocato dall’uso del suolo come impatto sulla biodiversità
RESOURCES (R): Uso delle risorse naturali, di cui fanno parte le categorie:
R Minerals: uso dei minerali
R Fossil fuels: uso dei combustibili fossili
33
I BIOPOLIMERI
L’autore del contributo di questo numero è il coordinatore di questa rubrica. Ho accettato volentieri l’invito della redazione di scrivere un altro capitolo sulla storia dell’eritropoietina (EPO) e dei suoi derivati. Lo spunto è stato dato dai
recenti fatti accaduti durante le scorse Olimpiadi invernali tenutesi negli USA. Come è abitudine della rubrica, l’articolo è soprattutto un’occasione per chiarire alcuni aspetti scientifici legati all’argomento in discussione.
DARBEPOIETINA ED OLIMPIADI
INVERNALI: IL NUOVO CASO DI DOPING
di Roberto Rizzo
nella letteratura scientifica che parlano di polisaccaridi solfati naturali e/o semisintetici che possano
sostituire l’eparina. Questo è un polisaccaride
della classe dei glicosoamminoglicani presente
negli animali superiori e che, in natura, svolge una
potente azione anticoagulante prevenendo la formazione di trombi. È facilmente comprensibile
che questa sostanza venga utilizzata in tutti i casi
in cui si suppone ci sia un serio pericolo di formazione di trombi per diverse cause. Fra queste non
va trascurata quella dovuta a traumi provenienti
da interventi chirurgici specialmente nelle operazioni che coinvolgono il cuore.
Tornando al nostro argomento, la darbepoietina è
una variante sintetica dell’eritropoietina prodotta
da una ditta farmaceutica specializzata. Essa ha
avuto un notevole successo come stimolante della
produzione di globuli rossi in particolari patologie
ed, in particolare, è approvata, e somministrata,
per abbassare l’anemia associata alla chemioterapia utilizzata nel trattamento del cancro e nelle sindromi da insufficienza renale, anche connesse
all’infezione da HIV in pazienti trattati con zidovudina (AZT). Attualmente il farmaco è nella fase III
della sperimentazione clinica. Il nome esatto è darbepoietina-alfa e fa parte della classe delle nuove
proteine che stimolano il processo di eritropoiesi
(NESP). È ottenuta dalla eritropoietina ricombinante umana mediante un processo di iperglicosilazione.
L’inserimento di due nuove catene oligosaccaridiche ancorate alla matrice peptidica ha permesso
di ottenere una molecola di dimensioni maggiori,
metabolicamente molto stabile e che presenta un
tempo di vita medio nell’organismo tre volte mag-
I
n precedenti numeri di questa rivista (AIM
Magazine n. 3 del 1998, n. 2 del 1999 e n.1 del
2000) la redazione ha promosso la discussione
di problematiche connesse con l’uso, proibito, dell’eritropoietina (EPO) nello sport. Alla luce di
quanto è successo nelle recenti Olimpiadi
Invernali, che si sono svolte negli USA, è sembrato interessante, e per certi versi doveroso, completare l’informazione data ai nostri lettori con
alcune notizie circa il farmaco coinvolto nelle
squalifiche di alcuni atleti dello sci. Il fatto è noto:
alcuni atleti già vincitori di medaglie d’oro sono
risultati positivi al test per la determinazione della
Darbepoietina, una sostanza simile all’EPO che
stimola la produzione di globuli rossi. Lasciando
da parte il dibattito su quali sostanze stimolanti
possano essere utilizzate da sportivi e quali non,
c’è da pensare che, poiché la darbepoietina è un
farmaco nuovo, alcuni atleti abbiano pensato che
esso non fosse facilmente individuabile dai laboratori di analisi addetti. Al contrario, le tecniche analitiche sono tutte accessibili e si tratta solo di standardizzarle sui nuovi prodotti.
Il fatto è che la darbepoietina non è propriamente
un nuovo prodotto, ma una modifica dell’eritropoietina (1) e quindi si può supporre che la determinazione di questa sostanza non sia particolarmente difficile, o per lo meno non più difficile dell’altra. Le ditte farmaceutiche sono sempre alla
ricerca non solo di prodotti nuovi, ma anche di
prodotti che mimino sostanze già utilizzate oppure
di modifiche chimiche di sostanze naturali che
abbiano maggior efficacia o che possano essere
vendute come farmaci diversi da quelli esistenti.
Per fare un esempio, sono numerosissimi i lavori
34
tra saccaride e proteina, e la scelta fra una via e
l’altra dipende molto dalla risposta immunitaria
che si ottiene da parte del nuovo prodotto.
Per capire quali sono i passi che hanno portato
alla sintesi della darbepoietina si deve parlare di
eritropoietina. Questa glicoproteina è un ormone
prodotto primariamente a livello di endotelio peritubulare del rene ed è responsabile della regolazione della produzione dei globuli rossi. Una parte
minore dell’ormone è sintetizzata negli epatociti
del fegato. È interessante sapere che nei neonati il
sito primario della produzione di EPO è proprio il
fegato e che solo dopo la nascita la sintesi passa
sotto il controllo del rene. La produzione di EPO è
stimolata da una ridotta presenza di ossigeno nella
circolazione dell’arteria renale.
Il gene che codifica per l’erotropoietina umana è
stato identificato negli anni ’80 e clonato nel 1985
per la produzione di eritropoietina ricombinante
umana (rhu-EPO). Questa è stata utilizzata efficacemente in una serie di situazioni cliniche dove era
necessario aumentare la produzione di globuli
rossi. La chemioterapia associata al trattamento di
tumori, ad esempio, ha l’effetto di ridurre la produzione di cellule sanguigne da parte del midollo
osseo. Questo organo vitale è la sorgente di tutti i
differenti tipi di cellule sanguigne (globuli bianchi,
globuli rossi e piastrine) ed è densamente popolato di cellule a diversi stadi di divisione e maturazione. Le cellule sanguigne sono ovviamente
essenziali per il trasporto di ossigeno nell’organismo, per combattere malattie ed infezioni e nel
processo di coagulazione sanguigna. Non è quindi
sorprendente che esse sono continuamente rimpiazzate durante la vita dell’individuo.
Alla fine di questa rassegna vorrei introdurre alcuni paragrafi dedicati alla procedura di determinazione di queste proteine. Nei giornali è stato riportato che l’analisi è stata effettuata mediante un
nuovo e modernissimo tipo di elettroforesi. Negli
articoli non si capisce di che tipo di elettroforesi si
tratti anche perché, come è stato anche riportato
nei precedenti contributi apparsi su AIM Magazine,
la determinazione dell’eritropoietina viene fatta
sulla base della determinazione dell’ematocrito.
Infatti essa è una molecola naturalmente presente
nell’organismo ed il rischio per la salute non viene
direttamente dall’EPO, ma dal numero di globuli
rossi presenti nel sangue che ne aumentano in
modo pericoloso la viscosità. Tuttavia per la darbepoietina potrebbero essere raccomandate altre
procedure. Mi sembra quindi interessante descrivere brevemente la tecnica di elettroforesi bidimensionale con la quale si ottengono ottimi risultati nella separazione di proteine da miscele complesse (2).
giore della stessa eritropoietina. Queste caratteristiche costituiscono la novità interessante di questa molecola semisintetica. Ma forse dimostrano
anche l’ingenuità degli atleti che la hanno utilizzata: è troppo simile all’eritropoietina!
La grande stabilità della molecola permette di
abbassare il dosaggio fino ad una sola somministrazione settimanale rispetto alle tre necessarie
con i farmaci esistenti (soprattutto EPO ricombinante). Lo sviluppo clinico del farmaco è stato
portato avanti soprattutto nel Regno Unito.
Per i lettori che sono più lontani dal mondo delle
proteine vale la pena ricordare che molti di questi
polipeptidi naturali sono presenti nell’organismo
come molecole glicosilate. La glicosilazione avviene solo dopo che le proteine siano state sintetizzate a livello di ribosoma sfruttando le informazioni
geniche che sono trasportate dal nucleo al sito di
sintesi mediante gli RNA messaggero. Modifiche
del tipo della glicosilazione vengono infatti chiamate modificazioni post-traduzionali. In particolare, esistono degli enzimi che sono capaci di
agganciare oligosaccaridi più o meno corti e più o
meno ramificati a catene laterali di residui di
amminoacidi presenti nella catena peptidica della
proteina. Il legame di aggancio di questi oligosaccaridi può essere di tipo N- o O-glicosidico a
seconda che l’atomo che fa da ponte tra amminoacido e saccaride sia un azoto o un ossigeno. I
legami N-glicosidici collegano gli oligosaccaridi a
residui di asparagina mentre quelli O-glicosidici a
residui di serina o treonina. Nel collagene sono
presenti legami O-glicosidici con ossidrili della
catena laterale dell’amminoacido 5-idrossilisina.
Forse la più nota fra le glicoproteine è la glicoforina (il nome è chiaro!) che è una proteina altamente glicosilata presente nella membrana dei
globuli rossi ed i cui oligosaccaridi sono diversi per
ogni tipo di gruppo sanguigno. Questo esempio
dimostra bene anche l’importanza delle porzioni
saccaridiche presenti in glicoproteine: infatti esse
costituiscono parte dei determinanti immunologici
presenti nell’organismo animale.
Il graffaggio di corte catene saccaridiche a matrici
proteiche non è una novità in campo farmaceutico. Infatti frammenti di polisaccaridi batterici, prodotti naturalmente da microorganismi patogeni (p.
es. Neisseria meningitidis e Streptococcus pneumoniae), sono stati coniugati a proteine carrier per
formulare nuovi vaccini. L’utilizzo di proteine carrier è reso necessario dal fatto che i polisaccaridi
per loro natura producono una bassa risposta
immunitaria che viene innalzata quanto questi
sono legati ad antigeni proteici. Le vie sintetiche
per produrre tali coniugati sono molteplici, spesso
utilizzano corte molecole “spacer” da interporre
35
Ogni proteina contiene delle cariche positive e
negative il cui numero dipende dal pH della soluzione in quanto sono prodotte essenzialmente
dalla ionizzazione di gruppi carbossilici e amminici presenti nelle catene laterali del polipeptide. Il
valore di pH per il quale il numero di cariche positive è uguale a quello delle cariche negative si
chiama punto isoelettrico (pI) ed in questo stato la
proteina è ovviamente, incapace di migrare sotto
l’azione di un campo elettrico. Nell’elettroforesi
detta “isoelettrofocalizzazione” viene creato in un
gel di poliacrilammide un gradiente di pH mediante la migrazione, in un campo elettrico, di una
opportuna miscela di acidi e basi organici a basso
peso molecolare. Se poi una miscela di proteine
viene fatta migrare in tale gel sotto l’azione di un
opportuno campo elettrico allora ogni componente della miscela si posizionerà nel punto in cui il
valore di pH nel gel corrisponde al proprio pI.
Poiché più proteine possono avere lo stesso pI, o
valori di pI talmente simili da non portare ad una
efficiente separazione, la tecnica viene potenziata
utilizzando un’elettroforesi bidimensionale (Fig. 1)
In questi esperimenti ad una prima isoelettrofocalizzazione viene fatta seguire sullo stesso gel una
seconda elettroforesi, in condizioni denaturanti,
utilizzando un campo elettrico perpendicolare al
primo. In queste condizioni proteine che hanno
identico pI possono essere separate sulla base
delle loro differenze di peso molecolare. Poiché nei
due esperimenti la miscela di proteine prima
migra in una direzione e poi nella direzione perpendicolare alla prima, si ottiene una mappa bidimensionale che ha un potere risolutivo molto alto.
Tornando alla darbepoietina, e considerando che
Figura 1: Analisi bidimensionale di estratti nucleari da cellule tiroidee di ratto (cortesia del Dr.
Gianluca Tell, Univ. di Trieste).
nell’esercizio della furbizia (negativa) umana il
fondo non si tocca mai, non mi resta che darvi
appuntamento alla prossima puntata.
Bibliografia
36
(1)
I.A. Tabbara. Erythropoietin, Biology and Clinical
Applications. Arch. Intern. Med. 1993;153:298304.
(2)
B.D. Hames, D. Rickwood, eds. Gel electrophoresis of proteins a pratical approach. Oxford: IRL
Press Limited 1981.
I Giovani
CHIMICA,
AMBIENTE, GIOVANI:
PAROLE CHIAVE PER “ACCEDERE”
AD UN FUTURO PIÙ PULITO
In un “momento” in cui i problemi ambientali si fanno sempre più “ingombranti”, la nascita di gruppi interamente gestiti da giovani chimici con l’obiettivo di promuovere la ricerca giovane e di valorizzare figure professionali
esperte in problematiche ambientali, credo meriti spazio e attenzione in questa rubrica che vuole essere una finestra aperta sul mondo dei giovani chimici. Riporto in sintesi cosa è il gruppo “Matraccio pulito” e le sue attività, da
quello che appare sul sito internet, e rimando i lettori interessati alla consultazione di detto sito per soddisfare eventuali esigenze e/o curiosità
Giuliana Gorrasi
zione e redazione dei progetti di ricerca, alle procedure di reperimento dei fondi per effettuarla ed
alle opportunità fornite a riguardo da MURST e
dalla UE attraverso i programmi di TMR ed i programmi di ricerca sviluppo tecnologico ed innovazione. In particolare, sono state, e saranno organizzate convention dei giovani laureati della divisione di chimica ambientale in cui viene offerta
l’opportunità di presentare i risultati delle ricerche
da loro condotte ed occasioni di formazione su
argomenti di comune interesse come quelli succitati. Iniziative come queste costituiscono senz’altro
un utile sussidio per i giovani laureati, che, utilizzando le credenziali di istituzioni affermate, come
la Società Chimica Italiana, potranno trovare una
opportuna collocazione nel mercato del lavoro o
reperire più facilmente fondi pubblici o privati per
il finanziamento delle loro ricerche.
I
n occasione del V Congresso Nazionale della
Divisione di Chimica Ambientale tenutosi a
Lerici nei giorni 8-11 giugno 1999, si è costituito il gruppo, Ambiente - Giovani - Ricerca - ‘Il
matraccio pulito’ - Sandro Maria Guarino. Tale
gruppo, costituito interamente da giovani laureati in discipline attinenti la chimica dell’ambiente
si pone l’obiettivo di promuovere la ricerca giovane e di valorizzare sul mercato del lavoro una
figura professionale esperta e competente in problematiche ambientali. Per perseguire opportunamente tali propositi si è pensato di creare una
rete informativa, per il momento costituita da una
pagina web per la discussione (http://disc.server.com/Indices/68302.html) al fine di costruire
un database delle unità operative, delle competenze, delle disponibilità, e delle opportunità.
Questo strumento potrà risultare inoltre utile per
facilitare il confronto scientifico fra i giovani sulle
problematiche inerenti le specifiche linee di ricerca e per portare la loro voce, le loro esigenze al
Direttivo della Divisione e della SCI. Il gruppo del
“Matraccio pulito”, per favorire un approccio alla
Chimica dell’Ambiente moderno ed avanzato, si
occupa di organizzare eventi di confronto e formazione a livello nazionale su quegli argomenti
spesso trascurati nei protocolli formativi delle
istituzioni accademiche. Fra questi un interesse
particolare è dedicato alle modalità di organizza-
I GRUPPI DI LAVORO
Gruppo Interfaccia Aderenti
Referenti:
Alessandra Genga:
[email protected]
Ivano Vassura:
[email protected]
Compiti: Il ruolo che finora ha avuto è stato quello
di raccogliere i Curricula degli aderenti al fine di
creare un database. La struttura dei Curricula fino-
37
ra adottata è molto semplice e sarà molto probabilmente da rivedere in modo da aumentare il contenuto informativo, pensando anche a report e job
card.
Referenti:
Piera Ielpo: [email protected]
Mariella Bruzzoniti:
[email protected]
Compiti: Il ruolo di questa unità operativa è quello
di far conoscere il gruppo ai consorzi risolutori dei
loro problemi, visto l’elevato numero di competenze disponibili e reperibili tramite i curricula (rete
di consulenza).
Gianluigi de Gennaro:
[email protected]
Walter Vastarella:
[email protected]
Compiti: Costruire un network efficiente.
Per adesso l’indirizzo del sito dell’A.R.G. è
http://discserver.snap.com/Indices/68302.html,
che offre possibilità limitate. Con l’apertura del
sito della Divisione di Chimica Ambientale si avrà
a disposizione una pagina migliore in cui ci sarà
più spazio per le informazioni di ciascun gruppo di
lavoro. Si cercherà di inserire il sito del’A.R.G. nei
motori di ricerca e come link, in modo che sia più
visibile, creando così opinione e interesse.
Gruppo Formazione-Informazione
Gruppo Attività Coordinate
Referenti:
Referenti:
Gruppo Interfaccia Aziende e Consorzi
Referenti:
Antonella Iacondini:
[email protected]
Barbara Brusori:
[email protected]
Matilde Cecchini:
[email protected]
Lucia Ramponi:
[email protected]
Leandro Capponi:
[email protected]
Compiti: Dare notizie su come e dove formarsi
(scuole, corsi…), sui progetti, sui concorsi e su
quanto sia ritenuto utile che il Gruppo e gli aderenti conoscano.
Davide Vione :
[email protected]
Paola Calza:
[email protected]
Alessandra Irico:
[email protected]
Compiti: realizzare progetti comuni.
Compito del gruppo “attività coordinate” è quello
di sondare le effettive possibilità offerte in questo
settore agendo su base territoriale attraverso esperienze pilota.
Gruppo Rete
38
Didattica macromolecolare
Nel numero passato avevamo invitato i lettori macromolecolaristi a raccontarci come si ingegnino a parlare di
polimeri ad un pubblico non esperto (fuori dal Macro-giro). Ecco che cosa ha escogitato R. Filippini Fantoni per
dare alcune nozioni basilari sulla polimerizzazione: sfruttando il più possibile una descrizione grafica e intuitiva al
posto di formule chimiche ha creato una favoletta accattivante che si apre con il “C’era una volta”, ha la sua morale ed è ovviamente ... scientificamente corretta!
LA
COMUNITÀ DELLE MANI LEGATE
di Roberto Filippini Fantoni
taggi che avrebbe potuto portare la cooperazione
se ne fregavano grandemente e viaggiavano nel
loro mondo di giovani con ampia libertà di movimento e quando si mescolavano con il mondo dei
grandi, che della cooperazione facevano il loro
modus vivendi, li prendevano in giro e ballonzolavano intorno alle catene di adulti che si muovevano lentamente nell’ambito della comunità.
Era l’eterna storia della vita che si ripeteva puntualmente e con le stesse immutabili modalità.
Raggiunta la maggior età, visto che loro da quell’orecchio non ci sentivano, era la regola sovrana
della comunità a portare i giovani in un luogo spaziosissimo per farli sottostare alla cerimonia dell’iniziazione alla vita adulta, cerimonia che era chiamata polimerizzazione ed era la funzione base per
la sopravvivenza della comunità, trasformando i
giovani monomeri in catene di adulti che venivano
chiamati polimeri.
Originariamente, risalendo alla storia di questo
popolo, i giovani monomeri vivevano suddivisi in
etnie e nelle singole etnie si suddividevano sottogruppi di origine sociale differente: come ad esempio nell’etnia degli idrocarburi insaturi il nobile norbornene guardava con aria distaccata il pur diffusissimo propilene che a sua volta si sentiva un essere
superiore rispetto al paria etilene. Le diverse classi
sociali inizialmente non si trovavano mescolate e
così separatamente avveniva l’iniziazione per esempio dei propileni, in altra quella degli isobutileni e in
altra ancora quella degli etileni e così via. In questi
casi il risultato della iniziazione era sempre un polimero che chiameremo omopolimero (polietilene,
polipropilene, ecc.) per l’uguaglianza dei giovani
monomeri che lo componevano e perciò per la sua
completa omogeneità strutturale.
C
’era una volta, molti e molti anni fa, una
strana comunità di esseri umani che viveva una vita lunghissima solo se riusciva a
trovare il modo di attuare un programma cooperativo comune che trasformava ogni individuo, di
per sé labile e indifeso, in un insieme di individui
molto più forte, più resistente agli attacchi che gli
agenti avversi di madre natura tentavano continuamente di portare.
La cooperazione di ogni individuo di questo strano
gruppo di persone, che venivano chiamati in gioventù monomeri in senso generale e con un nome
ben individuato e specifico per ogni gruppo etnico
(gli idrocarburi insaturi, i sali tra diacidi e le diammine, gli amminoacidi, i lattami e così via), era
regolata da regole ben precise che facevano riferimento proprio al nome della Comunità stessa: “la
comunità delle mani legate”.
Infatti, in tale comunità la
regola base era che le mani
non potessero rimanere libere
se non per tempi brevissimi
mentre normalmente dovevano essere legate tra di loro. I
giovani e sbarazzini monomeri
per avere il massimo di libertà
di movimento possibile, come
tutti i giovani che, non badando alle conseguenze, cercano
nella libertà lo sfogo dei propri
desideri e la molla per farsi
nuove esperienze senza necessità di dipendere dai
“vecchi”, tenevano le proprie mani unite tra di loro
così da avere il massimo grado di libertà negli
spostamenti nell’ambito della comunità. Dei van-
39
Ci si accorse casualmente che alcuni polimeri nati
con l’unione promiscua di elementi delle diverse
classi sociali poteva dare catene di polimero con
proprietà interessanti e specifiche, a volte superiori a quelle di certi omopolimeri: chiameremo questi ibridi con il nome di copolimeri per distinguerli
dagli omopolimeri.
Scienziati delle singole etnie si diedero allora un
gran daffare per programmare, in funzione delle
regole ben precise per la formazione di omopolimeri o copolimeri in funzione delle esigenze della
singola etnia nei differenti luoghi e per dare ad
ogni nuovo gruppo compiti differenti e specifici
nell’ambito della etnia che li ospitava.
In questi casi erano i capi politici della comunità
del luogo a stabilire le composizioni dei nuovi
adulti raggruppando giovani monomeri di etnie
diverse con certe percentuali oppure mantenendoli omogenei nel corso dell’iniziazione.
Tutto ciò ovviamente in funzione delle esigenze
delle diverse comunità e in generale per il miglioramento della razza.
Uno dei problemi da superare in questo mescolamento di gruppi etnici disomogenei stava nel fatto
che non tutte le etnie si univano con la stessa
modalità per cui c’erano gruppi etnici che per la
fusione dei monomeri in catene “adulte” utilizzava
la policondensazione e altri invece lo facevano
attraverso la poliaddizione, per non parlare di altri
ancora che potevano farlo in entrambi i modi.
Parleremo nella prossima puntata della cerimonia
dell’iniziazione, la polimerizzazione appunto, e
analizzeremo in dettaglio questi due metodi di raggruppamento in catene.
esigenze del loro gruppo, tutta una serie di unioni
promiscue studiate in modo da ottenere una notevole gamma di proprietà dai nuovi individui copolimerici. E passando i secoli si ottennero risultati
interessantissimi e un continuo rinforzo delle
capacità di sopravvivenza della singola etnia.
Con il passare di decenni, con le maggiori possibi-
lità di spostamento che la modernità dei mezzi
consentiva loro le notevoli distanze che separavano le diverse etnie si ridussero drasticamente e i
giovani monomeri nei loro viaggi si vennero a trovare mescolati ad altre etnie. Anche in questo
caso fu sperimentato che l’unione casuale di questi monomeri di diversa etnia in qualche caso
creava polimeri con caratteristiche peculiari che
potevano accrescere notevolmente le qualità dell’insieme comunitario che con questa ibridizzazione acquistava un carattere evolutivamente differente: i polimeri generati da questa iniziazione ibrida, ovviamente e a maggior ragione, li chiameremo copolimeri. Ampi studi “genetici” furono portati avanti da una serie via via crescente di scienziati e si studiarono numerose nuove “razze” di
copolimeri aventi caratteristiche peculiari.
Si rischiava il caos e così la comunità fissò delle
40
I Musei
A NAPOLI IL PRIMO SCIENCE
CENTRE ITALIANO
Una grande novità per educare, emozionare, divertire, sorprendere!
Venerdì 23 novembre 2001 alla presenza del Capo
dello Stato si è inaugurato, a Napoli, lo Science
Centre di Città della Scienza, il primo in Italia e uno
tra i più significativi in Europa.
Articolazione fondante di Città della Scienza (il
progetto ideato e attuato dalla Fondazione IDIS e
promosso dal Ministero dell’Università e della
Ricerca Scientifica e Tecnologica, dalla Regione
Campania, dal Comune e dalla Provincia di
Napoli, che coniuga strettamente la diffusione
della cultura scientifica alla promozione dello sviluppo socio-economico e, grazie all’intreccio tra
attività educative e produttive, costituisce un
modello finora unico in Europa) lo Science Centre
si colloca nella tradizione dei musei scientifici di
nuova generazione (tradizione inaugurata
dall’Exploratorium di San Francisco nel 1969) ed
ha come principale obiettivo quello di fornire al
pubblico, specialmente ai giovani e ai “non addetti ai lavori”, occasioni di incontro con la scienza e
la tecnologia attraverso un approccio che – trasformando la materia scientifica da nozione apparentemente sterile e di non facile comprensione in
un messaggio accattivante e coinvolgente – privilegi l’appropriazione del metodo scientifico; favorisca la partecipazione sociale alle scelte di civiltà
(che implicano sempre più l’introduzione massiccia della tecnologia); superi le distinzioni, spesso
artificiali, esistenti tra i campi del sapere.
Qualità, rigore scientifico e culturale, alto valore
educativo, comunicazione chiara divertente ed
emozionante, ne fanno un luogo adatto, per i suoi
contenuti, ad un pubblico di ogni età e livello in cui
la scienza, l’arte, l’architettura e la tecnologia si
fondono in un’offerta innovativa che certamente
stimola la curiosità anche del visitatore più esigente e più attento ai linguaggi della comunicazione.
Un primo piccolo prototipo fu inaugurato nel 1996
e da allora visitato da circa 1.000.000 di persone.
Con l’inaugurazione di novembre lo Science Centre
di Città della Scienza raggiunge – per qualità delle
mostre, per quantità delle aree espositive, per il
contesto ambientale mozzafiato – standard inediti
nel nostro Paese.
Città della Scienza è situata infatti nell’area ovest
della città, a Bagnoli, tra l’isolotto di Nisida e il versante Nord della collina di Posillipo e si affaccia
direttamente sul mare. Lo Science Centre occupa
un suggestivo edificio industriale della prima metà
dell’Ottocento, caratterizzato da 5 navate coperte
da grandi capriate in legno che poggiano su pilastri quadrati in mattoni, per una superficie complessiva di 12.000 mq. Testimone prezioso del
periodo arcaico dell’architettura industriale, probabilmente è stato il primo opificio chimico del
Napoletano, certamente il primo caposaldo di un
più ampio insediamento industriale nell’area di
Bagnoli, uno dei due poli industriali della città di
Napoli.
L’allestimento, formalmente indipendente e non in
contrasto con l’impianto architettonico, è caratterizzato dall’uso di materiali totalmente diversi da
quelli dell’edificio: acciaio spazzolato ed elementi
translucidi. Lo spazio, diviso in varie sezioni, presenta un’omogeneità formale d’insieme che consente al visitatore di muoversi attivamente e criticamente, anche grazie ad una segnaletica interattiva che suggerisce percorsi tematici, approfondimenti, news, informazioni in tempo reale e garantisce una fruizione non necessariamente assistita.
Il percorso espositivo si snoda come un vero e
proprio “racconto” – il racconto della conoscenza
umana e del modo in cui essa concretamente si
confronta con i fenomeni della natura, presentando una “scienza molto più critica” di quanto non
sia avvenuto finora nei tradizionali musei scientifici – e, diviso in varie sezioni, propone:
• lo Spettacolo del Cielo: il più grande Planetario
del centro-sud d’Italia;
41
• la Palestra della Scienza: in 3 grandi esposizioni
i segreti della fisica classica, della scienza contemporanea, della biologia;
• Segni Simboli e Segnali: la prima mostra permanente sulla Comunicazione in un Museo italiano;
• l’Officina dei Piccoli: progettata dai bambini per
i bambini e anche per i piccolissimi (0-3 anni);
• le mani e la mente: un atelier attrezzato per lo
svolgimento di attività creative;
• Gnam - La Vetrina dell’Educazione Alimentare:
le relazioni tra alimentazione, salute, industria,
cultura e società in una mostra interattiva realizzata con l’Assessorato all’Agricoltura della
Regione Campania;
• la grande Stella di cristallo: un’aula per assistere
a spettacolari dimostrazioni di chimica;
• le 19 Porte della Conoscenza: un’opera di land
art di Dani Karavan;
• il Buco del Mondo: l’antica ciminiera trasformata
in gigantesco periscopio da un’idea di Fred
Forest;
• circa 2.000 mq di Mostre Temporanee la prima
delle quali sarà PackAge: una grande mostra
del Conai e dell’Istituto Italiano dell’Imballaggio
(da novembre a febbraio), che mette in scena
tutto quello che non si vede dell’imballaggio
durante il suo uso quotidiano. BIT, la guida virtuale, che diverte, stupisce e consiglia;
Installazioni d’Arte in tutte le sezioni espositive; Aree all’aperto di straordinaria bellezza;
Punti di Ristoro e di sosta; uno Shop ricco di
gadget curiosi per tutte le età e, naturalmente,
nessuna barriera architettonica.
La Palestra della Scienza
In uno spazio vastissimo 3 grandi mostre per vivere da protagonisti l’avventura dell’indagine scientifica:
• Dai fenomeni alle certezze, dedicata a quella
parte della conoscenza scientifica che dal 600
a.C. a tutto il XIX secolo ha concentrato la sua
attenzione sui fenomeni naturali rilevabili attraverso i sensi e gli strumenti di osservazione e
che ha sviluppato uno straordinario complesso
di teorie in grado di descriverli.
Qui il visitatore – immerso nello spettacolo della
fisica classica – scopre la forza del vuoto arrampicandosi con le ventose su un piano inclinato,
gioca con i pesi, “scatena” fulmini osserva lo
spettacolo della luce e dei colori; studia il movimento e lo ricostruisce grazie a un sonar; tra
prodigi e meraviglie può capire ciò che sta alla
base di tante esperienze della vita quotidiana e
apprendere, senza sforzo, le teorie formulate a
riguardo, mettendo in pratica il metodo empirico-sperimentale, che a partire da Galileo e
Newton, ha consentito di: individuare ed isolare
un insieme di elementi dalla realtà; analizzare le
relazioni tra di essi; tradurle in un linguaggio
logico-matematico; formulare le leggi che
governano i fenomeni per prevederli e riprodurli
sperimentalmente.
• La Natura tra ordine e caos, illustra i concetti
fondamentali e le tematiche di ricerca della
scienza contemporanea. L’obiettivo di questa
sezione è presentare i problemi ancora aperti di
una scienza che sembra oggi procedere con
minori certezze pur utilizzando strumenti di analisi sempre più capaci di cogliere la complessità
di molti fenomeni e delle loro cause, complessità
presente talvolta anche nei fenomeni apparentemente più semplici.
Un percorso di specchi, illusioni simmetriche e
prospettiche, orologi artificiali e naturali, labirinti – oltre 50 gli exhibit interattivi – aprono nuove
prospettive sulle nozioni di spazio e tempo anticipando quel concetto di complessità che si
potrà poi cogliere più nettamente con le rappresentazioni dei sistemi governati dal caso e dalla
probabilità, o nel gioco di ordine e disordine in
natura.
Lo Spettacolo del Cielo ovvero il Grande
Planetario
Il più grande del centro-sud d’Italia costituisce
un’esperienza notevolmente attraente.
L’osservazione del Cielo è una delle più antiche
forme di indagine scientifica.
Dapprima a occhio nudo e poi, via via con strumenti sempre più raffinati, potenti e complessi,
lo studio dei moti planetari e l’elaborazione di
teorie sui corpi celesti hanno accompagnato la
storia e l’evoluzione della conoscenza umana.
Il Planetario dello Science Centre di Città della
Scienza con un sistema di proiettori ottici combinati a effetti multimediali riproduce, su una
cupola di circa 10 metri di diametro, settemila
stelle evidenziando le principali costellazioni,
simulando il moto della sfera celeste e riproducendo l’aspetto del cielo – diurno e notturno –
nelle diverse stagioni ed a differenti latitudini terrestri.
Dallo studio dei sistemi macroscopici complessi,
all’indagine dell’infinitamente piccolo, all’analisi
dei fenomeni reali con l’aiuto della statistica e
dal calcolo delle probabilità, vengono individuati
nuovi ambiti della ricerca scientifica, lungo un
percorso ancora incerto e per questo tanto più
affascinante.
42
• L’Avventura dell’Evoluzione, presenta la biologia come un avvincente racconto. La formazione della Terra, la generazione spontanea della
vita, la sua evoluzione e diversificazione crescente, la comparsa dell’uomo…, sono eventi
eccezionali e nient’affatto scontati; il mistero
della transizione dal relativamente semplice
della materia non vivente allo straordinariamente complesso del vivente è tuttora in attesa di
una spiegazione definitiva ed ancora sollecita la
nostra fantasia; l’unicità dei caratteri evolutivi
della specie umana, in cui gli aspetti sociali, culturali e biologici sono talmente interdipendenti
da rendere imprevedibile la linea di percorso che
essa seguirà …
I “meccanismi automatici” di ricombinazione
incessante e veloce del patrimonio genetico; l’interruzione o la modifica dei processi evolutivi
legate al caso, alle catastrofi, alle contingenze
storiche; i meccanismi della selezione naturale
adattiva sono soltanto alcuni dei capitoli del racconto dell’avventura della vita, immaginato dall’ingegno fervido e potente di J.B. Lamarck, C.
Darwin e J.G. Mendel e narrato in questa sezione divisa in 3 isole – le origini della vita; l’evoluzione; l’origine dell’uomo – costellate da decine
di postazioni interattive.
Segni Simboli e Segnali: Comunicare oggi
la prima mostra interattiva permanente sul tema
della Comunicazione allestita in un Museo italiano.
Immaginata come un viaggio nel tempo, presenta
un excursus sull’incidenza degli strumenti e dei
processi della comunicazione nelle attività umane.
Con un tipo di presentazione di carattere evolutivo
sia per quanto riguarda gli aspetti scientifici-tecnologici che per quelli storico-sociali, i principali
media, presentati in 9 unità tematiche (scrittura,
stampa, telegrafo, telefono, radio, televisione, fax,
computer, rete telematica) utilizzando la propria
specifica modalità comunicativa, si raccontano,
parlano della loro storia e ci descrivono, i passaggi epocali di un mondo in cui la linea di confine tra
vicino e lontano, tra prima e poi, tra mio e tuo si fa
sempre più sottile.
In riferimento a tre diverse modalità comunicative
– quella interpersonale (uno/uno), quella di massa
(uno/molti) e quella a rete (molti/molti) – si delineano tre differenti atteggiamenti culturali, tre differenti contesti storici e sociali.
La mostra tenta di esplorare i livelli di libertà, di
interazione, di partecipazione che ciascuna forma
di relazione comunicativa esprime in grado più o
meno elevato; il potenziale di trasformazione che i
media della comunicazione sociale esercitano nei
processi della conoscenza, nell’organizzazione
sociale, nel sistema di valori e di orientamenti culturali, nelle attività economiche; infine, come le
tecnologie innovative rendano l’informazione e la
comunicazione sempre più veloci e leggere.
Le Mani e la Mente: i laboratori della creatività
Inseriti organicamente nel percorso della conoscenza scientifica, i Laboratori della creatività propongono al pubblico una esposizione di carattere
storico delle principali tecniche e tecnologie della
manifattura artigiana e offrono la possibilità di studio empirico delle proprietà dei materiali e di realizzazione guidata di oggetti di tipo artigianale.
Nei Laboratori trovano posto spazi dedicati a:
Ceramica; Bricolage del rifiuto e del riciclaggio;
Stampa col torchio; Batik; Lavorazione dei metalli;
Atelier con artisti.
Inoltre, manufatti di epoche e materiali diversi,
nonché modelli, simulazioni e curiosità (come calchi, mosaici, tarsìe) arricchiscono l’informazione
sulla storia delle tecniche artistiche, stimolando un
approccio trasversale al tema di notevole efficacia
didattica.
43
L’Officina dei Piccoli: “Mondi da esplorare,
comportamenti da inventare”
La scoperta continua con la matassa degli odori, i
mobili a sorpresa, i periscopi in cui sbirciare …, la
cupola celeste per “viaggiare tra le galassie” e scoprire i segreti dello spazio.
Ma l’esplorazione più avvincente si fa nel tunnel
dei sogni: i piccoli visitatori sono immersi in un
universo magico di specchi deformanti, lenti,
luci colorate, pareti morbide, oggetti che suonano e immagini oniriche … E all’uscita un relitto
di barca arenato per imbarcarsi in viaggi fantastici.
È il settore rivolto ai bambini e realizzato con il loro
contributo, il primo Science Centre nel mondo che
ha coinvolto i bambini come progettisti del loro
spazio. In un contesto architettonico a “misura di
bambino” una vasta area, (700 mq) attrezzata per
un pubblico che va da 0 a 12 anni, è il “contenitore” in cui il bambino sarà protagonista, ideatore
dei momenti di esperienza del suo mondo, degli
altri, dell’artificiale, del fantastico, del vivente
umano e non umano.
L’Officina dei Piccoli è anche la prima struttura in
Italia che si rivolge alla primissima infanzia (0-3
anni), uno spazio sconosciuto dove “i piccolissimi”
possono affermare la propria autonomia e giocare
con oggetti adatti alla loro età: il pavimento sonoro, le immagini colorate in movimento, gli oggetti
che emettono odori, le piccole gallerie da percorrere, le vasche d’acqua, i grandi materassoni…
I contenuti dell’Officina trovano il principale riferimento nella necessità di stimolare l’istinto della
conoscenza, della curiosità, della volontà di fare,
un ambiente in cui l’apprendimento va affidato
alla libera elaborazione di ciascun bambino e che
nasce solo “giocando a …”.
Gnam: La Vetrina dell’Educazione Alimentare
a cura dell’Assessorato all’Agricoltura della
Regione Campania
ERSAC (Ente Regionale di Sviluppo Agricolo in
Campania)
SeSIRCA (Settore Sperimentazione, Informazione,
Ricerca e Consulenza in Agricoltura)
La storia dell’alimentazione è ricca di sorprese.
Le civiltà alimentari si trasformano e si incontrano
in un intreccio di cibi, gusti, sapori e profumi usi,
costumi e tradizioni diversi.
I cibi caratterizzano ancora etnie, regioni, culture e
religioni nonostante la progressiva omologazione
su scala mondiale delle abitudini alimentari.
44
diverse sezioni ricca di esperimenti e dimostrazioni interattive, GNAM è diviso in 4 sezioni: Mangia
bene per stare meglio, Alimentazione è identità, È
l’agricoltura che vogliamo, Cultura che nutre ed ha
come principali finalità:
Informare sui contesti locali di produzione e socioculturali, valorizzando le produzioni regionali tipiche e di qualità;
Lo Science Centre di Città della Scienza offre inoltre:
Una grande area per mostre temporanee (circa
2000 mq), uno spazio flessibile e polivalente in
grado di garantire l’allestimento contemporaneo di
più mostre, anche di contenuto e stile diverso che,
in occasione dell’inaugurazione di novembre,
ospiterà PAKCAGE una grande mostra organizzata
dall’Istituto Italiano dell’Imballaggio e dal CONAI Consorzio Nazionale Imballaggi per lo Science
Centre di Città della Scienza.
PakcAge è la prima mostra in Italia sul ruolo, la
storia, i processi produttivi e la fruizione dell’imballaggio; si rivolge al largo pubblico, al mondo
della scuola e, in generale, al grande universo
degli utilizzatori di imballaggi per presentare le
valenze, le funzioni, la tecnologia, le modalità di
consumo legate al mondo del packaging.
Insomma, non resta che iniziare la visita: a novembre, quindi, tutti a Napoli!
Da cosa deriva la specificità della dieta mediterranea?
Perché in Cina si consuma tanto riso?
Il caffè è originario del Sud America?
Quando si afferma il fast food negli Stati Uniti?
Le relazioni tra alimentazione, salute, industria,
cultura e società sono un tema di grande attualità,
soprattutto alla luce dei risultati della ricerca
scientifica e tecnologica che sempre più valorizzano il ritorno ad un modello alimentare mediterraneo ed ai prodotti tipici locali.
Strutturata con una consequenzialità che non
diventa mai obbligata per la comprensione delle
NOTIZIE UTILI
Città della Scienza - Science Centre
Napoli - via Coroglio, 104
info: 081.7352.202
www.cittadellascienza.it
prenotazioni
tel. 081. 3723728
fax. 081.5586937
APERTURA
• dal Martedì alla Domenica
• chiuso tutti Lunedì, il 25 dicembre, il 1° gennaio
• il 24 dicembre e il 31 dicembre chiusura alle 14.00
• aperto il Lunedì in albis
ORARI fino al 15 giugno
dal Martedì al Sabato ore 9.00/17.00; la Domenica 10.00-19.00
INGRESSO
Biglietti Ordinari
Intero € 7 (Lit.13.554) Ridotto € 6 (Lit. 11.617) (fino a 18 anni; dai 60 ai 65 anni; studenti universitari e militari)
Planetario € 1,5 (Lit. 2.904), su prenotazione
45
Polimeri e società
IL
SISTEMA RICERCA IN ITALIA
ED IL FABBISOGNO DI INNOVAZIONE
DELLE IMPRESE:
UN RAPPORTO POSSIBILE (E NECESSARIO)
di Antonio Casale
Nota
In questi ultimi mesi si sta svolgendo un vivace, a volte aspro, dibattito sul ruolo della ricerca pubblica in Italia,
con in primo piano il destino del più grande organo di ricerca “generalista” dopo l’Università, e cioè il CNR. Questo
dibattito viene alimentato dalle notizie concernenti i disegni legislativi in corso di valutazione nelle commissioni
parlamentari. Ritengo che, per l’importanza dell’argomento, per il tipo di platea a cui si rivolge il nostro Magazine,
per il peso che le decisioni in fase di maturazione potranno avere sul futuro dello stesso settore delle macromolecole, sia utile ospitare sulla nostra rivista un dibattito sul tema. Esso mira a fare esprimere opinioni da parte del
mondo dell’impresa e dell’accademia sul ruolo della ricerca in Italia, sulle possibili opzioni per la risoluzione di atavici problemi, anche alla luce dei modelli organizzativi esistenti in paesi a tecnologia paragonabile alla nostra. Il
presente contributo in parte riprende un intervento che il Dr. Casale ha tenuto ad un Forum di recente svoltosi a
Sesto. Verranno successivamente sollecitati interventi da parte di altri amici in grado di presentare altre sfaccettature del problema, con la speranza di aiutare i nostri lettori a comporre un quadro di riferimento con cui leggere gli sviluppi del dibattito legislativo in corso.
Mario Malinconico
"research is to turn money into knowledge, innovation is to turn knowledge into money"
• da una scarsa presenza in settori ad alta tecnologia, con l’eccezione di alcune aree specifiche.
L’equazione, da me sentita in un recente convegno, mi sembra calzi perfettamente con il tema in
questione. Per discutere di ricerca ed innovazione
è necessario partire da alcune premesse, peraltro,
largamente note e condivise:
Dal punto di vista della frammentazione il settore
chimico italiano non solo è allineato con questa
realtà, ma sta sempre più trasformandosi in questa direzione. Da una recente indagine conoscitiva
sull’industria chimica in Italia (19 marzo 2002)
condotta dalla Commissione attività produttive
della Camera, risulta che il peso delle PMI è
aumentato negli ultimi 20 anni in termine di
imprese, passando dal 50% nel 1980 all’84% del
2000. Secondo dati dell’osservatorio per il settore
chimico costituito presso il Ministero delle attività
produttive, oggi in Italia solo il 16% della produzione nazionale è realizzato da grandi industrie.
Questo trend continuerà in maniera accelerata:
dopo il già annunciato (ed in parte realizzato)
1. Nel nostro paese la prevalenza delle PMI è
schiacciante e l’85% delle imprese si trova nella
fascia 1 – 50 dipendenti, il 66% della forza lavoro
è situata in aziende della fascia 0 –100 dipendenti. In sintesi, dunque, il sistema industriale italiano
è caratterizzato:
• da un numero elevato di PMI,
• dalla prevalenza di attività in settori tradizionali o
di nicchia e
*
ASSOTEC, Via Pantano 9, 20122 Milano; E-mail: [email protected]
46
disimpegno di Snia e Montedison dalla chimica,
anche ENI ha deciso (come risulta confermato
dalle interviste riportate a Presidente e AD dell’ENI
nel sopra citato documento) un radicale intervento sul portafoglio della chimica. In particolare è
prevista la cessione del pacchetto di maggioranza
della Polimeri Europa, in cui sono confluiti i businesses degli stirenici, degli elastomeri e di molti
altri prodotti di base, in parte ad essi collegati, agli
arabi della Sabic.
più che attraverso la disponibilità di risorse naturali economicamente competitive.
Questa nuova impostazione ben si addice alla
struttura dell’industria italiana, sia per quanto
riguarda la tipologia delle società, sia per quanto
riguarda i settori applicativi in cui le società operano.
Lasciatemi chiudere questa parte presentando un
tipico esempio di innovazione. Riguarda la produzione condotti per il convogliamento di aria calda
nel circuito turbo-intercooler, dove debbono essere utilizzati materiali rinforzati per le sezioni rigide,
alternati a flessibili. Si tratta, quindi, di manufatti
di geometria complessa con presenza di gomiti,
convoluzioni e problemi di fissaggio con parti sia
fisse che sottoposte a vibrazione. Come tecnologia è stato scelto il soffiaggio con estrusione
sequenziale del parison. Date le sollecitazioni
meccaniche e termiche richieste dall’applicazione
era stato scelto come materiale la poliammide, tal
quale per le parti flessibili, rinforzata vetro per
quelle rigide. Tradizionalmente le poliammidi non
sono considerate come materiali adatti al blow
molding a causa della difficoltà di ottenere tipi ad
altissima viscosità allo stato fuso in un ampio
intervallo di condizioni di temperatura e di shear
rate. D’altra parte il soffiaggio era stato prevalentemente utilizzato nel settore dei contenitori di
varie dimensioni che non richiedevano prestazioni tecniche, particolarmente elevate. È stato quindi necessario:
2. Il concetto di innovazione sta cambiando. Come
giustamente ha sostenuto il Prof. Guerci, l’orientamento sempre più spinto al mercato sta spingendo apparentemente la ricerca
• verso obbiettivi a medio/breve termine e
• verso lo sviluppo di applicazioni,
piuttosto che verso l’introduzione di innovazioni
radicali.
In realtà in questi anni si sono sviluppati “prodotti”
o “prodotti/servizi” fortemente innovativi in quanto
svolgono funzioni nuove e svolgono in maniera più
soddisfacente funzioni tradizionali. Esse non compaiono tra le innovazioni radicali solo perché i
nostri modi di classificare l’innovazione sono stati
superati dalle nuove modalità con cui si presenta.
In questo nuovo approccio, vi possono essere innovazioni sostanziali con successi non inferiori a quelli ottenibili con l’innovazione di tipo tradizionale.
Un altro aspetto importante è che lo spostamento
dell’ottica sulla ricerca comporta il coinvolgimento non solo, come un tempo, dei grossi gruppi
industriali che potevano contare su elevate risorse
di R&D, ma anche di tutta l’industria di trasformazione e costruzione macchine.
• mettere a punto il soffiaggio sequenziale, progettando le apparecchiature e mettendo a punto
condizioni operative idonee al materiale prescelto;
• studiare delle poliammidi idonee. Nel caso specifico delle PA è necessario disporre sia di materiali flessibili e resistenti all’urto a bassa temperatura che di materiali rigidi con caratteristiche
meccaniche costanti anche ad alte temperature
di esercizio ed in ambienti chimicamente
aggressivi.
Lo sviluppo e l’innovazione diventano una attività
integrata che deve tener conto:
• dei prodotti;
• delle tecnologie di trasformazione;
• delle applicazioni.
La messa a punto di prodotti con questa somma di
requisiti è stata particolarmente complessa e ha
richiesto un lavoro in stretta collaborazione tra il
produttore delle poliammidi, trasformatore e
costruttore delle macchine. Il risultato è stato la
riduzione di peso da 2,5 kg a 1 kg, la riduzione del
numero dei pezzi da 20 a 3, una grande semplificazione nelle operazioni di montaggio.
Dal punto di vista dell’economia nazionale, lo spostamento dell’interesse dalle materie prime/prodotti allo sviluppo di un ciclo integrale per la realizzazione di manufatti nuovi o riprogettati nella
nuova ottica, non può che creare valore aggiunto
attraverso:
• conoscenze tecniche diversificate e
• capacità di innovazione anche nei settori tradizionali,
La vera sfida oggi è imparare a gestire con efficacia lo sviluppo tecnologico, generando:
47
• una cultura diffusa di adattamento al cambiamento;
• un approccio consapevole alle nuove tecnologie
da parte delle aziende;
• un buon collegamento tra ricerca pubblica ed
imprese.
Nell’utilizzo di queste risorse non va, tuttavia, sottovalutato l’ostacolo di natura culturale, malgrado
gli sforzi compiuti in questi ultimi anni. Da un lato
le imprese sono ancora diffidenti verso un mondo
percepito come dedito alla sola ricerca di base ed
orientato da meri interessi accademici e scientifici. Dall’altro, la capacità della ricerca pubblica ed
universitaria di tradurre in concrete iniziative di
business i risultati della ricerca è ancora debole.
Le Università e gli Enti di ricerca pubblica (con
alcune eccezioni) faticano a comprendere le esigenze delle imprese ed ad accettarne l’impostazione di problem solving con i requisiti di obiettivi e
di tempi che questo comporta.
In questo contesto, i rapporti tra università ed enti
di ricerca pubblica sono un fattore della crescita e
della qualificazione della base imprenditoriale del
territorio e del Paese.
Questo concetto viene ripreso dalla sopra citata
indagine conoscitiva sull’industria chimica. Una
delle linee di politica industriale prospettate dal
Ministro ha lo scopo di sostenere l’interazione tra
ricerca, sviluppata da Enti (pubblici e privati) e
l’Università, da un lato, e l’attività innovativa delle
PMI dall’altro. Per quanto riguarda il tema dell’innovazione, viene riportato che sia Federchimica
che le rappresentanze sindacali ritengono fondamentale sostenere l’impegno nella ricerca e nello
sviluppo. Entrambi vedono con favore il coordinamento sinergico tra ricerca universitaria e ricerca
degli Enti pubblici e privati.
Per favorire l’innovazione, bisogna quindi superare
gli ostacoli culturali ed incentivare in tutti i modi
un avvicinamento tra il mondo della ricerca pubblica, che genera cultura innovativa, e quello produttivo, che deve inglobare quella cultura nei propri prodotti e servizi o tradurla in nuove iniziative.
È importante sottolineare che ripensare la politica
della ricerca pubblica in chiave di competitività
non vuol dire:
• asservire la ricerca pubblica agli interessi industriali,
• ledere la libertà di sviluppo scientifico e
• privilegiare la ricerca applicata,
Come si colloca il sistema imprenditoriale italiano
rispetto a questi punti? Per fare un esempio a me
più familiare, prendiamo il caso del territorio della
Lombardia.
Il contesto produttivo lombardo coagula oltre 1/3
degli investimenti in innovazione del paese, sostenuti da privati per il 90% e concentrati soprattutto
nella chimica, nelle telecomunicazioni, nell’elettronica e nelle macchine per ufficio.
ma deve essere di stimolo per:
• evitare che una domanda industriale mal definita o inesistente generi programmi inutili o di
mediocre qualità;
• privilegiare la qualità dell’output;
• trasferire su scala industriale i risultati della
ricerca di base, approfondendo anche in maniera scientificamente corretta gli aspetti legati alla
realizzazione dei manufatti (trasformazione,
valutazione delle caratteristiche connesse all’impiego, ecc).
A Milano si deposita il 28% dei brevetti italiani
(pari al 2,5% di quelli europei) ed è forte la correlazione tra brevettazione e i settori di eccellenza
del territorio.
Nel quadro dell’integrazione europea, la struttura
produttiva dell’ area lombarda è portata al confronto con zone a crescita elevata e quindi al benchmarking continuo sui fattori di crescita e sul
meccanismo di sviluppo.
Con numerosi prestigiosi atenei, l’area milanese
è una realtà avanzata per qualità e quantità delle
interazioni tra mondo universitario e sistema
delle imprese. Operano, inoltre, sul territorio
centri di eccellenza rappresentati da Istituti del
CNR quali l’ISM (polimeri), l’ICITE (edilizia),
l’ITIA (meccanica), ITBA (Biotecnologie), l’ITIM
(tecnologie informatiche multimediali) il CESQSE (Centro di elettronica quantistica e strumentazione elettronica).
È necessario, in sintesi, trovare il giusto equilibrio
tra:
• la ricerca di base per il continuo progredire delle
conoscenze e garantire il futuro dell’industria e
• la ricerca applicata per garantire il sopravvivere
dell’industria e creare le risorse per la ricerca di
base.
Come riportato in un documento redatto dal
Gruppo di Lavoro sulla Ricerca di Confindustria, è
importante sottolineare che anche i settori maturi
hanno bisogno di scienza e conoscenza ed i ricer-
48
catori non debbono giudicarli poco stimolanti.
Anzi rappresentano una sfida maggiore perché vi
si svolge ricerca da più tempo e da parte di un
maggior numero di ricercatori.
• nel coinvolgimento operativo di competenze di
ricerca;
• nel rendere leggibile e misurabile l’offerta scientifica in risposta a specifiche esigenze;
• nell’istruzione e presentazione di progetti di
innovazione e sviluppo tecnologico.
La scienza da sola non è sufficiente a garantire
l’innovazione, solo integrando le conoscenze
scientifiche con competenze di mercato e di organizzazione produttiva si può fare reale innovazione
(è difficile pretendere che i ricercatori (siano
dell'Università, degli enti o dell'industria) siano
contemporaneamente Dr Jackyll (menti speculative e geniali) e Mr. Hyde (pragmatici e capaci di
trasformare le idee in fatti). Esistono, ovviamente,
delle eccezioni. Voglio qui ricordare Mario Farina,
grande figura di scienziato e di uomo, che ho
avuto il piacere di avere prima come collega, ai
tempi del Prof. Natta al Politecnico di Milano e poi
come consulente per la Snia Tecnopolimeri. Con
Mario, in quest’ultima veste, abbiamo sviluppato
tecniche di caratterizzazione di poliammidi fondamentali per la loro conoscenza e, in seguito, una
famiglia di nylon a larga distribuzione di pesi
molecolari, molto innovativi ed interessanti dal
punto di vista scientifico e che poi sono stati trasferiti su scala industriale. È necessario, tuttavia,
che anche nella ricerca pubblica si organizzino le
risorse disponibili concentrandosi realmente sulle
tematiche su cui si possa fare massa critica, in
logica di bench marking e competizione per le
risorse.
I risultati di questa esperienza sotto il profilo metodologico sono meritevoli di attenzione in quanto
effettivamente capaci di accelerare il cammino
dell’innovazione delle imprese.
In particolare, attraverso uno specifico strumento, lo
Stato dell’Arte tecnologico, Assotec è riuscita a portare le imprese (ad oggi una trentina) ad utilizzare
l’informazione tecnica e le competenze specialistiche disponibili nelle università e negli enti di ricerca,
come partner operativi per analizzare e determinare
i loro percorsi di investimenti in high tech.
L’utilità dello strumento, difficilmente gestibile in
proprio dalle PMI che non hanno i mezzi e la cultura necessaria per affrontarla, è stata confermata
dalla valutazione delle imprese, operanti in settori
diversi, che hanno ritenuto le proposte scaturite
dallo Stato dell’Arte pienamente applicabili e coerenti con la loro attività di innovazione, e straordinariamente utili al miglioramento della loro competitività tecnologica.
Per aiutare le imprese a fare di più, ad investire
nell’innovazione e a diventare protagoniste dell’high tech occorre anche una maggiore attenzione
sotto il profilo delle risorse disponibili per agevolare la ricerca delle imprese. Il rinnovato quadro di
sostegno alla ricerca che deriva dalla legge
297/99 presenta opportunità interessanti che agevolano la crescita delle imprese. Oggi il 70% delle
domande per ricorrere a questo strumento arriva
dalle PMI, a cui va attribuito anche il 50% dell’utilizzo delle risorse, con una crescita del 300%
rispetto a poco meno di tre anni fa.
In questo contesto è importante il ruolo che possono svolgere le associazioni industriali per:
• aiutare le imprese a far emergere i processi di
innovazione, che pure spesso realizzano senza
averne piena consapevolezza;
• nel rendere strutturale la partnership con il
mondo del sapere;
• nell’orientare la formazione e la ricerca alle
nuove esigenze dello sviluppo industriale;
• nel reperire competenze capaci di trasferire
know-how soprattutto al sistema delle PMI.
Questo non significa che non esistano problemi.
Almeno due elementi non sono coerenti con le esigenze del sistema produttivo:
L’approccio attivo nel promuovere la propensione
all’attivazione
del
sistema
ha
portato
Assolombarda a creare con il CNR e la Camera di
Commercio una struttura specializzata con il compito di qualificare i processi di innovazione delle
imprese, di avvicinarle nel concreto al know-how
delle Università e degli Enti di ricerca (Assotec)
• il livello della copertura finanziaria della misura
assicurata per il 2002 per le imprese che operano in un’area “non obiettivo” come in generale
quella lombarda;
• i tempi di attraversamento delle domande fino
alla fase di erogazione dei benefici, che vanno
ridotti consistentemente, coinvolgendo di più
nella valutazione dei progetti esperti di matrice
ed esperienza industriale.
Assotec aiuta le imprese:
• nell’analisi dei bisogni di innovazione;
49
Anche questo punto viene toccato dall’indagine
conoscitiva della Commissione Ministeriale, dove
si riporta che la FULC ha sottolineato l’opportunità
di un intervento pubblico maggiore nel sostegno
all’attività di ricerca e di innovazione delle industrie del settore, ed il Ministro ha messo in rilievo
l’opportunità di una politica specifica attraverso un
miglior utilizzo dei programmi europei e degli strumenti di supporto per le PMI.
in contrasto tra loro e, sopratutto, di non aver
avanzato alcuna idea.
Ritengo, perciò, utile tentare alcune proposte che
possono stimolare un dibattito (sicuramente) ed
aiutare (forse) a trovare una soluzione.
1. È stato appena pubblicato sul Corriere della
Sera (7/3/2002) una lettera aperta del mondo
accademico ai Ministri Moratti e Tremonti.
Sicuramente, il cercare di trarre delle conclusioni
da stralci di un documento, riportati e selezionati
da un giornalista, può portare a considerazioni
sbagliate. Inoltre, in un settore delicato come quello della ricerca non è possibile arrivare ad una
generalizzazione dei concetti. Le diverse aree di
ricerca, per il diverso grado di maturazione, per le
modalità di applicazione dei risultati sono completamente diverse tra loro. Ciò che è valido per la
medicina o le biotecnologie, può non essere valido per i materiali o l’elettronica.
Più recentemente il sostegno all’innovazione passa
anche attraverso leggi attribuite alla competenza
regionale. Si tratta di leggi efficaci ed apprezzate
dalle imprese, anche perché intervengono a sostenere proprio quell’innovazione realizzata dagli uffici tecnici in azienda, come nel caso della L.
140/97. Anche in questo caso il problema è l’inadeguatezza delle risorse: per la Lombardia vi sono
60 miliardi di disponibilità a fronte di 130 miliardi
di richieste.
In conclusione, mi preme richiamare alcune direttrici attorno alle quali far convergere gli sforzi
comuni:
Un primo punto dibattuto riguarda l’istituzione di
un censimento dei soggetti capaci di svolgere
buona ricerca, quale prerequisito per invogliare
l’investimento di privati. La posizione degli accademici, riportata tra virgolette, è “… dopo anni di
discussione non c’è bisogno di un censimento dei
capaci. Nelle nostre Università si continuano a formare bravi ricercatori e la dimostrazione sta nel
fatto che ci vengono rubati dai Centri stranieri” e
poi a dimostrazione del buon livello dei nostri
scienziati si citano statistiche dalle quali risulta
come il numero dei loro articoli pubblicati su
diversi periodici di prestigio sia considerevole e
per nulla inferiore a quello di altri paesi.
• valorizzare università ed enti di ricerca, portatrici di un potenziale enorme di creatività ed innovazione, con misure a sostegno della produttività
scientifica del personale che valorizzino le eccellenze e facilitino l’impiego produttivo delle conoscenze acquisite (è giusto ed essenziale che lo
Stato spenda più in ricerca, ma ritengo che questi fondi non debbano finanziare solo l'ambizione
di gloria di qualcuno (notorietà attraverso articoli e pubblicazioni), ma debbano ricadere anche
sul sistema Italia);
• moltiplicare le occasioni di rapporto e scambio
tra università ed Enti di Ricerca ed imprese, perché giovani ricercatori “respirino dal vivo” l’ambiente delle imprese acquisendo on the job le
necessarie competenze manageriali;
• sostenere la realizzazione di reti di trasferimento
tecnologico in grado di coinvolgere i soggetti
locali e territoriali e di qualificare la domanda di
innovazione;
• infine, creare occasioni di sostegno allo sviluppo
di nuove idee e nuove imprese high tech con
l’accesso a capitali di rischio.
Personalmente non condivido che il livello di
eccellenza (con alcune eccezioni di riviste di livello eccezionale e con contenuti trasversali alle
diverse discipline) si possa rilevare dall’impact
factor delle riviste su cui vengono pubblicati gli
articoli. Ciascun buon professionista della ricerca
è in grado di pubblicare articoli su ottime riviste a
supporto delle (poche) scoperte fondamentali.
Sono risultati molto utili per raccogliere casisticamente dati che possono servire a confermare o
perfezionare scoperte importanti, ma che non rappresentano certamente un break through nel settore.
Ho acconsentito a far pubblicare queste considerazioni per l’insistenza dell’amico Mario
Malinconico e perché ritengo l’argomento fondamentale per lo sviluppo del nostro paese. Nel
rileggerlo mi sono reso conto che ho raccolto una
serie di considerazioni, valida ciascuna per se, ma
Per quanto riguarda la “fuga dei cervelli”, gli unici
dati che ho trovato (di fonte National Science
Foundation, citati dal Sole 24 ore dell’1/11/01)
riguardano statistiche di emigrazione dei cervelli
in USA. Nell’anno in considerazione (1993) i cer-
50
velli italiani emigrati sono solo il 2,5% del totale
Europa (64 su 2540). L’Italia viene dopo anche a
Grecia, Irlanda, Olando, Svezia, paesi ben più piccoli del nostro ed è solo sopra a Austria, Belgio,
3. Un altro concetto riportato nella lettera aperta
dice “… E tutto non può essere ridotto alla sola
indagine di interesse industriale perché le grandi
scoperte utili sono frutto di una ricerca libera.”
Da un punto di vista di principio questo concetto è
del tutto condivisibile. Forse può avere diverse
sfumature in funzione del settore in cui si opera.
Negli stralci della lettera riportati dal Corriere non
si fa alcun accenno al ruolo che può svolgere la
ricerca pubblica nei problemi di interesse industriale o su come trovare un risvolto industriale alle
scoperte utili.
Poiché questi erano semplici appunti per la partecipazione ad un Forum che prevedeva un dibattito, ma non un testo scritto, non ho citato la fonte
di alcuni concetti o dati che, visto lo scopo originario di queste note, ho ripreso senza modifiche.
Me ne scuso con gli autori.
Danimarca, Norvegia, Spagna, Svizzera. Visto così
il fenomeno non sembra rilevante. Sarebbe molto
interessante poter disporre di dati più recenti e,
soprattutto, più strutturati (ad esempio divisione
tra stages brevi e trasferimenti permanenti).
4. Quale può essere allora un modello possibile?
Alla fine degli anni ’50 era stato sviluppato il
modello “Natta”, dove una scoperta fondamentale
era stata industrializzata attraverso il rapporto preferenziale con una grande industria privata
(Montecatini) che aveva messo a disposizione
ricercatori e mezzi.
In conclusione, come in tutti i settori professionali
ritengo che anche scienziati e ricercatori universitari si suddividano in diverse categorie “geni”
(pochi), Ricercatori, e onesti lavoratori della ricerca. Nel nostro settore conosco senz’altro molti
ottimi ricercatori, ma ritengo anche che molti dei
professori siano dei buoni professionisti della ricerca. Ovviamente, si possono avere elevate capacità didattiche e profonda conoscenza del proprio
settore (caratteristiche fondamentali per un professore) senza rientrare nella categoria dei “geni”
della ricerca.
Per quanto riguarda la mia esperienza professionale, questo stesso modello (su scala ridotta) era
stato poi applicato con successo nel già citato rapporto Farina/Snia, ma senz’altro è stato utile per
altri grossi gruppi (Eni, Pirelli, ecc.). Il punto fondamentale è che in questi casi la cinghia di trasmissione tra “ricerca” ed “innovazione” era rappresentato dai Centri di Ricerca dei grossi gruppi
industriali. Questo modello è ancora valido? Per
quanto riguarda il nostro settore ne dubito fortemente per i motivi citati al punto successivo.
In un recente dibattito sull’argomento a cui ero
stato invitato, uno dei partecipanti di prestigio ha
affermato “i professori sono più appagati dai risultati scientifici …”.
5. L’evoluzione nel settore delle materie plastiche
a livello mondiale (maturazione dei polimeri anche
a maggior contenuto tecnico, arresto dello sviluppo di nuovi polimeri ad altissime prestazioni, fondamentalmente per il loro costo elevato, spostamento dell’interesse dalle materie prime/prodotti
allo sviluppo di un ciclo integrale per la realizzazione di nuovi manufatti) ha avuto effetti particolarmente rilevanti in Italia. Tutte le maggiori aziende italiane del settore hanno ricercato alleanze con
altri produttori con la costituzione di j.v. che consentissero di disporre di volumi maggiori e dei
vantaggi della integrazione, ad esempio l’EVC
(PVC), la Montell (PP), Nylstar e Nyltech (PA), la
Polimeri Europa (PE). Contemporaneamente
erano state cedute le attività in cui non si era riusciti a raggiungere una massa critica sufficiente, o
attraverso accordi o autonomamente (PC, PBT,
PMMA). Questo approccio ha portato alla creazione di società di singolo prodotto con conseguente
riduzione delle spese di ricerca, particolarmente
Se questa è la situazione è inutile che si continui
ad organizzare dibattiti e convegni sul tema della
collaborazione tra pubblico e privato per spingere
l’innovazione.
2. Anche nel CNR ci ritroviamo l’impact factor
come fattore determinante di selezione. Ho fatto
parte, recentemente di due commissioni in due
differenti Istituti per la nomina, rispettivamente, di
primi ricercatori e di ricercatori. Uno dei fattori
prevalenti per la selezione era di nuovo l’impact
factor, mentre non era presa in considerazione l’attività di trasferimento tecnologico dei risultati e di
supporto ad aziende di qualsiasi dimensione. È
quindi comprensibile ed umano che i ricercatori
prediligano il primo punto rispetto al secondo.
Anche qui vale il commento finale del punto precedente.
51
quelle proiettate verso una diversificazione o rinnovamento del portafoglio prodotti (il gestore di
un singolo prodotto sa di essere valutato sulle sue
performances e non ha alcun interesse a spese
non direttamente connesse con il suo business).
Nell’arco dell’ultimo decennio si è, quindi, assistito al ridimensionamento o chiusura di centri di
ricerca che rappresentavano punti di competenza
di notevole valore.
responsabile. Ricercatori di base incaricati di sviluppare ricerche fondamentali e ricercatori incaricati di perfezionare i risultati della ricerca in azioni
innovative (mantenendo la distinzione iniziale). I
ricercatori dei due gruppi dovrebbero avere diverse vie valutative, ma avere le stesse opportunità
economiche o di ruolo. È ovvio che se il capo del
dipartimento dovrà sempre provenire dai ricercatori di base la parità tra i due gruppi sarà sempre
fittizia.
Una ulteriore evoluzione di questa situazione sembra essere quella che in realtà, essendo le Società
chimiche italiane di dimensioni modeste e non
integrate a monte rispetto a quelle straniere, le j.v.
sembrano destinate a sciogliersi passando ai partners stranieri (Montell, Nyltech, Novalis EVC, in
cui la quota ENI è diventata largamente minoritaria, i poliuretani, con conseguente spostamento
del baricentro della ricerca all’estero). Sono note
le ultime notizie riguardanti la cessione dei polimeri fluorurati e le trattative in corso tra ENI ed un
gruppo arabo per la cessione dei pochi polimeri
rimasti e degli elastomeri.
Non va dimenticata la necessità di estendere la
ricerca scientifica anche alle problematiche del
processing e delle applicazioni, sul modello
dell’IKV o del Fraunhofer.
7. Una via, forse, più funzionale potrebbe essere
quella di delegare al CNR (opportunamente motivato e finanziato) il ruolo di “cinghia di trasmissione”
tra ricerca universitaria di base ed innovazione.
Avendo fatto per tutta la mia vita professionale il
ricercatore, prevalentemente industriale ma anche
per periodi significativi presso il Politecnico e
l’Università del Massachusetts, sono convinto che
le soddisfazioni professionali non mancherebbero.
Il vedere i risultati della propria ricerca trasformati
in impianti ed in prodotti industriali da le stesse
motivazioni di un buon articolo pubblicato su di
una rivista ad alto impact factor.
È interessante notare che altre Società ritenute “di
secondo piano” si stanno affermando in questo
periodo con successo in business considerati non
più redditizi dal gruppo delle Società storiche. Si
possono citare il gruppo Radici, il gruppo MG,
l’Aquafil, ecc. per la loro maggior flessibilità e
capacità di operare in un settore maturo.
Voglio chiudere citando delle mie recenti esperienze maturate collaborando con Assotec.
Nell’ambito di questa collaborazione ho contribuito ad organizzare incontri tecnici tra ricercatori
pubblici ed industrie su diversi temi, tutti con una
forte carica di innovazione..
In Italia è sempre esistita una grossa anomalia. Da
un punto di vista commerciale, come detto, lo sviluppo del settore è prevalentemente legato ai settori a valle (trasformazione, costruzione di macchine, utilizzo), contemporaneamente non esiste in
Italia una ricerca ed una cultura tecnico-scientifica
di alto livello in queste aree (con alcune rare eccezioni). Nella ricerca macromolecolare scientifica
ed universitaria, l’importanza maggiore è sempre
stata data alla sintesi, alla valutazione delle caratteristiche chimico-fisiche dei polimeri, alla loro
struttura, ecc. In queste aree la scuola italiana è di
altissimo livello anche su scala mondiale.
Per quanto riguarda il nostro settore, in alcuni casi
vi sono stati titolari o responsabili di PMI che
hanno colto immediatamente l’importanza industriale di alcuni dei risultati presentati e ci hanno
chiesto di essere messi in contatto con i relatori
per approfondire l’argomento.
Quegli stessi ricercatori, che avevano accolto con
entusiasmo l’opportunità e collaborato a varare l’iniziativa, al momento opportuno di concretizzare i
risultati della loro ricerca, non hanno ritenuto (perché?) di dare seguito ai contatti e di collaborare
allo sviluppo industriale della loro ricerca.
6. Se si condivide che il quadro industriale è quello sopra descritto, quali possono essere le vie da
suggerire, se si ritiene essenziale incrementare
l’innovazione attraverso il travaso di scienza nelle
PMI, che ormai rappresentano la stragrande maggioranza delle industrie del settore?
Così come in molti casi le PMI si sono rapidamente ritirate a fronte di richieste economiche non particolarmente rilevanti in assoluto ed eque per raggiungere l’obiettivo concordato.
Una via, da valutare quanto percorribile, potrebbe
essere quella di prevedere nell’ambito di dipartimenti, Istituti ecc. di due tipi di figure al di sotto del
52
Sono sicuro che del rapporto tra enti pubblici e
PMI continueremo a sentirne parlare come di una
grande opportunità.
Per chi e per cosa?
Dopo la laurea in Chimica Industriale Antonio Casale è stato assunto dalla Soc. MONTECATINI ed
inviato all'Istituto di Chimica Industriale del Politecnico di Milano, diretto dal Prof. Natta.
Dal 1960 al 1977 ha lavorato per la stessa Società, inizialmente come responsabile della ricerca
applicata, sviluppo ed assistenza tecnica delle resine termoplastiche del Centro Ricerche Resine
(ABS, PMMA, POM) e quindi come Vice Direttore. Nel 1976 è stato nominato Direttore dell'Unità di
Linate (R&D e produzione dei polimeri fluorurati e dei relativi monomeri).
Nel 1977 è stato assunto dalla SNIA-BPD come Direttore della Ricerca e Sviluppo di tecnopolimeri,
film speciali per l'imballaggio flessibile e compositi. Dopo alcune esperienze manageriali nel 1987 é
stato nominato Amministratore Delegato della SNIA Tecnopolimeri e nel 1990 Responsabile del
Settore Materiali del Gruppo.
Nel 1992, dopo il suo ritiro, ha continuato la sua cooperazione con la SNIA come responsabile del
coordinamento dello sviluppo materiali del gruppo e come Direttore della Scienza e Tecnologia della
Ricerca Centrale.
Nel 1997 ha iniziato la collaborazione con il “Centro di cultura delle materie plastiche”, di cui è
attualmente Vice Presidente, una associazione costituita tra un consorzio di aziende private
(Proplast) ed il Politecnico di Torino per promuovere lo sviluppo e la ricerca delle materie plastiche
e per organizzare la prima laurea in Italia in ingegneria delle materie plastiche presso la sede di
Alessandria dello stesso Politecnico.
Dal 2001 è inoltre consulente di Assotec, una Società partecipata da Assolombarda, la Camera di
Commercio di Milano ed il CNR (Consiglio Nazionale delle Ricerche), specializzata nel trasferimento di tecnologie alle PMI.
Nel 2001 è stato anche nominato Presidente della Sniaricerche, Società di ricerca facente capo al
Gruppo Ergom, Società leader nella produzione di componentistica nel settore trasporti.
Nel 1969-1970 è stato, come visiting scientist, presso il Polymer Engineering and Science
Department dell’Università del Massachusetts, svolgendo ricerche sulla reologia e degradazione
meccanica dei polimeri.
È stato assistente del corso di "Tecnologia delle Materie Plastiche" presso l'Istituto di Chimica
Industriale del Politecnico di Milano. È stato membro del Consiglio
Scientifico dei principali Istituti del CNR del settore macromolecolare
(Genova, Napoli, Milano).
È autore di circa 60 articoli e brevetti e del libro in due volumi "Polymer
Stress Reactions" pubblicato dall’Academic Press (New York) e dalla
Chimia (Mosca").
Ha svolto una intensa attività associativa: è tra i soci fondatori della Società
Italiana di Reologia, della sezione italiana dello SPE, dell'Associazione tra
Tecnici delle Materie Plastiche.
È stato Presidente dell'AIM, Associazione Italiana di Scienza e Tecnologia
delle Macromolecole, nel biennio 1993-1995.
Nel 1997 l’Associazione tra Tecnici delle Materie Plastiche gli ha conferito
il “Premio alla carriera” per avere contribuito alla crescita del settore.
53
I Congressi futuri
Nei due ultimi numeri di AIM Magazine abbiamo dedicato ampio spazio a quattro importanti manifestazioni organizzate o sponsorizzate da AIM che ormai sono alle porte. La prima è il Convegno-Scuola
AIM, le altre tre sono tre Convegni internazionali.
Ricordiamo ai potenziali interessati che è ancora possibile iscriversi.
Ecco i titoli delle manifestazioni:
1) XXIV Convegno-Scuola AIM “Mario Farina” su Additivi per Materiali polimerici, Palazzo Feltrinelli,
Gargnano (Brescia), 26-31 maggio 2002.
2) Europolymer Conference 2002 (EUPOC 2002), Polymeric Gels: Interestin Synthetic and Natural
Soft Materials, Palazzo feltrinelli, Gargnano (Brescia), June 2-7, 2002.
3) 2nd International Conference on Polymer Modification, Degradation and Stabilization (MoDeSt
2002), Budapest, Hungary, 30 June-4 July 2002.
4) 1st Blue Sky Conference on Catalytic Olefin Polimerization, Sorrento (Italy), 17-20 June, 2002.
Prendere contatto con gli organizzatori od iscriversi è molto semplice, basta andare sul sito dell’AIM
http://www.aim.it e troverete i link specifici di tutte e 4 le manifestazioni.
JOURNÉES TRANSALPINES
POLYMÈRES 2002
DES
Torino, 26-27 Settembre 2002
INNOVATION IN POLYMERIC MATERIALS:
PROPERTIES, FORMULATION AND PROCESSING
I
l Politecnico di Torino, insieme con AIM, organizza per il prossimo autunno la sesta edizione delle
Journées Transalpines des Polymères. Questo convegno si è tenuto la prima volta a Biviers nel
1997 a cura del Groupe Francais Polymères ed è divenuto un appuntamento consueto per i ricercatori delle regioni transalpine di Italia, Francia e Svizzera. Il suo scopo primario è di favorire la cooperazione tra le Università, gli enti di ricerca e le industrie che operano nel campo delle macromolecole. Le discussioni, attraverso comunicazioni orali e comunicazioni poster, riguarderanno la sintesi,
la caratterizzazione, la formulazione e la trasformazione dei materiali polimerici.
Inoltre le giornate costituiscono tradizionalmente un momento di confronto delle attività formative di
I, II e III livello nelle scienze e nell’ingegneria dei polimeri e di presentazione delle iniziative transfrontaliere avviate.
Co-organizzatore delle Journees è l’Innovation Relay Centre di Torino, insieme con le analoghe organizzazioni svizzere e francesi, che curerà lo spazio dedicato alle imprese e alle attività di trasferimento tecnologico.
Tutti ricercatori e gli studenti interessati possono contattare:
Roberta Bongiovanni, Dip. di Scienza dei Materiali e Ingegneria Chimica Politecnico di Torino
Corso Duca degli Abruzzi 24 - 10129 Torino - Tel. +39 011 5644619 - Fax. +39 011-5644699
E-mail: [email protected] - Sito web: http://fenice.polito.it/jtp2002
54
International Symposium on
“STEREOSPECIFIC POLYMERIZATION AND
STEREOREGULAR POLYMERS” (EUPOC 2003)
in honor of Giulio Natta on the occasion of the centenary of his birth
Milano, Italy, June 8-12, 2003
Organizers
The Conference is organized by:
• Politecnico di Milano
• Istituto per lo Studio delle Macromolecole, CNR di
Milano, ISMAC
• European Polymer Federation, EPF
• Associazione Italiana di Scienza e Tecnologia delle
Macromolecole, AIM
• Società Chimica Italiana, SCI
TOPICS
• Traditional Catalysts
• Metallocene Catalysts
• More Recent Catalysts
• Molecular Modeling and Polymerization Mechanism
• Structural Aspects and Properties of Stereoregular
Polymers
• New Products and Processes
All papers presented at the EUPOC 2003 will be
published in a volume.
A Book of Abstracts will be presented to anyone
attending the Conference.
International Advisory Board
L. Porri (chairman), C. Albertsson, E. Albizzati, G.
Allegra, H.H. Brintzinger, G. Cecchin, F. Ciardelli, P.
Corradini, J.J. Eisch, T. Keii, P.J. Lemstra, M. Möller,
S. Slomkowski, R. Spitz, V. Zakharov, A. Zambelli
• Location
EUPOC 2003 will be held at the Centro Congressi
Cariplo, Via Romagnosi 16, which is located in the
center of Milan, close to the Duomo, Castello
Sforzesco and other ancient monuments. The Centro
Congressi can be easily reached by public transport.
Milan is ideally located for pre- or post-Conference
tours to the Alps, the Lake District, Venice, Florence
and other Italian tourist attractions.
Scientific and Organizing Committee
G. Costa, G. Di Silvestro, F. Forlini, M.C. Gallazzi A.
Giarrusso, P. Locatelli, S.V. Meille, R. Passera, B.
Pistoresi, G. Ricci, M.C. Sacchi, P. Sozzani, E.
Taburoni, I. Tritto
Objective and Scope
EUPOC 2003 is organized in honor of Giulio Natta,
on the occasion of the centenary of his birth (26
February 1903).
Almost fifty years have elapsed since the first revolutionary syntheses of isotactic and syndiotactic polymers, carried out by Giulio Natta at the Polytechnic
of Milan, using the new organometallic catalysts
discovered by Karl Ziegler. The work of Ziegler and
Natta opened up the era of Metal Catalyzed
Stereospecific Polymerization, which produced such
a dramatic impact on science and technology.
The vitality of this field is witnessed by the current
worldwide intense research activity, which produces
new unexpected developments year after year.
The Conference is intended as a forum for discussing
new results and perspectives in the field of catalysts,
synthesis, characterization and applications of polyolefins.
• Language
English will be the official language of the
Conference.
• Call for Papers
The Organizing Committee will select 80-100 contributed papers to be presented either as 15 min. Short
Communications or Posters (including 5 min. presentations).
Those who wish to present Contributed Papers at the
Conference are kindly requested to make this clear in
the Preregistration Form.
Instructions for the preparation of abstracts of scientific contributions will be reported in the 2nd circular,
which will be available from the website by
September 2002 along with Registration and Hotel
Accommodation forms.
The deadline for sending the Abstracts of the
Communications and for Registration is February 8,
2003.
Scientific Programme
EUPOC 2003 will include approximately 20 Invited
Lectures (30 min.), 30 Short Communications (15
min.), and Poster Sessions (5 min. oral presentations).
Scientific Secretariat
Giovanni Ricci, ISMAC - CNR, Via E. Bassini 15,
20133 Milano - ITALY
Tel. +39.02.23699376-378 - Fax +39.02.2362946 E-mail: [email protected]
55
CALENDARIO CONGRESSI
2002
16-21 giugno
Orlando, FL
USA
Nanostructurated Materials (NANO 2002)
Lawrence Kabacoff, Materials Division, Office of Naval Research, 800 North Quincy St., Arlington,
VA 22217-5660, USA; Fax +1 703 696 0934; E-mail: [email protected]; http://www.nano2002.com
16-21 giugno
South Hadley, MA
USA
Zeolitic and Layered Materials, Gordon Research Conference
Gordon Research Conference, c/o University of Rhode Island
Fax +1 401 783 7644; E-mail: [email protected]; http://www.grc.uri.edu
17-21 giugno
Sorrento
Italia
1st Blue Sky Conference on Catalytic Olefin Polymerization, Hilton Sorrento Palace Hotel
and Conference Centre in Sorrento, Italy
1st COP-Attn. Dott.ssa Roberta Cipullo, c/o Dipartimento di Chimica, Università di Napoli “Federico II”,
via Cintia, 80126 Napoli (Italy)
Fax +39-081-674090; E-mail: [email protected]; http://chemistry.unina.it/jlpo/bluesky
17-19 giugno
Novi
Michigan, USA
TPOs In Automotive 2002, 8th International Conference
Amos Golovoy; Tel. 313-323-1419; Fax 313-323-1129; E-mail: [email protected]
http://www.executive-conference.com
30 giugno-4 luglio
Budapest
Ungheria
2nd International Conference on “Polymer Modification, degradation and Stabilisation” (MoDeSt2002)
Conference Secretary: Mr. Gábor Toth, Budapest University of Technology and Economics,
Professors Guest House, H-1111 Budapest, Stoczek u. 5-7, Hungary
Tel. +36 1 463 3939; Fax +36 1-463-3936; E-mail: [email protected]; http://www.bme.hu/modest
1-5 luglio
Athens
Grecia
Coatings Science and Technology
Institute of Materials Science, Division of Program Organisation, PO Box 369, New Paltz, New York
12561, USA; Tel. +1 914 255 0757; Fax +1 914 255 0978
E-mail: [email protected]; http://www.ims-np.org/
1-6 luglio
San Diego
California
9th International Conference on Composities Engineering (ICCE/9)
Dr. David Hui, University of New Orleans, Dept. of Mechanical Engineering, New Orleans, LA 70148
Tel. 504 280-6652; Fax/Tel. 504 280-6192
E-mail: [email protected]; http://www.uno.edu/engr/composite
7-12 luglio
Tolosa
Francia
INCOM 2002-International Congress on Membranes and Membrane Processes
Marie-Hélène Gulli, Laboratoire de Génie Chimique, Université Paul Sabatier, F-31062 Tolulouse
Cedev, France; E-mail: [email protected]; http://www.ems.cict.fr
7-12 luglio
Beijing
Cina
39th International Sumposium on Macromolecules
Secretariat, MACRO 2002, P.O. Box 2709, Beijing 100080, China
Fax +86-10-62562417; E-mail: [email protected]
9-11 luglio
London
Gran Bretagna
The Effect of Polymer on Dispersion Stability
Prof. P. Luckham, Imperial College of Science, Technology and Med., Exhibition Road, London SW7 2 AZ, UK
Tel. +44 0 20 7594 5583; E-mail: [email protected]
10-14 luglio
Acquafredda di
Maratea, Italia
ELASTIN2002 - Second European Symposium
Antonio M. Tamburro (Elastin2002-Chairman), Dept. of Chemistry, Via N. Sauro 85, 85100 Potenza, Italy
Tel. (Office) + 39 0971 202242 - (Laboratory) +39 0971 202247; Fax +39 0971 202223
E-mail: [email protected]; http://www2.unibas.it/utenti/biotechnology/index.htm
10-12 luglio
Manchester
Gran Bretagna
Polymer Fibres 2002
John Herriot, Polymer Fibres 2002, Meetings Management, The Barn, Rake Meadow, Station Lane,
Milford, Surrey, GU8 5AD, UK; Tel. +44 0 1483 427770; Fax +44 0 1483 428516
E-mail: [email protected]; htto://www.meetingsmanagemet.com
56
14-18 luglio
San Diego
California
USA
Polymers and Organic Chemistry
Prof. Spiro Alexandratos, Office of Academic Affairs, City University of New York, 535 East 80th Street,
New York 10021, USA; Tel. +1 212 794 5470; Fax +1 212 794 5796; E-mail: [email protected]
Prof. Warren T. Ford, Dept. of Chemistry, Oklahoma State University, Stillwater, Oklahoma 74078, USA;
Tel. +1 405 744 5946; Fax +1 405 744 6007
14-19 luglio
Irsee
Germania
Polymer Colloids: Preaparation& Properties of Acqueous Polymer Dispersion
United Engineering Foundation, 3 Park Avenue, 27th Floor, New York, NY, USA 10016-5902
Tel. +1 212 591 7836; Fax +1 212 591 7441; E-mail: [email protected]; http://www.engfnd.org
15-18 luglio
Praga
Cecoslovacchia
21st Discussion Conference and 9th International ERPOS Conference on “Electrical and
Related Properties of Polymers and Other Organic Solids”
Prof. Dr. Drahomir Vyprachticky, Institute of Macromolecular Chemistry,
Academy of Sciences of the Czech Republic, Heyrovského nam. 2, 162 06 Praha 6, Czech Republic
Tel. +420 2 20403251 or +420 2 20403332; Fax +420 2 35357981
E-mail: [email protected] [email protected]
21-25 luglio
Sydney
Australia
ACUN-4 International Composites Conference "COMPOSITE SYSTEMS-Macrocomposites,
Microcomposites, Nanocomposites", UNSW
Dr. Sri Bandyopadhyay, School of Materials Science and Engineering, UNSW, Sydney 2052, Australia
Tel. +61 2 9385 4509; Fax. +61 2 9385 5956
E-mail: [email protected]; http://www.materials.unsw.edu.au
22-25 luglio
Praga
Repubblica Ceca
4th International Conference on Polymer-Solvent Complexes and Intercalates
P.M.M. Secretariat, Institute of Macromolecular Chemistry, Academy of Sciences of the Czech Republic,
Heyrovsk No 2, 162 06 Praha 6, Czech Republic
Tel. +420 2 20403111; Fax +420 2 35357 981; E-mail: [email protected]
27 luglio-1 agosto
Warwick
UK
MACRO International Conference on Polymer Synthesis, "Warwick 2002"
Prof. D.M. Haddleton, Warwick 2002, Dept. Of Warwick, Coventry, CV4 7AL, UK
E-mail: [email protected]; http://www.warwick.ac.uk/polymers;
http://www.warwickpolymer.com/conference.htm
5 8 agosto
Langzhou
Cina
12th Internatinal Symposium on Fine Chemistry and Functional Polymer (FCFP-XII)
Prof. Alvise Benedetti, Dip. di Chimica Fisica, Università Ca' Foscari, Calle Larga S. Marta D.D. 2137,
30123 Venezia - Italy; Fax +39 041 234-8594; E-mail: [email protected]
Prof. Rong-Min Wang, Institute of Polymer, Northwest Normal University, Langzhou, 730070, Cina
Tel. +86 931 797 1999; Fax +86 931 766 3356; E-mail: [email protected]
25-29 agosto
Venezia
Italia
XII Conference on Small Angle Scattering
Prof. Alvise Benedetti, Dip. di Chimica Fisica, Università Ca' Foscari, Calle Larga S.Marta D.D. 2137,
30123 Venezia - Italy; Fax + 39 041 234-8594; E-mail: [email protected] http://www.unive.it/sas2002
2-6 settembre
Autrans
Francia
16th Polymer Networks Group Meeting, Polymer Networks 2002 Functional Networks and Gels
Polymer Networks 2002, Lab. de Spectrometrie Physique, Università J. Fourier de Grenoble, BP 87,
38402 Saint Martin d'Heres cedex, Francia; Tel. +33 476 63 58 23; Fax +33 476 51 45 44
E-mail: [email protected]; http://www.lsp.ujf-grenoble.fr/netw2002
8-11 settembre
Ostend
Belgio
2nd International Symposium on “Feedstock Recycling of Plastics & other Innovative
Plastics Recycling Techniques (ISFR’2002)
Mrs. Kristel Praet, M.Sc., Research and Development Belgium (RDB), Leo de Bethunelaan 80, 9300
Aalst, Belgium, Tel./Fax 0032-53786355; E-mail: [email protected]
Prof. Dr. Ir. A. Buekens, Free University of Brussels, Dept. Chemical Engineering CHIS-2, Pleinlaan 2,
1050 Brussels, Belgium; Tel. 0032-26293247; E-mail: [email protected]
Web Site: http://wwwtw.vub.ac.be/chis2/
12-13 settembre
Pisa
International Workshop on “Advanced Frontiers in Polymer Science”, also celebrating
the 65th birthday anniversaries of Emo Chiellini and Francesco Ciardelli
For further information, contact: G. Galli, e-mail: [email protected]
R. Solaro, E-mail: [email protected]
15-18 settembre
Les Diablerets
Svizzera
Fves-3rd ESIS TC4 Conference on Polymers and Composites
AFPS 2002, Attn: Ms. Maria G. Viola, Dept.of Chemistry, via Risorgimento 35, 56126 Pisa (Italy)
Tel. +39 050 918299; Fax +39 050 28438; E-mail: E-mail: [email protected]
19 settembre
Salerno, Italia
Giornata su “I processi di trasformazione di materiali polimerici”
Organizzata dal Dip. di Ingegneria Chimica e Alimentare dell’Università di Salerno
Informazioni possono essere richieste direttamente all’indirizzo e-mail [email protected]
Il programma sarà pubblicato appena possibile sul sito web del Dipartimento di Ingegneria Chimica
dell’Università di Salerno all’indirizzo www.dica.unisa.it/events.htm
Comitato org.: G. Titomanlio, R.Nobile, L. Incarnato, V. Brucato, L . Di Maio, R. Pantani
57
19-20 settembre
Gent
Belgio
International Symposium “Polymer Chemistry for the Design of New Materials”
Ghent University “Het Pand”; http://www.rug.ac.be/new_materials/
21-26 settembre
Sainte-Adéle
Québec
Canada
5th International Symposium on “Ionizing Radiation and Polymers” (IRaP2002)
Contact information: IRaP2002, Conference secretariat, Curly Dog Communications Inc.
Tel. +1-514-481-8086; Fax +1-514-481-9143; E-mail: [email protected]
http://irap2002.phys.polymtl.ca
25-27 settembre
Halle/Saale
Germania
Polymeric Materials
Dr. Lotar Fiedler, Martin-Luther-Universitaet Halle-Wittemberg, FB Ingenierurwissenschaften,
D-06099 Halle/Saale, Germany; E-mail: [email protected]
26-27 settembre
Torino
Journèes Transalpines des Polyméres 2002: Innovation in Polymeric Materials:
properties, formulation and processing
Roberta Bongiovanni, Dipartimento di Scienza dei Materiali e Ingegneria Chimica, Politecnico di Torino,
c. Duca degli Abruzzi 24 10129 Torino
Tel. + 39 011 5644619; Fax + 39 011-5644699 ; E-mail: [email protected]
25 settembre
London
UK
Slow Dynamics in Soft Matter: Common Structures in Diverse Systems
Royal Society Discussion Meeting; Tom McLeish, IRC in Polymer Science & Technilogy,
University of Leeds, Woodhouse Lane, Leeds LS2 9JT, UK
Tel. +44 0 113 233 3845; Fax +44 0 113 233 3846; E-mail: [email protected]
7-9 ottobre
Vienna
Austria
Macromolecules in the 21st Century
Dr. Lotar iedler, Martin-Luther-Universitaet Halle-Wittemberg, FB Ingenierurwissenschaften,
D-06099 Halle/Saale, Germany
Dr. Helga Roder, Managing Director, Gesellschaft fuer Chemiewirtschaft, Rudolf Sallingerplatz 1/523,
A-1030 Wien, Austria; E-mail: [email protected] or [email protected]; http://www.macrovienna.org
2-5 dicembre
Kyoto
Giappone
IUPAC Polymer Conference on “The Mission and Challenges of Polymer Science and
Technology (IUPAC-PC2002)
IUPAC-PC2002 Secretariat, The Society of Polymer Science, Japan, Shintomicho-Tokyu Building, 3-10-9
Irifune, Chuo-ku; Tokyo 104-0042 Japan
Tel. +81-3-5540-3775; Fax +81-3-5540-3737; E-mail: [email protected]
2003
25-30 maggio
Palazzo Feltrinelli
Gargnano (BS)
Italia
2nd EPF School and XXV Mario Farina School “Nanostructured Polymer Materials”
In collaborazione con il Group Français des Polymeres (GFP)
Prof. Giovanni Camino, C.Cult.Ing.Mat.Plast - Polit.Torino, sede Alessandria, Viale T. Michel 5,
15100 Alessandria; Tel. 0131-229318; Fax 0131-229331; E-mail: [email protected]
8-12 giugno
Milano
International Symposium on “Stereospecific Polymerization and Stereoregular Polymers”
(EUPOC 2003)
Corresponding address: Giovanni Ricci, ICM-CNR, Via Bassini 15, 20133 Milano
Tel. 02-23699373; Fax 02-2362946; E-mail: [email protected]
13-17 luglio
Parma
Italia
X International Conference on the Physics of Non-Crystalline Solids
Organizing Secretariat: Antonella Azzali, Dept. General and Inorganic Chemistry, University of Parma,
Parco Area delle Scienze 17/A, 43100 Parma - Italy
Tel. +39 0521 905553, Fax +39 0521 905556, E-mail: [email protected]
http://www.chim.unipr.it/xpncs/home.htm
10-15 agosto
Ottawa
Canada
The 39th IUPAC Congress and 86th Conference of The Canadian Society for Chemistry on
“Chemistry at the Interfaces”
Secretariat: 39th IUPAC Congress and 86th Conference of The Canadian Society for Chemistry, National
Research Council Canada, Conference Service Office, Building M-19, Montreal Road, Ottawa, Ontario,
Canada K1A 0R6 Tel. (613) 993-0414; Fax (613) 993-7250; E-mail: [email protected]
22-25 settembre
Pisa
Italia
XVI Convegno Italiano di Scienza e Tecnologia delle Macromolecole
Presso l’Area della Ricerca del CNR di Pisa
L’organizzazione del Convegno è ancora in fase iniziale, troverete le informazioni preliminari quanto
prima sul nistro sito Web: www.aim.it.
Rivolgersi per informazioni a Mariano Pracella ([email protected]) e a Piero Cerrai ([email protected])
58
La Biblioteca
Riportiamo con piacere i contenuti e stralci della prefazione del volume “Mass Spectrometry of Polymers” del
quale è co-editor e co-autore il Prof. Giorgio Montaudo dell’Università di Catania.
Il Comitato di Redazione
MASS SPECTROMETRY
Montaudo, Giorgio
University of Catania, Catania, Italy
Lattimer, Robert P. Noveon,
Inc., Brecksville, Ohio, USA
OF
POLYMERS
Features
• Bridges the gap between traditional polymer
analysis methods and the emerging field of polymer mass spectrometry
• Outlines desorption/ionization methods to determine exact oligomer masses
• Describes the use of mass spectrometry to
determine absolute molecular weight distributions
• Describes methods to determine the chemical
structure of polymers, including monomer types,
end groups, and microstructure
• Discusses the characterization of additives,
impurities, and degradation products in polymeric materials
• Includes the most recent advances in matrixassisted laser desorption/ionization mass spectrometry, already a standard tool for polymer
analysis
• Discusses time-of-flight secondary ion mass
spectrometry, which is revolutionizing bulk polymer as well as surface characterization
ISBN/ISSN: 0849331277
Publication date: 10/29/2001
No. of Pages: 600
Description
Mass Spectrometry (MS) has rapidly become an
indispensable tool in polymer analysis, and
modern MS today complements in many ways the
structural data provided by Nuclear Magnetic
Resonance (NMR) and Infrared (IR) methods.
Recent advances have sparked a growing interest
in this field and established a need for a summary
of progress made and results achieved.
Mass Spectrometry of Polymers effectively fills
this need. The discussion begins by introducing
MS in detail, providing a historical perspective and
a review of modern instrumentation and methods.
The text then focuses on mathematical concepts
and practical algorithms used in some of the major
quantitative polymer applications of MS, providing
a skillful prologue to polymer characterization
techniques. Detailed chapters follow, describing
the most relevant applications of MS to the analysis of polymers and the techniques currently
employed.
Authored by internationally recognized experts
from academia and industry, Mass Spectrometry of
Polymers is the only state-of-the-art work available
that deals systematically with this rapidly emerging
discipline, and will be useful to both novices and
experienced practitioners in polymer MS.
Contents
• Preface, G. Montaudo and R.P. Lattimer
• Introduction to Mass Spectrometry of Polymers,
M.J. Polce and C. Wesdemiotis
• Polymer Characterization Methods, G. Montaudo
and M.S. Montaudo
Gas
Chromatography/Mass
• Pyrolysis
Spectrometry (Py-GC/MS), S. Tsuge and H.
Ohtani
• Electrospray Ionization (ESI-MS) and On-Line
Liquid Chromatography/Mass Spectrometry
(LC/MS), L. Prokai
• Direct Pyrolysis into the Ion Source (DPMS), G.
Montaudo and C. Puglisi
59
• Field Ionization (FI-MS) and Field Desorption
(FD-MS), R.P. Lattimer
• Fast Atom bombardment (FAB-MS), G.
Montaudo and F. Samperi
• Time-of-Flight Secondary Ion Mass
Spectrometry (FT-MS), S.J. Pastor and C.L.
Wilkins
• Laser Fourier Transform Mass spectrometry
(FT-MS), S.J. Pastor and C.L. Wilkins
• Matrix-Assisted Laser Desorption/Ionizationi
Mass Spectrometry (MALDI-MS), G. Montaudo,
M.S. Montaudo, and F. Samperi
• Two-Step Laser Desorption Mass Spectrometry,
M.S. deVries and H.E. Hunziker
Some of the most significant applications of
modern MS to synthetic polymers are (a) chemical structure and end group analysis, (b) direct
measurement of molar mass and molar mass
distribution, (c) copolymer composition and
sequence distribution, and (d) detection and identification of impurities and additives in polymeric
materials.
In view of the recent developments in this area, a
book on Mass Spectrometry of Polymers appears
opportune. Even more, in our opinion there is an
acute need for a state-of-the-art book that summarizes the progress recently made. No books
currently exist that deal systematically with the
whole subject. Therefore we present here an effort
to summarize the current status of the use of mass
spectrometry in polymer characterization.
Preface
Mass spectrometry involves the study of ions in
the vapor phase. This analytical method has a
number of features and advantages that make it
an extremely valuable tool for the identification
and structural elucidation of organic molecules –
including synthetic polymers:
(i) The amount of sample needed is small; for
direct analysis, a microgram or less of material is
normally sufficient.
(ii) The molar mass of the material can be obtained directly by measuring the mass of the molecular ion or a “quasimolecular ion” containing the
intact molecule.
(iii) Molecular structures can be elucidated by examining molar masses, ion fragmentation patterns,
and atomic compositions determined by mass
spectrometry.
(iv) Mixtures can be analyzed by using “soft”
desorption/ionization methods and hyphenated
techniques (such as GC/MS, LC/MS, and MS/MS).
Mass spectrometric (MS) methods are routinely
used to characterize a wide variety of biopolymers,
such as proteins, polysaccharides, and nucleic
acids. Nevertheless, despite its advantages, mass
spectrometry has been underutilized in the past for
studying synthetic polymer systems. It is fair to
say that, until recently, polymer scientists have
been rather unfamiliar with the advances made in
the field of mass spectrometry.
However, mass spectrometry in recent years has
rapidly become an indispensable tool in polymer
analysis, and modern MS today complements in
many ways the structural data provided by NMR
and IR methods. Contemporary MS of polymers is
emerging as a revolutionary discipline. It is capable of changing the analytical protocols established for years for the molecular and structural
analysis of macromolecules.
…………
The book consists of two introductory chapters followed by nine chapters on applications. Since it is
relatively new to polymer science, mass spectrometry needs to be introduced in some detail, and this is
done in Chapter 1. On the other hand, many analytical chemists will need an introduction to polymer
characterization methods, and this is done in
Chapter 2. The rest of the chapters cover in detail
the most relevant applications of mass spectrometry
to the analysis of polymers.
Because of the low volatility of polymeric materials,
many mass spectral methods for polymers have
involved pyrolysis (or thermal degradation), and this
topic is covered in Chapter 3 (pyrolysis-GC/MS),
Chapter 5 (direct pyrolysis-MS), and Chapter 6
(pyrolysis-FI/FD-MS). Chemical degradation
methods are discussed in connection with fast atom
bombardment analysis (Chapter 7).
For synthetic polymers, the most popular desorption/ionization method has been matrix-assisted
laser desorption/ionization (MALDI-MS, Chapter
10). Several other techniques have important applications in polymer analysis. The more widely used
methods are covered in this book: electrospray
(Chapter 4), field ionization/desorption (Chapter 6),
fast atom bombardment (Chapter 7), secondary ion
mass spectrometry (Chapter 8), and laser desorption (Chapters 9 and 11).
The present book is designed to be practical in nature. That is, the individual chapters are not intended
to be exhaustive reviews in a particular field. Instead,
they introduce the subject and describe typical
applications in a tutorial manner, with pertinent references from the literature. We trust that the book will
be useful to both novices and experienced practitioners in polymer MS.
60
Dal mondo della tecnologia
OVERVIEW
a cura di Riccardo Po’
di blend PP/PPE per il settore automobilistico, denominata Noryl PPX, che garantisce una maggiore rigidità a
parità di tenacità.
Infine, i materiali nanocompositi, dopo avere fatto la
loro comparsa ed essersi consolidati nel mondo delle
poliammidi, stanno per interessare anche le poliolefine.
I nanocompositi a base di PP (e di TPO) sembrano
offrire proprietà tipiche della fascia dei tecnopolimeri
ad un costo inferiore del 50% ed una densità inferiore
del 20%. La società di consulenza STA Research
(Snohomish, Washington) stima che nel giro di due
anni il 30% dei nanocompositi polipropilenici troverà
sbocco nel settore auto, in sostituzione del PP tradizionale e, poco a poco, dei metalli e dei tecnopolimeri.
Intanto, la Nanocor (Arlington Heights, Illinois) ha sviluppato un materiale a base di PP con una rigidità quasi
doppia rispetto al PP tal quale e una HDT maggiore di
30°C, mentre General Motors ha annunciato la produzione di parti di auto in compositi TPO/nanoargilla. Nel
prossimo futuro la lista delle aziende coinvolte nello sviluppo di questi materiali è senz’altro destinata a diventare via via più lunga, con applicazioni che riguarderanno anche altri settori di mercato.
Premi Nobel …
Nel 2003 saranno trascorsi 100 anni dalla nascita di
Giulio Natta e 40 anni dal riconoscimento con il premio
Nobel dei risultati da lui raggiunti. Nonostante il polipropilene sia un polimero ormai arcinoto e arcistudiato, le aziende chimiche (ormai non più in mani italiane,
purtroppo …) continuano a sfornare su di esso innovazioni tecnologiche a ritmo serrato. Il K-2001 di
Düsseldorf, consueta vetrina internazionale del mondo
delle materie plastiche, ha confermato questo quadro.
Basell Polyolefins (Wilmington, Delaware) ha presentato i nuovi gradi per film Adflex e Adsyl, prodotti attraverso la tecnologia Catalloy. I due nuovi gradi Adflex
offrono una migliore flessibilità e una minore durezza;
Adflex W è un grado per imballaggio, mentre l’altro
prodotto è stato sviluppato per sostituire il PVC nel settore medicale. I gradi Adsyl possiedono migliori proprietà di sigillabilità (la “seal-initiation temperature” è
significativamente più bassa del punto di fusione); un
altro miglioramento consiste nel fatto che questi film
possono essere metallizzati secondo metodi classici.
I polimeri Clyrell, anch’essi Basell, offrono elevata
lucentezza e tenacità a bassa temperatura, abbinate ad
una bassa opacità e alla ottima resistenza alle microonde. Per essi è previsto l’impiego nella fabbricazione di
vaschette per gelato e di recipienti per alimenti “freezer-to-microwave”.
Ancora Basell ha sviluppato la tecnologia denominata
MZCR (MultiZone Circulating Reactor) capace di produrre copolimeri ad alta cristallinità e rigidità che mantengono però una ottima tenacità e lavorabilità. La tecnologia opera in fase gas e fornisce PP bimodali in un
unico reattore; ciascun granulo viene fatto circolare
ripetutamente nel reattore, fino a generare su di sé una
sequenza di strati di materiali diversi per composizione
e/o peso molecolare. In questo modo si possono ottenere blend omogenei, non ottenibili mediante le normali tecniche di miscelazione in estrusore.
La A. Schulmann Inc. (Akron, Ohio) ha sviluppato dei
copolimeri a base polipropilenica, soffici al tatto, destinati a sostituire il PVC nell’interno dell’automobile.
Già nella scorsa primavera GE Plastics (Pittsfield,
Massachussets) aveva messo sul mercato una famiglia
*
*
Riferimenti
Plastics Technology, Sep. 2001, p. 65
Plastics Technology, Jan. 2002, p. 51
Plastics Technology, May 2001, p. 47
Plastics Technology, Oct. 2001, p. 65
… e Premi Oscar (ossia, i polimeri al cinema)
L’industria cinematografica non costituisce certamente, come volumi, uno dei maggiori clienti dell’industria
delle materie plastiche, ma è sicuramente una di quelle in cui i polimeri forniscono i risultati più spettacolari.
Il Signore degli Anelli - La Compagnia dell’Anello, tratto dall’omonimo romanzo di J.R.R. Tolkien e uscito
nelle sale italiane all’inizio dell’anno, ne è un esempio
eclatante. Il regista neozelandese Peter Jackson e la
Weta Ltd., azienda produttrice di effetti speciali, hanno
dovuto affrontare l’ardua impresa di ricostruire nei
minimi dettagli il mondo fantastico inventato da Tolkien
per rendere l’azione del film quanto più possibile reali-
Ist. Donegani-Polimeri Europa srl, Via G. Fauser 4, 28100 Novara; E-mail: [email protected]
61
I risultati di tutti questi sforzi si sono
tradotti in un film che rimarrà negli
annali del cinema (e candidato ai
Premi Oscar 2002 con ben 13
nominations). Chi avesse perso il
film (il primo di quella che sarà una
trilogia) può rimediare andando al
cinema il prossimo Natale, quando
verrà proiettato il secondo episodio, Le Due Torri.
stica. Una squadra di oltre 140 tecnici ha realizzato
decine di migliaia tra miniature e modellini, edifici, armi
e armature, maschere e protesi, e i più disparati oggetti di uso comune rispettando minuziosamente le indicazioni e le descrizioni contenute nel libro. Utilizzare
acciaio per costruire tutte le armature e le armi, ad
esempio, era impossibile per ovvi motivi di sicurezza e
di costi, e così la scelta di impiegare la plastica come
sostitutivo è stata obbligata (ciò non ha comunque
impedito a Viggo Mortensen, l’attore che ha interpretato il ruolo di Aragorn, di rompersi realmente due incisivi durante una “battaglia”). A parte alcuni esemplari
“veri” per i personaggi principali, realizzati da mastri
armaioli, armi (oltre 2000) e armature (più di 1000,
per un totale di 48000 singoli componenti) sono state
fabbricate in poliuretano rigido, materiale versatile, leggero e facilmente decorabile fino a fargli assumere l’aspetto metallico. Vari set sono stati ricavati scavandoli
nel polistirene espanso e “trasformati” in legno (come
nella Locanda del Puledro Impennato di Brea) o in pietra (vedi ad esempio le statue di Colle Vento o i giganteschi – solo in apparenza – Argonath del fiume
Anduin). I piedi degli Hobbit (ben 2200 paia), le orecchie degli Elfi, i nasi di Gandalf e di Gimli, mani e teste
(e anche interi corpi) degli Orchi sono stati realizzati in
lattice poliisoprenico; un forno per la cottura (o meglio,
in linguaggio polimerista, per il “curing”) dei pezzi in
lattice è stato mantenuto in funzione per intere settimane, 24 ore su 24. Per la prima volta per certe scenografie è stata impiegata una macchina concepita in origine per spruzzare rivestimenti in elastomero poliuretanico sulle piattaforme petrolifere del Mare del Nord.
Insomma, gli anni di Ettore Fieramosca e La Corona di
Ferro di Alessandro Blasetti sono molto lontani …
Bibliografia
J.R.R. Tolkien, Il Signore degli Anelli,
Rusconi 1977; Bompiani 1999.
B. Sibley, Il Signore degli Anelli. La
guida ufficiale al film, Bompiani
2001.
Elastomeri a base di PBT da oligomeri ciclici direttamente in estrusore
La Cyclics Corporation (Rensselaer, New York) ha preparato un elastomero termoplastico a base di PBT
direttamente in estrusore a partire da oligomeri ciclici
di PBT e altri ingredienti polimerici non precisati (probabilmente politetraidrofurano). Il risultato è di estremo
interesse perché apre la via alla preparazione di una
vasta gamma di gradi di copolimeri etere-estere a blocchi in modo semplice, veloce e flessibile, senza ricorrere a complessi impianti di polimerizzazione (con notevoli vantaggi economici e di gestione).
La sintesi di poliesteri o policarbonati a partire da oligomeri ciclici è una via nota da molti anni (ad esempio,
la General Electric ha pubblicato numerosi brevetti ed
articoli sulla sintesi del policarbonato), ma la notizia
riportata da Plastics Technology è di spicco perché fa
riferimento ad una azienda nata appositamente per sviluppare questo business.
Bilbiografia
Plastics Technology, Feb. 2002, p. 29.
62
LIBRI
E
ATTI AIM
Disponibili presso Pacini Editore
Materiali polimerici strutturali
Atti dell’XI Convegno-Scuola AIM, Gargnano 1989, volume
di 425 pagine, Euro 18.07
Copolimeri
Atti del XII Convegno-Scuola AIM, Gargnano 1990, volume
di 440 pagine, Euro 18.07
Processi industriali di polimerizzazione: aspetti fondamentali e tecnologici
Atti del XIII Convegno-Scuola AIM, Gargnano 1991, volume
di 433 pagine, Euro 23.24
Metodi spettroscopici di caratterizzazione dei polimeri
Atti del XIV Convegno-Scuola AIM, Gargnano 1992, volume di 477 pagine, Euro 25.82
Massa e dimensioni di macromolecole
Atti del XV Convegno-Scuola AIM, Gargnano 1993, volume
di 347 pagine, Euro 25.82
Materiali polimerici: struttura e processabilità
Atti del XVII Convegno-Scuola AIM, Gargnano 1995, volume di 386 pagine, Euro 23.24
Degradazione e stabilizzazione dei materiali polimerici
Atti del XVIII Convegno-Scuola AIM, Gargnano 1996, volume di 408 pagine, Euro 23.24
Polimeri in medicina
Atti del XIX Convegno-Scuola AIM, Gargnano 1997, volume di 355 pagine, Euro 20.66
I polimeri espansi
Atti del XX Convegno-Scuola AIM, Gargnano 1998, volume
di 363 pagine, Euro 20.66
Materiali polimerici cristallini e liquido cristallini
Atti del XXI Convegno-Scuola AIM, Gargnano 1999, volume di 438 pagine, Euro 20.66
Atti del XIV Convegno Italiano di Scienza e Tecnologia
delle Macromolecole
Salerno, 13-16 settembre 1999, volume I+II, Euro 20.66
Fondamenti di Scienza dei Polimeri
Volume di 944 pagine edito da Pacini Editore SpA, 1998.
Costo di copertina Euro 49 (compresa IVA) maggiorato di
Euro 3 a rimborso delle spese di spedizione
Physical Properties of Polyelectrolite Solutions (prof.
Michel Mandel)
Volume di 190 pagine edito da Pacini Editore SpA, 1999,
costo di copertina Euro 18.07 (compresa IVA) maggiorato
di Euro 5 a rimborso delle spese di spedizione
Produzione industriale di polimeri
Atti del XXII Convegno-Scuola AIM, Gargnano 2000, volume di 498 pagine, Euro 25.82
Addittivi per materiali polimerici
Atti del XXIV Convegno-Scuola AIM, Gargnano 2002, volume di 544 pagine, Euro 30.00
Per informazioni dettagliate sui contenuti dei volumi consultare il Sito Internet dell’AIM: http:/www.aim.it
#
SCHEDA PER ACQUISTO VOLUMI AIM
disponibili presso Pacini Editore
1
Materiali polimerici
2
3
Copolimeri
Processi industriali di polimerizzazione:
aspetti fondamentali e tecnologici
Metodi spettroscopici di caratterizzazione
dei polimeri
Massa e dimensioni di macromolecole
Materiali polimerici: struttura e
processabilità
4
5
6
7
8
9
10
11
12
13
14
15
Degradazione e stabilizzazione dei materiali
polimerici
Polimeri in medicina
I polimeri espansi
Materiali polimerici cristallini
e liquido cristallini
Atti del XIV Convegno Italiano di Scienza
e Tecnologia delle Macromolecole
Fondamenti di Scienza dei Polimeri
Physical Properties of Polyelectrolite Solutions
Produzione industriale di polimeri
Addittivi per materiali polimerici
Vi preghiamo di inviarci n. ..... copie dei volumi (siglare i volumi prescelti):
1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15
Sig. ................................................................................................................................................................................
Ente ................................................................................................................................................................................
Indirizzo ..........................................................................................Città ..............................................Prov ................
Cap .............................. Tel. ............................................................Fax ........................................................................
Data ....................................Pagamento:
a ricevimento fattura o
contrassegno o
Codice Fiscale.................................................................................. Partita IVA ............................................................
Il pagamento dovrà essere effettuato direttamente alla Pacini Editore, richiedendo invio di fattura o di contrassegno.
Pacini Edotore SpA, Via Gherardesca, Zona Industriale Ospedaletto, 56121 Pisa, Tel. 050/313011 - Fax 050/3130300
63
AIM Magazine
DIRETTORE RESPONSABILE
Roberto Filippini Fantoni
Via Corridoni, 68 - 24124 Bergamo
Tel. 035 360437 - Fax 035 360437
E-mail: [email protected]
CAPOREDATTORE
Maurizio Galimberti (Caporedattore)
Pirelli Pneumatici
Viale Sarca 222 - 20126 Milano
Tel. 02 64423160 - Fax 02 64425399
E-mail: [email protected]
COMITATO DI REDAZIONE
Mauro Aglietto
Dip. Chimica e Chimica Industriale
Via Risorgimento 35 - 56126 Pisa
Tel. 050 918269 - Fax 050 918260
E-mail: [email protected]
Eugenio Amendola
ITMC-CNR
P.le Tecchio 85 - 80125 Napoli
Tel. 081 7682511 - Fax 081 7682404
E-mail: [email protected]
Roberto Rizzo
Dipartimento BBCM, Università di Trieste
Via L. Giorgeri 1 - 34127 Trieste
Tel. 040 6763695 - Fax 040 6763691
E-mail: [email protected]
Giovanna Costa, Presidente: ISMAC - CNR, Via De Marini 6, 16149 Genova, Tel. 010 6475876 - Fax 010 6475880
- E-mail: [email protected]
INTELLECTUAL PROPERTY MONITOR
Giuseppe Colucci
Basell Poliolefine Italia SpA
E-mail: [email protected]
Antonino Valenza, Segretario: Dip. Chim. Ind. Ing. Mat., Salita Sperone 31, 98166 S. Agata di Messina, Tel. 090
393134 - Fax 090 391518 - E-mail: [email protected]
I BIOPOLIMERI
Roberto Rizzo
Mauro Aglietto, Segretario Amministrativo: Dip. di Chimica e Chimica Industriale, Via Risorgimento 35, 56126 Pisa,
Tel. 050 918269 - Fax 050 918260 - E-mail: [email protected]
I GIOVANI
Simona Bronco
Dipartimento di Chimica e Chimica Industriale
E-mail: [email protected]
Membri del Consiglio - Direttivo
Giancarlo Galli, Dip. di Chimica e Chimica Industriale, Via Risorgimento 35, 56126 Pisa, Tel. 050 918272 - Fax
050 918260 - E-mail: [email protected]
Maurizio Galimberti, Pirelli Pneumatici, Viale Sarca 222, 20126 Milano, Tel. 02 64423160 - Fax 02 64425399 - Email: [email protected]
Giuliana Gorrasi
Dipartimento di Ingegneria Chimica e Alimetare
E-mail: [email protected]
Gaetano Guerra, Dip. Chimica, Univ. Salerno, Via S. Allende, 84081 Baronissi (SA), Tel. 089 965362 - Fax 089
965296 - E-mail: [email protected]
I GRUPPI DI RICERCA MACROMOLECOLARI
Alberto Bolognesi
ICM-CNR
E-mail: [email protected]
Riccardo Po’, Ist. Donegani-Polimeri Europa srl, Via G. Fauser, 4, 28100 Novara, Tel. 0321 447541 - Fax 0321
447274 - E-mail: [email protected]
Maria Carmela Sacchi, ISMAC-CNR, Via Bassini 15, 20133 Milano, Tel. 02 23699369 - Fax 02 2362946 - E-mail:
[email protected]
TECNOLOGIA
Cristiano Puppi
Pirelli Coord. Pneumatici Palazzo 307
E-mail: cristiano.puppi@pirelli .com
L’AMBIENTE
Eugenio Amendola
Alessandro Susa
Basell Poliolefine Italia SpA
E-mail: [email protected]
POLYMERS AND LIFE
Roberto Cavaton
Marbo Italia SpA
E-mail: [email protected]
SITO INTERNET
Luigi Cavallo - [email protected]
Michele Mader - [email protected]
Gilberto Moscardi - [email protected]
Michele Suman
Dip. Chimica Organica e Industriale
E-mail: [email protected]
COLLABORATORI
Diego Arcelli, Giuseppe Colucci, Guglielmo Paganetto,
Eleonora Polo, Marzia Salvadori, Pietro Speziale
PMI
Mario Malinconico
IRTEMP-CNR
E-mail: [email protected]
IN COPERTINA
POLIMERI E … SOCIETÀ
Mariano Pracella
CMMB-CNR
E-mail: [email protected]
Organigramma dell’Associazione Italiana di Scienza e
Tecnologia delle Macromolecole (AIM) per il biennio 2001-2003
POLYMERS ABROAD
Michele Potenza
Ciba Specialty Chemicals SpA
E-mail: [email protected]
Coordinatori delle Commissioni 2001-2003:
Francesco Paolo La Mantia, Problemi Ambientali: Dip. Ing. Chim. Proc. Mat., Viale delle Scienze, 90128 Palermo,
Tel. 091 6567203 - Fax 091 6567280 - E-mail: [email protected]
Marco Scoponi, Tecnologia: C.S.Fotoreattività Catalisi-CNR-Dip. di Chimica, Via Borsari 46, 44100 Ferrara, Tel.
0532 291159 - Fax 0532 240709 - E-mail: [email protected]
Responsabili dei Convegni-Scuola:
AIM, Enrico Pedemonte, Dip. di Chimica e Chimica Industriale, Via Dodecaneso 31, 16146 Genova, Tel. 010
3538713 - Fax 010 3536199 - E-mail: [email protected]
EPF-Summer School, Giovanni Camino: C. Cult. Ing. Mat. Plast., Politecnico di Torino, Viale T. Michel 5, 15100
Alessandria, Tel. 0131 229318 - Fax 0131 229331 - E-mail: [email protected]
Responsabile dei Seminari Internazionali:
Francesco Ciardelli, Dipartimento di Chimica e Chimica Industriale, Via Risorgimento 35, 56126 Pisa, Tel. 050
918229 - Fax 050 918260 - E-mail: [email protected]
Lo sapevate che nello spazio sono state identificate macromolecole? Vi rimandiamo alla lettura, affascinante, dell’articolo di Cesare Guaita, chimico e astronomo, a pag. 15. La foto in copertina è della Cometa di Hale e Bopp che molti
dei nostri lettori sicuramente hanno visto nel 1997.
AIM Magazine è un periodico quadrimestrale e i 3 numeri vanno in edicola ad
aprile, agosto e dicembre. Chiediamo a tutti i lettori che intendano inviare contributi di farli pervenire alla redazione improrogabilmente entro il 20 febbraio,
il 20 agosto o il 20 ottobre. Il materiale che arriverà dopo queste date potrà
essere preso in considerazione solo per il numero successivo.
Il XVI Convegno Italiano di Scienza e Tecnologia delle Macromolecole si terrà a Pisa presso l’Area della Ricerca CNR dal 22
al 25 settembre 2003. L’organizzazione del Convegno è ancora in una fase iniziale, troverete le informazioni preliminari quanto prima sul nostro sito web: www.aim.it. Rivolgersi per informazioni a Mariano Pracella ([email protected]) e a Piero Cerrai
([email protected]).
Join AIM!
Adesione all’aim per il 2002 e per il 2003
Il Consiglio Direttivo dell’AIM ha fissato in € 31 la quota di iscrizione annuale all’AIM e in € 52 la quota di iscrizione biennale.
Il pagamento può essere effettuato tramite versamento sui c/c bancario o postale dell’AIM oppure tramite invio di assegno
bancario come indicato qui di seguito:
o
o
o
sul c/c bancario n. 11/01/01129 della Cassa di Risparmio di Pisa (Cod. ABI 06255, CAB Sportello 14011), Piazza
Dante, 56126 PISA, intestato a: AIM
sul c/c postale n. 10267565 del Centro Compartimentale di Firenze intestato a: Associazione Italiana di Scienza e
Tecnologia delle Macromolecole, Via Risorgimento 35, 56126 PISA
a mezzo assegno bancario o circolare intestato: AIM da inviare a: Segreteria Amministrativa AIM: c/o prof. Mauro
Aglietto, Dipartimento di Chimica e Chimica Industriale, Via Risorgimento 35, 56126 PISA
AIM è su Internet!
La trovate a questo indirizzo: http://www.aim.it
Cliccate sulle icone per raggiungere il mondo di AIM. In Get in Touch trovate gli indirizzi per contattare:
• Segreteria AIM: [email protected] • Segretario amministrativo: [email protected]
E soprattutto: • Posta dei lettori: [email protected]
Edizione
Pacini Editore S.p.A.
Via A. Gherardesca • 56121 Ospedaletto • Pisa
Telefono 050 313011 • Telefax 050 3130300
www.pacinionline.it
Finito di stampare nel mese di Maggio 2002
presso le Industrie Grafiche della Pacini Editore S.p.A.
Via A. Gherardesca • 56121 Ospedaletto • Pisa
Telefono 050 313011 • Telefax 050 3130300
www.pacinionline.it

Documenti analoghi

AIM Magazine AIM Magazine

AIM Magazine AIM Magazine Dipartimento di Ingegneria Chimica e Scienza dei Materiali, Università di Pisa Dipartimento di Chimica e Chimica Industriale, Università di Pisa Con il patrocinio di Università di Pisa, Comune di P...

Dettagli

un`analisi del xvii convegno biennale aim 2005 a napoli

un`analisi del xvii convegno biennale aim 2005 a napoli della sua grande vitalità e della mole di iniziative che riesce a portare a termine: Convegni, Scuole, Seminari sia Nazionali che Internazionali, Giornate Tecnologiche, Libri di Testo, Rapporti con...

Dettagli