1 settembre 2016 - Scienze e Ricerche

Transcript

1 settembre 2016 - Scienze e Ricerche
ISSN 2283-5873
Scienze e Ricerche
SR
N. 36, 1° SETTEMBRE 2016
36.
Scienze SRe Ricerche
RIVISTA BIMENSILE · ISSN 2283-5873
GLI ANNALI 2015
1 numero in formato elettronico: 7,00 euro
( UN NUMERO A SCELTA IN OMAGGIO AGLI ABBONATI )
Abbonamento annuale a Scienze e Ricerche in formato elettronico
(24 numeri + fascicoli e numeri monografici): 42,00 euro *
* 29,00 euro per gli autori e i componenti del comitato scientifico e del collegio dei referees
www.scienze-ricerche.it
36. Sommario
ROBERTO FIESCHI
9 agosto 1945: la bomba atomica su Nagasaki
pag.
5
pag.
9
pag.
12
pag.
15
pag.
17
pag.
23
pag.
28
pag.
33
pag.
40
pag.
54
pag.
62
pag.
64
pag.
65
pag.
71
pag.
81
GIAN PAOLO CAPRETTINI
McLuhan, Shakespeare e il potere (dei media)
ROBERTO SCANDONE
Ricordo di Paolo Gasparini
17
9
PIERANGELO CRUCITTI, FRANCESCO BUBBICO, LUCA TRINGALI
Mauro Cristaldi. 1947-2016. In memoriam
DAVIDE DI PALMA AND DOMENICO TAFURI
Management and social criticality in Italy
MARIA LUCIA ZITO
Il mondo come rappresentazione: note a margine per un ritratto di
Lucio Mastronardi
MARCO RAO, MONIA VADRUCCI
Protonterapia e Radioterapia a confronto nel trattamento di neoplasie
primarie e radio-indotte. Un’analisi costi-utilità per il progetto
TOP-IMPLART
OLIMPIA PINO E FRANCESCO LA RAGIONE
La neuromodulazione tramite Brain Computer Interface: basi teoriche
e dati empirici
BRUNO CARBONARO, FEDERICA VITALE
A description of the paradox of unexpected examination in the
language of probability
MARIA FRANCESCA ZERANI, CARLO SANTULLI
Sperimentazione su biocomposito autoprodotto dagli scarti delle
vongole per possibile utilizzo di design
OPINIONI
PIETRO RAMELLINI
Con rispetto parlando
LUCA BENVENGA
Gli Hooligans e la metropoli. Il conflitto che emerge dalla Francia
DANIELA TONOLINI
Letteratura è formazione
RICERCHE
AGOSTINO GIORGIO, ANDREA CUPERTINO, MARCELLO CASTELLANO
81
Elettronica sostenibile
ROSA ADA VOLPE & FILOMENA MAZZEO
Dalla terapia genica al doping genetico
n. 36 (1° settembre 2016)
3
N. 36, 1° SETTEMBRE 2016
ISSN 2283-5873
Scienze e Ricerche
Rivista bimensile (esce il 1° e il 15 di ogni mese)
n. 36, 1° settembre 2016
Coordinamento
• Scienze matematiche, fisiche, chimiche e della terra:
Vincenzo Brandolini, Claudio Cassardo, Alberto Facchini, Savino Longo,
Paola Magnaghi-Delfino, Giuseppe Morello, Annamaria Muoio, Andrea
Natali, Marcello Pelillo, Marco Rigoli, Carmela Saturnino, Roberto Scandone, Franco Taggi, Benedetto Tirozzi, Pietro Ursino
• Scienze biologiche e della salute:
Riccardo N. Barbagallo, Cesario Bellantuono, Antonio Brunetti, Davide
Festi, Maurizio Giuliani, Caterina La Porta, Alessandra Mazzeo, Antonio
Miceli, Letizia Polito, Marco Zaffanello, Nicola Zambrano
• Scienze dell’ingegneria e dell’architettura:
Orazio Carpenzano, Federico Cheli, Massimo Guarnieri, Giuliana Guazzaroni, Giovanna La Fianza, Angela Giovanna Leuzzi, Luciano Mescia,
Maria Ines Pascariello, Vincenzo Sapienza, Maria Grazia Turco, Silvano
Vergura
• Scienze dell’uomo, filosofiche, storiche, letterarie e della formazione:
Enrico Acquaro, Angelo Ariemma, Carlo Beltrame, Marta Bertolaso, Sergio Bonetti, Emanuele Ferrari, Antonio Lucio Giannone, Domenico Ienna, Rosa Lombardi, Gianna Marrone, Stefania Giulia Mazzone, Antonella
Nuzzaci, Claudio Palumbo, Francesco Randazzo, Luca Refrigeri, Franco
Riva, Mariagrazia Russo, Domenico Russo, Domenico Tafuri, Alessandro
Teatini, Patrizia Torricelli, Agnese Visconti
• Scienze giuridiche, economiche e sociali:
Giovanni Borriello, Marco Cilento, Luigi Colaianni, Riccardo Gallo, Agostina Latino, Elisa Pintus, Erica Varese, Alberto Virgilio, Maria Rosaria
Viviano
Scienze e Ricerche in formato elettronico (pdf HD a colori):
• abbonamento annuale (24 numeri + supplementi): 42,00 euro (29,00 euro
per gli autori, i componenti del comitato scientifico e del collegio dei
referees)
Scienze e Ricerche in formato cartaceo (HD, copertina a colori, interno
in b/n):
• abbonamento annuale (24 numeri): 168,00 euro
• abbonamento semestrale (12 numeri): 84,00 euro
• una copia: 13,00 euro (7,00 euro per gli abbonati alla versione cartacea)
Il versamento può essere effettuato:
• con carta di credito, utilizzando il servizio PayPal accessibile dal sito:
www.scienze-ricerche.it
• versamento sul conto corrente postale n. 1024651307 intestato a Scienze
e Ricerche, Via Giuseppe Rosso 1/a, 00136 Roma
• bonifico sul conto corrente postale n. 1024651307 intestato a Scienze e
Ricerche, Via Giuseppe Rosso 1/a, 00136 Roma
IBAN: IT 97 W 07601 03200 001024651307
4
La rivista ospita due tipologie di contributi:
• interventi, analisi, recensioni, comunicazioni e articoli di divulgazione
scientifica (solitamente in italiano).
• ricerche e articoli scientifici (in italiano, in inglese o in altre lingue).
La direzione editoriale non è obbligata a motivare l’eventuale rifiuto opposto alla pubblicazione di articoli, ricerche, contributi o interventi.
Non è previsto l’invio di copie omaggio agli autori.
Scienze e Ricerche è anche una pubblicazione peer reviewed. Le ricerche e gli articoli scientifici sono sottoposti a una procedura di revisione paritaria che prevede il giudizio in forma anonima di almeno
due “blind referees”. I referees non conoscono l’identità dell’autore
e l’autore non conosce l’identità dei colleghi chiamati a giudicare il
suo contributo. Gli articoli vengono resi anonimi, protetti e linkati in
un’apposita sezione del sito. Ciascuno dei referees chiamati a valutarli potrà accedervi esclusivamente mediante password, fornendo alla
direzione il suo parere e suggerendo eventuali modifiche, miglioramenti o integrazioni. Il raccordo con gli autori è garantito dalla segreteria di redazione.
Il parere dei referees non è vincolante per la direzione editoriale, cui
spetta da ultimo - in raccordo con il coordinamento e il comitato
scientifico - ogni decisione in caso di divergenza di opinioni tra i vari
referees.
L’elenco dei referees impegnati nella valutazione degli articoli scientifici viene pubblicato con cadenza annuale.
Chiunque può richiedere di far parte del collegio dei referees di Scienze
e Ricerche allegando alla richiesta il proprio curriculum, comprensivo
della data di nascita, e l’indicazione del settore scientifico-disciplinare di propria particolare competenza.
Scienze e Ricerche
Sede legale: Via Giuseppe Rosso 1/a, 00136 Roma
Registrazione presso il Tribunale di Roma n. 19/2015 del 2/2/2015
Gestione editoriale: Agra Editrice Srl, Roma
Tipografia: Andersen Spa
Direttore responsabile: Giancarlo Dosi
www.scienze-ricerche.it
[email protected]
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | COPERTINA
9 agosto 1945: la bomba atomica
su Nagasaki
ROBERTO FIESCHI
Professore Emerito di Fisica, Università degli Studi di Parma
S
i potrebbe pensare che non valga la pena
di tornare sulle esplosioni atomiche dell’agosto 1945: da tempo è terminata la lunga
guerra fredda (si stima che durante quegli
anni siano state prodotte 130000 testate
nucleari ed effettuate oltre 2000 esplosioni sperimentali), c’è stata la distensione e le superpotenze
hanno ridotto in parte i loro arsenali nucleari; la Corea del
Nord non preoccupa più che tanto, e l’Iran rispetta gli accordi. Ma non dimentichiamo che nove Stati hanno armi nucleari, che esistono tuttora oltre 15000 armi nucleari nel mondo
(quasi un centinaio in Italia), che una parte di esse è pronta
all’impiego, che gli Stati non rinunciano a modernizzare i
loro arsenali spendendo annualmente centinaia di miliardi di
dollari…
Missile nucleare nel suo “silos”
Ripercorriamo qui in particolare le vicende che accompagnarono il bombardamento di Nagasaki, perché negli ultimi
anni sono emersi particolari interessanti, prima ignoti o poco
noti.
***
Le tappe principali, alla conclusione del Progetto Manhattan:
16 luglio – la bomba al plutonio, chiamata Gadget, viene
sperimentata con successo ad Alamogordo, Nuovo Messico
(Trinity test), dimostrando che il meccanismo a implosione
funziona. E’ il prototipo della bomba, chiamata Fat Man per
la sua forma arrotondata, che verrà poi lanciata su Nagasaki.
Lo stesso giorno, a San Francisco viene imbarcata sull’incrociatore Indianapolis, per l’isola di Tinian, nell’arcipelago
delle Marianne, la bomba all’uranio, chiamata Little Boy, che
verrà poi lanciata su Hiroshima; vi arriverà dieci giorni dopo.
L’incrociatore verrà affondato da un sottomarino giapponese
il 30 luglio: quasi 900 morti.
Nei giorni seguenti il 509th Composite Group, che include
le Superfortezze volanti B-29 che sganceranno le bombe sul
Giappone, incomincia gli addestramenti.
23 luglio – Henry Stimson, ministro della guerra, riceve la
lista degli obiettivi (Hiroshima, Kokura e Niigata) e le informazioni sulle bombe disponibili.
Due giorni dopo, il generale Leslie Groves, il responsabile militare del Progetto Manhattan, emana l’autorizzazione
per gli attacchi atomici; alla lista precedente viene aggiunta
Nagasaki.
26 luglio – a Los Alamos viene consegnato a Raemer Schreiber, l’ufficiale che sarà responsabile del suo trasporto a
Tinian, il plutonio che costituirà il nocciolo esplosivo di Fat
Man: una massa di 6,1 kg, delle dimensioni di un pompelmo,
5
COPERTINA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
chiamata Rufus, leggermente calda per effetto della radioattività. Durante il volo il plutonio uscì dalla sua scatola e rotolò
in giro, fino a che fu ripreso e assicurato. Schreiber sbarcò a
Tinian col suo prezioso carico il 28.
Il 31 luglio Little Boy è pronto, ma un tifone in arrivo ne
ritarda l’impiego. Il giorno seguente il Colonnello Paul Tibbets emana l’ordine per l’attacco atomico e sceglie l’equipaggio che l’accompagnerà nella missione, che coinvolgerò
sette bombardieri B29; informerà i suoi uomini che verrà
sganciata una bomba potentissima, ma senza rivelarne la natura. Chiamerà il suo B-29 Enola Gay, il nome di sua madre!
5 agosto – Little Boy viene caricato sul B-29; la missione
è prevista per il 6 agosto. Prima della partenza il Cappellano
William Downey legge all’equipaggio una preghiera composta per l’occasione (*)! Alle 2,45 parte Enola Gay; la bomba
è ancora disinnescata, verrà innescata alle 7,30. Partono anche gli altri B-59 che accompagnano la missione.
6 agosto – la visibilità è buona; giunto su Hiroshima, da
un’altezza di oltre 6000 piedi, l’aereo sgancia la bomba, che
esplode alle 8,15 (ora di Hiroshima) all’altezza di circa 600
metri; la sua potenza è di almeno 12,5 kiloton, ossia equivalente a quella di 12500 tonnellate di tritolo. L’aereo si allontana dalla zona per evitare lo shock della esplosione.
La palla di fuoco si espande e la nuvola a fungo raggiunge
grandi altezze. Il numero delle vittime è stimato tra 200000
e 240000.
(*)“Almighty Father, Who wilt hear the prayer of them that love thee, we
pay thee to be with those who brave the heights of Thy heaven and who
carry the battle to our enemies. Guard and protect them, we pray thee,
as they fly their appointed rounds. May they, as well as we, know Thy
strength and power, and armed with Thy might may they bring this war to
a rapid end. We pray Thee that the end of the war may come soon, and that
once more we may know peace on earth. May the men who fly this night
be kept safe in Thy care, and may they be returned safely to us. We shall go
forward trusting in Thee, knowing that we are in Thy care now and forever.
In the name of Jesus Christ. Amen.”
6
Il Giappone rifiuta di arrendersi. 8 agosto – oltre cento
B-29 bombardano Tokio, distruggendo buona parte di quanto era sopravvissuto ai precedenti attacchi.
L’Unione Sovietica dichiara guerra al Giappone.
IL BOMBARDAMENTO DI NAGASAKI
La missione per lanciare sul Giappone la seconda bomba atomica fu più complicata della prima; quasi nulla andò
secondo i piani prestabiliti. Prima di morire Frederick
Ashworth ha rivelato alcuni fatti ignoti o poco noti su quanto
avvenne in quei primi giorni di agosto. Ashworth è stato il
responsabile dell’assemblaggio dei component di Fat Man e
del controllo della bomba a bordo del velivolo che la sganciò su Nagasaki. Vale la pena di desrivere la vicenda con un
certo dettaglio.
Il 2 agosto erano arrivati a Tinian i component di Fat Man
da assemblare.
Fat Man è una bomba molto diversa da Little Boy: l’esplosivo è plutonio anziché uranio 235, il meccanismo d’innesco
è più complicato, tanto che gli scienziati di Los Alamos ritennero necessario sperimentarne un prototipo (the Gadget);
la potenza esplosiva è quasi doppia, 22 kt; è il prototipo di
tutte le bombe che verranno fabbricate nei decenni successivi.
Il lancio di Fat Man era previsto per l’11; l’obiettivo prioritario era Kokura la città con i più grandi impianti di munizioni; Nagasaki era l’obiettivo di riserva.
Il 7 agosto viene deciso di anticipare il lancio di Fat Man,
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | COPERTINA
al 9 agosto, anche a causa delle previsioni dell’avvicinarsi di
un tifone. La giustificazione di questo immediato secondo
lancio era di forzare i giapponesi alla resa, dando l’impressione che molte altre bombe atomiche fossero disponibili.
Ma il Giappone era già pronto alla resa.
8 agosto – un giovane ingegnere nucleare, Bernard O’Keefe, sta sistemando il nocciolo entro la bomba; prova a inserire
il cavo che innesca l’esplosione nella presa ma si accorge con
angoscia che non è possibile perché ambedue le connessioni sono femmine. Scopre che all’altro estremo del cavo la
spina è saldata, scorrettamente, con un’altra spina; cerca un
saldatore e riesce a sistemare le connessioni. Ora Fat Man è
pronto e, alle 22, viene caricato sul B-29 chiamato Bockscar.
O’Keefe è esausto.
Alla missione partecipano tre aerei, Bockscar, con la bomba, Big Stink, con l’attrezzatura fotografica e Great Artist,
con gli strumenti per misurare gli effetti dell’esplosione;
due aerei da ricognizione partiranno un’ora prima. Per poter
ospitare la grossa bomba e per ridurre il peso dell’aereo tutte
le armi di bordo sono state tolte; ciononostante l’aereo stenta
a decollare.
Il Rendezvous è stabilito a 17000 piedi al di sopra di Yakushima; il colonnello Tibbets informa gli equipaggi che non
devono attendere più di 15 minuti al Rendezvous, prima di
procedere per il Giappone, per non esaurire il carburante indispensabile per il ritorno.
Il B-59 Bockscar
9 agosto, 02.15 – al momento della partenza si scopre che
la pompa di uno dei tank del carburante di riserva non funziona; si parte comunque, alle 3.47. Poco dopo partono anche
gli aerei The Great Artiste e Big Stink. Un’ora prima erano
partiti i due aerei che devono controllare le condizioni del
tempo, Enola Gay e Laggin’ Dragon.
Alle sette Philip Barnes, l’assistente di Ashworth, spaventato, sveglia il suo capo che si era addormentato: “C’è
qualcosa che non va, una spia rossa lampeggia, come se la
bomba dovesse esplodere”. Barnes e Ashworth consultarono
le istruzioni tecniche, iniziano i controlli e scoprono che due
interruttori erano stati invertiti nel procedimento per armare
l’ordigno; sistemati nella loro posizione corretta, l’allarme
cessa e Ashworth torna a dormire.
Ore 9.10 - Bockscar sale a 30000 piedi, raggiunge il punto
di Rendezvous, vede l’aereo The Great Artiste, ma non il
terzo aereo, Big Stink; il comandante Sweeney, in contrasto con Ashworth che vorrebbe procedere, e contravvenendo
agli ordini ricevuti da Tibbets, gira lentamente sull’isola di
Yakushima per ben 45 minuti: così si spreca prezioso carburante, mettendo a rischio il viaggio di ritorno. Big Stink
intanto stava volando a 39000 piedi, cercando invano gli altri
due velivoli.
Ore 10.44 – Bockscar arriva sopra Kokura, l’obiettivo prestabilito, ma la visibilità è insufficiente; dopo alcuni voli di
attesa intorno alla città, la contraerea e i caccia giapponesi
costringono gli aerei ad allontanarsi. Si decide allora di dirigersi verso l’obiettivo di riserva, Nagasaki, 95 miglia più a
sud, dove i due aerei arrivano un’ora dopo.
Nagasaki era una città collinosa su una baia pittoresca; era
famosa perché vi era stata ambientata l’opera Madame Butterfly di Giacomo Puccini; ospitava i grandi impianti militari
Mitsubishi, sul fiume Urakami. Ora da oltre oceano, invece
dell’odioso Pinkerton, ufficiale della marina degli Stati uniti,
arriva un potente B-59 col suo carico di morte.
Ore 12.02 (11.02 ora di Nagasaki) – La città è coperta da
nubi; a un certo punto, si apre uno spiraglio di visibilità e la
bomba viene sganciata. La fretta impedisce di colpire esattamente l’obiettivo previsto, così l’esplosione risparmia una
parte della città. Fat Man esplode a un’altezza di 650 piedi,
con una potenza di 22000 tonnellate di tritolo.
Quasi la metà della città è distrutta, tuttavia la struttura
collinare riduce i danni. Come a Hiroshima, la situazione è
drammatica e caotica: moltissimi ospedali sono distrutti ed è
impossibile curare i feriti; case, chiese scuole sono scomparse; i trasporti non esistono più; il numero di morti è incerto:
tra 60000 e 80000 persone.
A questo punto, compiuta la missione, i due aerei non hanno carburante sufficiente per il ritorno alla base e si prospetta lo scalo a Okinawa, o anche un ammaraggio di fortuna.
Ashworth invita l’equipaggio a indossare le giubbe di salvataggio.
7
COPERTINA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
Ore 1.00 – si avvista Okinawa. In extremis Bockscar riesce
ad atterrare, lanciando razzi per avvisare la torre di controllo,
nonostante che uno dei motori sia senza carburante, e riesce
a evitare di travolgere altri aerei intorno alla pista. A terra si
pensava ormai che l’aereo fosse perduto.
Più tardi, con gli altri due aerei, riparte per Tinian, dove
atterra a tarda notte.
8
Sulla giustificazione per l’impiego delle bombe atomiche
e sui reali motivi che portarono gli Stati Uniti alla decisione il dibattito è stato molto ampio negli anni e nei decenni
successivi a quell’agosto 1945. Uno dei motivi fu certamente una prova di forza verso l’URSS, in vista dei contrasti
del dopoguerra. Prevale la convinzione che il Giappone si
sarebbe comunque arreso, specialmente dopo l’intervento
sovietico.
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA COMUNICAZIONE
McLuhan, Shakespeare e il potere
(dei media)
GIAN PAOLO CAPRETTINI
Università degli Studi di Torino, Master in Giornalismo
1. IL POTERE COME ESTENSIONE: VOCE E
I
SCRITTURA, PENSIERO E AZIONE
l potere, genericamente parlando, si potrebbe definire come l’estensione dell’uomo. Forse questa è
soltanto un’immagine antropologica che si riferisce alle capacità che soprattutto la mano esprime
chiaramente, e anche il braccio, come fosse un
utensile: “le prolongement de la main” secondo l’etnologo
Leroi-Gourhan. Il potere è anzitutto una capacità tecnicopratica di agire in uno spazio. La stessa capacità della scrittura si realizza in una gestualità che dà vita a una grafia espressa mediante una sequenza che occupa uno spazio.
Anche da qui discende la grande importanza dei media
da intendere come espansioni delle braccia e della mente
umani. Lo stesso uso dei personal, tablet e portatili mostra
infatti all’opera un potere mediatico che si esprime nella utilizzazione del sistema mente-braccio-mano. Ma attenzione,
Marshall McLuhan ha distinto lo spazio visivo, soprattutto
analitico e lineare, dallo spazio acustico, simultaneo e sinestetico. E parallelamente, potremmo aggiungere, si deve distinguere l’attività della scrittura che ha bisogno di un supporto, dal
foglio di carta allo schermo, e che
si effettua mediante la digitazione
- dall’attività della voce, la quale
al contrario è più sintetica che analitica, in quanto si diffonde in uno
spazio che viene già dato e definito e ha scansioni e riconoscibilità
grazie all’ascolto. Radicalizzando,
la scrittura vede in posizione dominante il mittente, che la produce, la voce invece il destinatario,
che la riconosce.
Scrittura e voce producono manifestazioni simboliche – “espan-
sioni simboliche”, come le avrebbe chiamate Leroi-Gourhan
- assai differenti: la prima istituisce documenti finiti, file
costituiti da una sequenza quantificabile, la seconda esercita
la sua forza in un contesto e produce effetti di verità assai
differenti dal momento in cui si produce a quelli in cui venga
riascoltata. La documentazione scritta, anche sul piano giuridico, ha per di più una efficacia e una verosimiglianza di
natura differente da quella vocale. Sotto questi aspetti, nella
nostra civiltà dei media, forti sono le somiglianze tra scrittura
e immagine , tanto da farci notare quanto l’avvento dei telefonini e dei social abbia dato vita, un’altra volta, sull’onda
della differenza tra telefono/radio e televisione, a due regimi
di senso: uno improntato agli scambi orali-acustici-verbali,
l’altro a quelli visivi-iconici-scritti. Messaggi di due distinti
generi che poi, ovviamente, si compongono e si fondono in
vari modi: ad esempio la scrittura veloce che si fa iconica
ovvero l’immagine equivoca, ambigua che necessita di didascalie, di commenti grafico-verbali. A parte tutti i casi, diciamo più naturali, di media, come il cinema e la televisione,
dove le fonti sono montate insieme e rese interdipendenti,
tanto da generare un ambiente autonomo, quasi con una vita
a sé stante.
Grazie a queste considerazioni
potremmo evidenziare due forme
di controllo, due tipi di poteri: uno
connesso con le intercettazioni,
ad esempio ambientali o telefoniche (vedi il meraviglioso film di
Francis Ford Coppola “La conversazione”), e un altro connesso
con le registrazioni di telecamere: sostanzialmente un potere che
spia i pensieri e un altro che spia
le azioni.
La civiltà dei media ci impone
di passare continuamente da strutture lineari, alfabetizzate, discorsi9
SCIENZE DELLA COMUNICAZIONE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
ve, quelle della lingua, a configurazioni sintetiche, onnicomprensive. McLuhan, oltre cinquant’anni fa, parlava di postalfabetismo, cioè di un ritorno a forme di comunicazione e
di potere di tipo tribale, orale, spaziale, caleidoscopico: tutto
quello che oggi ci ha, anche felicemente, invaso con i new
media e i social ma che ci interpella allarmati sulla invasione
dei nostri spazi privati, del nostro agire quotidiano. Un potere insomma, un controllo che discende direttamente dall’uso
dei media, dalle onde alle tracce magnetiche.
Perché e come questa osservazione ci porta a Shakespeare? A poche pagine dall’inizio di uno dei suoi libri folgoranti, “Understanding Media” (Gli strumenti del comunicare,
1964) McLuhan cita più volte Shakespeare, a cominciare
dalla celebre finestra di Giulietta: “Zitto! Che luce erompe
da quella finestra?...Ecco: parla … e tuttavia non dice nulla”
(“Romeo e Giulietta”, atto II, scena II), che a suo parere pare
una moderna televisione; e poi un passo di “Otello” (atto I,
scena II), quando Brabanzio accusa Otello dell’uso di “sporchi incantesimi”, di “droghe e filtri che fiaccano la volontà”
al fine di “abusare della fragile giovinezza”di Desdemona:
qui McLuhan fa un paragone con “il potere di trasformazione” dei media; e ancora in “Troilo e Cressida” Shakespeare,
secondo McLuhan, “esprime la consapevolezza che una buona navigazione sociale e politica dipende dal saper prevedere
le conseguenze delle innovazioni” (p. 18).
McLuhan è un visionario provocatore ma conosceva bene
l’opera di Shakespeare che aveva studiato a Cambridge,
dove aveva partecipato a una memorabile lecture tenuta da
John Dover Wilson, nel 1934, l’anno prima che uscisse il
suo celebre libro What happens in Hamlet (“Cosa accade in
Amleto”).In effetti i due drammi principi per cogliere le articolazioni del potere sono “Amleto” e “Giulio Cesare”.
Il primo mostra un Amleto (erede dei miti arcaici della tradizione norrena e dell’Irlanda celtica, dove in realtà è più un
semplicione che un eroe ma comunque un uomo non afflitto da dubbi) calato nell’inquietudine e nell’esitazione della
vendetta, simulatore di follie, trascinato a valutare la colpa
della madre che ha sposato l’assassino del padre pochi mesi
dopo l’omicidio. Insomma il potere stritolato nelle questioni dinastiche, nel destino tragico delle decisioni politiche :
Carl Schmitt riporta Amleto al problema della successione di
Elisabetta sul trono di Inghilterra. Un Amleto che esprime le
lacerazioni religiose e politiche dell’Europa, a pochi decenni dalla nascita di quell’era di Gutenberg, l’era della stampa, la prima complessa forma di meccanizzazione secondo
McLuhan che ha generato nuove forme di organizzazione del
lavoro. Così l’incertezza di Amleto riflette le inquietudini di
un’epoca.
E “Giulio Cesare”? Celebre l’inizio, dove letteralmente
si parla del carro del vincitore, dell’ingresso trionfante di
Cesare a scapito di Pompeo.“O duri cuori, crudeli uomini
di Roma, non conosceste Pompeo? Quante volte siete saliti
sulle mura.. con i vostri bimbi sulle braccia e lì siete rimasti
l’intera giornata per vedere il grande Pompeo , e quando vedevate appena spuntare il suo carro non avete innalzato gridi
tali che il Tevere tremava?... Ed ora spargete fiori sul cam10
mino di colui che viene a trionfare sul sangue di Pompeo!
Andatevene” (atto I, scena I).
Il potere è dunque un teatro globale, uno spazio scenico in
cui si muovono le forze e i destini, ma oggi, nota McLuhan
nel 1972 in un’intervista, non ci accontentiamo più di essere
spettatori, vogliamo essere protagonisti nel “teatro globale”
che è diventato il nostro mondo, la nostra vita. “Non c’è più
una platea: sono diventati tutti attori, tutti coinvolti nell’azione globale del mondo… Dopo la conquista della luna… lo
stesso nostro pianeta è diventato un’astronave: ognuno sulla
Terra è diventato membro dell’equipaggio”.
Analogamente Shakespeare dà vita a quel memorabile incontro di Amleto con l’attore che declama la morte di
Priamo, che piange per Ecuba. “Gli attori sono la cronaca
del nostro tempo” afferma Amleto: il teatro è nel teatro, ha
offerto “uno specchio alla vita”, il mondo intero, nella poetica barocca, è diventato teatro. “Operare nella dimensione
pubblica – notava Schmitt in Amleto o Ecuba (1956) – era
operare su di un palcoscenico”; il potere, la politica dunque
erano spettacolo e quindi da allora sarebbero stati pronti a
venire anche smascherati sul loro stesso palcoscenico.
2. TEMPO, SPAZIO E IL “GIOCO” DELLA
COMUNICAZIONE
Si è più volte sostenuto (ricordo una sottolineatura di Umberto Eco) che è la dimensione del presente a dominare la
scena attuale, a coinvolgere le nuove generazioni. A mio parere è il processo di globalizzazione, quello banalmente del
villaggio globale, ad avere creato, più che una dominanza del
presente, una specie di sincronicità simultanea, una cancellazione del procedere del tempo. L’idea che vi sia uno spazio
senza confini, globalizzato, porta con sé la conseguenza che
il tempo si fermi, si sospenda, meglio, si astragga, tanto che
il relativismo è stato sostituito da una sorta di nichilismo del
divenire: esso nasconde una inquietante predeterminazione,
la tendenza ad attenderci soluzioni apocalittiche alimentate
da vari timori o da paralizzanti stabilità o ancora da recessioni prodotte da difficoltà economiche. L’idea di progresso è
stata di fatto cancellata nella postmodernità ma perfino quella di sviluppo è in difficoltà, essendo l’asse storico avvitato
su stesso, reso prigioniero da allarmismi o semplicemente
da previsioni, analisi delle tendenze, sondaggi, tutte azioni
volte a mitigare, annullare o perfino ad anticipare l’azione
del tempo e le conseguenze del suo scorrere.
McLuhan lo notava in un scritto del 1970: “Per l’uomo
arcaico o tribale non c’era passato né storia. Solo un eterno
presente. Oggi noi assistiamo a un ritorno a questa visuale da
quando le innovazioni tecnologiche sono divenute così imponenti da creare sempre nuovi scenari uno sull’altro”. Mentre però l’uomo arcaico, legato alla tradizione orale, viveva
“immerso nella realtà” e nello stesso tempo in conformità
ad archetipi che gli fornivano ritmi (ad esempio la notte e il
giorno, le stagioni e i cicli della luna, e poi il lavoro e la festa,
il profano e il sacro ecc., come ha ricordato anche Mircea
Eliade), oggi si è immersi nei media e gli archetipi appaiono
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA COMUNICAZIONE
unicamente per i loro guasti, per le loro crisi, attraverso effimere epifanie di “divinità momentanee”(Cassirer).
Ne deriva , tra l’altro, ciò che McLuhan - in una lettera
del giugno 1968, a Pierre Elliott Trudeau, il primo ministro
canadese dell’epoca, suo amico – indicava come “l’erosione
dell’identità individuale causata dall’ambiente del software”.
E a questo riguardo, immaginando gli effetti di mutazione
generati dai media, McLuhan ipotizzava “terapie sociali e
programmi di immunizzazione” nei confronti dei media paragonabili all’azione preventiva in medicina. I nuovi media –
ma siamo nel 1968!- avrebbero reso tutte le istituzioni obsolete, e dunque il potere democratico– suggerisce a Trudeau in
una lettera successiva – avrebbe potuto avvantaggiarsi dallo
stimolare non tanto il feed back, la risposta degli interlocutori, bensì il feed forward, cioè l’anticipazione di informazioni,
la volontà e la capacità, da parte di chi governa, di segnalare
i propri problemi emergenti , ad esempio in televisione, in
modo da ricevere suggerimenti dai cittadini, soprattutto dai
giovani. Pura fantascienza?
Intervistato da Empedocle Maffia per il GR1 della Rai, nel
1972, McLuhan ricorda che Tommaso d’Aquino sosteneva
che il contatto è la prima forma di ogni conoscenza. E siccome il contatto “è costituito da piccolissimi intervalli”, tali
intervalli “non devono essere né molto ampi, altrimenti si
perde la connessione e nemmeno troppo stretti, altrimenti si
perde il respiro”. Vale pertanto la metafora dell’ingranaggio
e del lubrificante che ne garantisce il movimento senza rotture. Dunque, gioco, quel gioco che ci dev’essere tra l’asse
e la ruota.
I media infatti assediano i propri utenti come il potente
(o il cantante) quando i seguaci (o i fan) non gli danno fiato.
Nessun medium si sottrae all’essere incalzante, a cancellare
lo spazio e il tempo, in ogni circostanza, in ogni occasione.
Ancora nel Giulio Cesare Shakespeare faceva dire all’indo-
vino (atto II, scena IV): “Qui la strada è stretta: la folla che
segue Cesare alle calcagna, di senatori, di pretori e di comuni supplicanti farebbe quasi morire schiacciato un uomo
debole: io me ne vado in un posto più sgombro e là parlerò a
Cesare quando s’avanza”.
La parola dunque ha bisogno dei suoi spazi, delle sue
pause, dei suoi giochi: esperienza e necessità assai difficili
quando tutta la stessa realtà è trasformata in un equivalente
mediatico, quando l’esperienza senza media è quasi impossibile. Come, in ultima analisi, dare a Cesare quel che è di
Cesare, ma soltanto quello e non altro?
RINVII BIBLIOGRAFICI
G. P. Caprettini, Modernità all’italiana. Origini e forme
dello spettatore globale, Cartman, Torino 2012.
G. De Santillana, H. von Dechend, Il mulino di Amleto.
Saggio sul mito e sulla struttura del tempo (1969), trad. it.
Adelphi, Milano 1983.
R. Eugeni, Semiotica dei media. Le forme dell’esperienza,
Carocci, Roma 2010.
A. Leroi-Gourhan, Il gesto e la parola (1964), trad.it. Einaudi, Torino 1977.
M. McLuhan, Gli strumenti del comunicare (1964), trad.it.
Il Saggiatore, Milano 1990.
M. McLuhan, Corrispondenza (1931-1979), trd.it. SugarCo, Milano 1990.
M. McLuhan, Le radici del cambiamento. Platone, Shakespeare e la tv, Armando, Roma 1998.
M. McLuhan, Percezioni. Per un dizionario mediologico,
Armando, Roma 1998.
C. Schmitt, Amleto o Ecuba. L’irrompere del tempo nel
gioco del dramma (1956), trad.it. Il Mulino, Bologna 1983.
11
PROTAGONISTI | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
Ricordo di
Paolo Gasparini
ROBERTO SCANDONE
Università degli Studi Roma Tre
I
l 28 luglio è deceduto Paolo
Gasparini, Professore Emerito
dell’Università Federico II di
Napoli.
Paolo era nato a Napoli nel 1937. Fra
i suoi primi ricordi vi è quello dell’ultima eruzione del Vesuvio nel 1944 osservata da Sant’Anastasia così come ci
è narrato nel bel libro di Elena Cubellis
e Aldo Marturano sulle testimonianze
dell’eruzione.
Si presentò alla maturità con molta
apprensione, tanto che, come ci raccontò egli stesso, insieme ad altri compagni di classe si recò a piedi al Santuario
di Pompei prima di affrontare l’esame.
I suoi primi passi universitari furono
incerti. Iscritto alla facoltà di Ingegneria, ritenne opportuno abbandonarla
dopo un burrascoso esame con il famoso e temibile matematico napoletano
Renato Caccioppoli, finito con un diciotto e lancio del libretto dalla finestra.
Questo evento lo spinse a iscriversi a
Geologia dove nel 1961 si laureò con
lode svolgendo una tesi in Geofisica
sulla Radioattività dell’Isola d’Ischia.
Molto più deciso e veloce fu il suo
percorso accademico che avvenne secondo lo schema classico di allora:
borsa di studio CNR, posto di Tecnico
Laureato e, nel 1964, Assistente Ordinario alla Cattedra di Fisica Terrestre.
Conseguì a soli trenta anni la libera
docenza, passo fondamentale per il
proseguimento della carriera. A questo
punto avvenne una svolta che rappresentò una novità rispetto al comune
percorso accademico italiano e che è
solo un indizio dell’aspetto intraprendente del suo carattere: utilizzando una
borsa di studio Nato si recò presso la
Rice University in Texas, per perfezionare le sue conoscenze di radioattività
delle rocce e successivamente fu invitato al Lawrence Radiation Laboratory
a Berkeley. Grazie a queste esperienze
pubblicò, insieme a John Adams, un
libro con la Elsevier: Gamma-ray spec12
trometry of rocks.
Al suo ritorno in
Italia, alla fine del
1969, cominciò formare un suo gruppo di ricerca per lo
studio della radioattività delle rocce e
della geocronologia.
Primi componenti
del gruppo furono
la borsista Lucia Paolo Gasparini
Civetta e il tecnico
Nicola Roberti. Io lo
conobbi a fine 1969 quando lo incontrai
per concordare i corsi da seguire per
l’indirizzo di Geofisica della laurea in
Fisica. Allora l’indirizzo non era molto
popolare a Fisica, e i pochi studenti che
lo sceglievano erano considerati come
merce rara. Con Paolo seguii il corso
di Geofisica Nucleare e incontrai altri
ragazzi che stavano svolgendo la tesi
con lui: Giuseppe Capaldi, Giuseppe
Rolandi e Massimo Cortini. Una cosa
mi colpì particolarmente del corso, fra
i libri di testo indicati vi era “T con
0” di Italo Calvino. Alla richiesta del
perché di tale testo mi chiese solo se
mi era piaciuto e tanto bastava. Questo
fu il mio primo contatto con l’ironia di
Paolo.
Eravamo nel pieno della contestazione studentesca e la levità di Paolo era
rinfrescante nell’atmosfera cupamente accademica dell’Istituto di Fisica
Terrestre, dominato dall’unico anziano cattedratico, Giuseppè Imbò, che
pretendeva di regolare vita pubblica e
privata di tutti i suoi dipendenti. Ma,
per dirla con Guccini, “un’altra grande
forza spiegava allora le sue ali”: per la
geologia la “grande forza” era la teoria della tettonica a Zolle. L’idea di
Paolo era di applicare quel concetto,
allora davvero rivoluzionario, per comprendere la storia geologica dell’Italia.
Il laboratorio di geocronologia, e poi
quello di paleomagnetismo, realizzato
alcuni anni più tardi, dovevano essere
funzionali allo scopo. Solo un miracolo
poteva permettere la realizzazione di
un progetto tanto ambizioso.
Il miracolo avvenne nel 1970 quando Paolo fu “ternato” a soli 33 anni, al
concorso per Ordinario di Fisica Terre-
stre dell’Aquila. Allora il meccanismo
era tale per cui si doveva rientrare nella terna di un concorso a cattedra per
poi essere chiamati dove si liberava un
posto. Il posto che si liberò fu quello
lasciato dal pensionamento di Giuseppe Imbò. Così in un solo colpo Paolo
si trovò ordinario di Fisica Terrestre e
direttore dell’Istituto monocattedra, e
per di più direttore dell’Osservatorio
Vesuviano.
Il vento del cambiamento investì
l’Istituto e l’Osservatorio come un ciclone. L’Osservatorio era da anni amministrato con parsimonia e ristrettezze senza alcun progetto di espansione
malgrado i posti disponibili. In breve
tempo furono assunti giovani studenti
che si erano appena laureati in tutti i
gruppi di ricerca dell’Istituto di Fisica
Terrestre, fra cui Giuseppe Capaldi,
Ignazio Guerra, Folco Pingue e Sergio
Montagna. Massimo Cortini ebbe una
borsa di studio all’Istituto ed il sottoscritto, dopo la laurea nel 1972, un
incarico di Tecnico Laureato all’Osservatorio.
Nel frattempo, grazie all’amicizia
con Felice Ippolito, all’epoca direttore
dell’Istituto di Geologia, si realizzava
nel 1973 la fusione fra l’Istituto di Fisica Terrestre e l’Istituto di Geologia nel
nuovo Istituto di Geologia e Geofisca
guidato da Ippolito. Gasparini manteneva la direzione dell’Osservatorio e
proseguiva nella radicale operazione di
rinnovamento. Nel corso degli anni furono assunti all’Osservatorio Roberto
Scarpa, Edoardo Del Pezzo, Raimondo
Pece e Marcello Martini. Allo stesso
tempo diversi ricercatori dell’Osservatorio andavano a insegnare in differenti
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | PROTAGONISTI
Università Italiane.
Le intuizioni di Paolo sulla geodinamica italiana si concretizzarono nel
1973 con la pubblicazione insieme a
Franco Barberi, Fabrizio Innocenti e
Letterio Villari di un lavoro sul Journal
of Geophysical Research con la prima
identificazione della placca in subduzione sotto l’arco delle Eolie.
Insieme all’importanza scientifica,
quel lavoro ebbe anche un altro risvolto: segnò la pacificazione di un lungo
contrasto che aveva visto contrapposte
la scuola di vulcanologia napoletana
a quella pisana. La collaborazione si
rafforzò nello stesso anno con un altro importante lavoro di geodinamica sul ruolo della Sicilia nel contesto
geodinamico e la identificazione della
sua appartenenza alla placca africana,
pubblicato nel 1974 sulla rivista Earth
Science Letters.
Erano anni di lavoro intenso, ma
nel gruppo di Geofisica di Napoli la
tensione della ricerca si stemperava
in un forte rapporto di amicizia extra
lavoro, favorito dalla presenza del direttore. Formammo la squadra di calcio
dell’Osservatorio Vesuviano e Paolo
ne divenne il portiere dopo un clamoroso scivolone del titolare, Lorenzo Casertano, che gridando “lascia, lascia”
su uno spiovente a campanile si fece
scavalcare dalla palla che finì in porta.
Facemmo varie partite con alterno esito contro l’Osservatorio Astronomico
e la Banca Popolare. A volte, la sera,
andavamo a giocare a pallacanestro al
dopolavoro FS dei Campi Flegrei, e
Paolo svolgeva egregiamente il ruolo
di play-maker. Non mancarono episodi spassosi dei quali si rise insieme per
anni. Recatosi una volta a vedere una
partita di calcio del Napoli, insieme a
Nicola Roberti, non trovando biglietti disponibili, si infilarono in un buco
della recinzione dove Paolo fu letteralmente sparato oltre dalla pressione
della folla. Ci chiedemmo spesso cosa
ne avrebbero pensato i suoi colleghi se
fosse stato fermato dalla polizia e finito
nelle pagine di cronaca.
Alla metà degli anni 70, Paolo intraprese un nuovo e fondamentale
ruolo favorendo la realizzazione e poi
assumendo la direzione del Progetto
Finalizzato Geodinamica. Il progetto
rappresentò, a mio avviso, il più stimolante tentativo di coordinare insieme geofisici, geologi, vulcanologi e
ingegneri per definire il carattere e i
rischi geofisici del territorio italiano.
Furono coinvolte personalità di primo
piano come Franco Barberi, che poi ne
prenderà la direzione, Paolo Scandone,
Giuseppe Grandori, Giuseppe Luongo,
Fabrizio Innocenti, Letterio Villari e
altri. Il risultato di quegli studi ha rappresentato la base di molte delle conoscenze scientifiche attuali sui terremoti
e i vulcani dell’area italiana.
Una logica conseguenza di questi
progetti fu il rinnovato interesse per il
Vesuvio e i Campi Flegrei con l’avvio
di nuove indagini sul rischio vulcanico.
In quest’ambito fu realizzato un primo
convegno scientifico a Napoli con l’intervento congiunto delle autorità politiche e dei ricercatori per cercare di illustrare i problemi del rischio nell’area
Napoletana. Al convegno, svoltosi nel
1977 nel Maschio Angioino, parteciparono oltre ai ricercatori napoletani e
pisani, anche il famoso vulcanologo inglese George Walker ed il grande vulcanologo Alfred Rittman in una delle
sue ultime presentazioni pubbliche. Furono in quella sede presentate le prime
mappe di rischio vulcanico del Vesuvio
Nuovi interessi tuttavia attrassero
la curiosità di Paolo e, sul finire degli
anni 70, lasciò a Franco Barberi la direzione del Progetto Geodinamica e cominciò ad interessarsi del magnetismo
terrestre recandosi successivamente in
Venezuela, Norvegia e Brasile dove ri-
13
PROTAGONISTI | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
mase per vari anni.
Lo incontrai di nuovo proprio in Brasile per scrivere insieme a lui e a Marta
Mantovani un lavoro sullo stato termico della camera magmatica del Vesuvio. Ebbi così anche l’occasione di
leggere in anteprima alcuni capitoli del
nuovo libro che stava scrivendo insieme a Marta: Fisica della Terra Solida,
un libro di testo di Geofisica in italiano
su cui si sono formati generazioni di
geofisici.
Il terremoto del 1980 dell’Irpinia e
Basilicata ci colse tutti impreparati; la
rete sismica dell’Osservatorio centrata
sulla sorveglianza del Vesuvio e dei
Campi Flegrei era inadeguata a identificare con precisione la localizzazione
e la magnitudo dell’evento. Paolo si
trovava negli Stati Uniti e dapprima
non colse la gravità dell’evento, ma ritornò in Italia dopo alcuni giorni e si
adoperò per il miglioramento della rete
sismica. L’Osservatorio si dotò per la
prima volta di un adeguato calcolatore con cui localizzare gli epicentri dei
terremoti e si modernizzò la rete dei
sensori. Fu forse questa esperienza che
lo spinse a occuparsi dello studio del
Radon come precursore delle eruzioni
e dei terremoti.
Nel 1983 lasciò, per sua scelta, la
direzione dell’Osservatorio Vesuviano, cedendola a Giuseppe Luongo che
per molti anni aveva svolto le funzioni
di vice-direttore. Curiosamente questo
passaggio coincise con il riacutizzarsi
della crisi bradisismica dei Campi Flegrei, così come era avvenuto all’inizio
della sua direzione.
Per un certo periodo si dedicò all’attività professionale, aprendo uno studio di consulenza a Milano, e meditò
14
in alcuni momenti di abbandonare l’università. Fortunatamente questo non si
verificò e alla fine degli anni ’80 riprese a interessarsi alla sismologia, diventando coordinatore del primo corso di
dottorato in Geofisica e Vulcanologia
a Napoli. Fu questo dottorato la fucina
di un nuovo gruppo di ricerca orientato
principalmente a problemi sismologici
di cui poi si occuperà fino al suo pensionamento nel 2012.
Nel 1991 assumeva la carica di Presidente dell’Associazione Internazionale
di Vulcanologia e Geochimica dell’Interno della Terra. Anche in questa funzione si adoperò per sburocratizzare
l’Associazione, per renderla partecipata e vivace attraverso l‘iscrizione di
soci individuali, mentre fino ad allora si
reggeva sulla sottoscrizione dei singoli
stati che aderivano.
Al termine della sua carriera accademica, e anche dopo il pensionamento,
mantenne la presidenza della fondazione scientifica dell’Università Federico
II di Napoli che si occupa di ambiente
e rischi naturali.
Da questi cenni sulla sua storia scientifica e umana, emerge come Paolo fosse una persona brillante, curiosa e di
vasti interessi. Ha saputo approfondire
molteplici tematiche delle scienze della
terra e ha creato una scuola di ricercatori che rappresentavano il suo braccio
intellettuale. Non era un accentratore,
anzi favoriva negli altri la ricerca libera e senza vincoli, sapeva spronare con
garbo i suoi allievi e collaboratori per
farne emergere le capacità. Ricordo
che quando agli inizi della mia carriera gli manifestai i dubbi sulla tematica
che avevo affrontato fino a quel momento, sdrammatizzando mi consigliò
di prendermi del tempo che prima o poi
avrei trovato l’argomento che più mi
avrebbe attratto. Così fu, e gliene sono
ancora grato.
In occasione del suo pensionamento,
organizzò un incontro per salutare tutte
le persone che riteneva avessero contribuito ad arricchire la sua vita e il suo
lavoro. Ci ritrovammo in molti, come
in un incontro di famiglia con un padre
che saluta i suoi figli e fratelli.
Paolo è stato un innovatore che ha
contribuito a rilanciare la Geofisica in
Italia nel secondo dopoguerra, in un
periodo difficile per il nostro paese, e
ha continuato a stimolarci con la sua
curiosità, le sue domande, la sua inarrestabile intraprendenza.
Addio Paolo che la terra ti sia lieve
come fu lieve il tuo calpestarla.
- Cubellis E. Marturano A., 2010,
Testimonianze, Ricordi e Descrizioni
dell’ultima eruzione del Vesuvio nel
marzo 1944, Napoli, pp. 42+214
- Barberi F, Gasparini P, Innocenti
F and Villari L (1973) Volcanism of
the southern Tyrrhenian Sea and its
geodynamic implications. Journal of
Geophysical Research 78: 5221-5232
- Barberi F., L. Civetta, P. Gasparini,
F. Innocenti, Scandone R., L. Villari, 1974, Evolution of a section of the
Africa-Europe plate boundary: paleomagnetic and volcanological evidence
from Sicily, Ea. Plan. Sci. Lett., 22,
123-132
- M. S. Mantovani, P. Gasparini
1981, Fisica della terra solida, edizione
italiana a cura di Cornelia Veltri, Liguori, Napoli, Editore. pp. 520
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | PROTAGONISTI
Mauro Cristaldi
1947 - 2016
In memoriam
PIERANGELO CRUCITTI,
FRANCESCO BUBBICO,
LUCA TRINGALI
Società Romana di Scienze Naturali, SRSN
Ma noi viviamo in un’epoca in cui è proprio il naturalista che riesce a vedere più
chiaramente certi pericoli. Spetta dunque a
lui predicare.
Konrad Lorenz, Gli otto peccati capitali
della nostra civiltà, 1973
I
l 21 agosto 2016 il Prof. Mauro
Cristaldi è deceduto improvvisamente stroncato da un infarto
mentre era in vacanza in Sicilia. Su
mandato di questa rivista, di cui era
collaboratore e membro del Comitato Scientifico (Cristaldi et al., 2014)
spetta a noi il compito di tratteggiare
gli aspetti salienti della sua attività didattica e scientifica all’unisono con le
altissime doti umane; compito che assolviamo con il dolore e la mestizia di
chi lo ha conosciuto e frequentato per
oltre trenta anni entrando con lui in un
rapporto di profonda solidarietà intellettuale. Mauro (ci si consenta) inizia
la sua carriera di scienziato conseguendo la Laurea in Scienze Naturali nel
1972 presso Sapienza - Università di
Roma. In questa prestigiosa sede ottiene la qualifica di ricercatore nel 1980,
quindi diventa professore associato di
Zoologia (UniCal, 1987-1991) e successivamente di Anatomia Comparata
(UniRoma1, Facoltà di Scienze Matematiche Fisiche e Naturali, dal 1991
fino alla sua scomparsa).
È tra i soci fondatori della Associazione Teriologica Romana (AsTeRo)
insieme ad altre figure di teriologi e zoologi di vaglio - Giovanni Amori, Longino Contoli, Augusto Vigna Taglianti.
Sotto la sua presidenza matura e si concretizza l’idea di trasformare l’AsTeRo
in una istituzione a carattere nazionale.
È infatti nel corso della assemblea dei
soci di Perugia del 30
settembre 1992 (presieduta da Mauro Cristaldi nel corso del 54°
Congresso dell’Unione Zoologica Italiana)
che viene formalmente costituita la Associazione Teriologica
Italiana (ATIt), sotto
la guida del neo-eletto
Presidente prof. Erne- Mauro Cristaldi
sto Capanna. Nel 2012
viene cooptato all’unanimità Socio Ordinario della Società
Romana di Scienze Naturali (SRSN)
istituzione con la quale ha collaborato
per oltre trent’anni in maniera generosa
e produttiva.
La sua poliedrica attività scientifica
ha interessato numerose linee di ricerca:
- biologia morfo-funzionale ed evolutiva dei Vertebrati;
- citotassonomia dei Roditori;
- protezione ambientale e studio del
controllo dei Roditori nelle biocenosi
terrestri a bioclima mediterraneo con
una specifica attenzione alle aree contaminate, urbane e agricole;
- filogenesi dei Roditori e storia naturale delle specie commensali;
- comparazione tra teriocenosi terrestri;
- utilizzazione dei mammiferi murini selvatici come bioindicatori per la
valutazione dell’impatto ambientale
in situ, sia in aree protette sia in aree
soggette a diverse alterazioni ecologiche (e.g. inquinamento da residui industriali, agricoli, minerari, radioattività e
reflui del traffico urbano);
- analisi dei micronuclei e delle anomalie spermatiche, determinazione dell’età, valutazione delle asimmetrie morfologiche, analisi sierologiche mirate allo
studio della trasmissione di zoonosi,
determinazione di radionuclidi e metalli pesanti in piccoli mammiferi;
- analisi dei cambiamenti climatici ed
effetti potenziali sulle specie (Cristaldi
et al., 2001; Milana et al., 2012; Szpunar et al., 2008).
Le summenzionate linee di ricerca
lo hanno portato a svolgere indagini in
situ, in aree contaminate sia in Italia e
sia all’estero:
- Svezia e Lazio (Cristaldi et al., 1990,
1991) sia in precedenza che a seguito
dell’incidente di Chernobyl;
- Boemia e Moravia, aree ad elevata
contaminazione di origine industriale
(Degrassi et al., 1999);
- Parco Nazionale di Doñana (Spagna)
prima e dopo l’incidente minerario di
Aznalcollar del 1998 (Tanzarella et al.,
2001);
- Lazio e Biellese, contaminazione naturale da Radon (Ieradi et al., 2008);
- ex-Jugoslavia, Arcipelago della Maddalena, area PISQ in Sardegna; come
consulente dal 1999 sulla contaminazione di aree ad impatto bellico (Cristaldi et al., 2013).
Con lo scopo di indagare gli effetti di
origine antropica e/o naturale (e.g. produzione energetica e industriale, zoo/
agro-tecnologie, indici di termoxerofilia, piovosità differenziale) ha inoltre
iniziato la progettazione di stazioni in
aree mediterranee per il monitoraggio
delle comunità di piccoli mammiferi (progetti PRIN 2005 e 2009 coord.
proff. M. Barbieri e P. Brandmayr).
Lo sviluppo della carriera universitaria gli ha consentito di raggiungere le
seguenti posizioni:
- docente della Scuola di Dottorato in
Biologia Animale;
- Scuola di Dottorato in Igiene Ambientale e Industriale (diretta dalla Prof.ssa
I. Petritsi) 2002 - 2011;
- membro dal 2007 del Centro Interdipartimentale per lo Studio delle Scienze Applicate alla Protezione dell’Ambiente e dei Beni Culturali (Direttori
proff. L. Campanella e M. V. Russo)
presso Sapienza Università di Roma;
- collaboratore ufficiale nell’insegna15
PROTAGONISTI | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
mento di “Biologia Animale (con elementi di Anatomia Comparata)” per
Scienze Ambientali, insieme alla prof.
ssa M. Cobolli (BIO/05);
- docente nel modulo di competenza
dell’insegnamento di “Zoologia Generale e Anatomia Comparata” per Scienze Naturali;
- collaborazione didattica con la fisiologa dott.ssa Giovannella Bruscalupi
(BIO/09) nell’insegnamento di “Biologia e Fisiologia Cellulare” per la
laurea specialistica in “Monitoraggio
Ambientale” (Scienze Ambientali),
ora corso “Biomarcatori di Alterazioni
Ambientali” per la Laurea magistrale
“Monitoraggio e Riqualificazione ambientale”;
- introduzione, nel corso di specializzazione in “Conservazione della Natura e
delle sue Risorse” (attualmente laurea
magistrale in “Conservazione e Divulgazione naturalistica”) dell’insegnamento della Morfologia Comparata.
Alla costante attività di ricerca ha
sempre affiancato una attenta ed intensa attività didattica, offrendo agli
studenti, oltre alle usuali lezioni ex-cathedra, una serie di seminari destinati
a fornire, tramite l’intervento diretto
di specialisti di diversi settori in qualità di relatori, una visione complessiva di fenomeni evolutivi, adattativi ed
ecologico-applicativi, ben consapevole
dei limiti oggettivi delle competenze di
ogni singolo titolare di cattedra, con il
fine ultimo di conseguire una reale integrazione delle conoscenze.
La sua attività scientifica non era
disgiunta da un appassionato impegno
politico data la convergenza di politica e scienza nelle numerose ricerche
dedicate agli effetti di contaminanti e
radiazioni sui mammiferi (Cristaldi,
1999). Il barbone e il vocione di Mauro
erano inconfondibili, costituendo una
presenza ed una compagnia costante
16
e rassicurante, non c’era argomento di
attualità politica, accademica o scientifica che non venisse commentato
con dovizia di particolari dal Nostro.
Si usciva dal suo laboratorio, testimonianza di un carattere simpaticamente
“scapigliato”, arricchiti e confortati
dalla sua generosità. Nel ricordo di una
persona di altissima integrità morale e
scientifica siamo vicini alla moglie e ai
figli in questo doloroso momento.
Una commemorazione del prof. Cristaldi, a cura del Presidente della Società Romana di Scienze Naturali, prof.
Pierangelo Crucitti, si terrà presso la
sede sociale della SRSN (via Fratelli
Maristi 43, Roma) in occasione delle
celebrazioni del cinquantennale dell’istituzione previste per il 2017.
BIBLIOGRAFIA
Cristaldi M., 1999. Il dominio globale del mondo USA: come paradigma la
“guerra umanitaria” contro la Jugoslavia. Proteo, 3/1999.
Cristaldi M., D’Arcangelo E., Ieradi
L. A., Mascanzoni D., Mattei T., Van
Axel Castelli I., 1990. 137-Cs Determination and Mutageniticy Tests in Wild
Mus musculus domesticus Before and
After the Chernobyl Accident. Environmental Pollution, 64: 1-9.
Cristaldi M., Ieradi L. A., Mascanzoni D., Mattei T., 1991. Environmental
impact of the Chernobyl accident: mutagenesis in bank voles from Sweden.
International Journal of Radiation
Biology & Related Studies in Physics,
Chemistry & Medicine, 59 (1): 31-40.
Cristaldi M., Ieradi L. A., Amori G.,
Testi A., 2001. A study on the biological effects induced in natural populations by climatic changes. Italian
Workshop on Global Change, National
IGBP Committee. CNR, Rome: 241-
242.
Cristaldi M., Foschi C., Szpunar G.,
Brini C., Marinelli F., Triolo L., 2013.
Toxic Emissions from a Military Test
Site in the Territory of Sardinia, Italy.
Int. J. Environ. Res. Public Health, 10:
1631-1646.
Cristaldi M., Szpunar S., Foschi C.,
2014. La componente mobile animale
dell’ecosistema Roma. Scienze e Ricerche, 1: 12-19.
Degrassi F., Tanzarella C., Ieradi L.
A., Zima J., Cappai A, Lascialfari A,
Allegra F., Cristaldi M., 1999. CREST
staining of micronuclei from free-living rodents to detect environmental
contamination in situ. Mutagenesis, 14:
391-396.
Ieradi L. A., Cristaldi M., Ermenegildi A., La Barbera L., Radicchi L.,
Renzopaoli F., Esposito M., Aumento
F., Lombardi S., 2008. Mutagenetic
effects in mice exposed to radon-222
emissions in Latium region (Italy).
Fresenius Environmental Bulletin, 17:
1420-1425.
Milana G., Cristaldi M., Szpunar
G., Amori G., Aloise G., Luiselli L.,
2012. Distribution models, climatic
changes and potential effects on species. Congreso Internacional de Educación Superior “Universidad 2012”.
La Habana,Cuba, 6 pp.
Szpunar G., Aloise G., Mazzotti S.,
Nieder L., Cristaldi, M. 2008. Effects
of global climate change on terrestrial
small mammal communities in Italy.
Fresenius Environmental Bulletin, 17:
1526-1533.
Tanzarella C., Degrassi F., Cristaldi
M., Moreno S., Lascialfari A., Chiuchiarelli G., Ieradi L. A., 2001. Genotoxic damage in free-living Algerian
mouse (Mus spretus) after the Coto
Doñana ecological disaster. Environmental Pollution, 115: 43-48.
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA FORMAZIONE
Management and social criticality
in Italy
DAVIDE DI PALMA1 AND DOMENICO TAFURI2
1 Department of Sport Sciences and Wellness, Parthenope University, Naples, Italy
2 Full Professor of Methods and Educational Activities of Sport, Parhenope University, Naples, Italy
Nowadays, because of the shortage of economic and financial resources, it is increasingly necessary to adopt an effective and efficient management process to address the many
critical issues that characterize both the Italian and the
international social context. Among these, one of the main
problems to be addressed is represented by disability. It can generate social,
economic and financial inefficiencies, especially in Italy, where the management
approach adopted to limit the adverse
effects does not appear powerful.
In this regard, the objective of this
work is to bring to evidence the importance to implement the foundations of a
new management model in Italy, so that
we can promote social inclusion, employment and hence economic integration of disabled persons.
It will be also described, how this innovative model, already consolidated in
other countries, is able to generate the
benefits for the various stakeholders of
the national socio-economic system.
T
INTRODUCTION
he current global situation fully reflected, in
particular, by the Italian one, is characterized by a large and growing gap between the
demand for social services (including medical services, health care, economic, financial
and business support, etc.) and the constraint of the scarcity
of resources available to address them (4). This imposes the
need to adopt a management model that, taking into account
this imbalance between supply and demand, is also able to
satisfy simultaneously social requirement and economic
needs. In Italy, one of the main social problems that does not
appear optimally managed is represented by disability.
It is estimated that over one billion people in the world
lives with some form of disability. At least one-fifth of these,
approximately 200 million individuals suffer from severe
disabilities and so they are forced to face a number of signif-
icant difficulties and problems in everyday life. Specifically,
in Italy there are 4.1 million disabled people, 1 million of
whom are considered seriously disabled.
In addition, the percentage of disability in the world and in
Italy is continuing to rise due to the gradual increase in the
age average of the population and the consequent increase in
individuals suffering from chronic diseases (15).
Up until now, the solutions proposed in Italy to meet the
needs of these citizens were inefficient and the continuous
cuts in social policies do nothing but help make the situation
more critical. Thus it becomes necessary to resort to an effective and efficient management approach that, in order to
pursue improvements in the quality of life for people with
disabilities, proposes an organizational and strategic system
aimed at social, territorial and economic inclusion of these
17
SCIENZE DELLA FORMAZIONE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
individuals. In this regard, it proposes the implementation in
Italy of the “Disability Management” model, an innovative
approach, already well established in countries such as Canada and the US, which has the goal of building, managing
and organizing solutions that support the autonomy of persons with disabilities in different spheres of everyday life,
especially in relation to the labor market and the companies.
This implies the consequent need to structure the working
figure of “disability manager” as a professional operator able
to facilitate the removal of barriers in health care, in rehabilitation processes, in infrastructure, support services, information, education, transport and mainly in the labor market with
the intent to unlock the vast untapped production potential of
people with disabilities.
the progressive aging of the population to which it is closely related the increase of people with chronic degenerative
diseases that as a direct result multiply the large number of
disabled persons (15).
Censis, in fact, states that in Italy in 2020 the number of
disabled people will reach about 5 million people, that is almost equal to 8% of the population, up to reach 7 million in
2040, that is 10.9%, as shown in the following table (5, 9).
Tab. 1.1: Increase of disability in Italy
DISABILITY IN ITALY
The concept of disability is not always very clear. In fact,
sometimes there is a bit of confusion, probably due to the
different definitions used in recent decades to refer to people
with disorders, deficits, impairments, or otherwise characterized by different skills from the so-called “Non-disabled”.
The succession of different definitions, from the postwar
period to the present day, is the result of the evolutionary
trend that has characterized the approach to disability both
from a medical and a legislative point of view and that also
brought to a cultural evolution on the theme both for society
and economy as a whole. On May 21, 2001, on the occasion of the 54th World Health Assembly, it was approved
the International Classification of Functioning, Disability
and Health (ICF) which has been accepted by 191 countries
as “standards of evaluation and classification of health and
disability”. Disability is thus described as a consequence or
result of a complex relationship among the health condition
of an individual, personal factors and environmental factors
that represent the circumstances in which the individual lives
(7, 11, 16, 24).
The newly introduced classification is the expression of a
bio-psychosocial approach to disability which considers the
complex relationships that exist between an individual and
the variables range affecting it. The multidimensionality is
therefore one of the main features of the model, since not
only does it consider the biological aspect of disability, but
also the psychological, social and economic ones (7). In fact,
the causal link between health condition and disability occurs
when the economic and social environment, not adapting to
the person’s health conditions, create obstacles and barriers to
activity, participation and productivity of the person (1, 3, 10).
In relation to this meaning, according to data collected by the
WHO, more than one billion people in the world has some
form of disability, or about 15% of the world population;
about 80% of them lives in developing countries.
As for Italy, according to Censis estimates (Social Investment Study Centre), 6.7% of the population is disabled, or
about 4.1 million people, of which nearly 1 million to be
considered seriously disabled. In addition, we must consider
18
Source: Censis, 2016 (www.censis.it)
Concerns that may arise from the analysis of these estimates, oblige the institutions and society to become aware
of the problem that is destined increasingly to impact on the
sustainability of socio-economic development. In addition,
it was estimated that among the poorest people in the world,
those who live on less than $ 1 per day, and who lack all
those goods that are considered necessities, about 1 in 5 has a
disability (5, 6 ). The fact that disability in most cases causes
poverty is due to the difficulties that people with disabilities
may encounter in carrying out certain activities, as well as
the lack of adequate services to ensure their integration and
accessibility. All of these issues hinder the participation of
these people in society (have an education, a job, etc). The
exclusion increases the risk of poverty, which in turn causes
disability. The lack of resources to cope with the treatment
and care needed can further worsen the situation, aggravating
the state of disability. And yet, with regard to the inclusion
of the disabled in the labor market, the data collected from a
study carried out by the Secretariat for the Convention on the
Rights of Persons with Disabilities (Scrpd) show that about
60-70% of people with disabilities in industrialized countries
do not have a job (3, 6).
According to Istat, in Italy this figure is around 80%, or
almost twice the rate of inactivity reported to the rest of the
non-disabled population. In Italy in fact, only 16% of people with disabilities, aged between 15 and 74 years, work.
Among the disabled people working, estimates show that
only 17% of disabled people employed in our country claims
to have found a job thanks to the employment centers, while
31% was entrusted to the network of relatives and friends,
20% participated in an open competition and only 16% has
sent a resume in response to ads (6, 12, 17).
The exclusion of disabled people from the labor market
and the economic production system proves to be a problem
that does not just creates a great burden for such people, but
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA FORMAZIONE
also, and above all, for society as a whole; In fact, only the
unused labor generates an economic loss that ranges from
4% to 7% of the national GDP (12).
That is why, both for disabled people and national economy is crucial to encourage participation and the ability to
express and enhance their skills and abilities, mainly in the
business world, but at the moment the management policy of
vertical cuts to social policies implemented in Italy seems to
diverge from that purpose resulting in a reduction of assistance to the disabled equal to about 20% in the North, 30%
in Center and even 50% in southern Europe (17). A change
of course is required, achievable through a new management
and organizational model for disabled students, intended as
productive resources and not socio-economic weights. In this
regard it is proposed the innovative approach of “disability
management.”
AN INNOVATIVE MANAGEMENT MODEL FOR
DISABILITY: DISABILITY MANAGEMENT
The Disability Management is shaped on the need to reconcile the right to the inclusion of both the disabled and
chronically ill, with business efficiency requirements. It has
been theorized for the first time in the eighties, in different
economic, managerial and organizational disciplines, and it
has only spread in some countries such as Canada, the US
and Northern Europe, while in others such as China, Japan
and France has only recently been taken into consideration.
The model has the intent to reconcile the interests of the
company with the needs of the worker, whether disabled or
sick, to work not only for economic needs, but also to satisfy
an unquenchable need for identity and integration through the
work, and to ensure their productive contribution to society.
The difficulties in reaching this goal are clearly linked to the
vision and the preconceptions related to the working capacity
of sick and disabled, as well as self-induced mechanisms of
disability and disease itself, and related to changes in the performance mode of work as a result of the disease. In fact, if
the worker’s needs are just considered within the work place,
it tends to create behaviors that lead them, in the long run, to
get away and isolate themselves from the business reality,
where they are tolerated but not integrated (18).
The change of the logic underlying the Italian system of social protection in recent decades, where it has gone from paternalistic government assistance to greater accountability of the
recipients of the measures (so-called Workfare), offered new
space for the dissemination of the Disability tool management.
According to a working definition, the Disability Management is an active process of minimizing the impact of a disability (whether arising from disability, illness or injury) on
the individual’s ability to participate competitively to the
work environment. The purpose of this management model
is, in fact, to offer support to employees with chronic illness
or disabilities to optimize their professional performance,
while limiting the negative effects of the disease on the performance, through a comprehensive, coherent and progres-
sive set up by the company. The company’s ability to actively and effectively participate in the implementation of this
system of relations contributes to cost control, as well as to
support employment and productivity (19, 20).
Although it is primarily aimed at the business market, governments have nevertheless an important role in supporting,
encouraging and promoting policies and actions designed to
create more opportunities and therefore greater inclusion for
people with disabilities.
Is, however, important to ask whether the Italian context
and related businesses that characterize it, known for their
small size, are suitable and prepared to adopt disability
management practices. Starting from the provisions of Article 2, letter. “o” of the Legislative Decree. N. 81/2008 of
the Consolidated Law on protection of health and safety in
the workplace, “Health” means a “state of complete physical, mental and social well-being, not just the absence of
disease or infirmity”; this meaning is then conceived by the
Italian legislature in the broad sense, thus making it necessary for companies to adapt their organizational, technical and managerial structure to minimize not only the risk
of possible disease or infirmity, but also the one connected to all cases where the quality of life of workers may be
affected. The concept of health proposed by the Legislative
Decree. N. 81/2008, is inspired by the ICF classification
established by the WHO, and proves to be quite modern
and evolved to accommodate and encourage an integrated
approach as recommended by the Disability Management.
The real obstacle to the adoption of corporate policies oriented to Disability Management consists in setting the cultural
evolution of society. In particular, it should be understood
that to balance the needs of the economy with the demands of
a model of social protection, it is important that the business
world incorporate a culture of enterprise closer to demographic and ethical dynamics (19, 20). In order for these measures
to be successful, it is fundamental that businesses, as well as
workers and institutions, change their ways of thinking about
the problem of disability, which is not to cure disease but
a characteristic inherent in human diversity, which must be
valued and protected. Institutions should therefore act on the
issue both in a general sense, teaching to respect the rights of
citizenship of the “weaker” categories, and in a more specific sense, normalizing in Italy these principles of design for
all, accessibility and auxiliary technologies, already existing
from decades in the US and in the Nordic countries (10, 13,
21). Disabled people represent a largely ignored vast pool
of work force; to hire such individuals can constitute a more
than sensible choice for business and for the entire economic
system in order to increase productivity, but this requires to
overcome the fear of what is unknown, and greater attention
to capacity rather than disability.
The disability management in Italy is the key to activate
this change, representing the model to be used for a variety
of companies and both public and private organizations in
order to facilitate and encourage the inclusion of disabled
people in society and in the labor market, turning them into
19
SCIENZE DELLA FORMAZIONE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
productive units for the whole economy. It might be created,
as well, a network characterized by the possibility of linking
the different companies with disabled persons to obtain a social-economic mutual benefit. In fact, by participating in this
network, companies could: make use of a diverse workforce,
improve productivity, reduce turnover of staff, make workplaces safer, improve customer service and increase brand
loyalty; at the same time it would be encouraged full employment as well as equal opportunities for the disabled, setting
up an initiative that has as its primary purpose to counteract
negative stereotypes about disability to replace them with an
inclusive vision of the value of diversity and the contribution
that each individual can give to the company (1, 2).
In summary, the disability management aims at promoting
practices that make it possible to reduce the problems related
to disability, through the reorganization, the reasonable accommodation and a strategic rearrangement (8).
This management methodology, leads, in addition, benefits for various categories of stakeholders, in particular in
(22, 25):
· Governments, since if people with disabilities can reach
their own autonomy, welfare costs in their regards are significantly reduced;
· The companies, because they can achieve productivity increase, thanks to a better corporate vision, obtained through
a more responsible and attentive business approach to the
needs of workers;
· Trade unions, since the workers are better protected;
· Workers, that being valued have the opportunity to fully
express their skills.
20
Analyzing, then, the question from a macroeconomic point
of view, it must be stressed that the culture of inclusion and
equal opportunities is a lever to fight poverty; In fact, if it is
true that poverty fuels the disability, and disability in turn,
feeds poverty, you could reverse the trend of this vicious
circle. The companies, however, sometimes blinded by productivity and efficiency requirements are unable to grasp the
major opportunities that can be hidden behind the disability
management practices. It is therefore necessary to understand that it is work that must be appropriate, and not the
employee, since each person is characterized by the features
that if poorly integrated in the business environment can create problems and therefore higher costs (1, 2, 17).
In this regard, probably, it is no coincidence that, initially,
in our country the status of the Disability Management tool
has been assumed for the public sector, even before than being implemented in the private sector. The mechanism by
which to implement this tool, in fact, requires margins of
flexibility, collaborative and cooperative views in the management of human resources that the private sector still does
not own or, perhaps better, cannot exploit. In fact, unfortunately, up until now the approach of Disability Management
has not, at all, place its roots in Italy.
Lack of adequate knowledge and tools to face this phenomenon, especially in companies, is leading to poor management and organization of disabled people’s needs, risking, at the same time, to lose their know-how and their productivity.
In this scenario, very important in order to support the
adoption of this new management model, are cases such as
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA FORMAZIONE
Canada and the US, where the Disability Management consists in the assumption of supporting government policy and
organizational practices that allow to pursue the objective of
minimizing the production loss, reducing the incidence of
work disability and, preventing accidents and diseases which
result in a chronic disability (22, 23, 25).
THE ROLE OF DISABILITY MANAGER
At a time when the discipline of disability management,
overcoming the above assumptions, is able to enter its operational phase, the profession of disability manager takes shape.
He, therefore, has the task of building integrated network, deploy services and propose management solutions that, starting necessarily from the need of the person with disabilities,
are able to pursue, at the same time, business productivity
purposes. In this regard he must have both individual skills
and the tools to achieve a unified vision and coordination
to improve the quality of territorial and economic policies.
His goal is to promote urban accessibility, health and social
coordination, the school inclusion, but above all the work,
by going beyond the boundaries of the services and the enhancement of existing expertise in the area.
The disability manager is, therefore, a figure which has the
task, on the one hand, to seek different solutions that emphasize the strengths of people with disabilities and, second,
to spread an organizational culture free from prejudices and
discriminatory feelings. Therefore, as we said previously, the
first obstacle to face is represented by prejudices and ways of
thinking of many business managers and police makers, who
due to a “managerial myopia” expect from the management
methods based on disability management only a reduction in
productivity, without foreseeing the multiple advantages in
the long run (1, 2, 18).
This professional has already found a place in countries,
such as Canada and the US, particularly attentive to the management of these critical issues through the modus operandi
of the Disability Management, while in Italy it was considered for the first time in the “White Paper on accessibility
and urban mobility”, as a result of the work of the technical
committee set up between the town of Parma and the Ministry of Labour, Health and Social Policies, in 2009. It was
initially assumed as a figure to be mainly fit into the public administration and in particular in the municipalities of
above 50 thousand inhabitants.
The use of disability managers in Italy could, however,
be necessary to implement the commitments that Italy has
assumed by ratifying the UN Convention on the Rights of
Persons with Disabilities, with Law March 3, 2009, n. 18
(3). It would be desirable, however, to assume a disability
manager able to operate in all sectors, so no specialization on
Public Administration or private enterprise and without artificial distinctions between productive sectors, in order not to
create further inconsistency between the different economic
sectors of the country.
CONCLUSIONS
In Italy, as in much of the rest of the world, it is increasingly difficult to meet the demand for social services because
of the socio-demographic changes of the population, but especially for the scarcity of resources available to cope with
these many critical issues.
It was noted how disability represents a major social criticality above mentioned, due to the number of subjects covered in this status, its estimated valuations for the coming
years and the narrow two-way correlation between the status
of disability and poverty. The relevant aspect in this regard
is, however, that the main problem lies in the management of
the critical issues that currently in Italy cannot satisfy neither
the social-health objective nor the economic one.
In this regard, one possible solution is to be found in the
adoption of an innovative management approach, such as
disability management, so that we can actually benefit from
including people with disabilities in society and, specifically,
in the world of work. According to the dictates of this approach, by adapting the business and enterprise environment
itself to the characteristics of workers with disabilities, it
helps to promote the overall productivity of the latter, which
would be valued as a resource and not considered as a social
and economic burden. This incentive for potential inclusion
in the working world encourages the inclusion of the disabled in the society, and it is able to generate multiple indirect
benefits to other private and public stakeholders and to the
entire economic system.
However, to facilitate this management approach, it is necessary an evolution in the cultural setting of both the society
and the business system. They must understand that, in order
to balance the needs of the economy with the demands of a
model of social protection, it is important that the world production incorporates a management culture more attentive to
social, demographic and ethical dynamics.
REFERENCES
1. Angeloni, S. (2010). L’aziendabilità. Il valore delle
risorse disabili per l’azienda e il valore dell’azienda per le
risorse disabili: Il valore delle risorse disabili per l’azienda
e il valore dell’azienda per le risorse disabili. Milano, FrancoAngeli.
2. Angeloni, S. (2011). Il Disability Management Integrato: un’analisi interdisciplinare per la valorizzazione delle
persone con disabilità, Roma, Rirea,
3. Baratella P. e Littamè E. (2009). I diritti delle persone
con disabilità. Dalla Convenzione Internazionale ONU alle
buone pratiche, Trento, Erickson.
4. Belfiore, P., Sorrentini, A., Di Palma, D., Zamparelli,
B., Liguori, G., SIHHS (2015). Health Technology Assessment come strumento per il management sanitario: esperienze in Campania. Organizzazione Sanitaria. 4: 12-19.
5. Comunicazione della Commissione europea (2010).
Strategia europea sulla disabilità 2010-2020: un rinnova21
SCIENZE DELLA FORMAZIONE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
to impegno per un’Europa senza barriere, Bruxelles, 16
dicembre 2010
6. Daita, N. (2009). La dignità di un lavoro per le persone
disabili, La Macchia, C. (a cura di), Disabilità e Lavoro,
Roma, Ediesse.
7. Dipartimento di Psicologia di Milano-Bicocca, Il concetto di disabilità, (www.psicologia.unimib.it/getFile.
php/12610/ consultato il 29 gennaio 2015)
8. Geisen, T. (2015). Workplace Integration Through Disability Management. In Handbook of Vocational Rehabilitation and Disability Evaluation (pp. 55-71). Springer International Publishing.
9. Giancaterina, F. (2010). Come sono cresciute le persone
con disabilità in Italia dal dopoguerra, fra buone leggi e pratiche a macchia di leopardo, Impresa sociale, n. 2 (44).
10. Griffo, G. (2012). Persone con disabilità e diritti umani, in Casadei, T. (a cura di), Diritti umani e soggetti vulnerabili. Violazioni, trasformazioni, aporie, Torino, Giappichelli
Editore.
11. ICF (2002). International Classification of Functioning, Disability and Health - trad. it. Trento, Erikson, pp. 14
- 22
12. Istat (2010). La disabilità in Italia. Il quadro della statistica ufficiale. Health and Social Security. Roma.
13. Lazazzara, A. (2015). Le influenze culturali e istituzionali nel diversity management. Un confronto tra Italia,
Francia, Svezia, Germania e Regno Unito. STUDI ORGANIZZATIVI.
14. Migliaccio, G. (2016). ICT for disability management
in the net economy. International Journal of Globalisation
and Small Business, 8(1), 51-72.
15. Oecd. 2007. Trends in severe disability among elderly
people: assessing the evidence in 12 Oecd countries and the
future application. Parigi: Oecd Health Working Papers 26.
16. Perenboom, R. J., & Chorus, A. M. (2003). Measuring
22
participation according to the International Classification of
Functioning, Disability and Health (ICF). Disability and rehabilitation, 25(11-12), 577-587.
17. Perrino, A.M. (2009). I disabili e l’accesso al lavoro,
in La Macchia, C. (a cura di), Disabilità e lavoro, Roma,
Ediesse,
18. Roncallo, C., Sbolci, M. (2011). Disability manager.
Gestire la disabilità sul luogo di lavoro, Edizioni FerrariSinibaldi.
19. Shrey, D.E. (1996). Disability management in industry: the new paradigm in injured worker rehabilitation. Disability and Rehabilitation, 18(8), 408-414.
20. Shrey, D.E. (2011). Disability Management at the
Workplace: Overview and Future Trends, in Encyclopedia
of Occupational Health and Safety, International Labor Organization, Geneva.
21. Torre, T. (2007). Diversity Management and Disability: Indications from a Research on Ligurian Enterprises. Impresa Progetto-Electronic Journal of Management, (2).
22. White, M.I., Wagner, S.L., Williams-Whitt, K., Koehn,
C.V., Kube, D., Cornacchia, M., & Wärje, O. (2016). Workplace intervention research: Disability prevention, disability
management, and work productivity. In Handbook of Return
to Work (pp. 255-269). Springer US.
23. Winter, J., Issa, M.H., Quaigrain, R.A., Dick, K., &
Regehr, J.D. (2015). Evaluating Disability Management in
the Manitoban Construction Industry for Injured Workers
Returning to the Workplace with a Disability. Canadian
Journal of Civil Engineering, (ja).
24. World Health Organization. (2001). International
classification of functioning, disability and health: ICF.
World Health Organization.
25. Yukon Public Service Commission (2015). Disability
Management and Accommodating Employees with Disabilities. Framework.
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | LETTERATURE
Il mondo come rappresentazione:
note a margine per un
ritratto di Lucio Mastronardi
MARIA LUCIA ZITO
Il bosco è una metafora per il testo narrativo;
non solo per testi fiabeschi, ma per ogni testo
narrativo. Vi sono boschi come Dublino, dove
invece di Cappuccetto Rosso si può incontrare
Molly Bloom, o come Casablanca, dove si
incontrano Ilsa Lund o Rick Blaine.
U. Eco, Sei passeggiate nei boschi narrativi
1. LO SCRITTORE E IL CONTESTO CULTURALE DEL
S
SUO TEMPO
intetizzare in un percorso tematico, biografico e critico la figura e le opere dello scrittore contemporaneo morto suicida e troppo a
lungo dimenticato, la cui opera più famosa,
Il maestro di Vigevano (1962), fu portata con
successo sullo schermo cinematografico da Alberto Sordi
nelle vesti del protagonista nel 1963, appare un compito arduo e ambizioso, perché ciò si scontra in primis con l’idea
di canone, entro il quale l’autore in questione non appare
comunque inserito (ma si deve per forza?), di genere e soprattutto di adesione al format letterario conformistico allora
in voga e, forse, in qualche tempo e luogo non lontani da noi
ancora in auge (ci riferiamo alla mania dei Premi Letterari e
degli Eventi culturali a tutti i costi). Tuttavia molti furono i
films che negli anni Sessanta, con la nascita della commedia
italiana, fecero seguito ai temi trattati nell’Italia di Mastronardi: si pensi solo a La vita agra di C. Lizzani (1964), a Il
boom di Vittorio De Sica (1963), o a La bella di Lodi di M.
Missiroli, con sceneggiatura di Alberto Arbasino (1963), che
meriterebbero di essere più attentamente indagati al fine di
ripercorrere la parabola scrittoria e dialogica dello scrittore
lombardo di origine abruzzese, a nostro avviso quanto mai
attuale. Ci prefiggiamo per ciò stesso, in seconda analisi e in
altro luogo, d’indagare gli aspetti legati alla tematica della
scuola e della figura del maestro, oltre che di fornire un compendio critico e biografico sull’autore, limitandoci in questa
sede ad esaminare quelli connessi, in generale, ai romanzi
Lucio Mastronardi
e racconti dello scrittore, per lo più legati al tema della fabbrica ed alla dimensione consumistica e capitalistica della
rivoluzione industriale in Italia, la quale tende a dissolvere
gradualmente i valori tradizionali, sostituendoli con quelli
della carriera, del becero arrivismo, dell’adulterio di provincia e della rincorsa al denaro, con forti influenze negative
sul menàge familiare, guadagnando a Mastronardi la fama di
«moralista insocievole tra demoni e clown»1. Lo stesso Elio
Petri, regista della versione cinematografica del ‘63, tratta
dal più noto romanzo dello scrittore, affermava:
Del romanzo di Mastronardi sto portando sullo schermo non tanto
l’ambiente scolastico (che mi pare un elemento complementare della
stesura del racconto) quanto il clima greve del miracolo economico
1 G. TESIO, Introduzione a L. Mastronardi, Il maestro di Vigevano, Il
calzolaio di Vigevano, Il meridionale di Vigevano, Einaudi, Torino 1994,
p. V.
23
LETTERATURE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
sostituito talvolta […] da uno sfrenato e avventuroso affarismo e da
incerte situazioni economiche.2
Più o meno con gli stessi toni, corroborati da un più accentuato senso critico non scevro da un certo scetticismo che lo
scrittore ligure nutrì comunque sempre nei confronti del suo
più fragile amico, Italo Calvino commentava così la Trilogia
dei Romanzi vigevanesi:
L’universo di Mastronardi ha un nome, dichiarato fin dall’inizio dai titoli in copertina: Vigevano. Non so quanti e quali nessi si possono trovare tra questa Vigevano romanzesca e la Vigevano reale: ma so che
come immagine dell’Italia, di trent’anni di storia della società italiana,
la Vigevano mastronardiana funziona egregiamente. Che un risultato
di tanta forza sia stato ottenuto da un’esistenza in fragile equilibrio
col mondo come quella di Lucio Mastronardi, dalla sua sensibilità di
scorticato vivo, dà a quest’opera un carattere ancor più raro, perché
pagine così sapienti nel costruire e nel giudicare le storie umane sono
state come strappate dal gorgo di sofferenza che Lucio si portò dentro
per tutta la vita […].3
Più recentemente Goffredo Fofi, saldando l’individuale
nevrosi dello scrittore all’isteria collettiva, da cui quel disagio scaturisce, restituisce giustizia all’immagine paranoica
di Mastronardi, chiosando così la sua vicenda biografica ed
intellettuale:
Ed è, a ben guardare, Mastronardi ad aver narrato meglio di ogni scrittore, nel Maestro di Vigevano, nel Calzolaio e nel Meridionale, gli
sconvolgimenti del boom, la frenesia e la furia della corsa al denaro
che travolsero quasi tutta la nostra società. Egli lo ha fatto re-inventando una lingua, negli anni di Meneghello, e parlando della provincia, di
quella vasta e importante provincia padana, che fu forse – e lo è ancora
– la zona più fragile, succube e ricettiva della frenesia collettiva: dove
tuttto si fa moneta, e la nuova ricchezza non elimina la grettezza preesistente, per esempio nel mondo della scuola, nei modi della convivenza, ma ve ne aggiunge di nuova nell’idolatria dell’arricchimento.4
La «storia è quella del dopoguerra e dei primi anni Sessanta del cosiddetto boom economico; la geografia quella di
un paese d’acque e di terre (Vigevano come terra di frontiera tra la grassa Lomellina e il Milanese), in preda ad un
convulso processo di aggiornamento industriale. Non a caso
il promeneur solitaire che c’è sempre nelle pagine di Mastronardi tende alla campagna di cascine e canali oppure alla
nostalgia delle mura cittadine che trasudano voci e rumori
di lavori artigianali»5. L’humus politico-culturale e letteraria
da cui scaturisce l’opera mastronardiana è, dal nostro punto
2 E. PETRI, Tredici scolaretti di Vigevano giocano al cinema con Sordi, in «Stampa Sera», n. 273, anno 95, 21 novembre 1963. Il romanzo di
Mastronardi era uscito invece per Einaudi, Torino, 1962 e poi in edizione
economica per Mondadori, Milano, 1969.
3 In AA.VV., «Per Mastronardi», Atti del Convegno, a cura di M.A. Grignani, La Nuova Italia, Firenze 1983.
4 G. FOFI, Prefazione a R. DE GENNARO, La rivolta impossibile. Vita
di Lucio Mastronardi, Ediesse, Roma 2012, p. 10.
5 TESIO, cit. p. VI.
24
di vista, anche la crisi della letteratura realista del dopoguerra, la quale ha visto fallire gli ideali di sogno e populismo
contenuti nelle istanze comuniste e mira, ormai, alla nascita
del neocapitalismo e di una società industrializzata e consumistica. Proprio da questo fallimento, ossia dalla mancata
coniugazione della dialettica storico-economica marxista
con i contenuti oggettivi della realtà che il Neorealismo si
proponeva di operare, anche attraverso precise scelte linguistiche di adesione al reale (si veda per esempio Pasolini),
scaturisce una sorta d’impaziente sperimentazione che condurrà alla nascita delle nuove Avanguardie ed in particolare del Gruppo ‘63. Mentre lo storicismo tradizionale della
cultura italiana si modernizzava grazie al sociologismo e
allo stesso marxismo (il vecchio Natalino Sapegno, Cesare
Luporini, Carlo Muscetta, Giuseppe Petronio, Asor Rosa,
fino a Giulio Ferroni), negli anni ‘60 e ‘70 si affermano altre
metodologie d’indagine critico-letteraria, soprattutto quella
strutturalista e semiologica: con Umberto Eco, Cesare Segre,
Maria Corti, Ezio Raimondi ed altri. Ruolo di stimolo ha il
gruppo di critici, scrittori e poeti riuniti appunto attorno al
Gruppo ‘63: Luciano Anceschi e lo stesso Umberto Eco, Angelo e Guido Guglielmi, Renato Barilli, Enrico Filippini, Sebastiano Vassalli, Luigi Malerba, Alberto Arbasino, Nanni
Balestrini, Alfredo Giuliani ed Edoardo Sanguineti, solo per
citarne alcuni. L’entusiasmo sperimentato dai componenti
del costituendo Gruppo ‘63 rifletteva la genuina ricerca che
stava prendendo corpo in tutto il mondo, di un nuovo stile
di vita e di pensiero, in opposizione alle resistenze di coloro
che si sentivano impegnati nella conservazione dei valori di
un’Italia contadina e paesana e nella difesa degli interessi
di gruppi radicati nel tessuto socio-economico. Le istanze
del movimento si contrapponevano a una ‘conservazione
culturale’ che ruotava intorno alla classe intellettuale uscita dalla guerra: Calvino, Bassani, Cassola, Fortini, Morante,
Moravia, Pasolini, Vittorini, che occupavano comunque posti di controllo all’interno dell’industria culturale, nelle case
editrici e nelle università. Le loro posizioni, sviluppate e discusse prevalentemente sulle riviste «Officina» e «La Voce»,
risentivano dell’influsso dei principi estetici del comunismo
sovietico.
2. MASTRONARDI E LA «RIVOLTA IMPOSSIBILE»
Cultura dominante, in Italia, espressione della linea degli
intellettuali chiamati a collaborarvi, era però anche la giovane Televisione di Stato, con il «Festival di San Remo»,
vinto nel ‘63 da Tony Renis e l’anno prima da Domenico
Modugno e Claudio Villa, espressioni canore di un sistema
valoriale saldo e ancorato al prototipo nazional-popolare; era
la trasmissione televisiva «Canzonissima», regia nel 196263 di Vito Molinari, condotta da Dario Fo e Franca Rame,
sostituiti per incompatibilità con la dirigenza RAI, dopo sole
sette puntate, da Tino Buazzelli e Sandra Mondaini. Era questa l’ ‘egemonia culturale’ che i neoavanguardisti tentavano
di scardinare.
E cultura dominante era l’istituto della censura, inventato
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | LETTERATURE
soltanto trent’anni prima da Mussolini, suffragato dall’approvazione della legge del 21 aprile 1962 n. 161, che imperversava soprattutto nel mondo dello spettacolo, protagonista,
grazie al cinema italiano, di un momento di grande successo
sulla scena internazionale. Il 1963 segnò l’uscita delle produzioni cinematografiche de Il Gattopardo di Luchino Visconti, tratto dall’omonimo romanzo di Tomasi di Lampedusa, e
di 8 e 1/2 di Federico Fellini (con dialoghi di Ennio Flaiano).
Venezia Cinema premiava Francesco Rosi per Le mani sulla città e Marco Ferreri dirigeva L’ape Regina, tratto dalla
sceneggiatura teatrale di Goffredo Parise La moglie a cavallo. Trasposto dal romanzo omonimo di Lucio Mastronardi,
usciva anche, tra le polemiche ed i boicottaggi, appunto Il
maestro di Vigevano, reso famoso grazie soprattutto all’interpretazione dell’attore principale nelle vesti del maestro
Mombelli. Ambientato nella provincia settentrionale travolta dalle trasformazioni sociali dello sviluppo economico e
di un’inattesa, debordante immigrazione, contrappone due
mondi completamente diversi ma entrambi in crisi profonda:
quello della scuola, abitato da maestri frustrati e presidi mediocri, e quello della fabbrica, duro, cinico, orientato esclusivamente verso il denaro.
Contemporaneamente si era verificata una frattura anche
sul crinale delle riviste: mentre l’esperienza ‘officinesca’
di Pasolini si concludeva sul finire degli anni ‘50 a causa
dell’impreparazione di fronte alle nuove istanze culturali
provenienti dall’estero come lo Strutturalismo, in Italia sorgevano due nuove riviste, «Il Verri» di Luciano Anceschi
(1956) e «Il Menabò» di Elio Vittorini (1959), sull’ultima
delle quali non a caso apparirà, nel 1959, il primo dei romanzi di Mastronardi, Il calzolaio di Vigevano, esperienze
che sanciranno la frattura, già avvenuta in precedenza, fra
letteratura e politica, engagement ideologico dello scrittore
e ruolo dello scrittore stesso. Entrato in crisi il sistema politico-culturale comunista era andato in tilt anche l’apparato
teorico del realismo, sostanziato per sua natura delle idee nazional-popolari gramsciane e della dialettica materialistica di
Lukàcs. Anche in Mastronardi la dialettica storia-individuo
appare, per molti versi, frantumata ed è evidente, per fare
qualche esempio, nello spaesamento che, costantemente, il
protagonista dei romanzi e racconti sperimenta rispetto al
proprio ambiente e al momento storico in cui vive, oltre che
nella tecnica della deformazione grottesca, presente soprattutto nel primo romanzo.
Notevoli dunque i contatti dell’opera mastronardiana con
la civiltà moderna e contemporanea, nonché i rapporti tematici ed intertestuali con Pirandello, Moravia, e, dall’angolazione soprattutto linguistico-espressiva e tematica, con
Gadda e Verga, anche perché, alla fine, la società che l’autore mette in scena è composta di piccoli vincitori (gli industrialotti di provincia, i presidi, i rappresentanti dell’apparato
burocratico), ma anche di una nutrita schiera di ‘vinti’(il maestro Mombelli, il calzolaio ed il meridionale di Vigevano,
i diversi protagonisti dei racconti, dall’Assicuratore a Casa
tua ridono). Presenti alcune assonanze, a nostro avviso, anche con il genere post-moderno, a causa dei continui colle-
gamenti con la tematica del consumo e delle trasformazioni
che, inevitabilmente, il mondo evoluto e civilizzato apporta
alle strutture sociali, economiche e psicologiche del passato,
spesso creando nuovi disvalori. La dimensione straniata della
provincia vigevanese, definita da Angelo Iacomuzzi nel suo
saggio Il maestro di Vigevano6, «una provincia apocalittica,
sottratta a ogni ipoteca di riforma e salvezza», ben traduce
il quadro che Mastronardi vuol rappresentare. La piazza di
Vigevano diventa dunque «la metafora del caos e gli abitanti
della città le larve di un mondo infero, sgangherato, che dismisure e asimmetrie strutturali e stilistiche registrano ben
fuori da ogni realismo»7.
3. CANONE O NON CANONE?
Per tornare alla temperie che inaugura questo rinnovato atteggiamento dello scrittore nei confronti della politica,
basterà citare la rottura di Mastronardi con la casa editrice
Einaudi, comunicata peraltro in una lettera allo stesso Calvino, suo unico, vero promoter letterario dopo Vittorini, che
proprio in quegli anni, sul «Menabò di letteratura», andava
pubblicando Il mare dell’oggettività (1960).
Un gesto che ricorda molto da vicino quello di un autore a
noi più prossimo e purtroppo di recente scomparso, appunto
Umberto Eco, il quale aveva da tempo interrotto i rapporti
con la Mondadori (si suppone per motivi diversi da quelli di
Mastronardi), per affidarsi a nuove case editrici e fondarne
una propria, La nave di Teseo (a cui auguriamo la massima fortuna). Allo stesso modo, sebbene in maniera più consapevole, a parte la significativa e innovatrice produzione
critico-letteraria a tutti nota, Eco è stato fra i “corsari” dello
svecchiamento della RAI, insieme ad alcuni rappresentanti
del Gruppo ‘63, nonché il primo fra gli esperti del genere a
studiare, certo con intento dissacratorio, le correlazioni fra
dittatura e cultura di massa, culto della tradizione e populismo dei media, in particolare di TV e Internet, iniziando così
a dar voce in Italia, accanto a pochi altri studiosi, anche ai
Cultural Studies.8
Rotto il rapporto, dunque, fra oggetto e soggetto, individuo
e cose, non resta, per dirla con parole di Calvino, che «la fondazione di uno stile»9. Ed è quello che, per tornare al nostro
6 In AA.VV., «Per Mastronardi», Atti del Convegno, a cura di M.A. Grignani, cit., p. 68.
7 TESIO, Introduzione…, cit., p. X.
8 I Cultural Studies, che raccolgono molte categorie e sottocategorie al
loro interno, come i gender studies, gli studi post-coloniali, i woman studies, i gay/lesbyan studies, i black studies, i queer studies e recentemente
anche i men studies, studiate variamente fin dagli anni ‘50 all’interno di
scuole critiche come il New Historicism statunitense, la filosofia del francese Michel Foucault, la Yale Critics, la CCCS (Centre for Contemporary
Cultural Studies) di Birmingham e la stessa Scuola di Francoforte, sono
in Italia in recente, problematica acquisizione, a causa dell’incerto statuto
che li connota. Ci basti ricordare che negli anni Sessanta, dopo la fase degli
studi etnologici e dedicati alla cultura materiale, caratterizzazione peculiare degli studi culturali nel nostro Paese, Umberto Eco ed Ivano Cipriani
furono i primi ad analizzare la comunicazione di massa e il loro rapporto
con le scienze sociali sulla Rivista «Ikon».
9 I. CALVINO, Una pietra sopra, Einaudi, Torino 1980, p. 89.
25
LETTERATURE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
autore, cerca di fare a questo punto Mastronardi, interpretando più o meno consapevolmente i Novissimi, riproducendo
nei suoi romanzi e racconti una modalità espressiva plurilinguistica, frantumata, schizofrenica, che si avvicina, dunque,
proprio agli assiomi del Gruppo ‘63 e alla nuova grammatica neoavanguardistica. Dal punto di vista contenutistico lo
scrittore abolisce o comunque tende a sopprimere, nel trascorrere da un romanzo all’altro, la sua vocazione comica,
per effettuare un’indagine del profondo, e qui sovvengono,
in vario modo, Kafka (soprattutto quello di Lettera al padre),
Pirandello e, per l’implicita denuncia sociale e l’aperto anticonformismo, come già indicato, anche Moravia.
Dunque in questa sede non interessa più dimostrare se Lucio Mastronardi abbia o meno realizzato uno stile, perché di
questo siamo certi, ma ricostruire più doviziosamente il processo di come tale tentativo avvenne e se ottenne i risultati
voluti. Analizzando tutti i dati, consultando eventualmente i
carteggi e ricostruendo il procedimento creativo, psicologico
ed ideologico sotteso al progetto dello scrittore, si potrebbe
tentare di portar fuori, quasi inventio, dal dimenticatoio degli
studi critici degli ultimi anni, opere che sicuramente meritano di essere più attentamente e doviziosamente investigate,
restituendo loro quella letterarietà che sembra essere stata,
per motivi diversi, in tutto questo tempo, misconosciuta, disattesa, relegandole al ruolo di classici ‘sommersi’.10 Opere
che, certamente a causa della loro intrinseca trasgressione,
cifra di una critica sociale ai nuovi valori dell’ossessione
economica e del consumo, sono state trascurate dall’editoria post mortem, e, in un certo senso, ‘rimosse’, da tempo
in attesa di essere incluse almeno nel canone antologico e
scolastico.
E’ necessario un più esaustivo lavoro di analisi critica e
linguistica dell’intero ‘corpus’ mastronardiano, anche alla
luce dell’interessante ed implicito rapporto fra storia del
tempo (il Boom economico degli anni ’50-’60) ed ambito
geografico in cui la scena si svolge: una Lombardia ed una
Vigevano congestionate dall’immigrazione e da una troppo
veloce industrializzazione, quasi pubertà improvvisa ma indesiderata, e dunque avvertita dagli animi più sensibili come
‘invasione’ e corruzione delle coscienze. «Quest’immagine ci va di concludere con Calvino, che scrive questo saggio due
anni dopo la scomparsa dello scrittore fra le acque del Ticino
- resta ancora e più che mai vera negli anni della crisi, dell’economia sommersa e del lavoro nero, delle piccole città non
più solo settentrionali dove si moltiplicano le piccole industrie e le non piccole fortune»11 della civiltà del consumo,
obbligandoci ad accettare l’ambiente ed il momento storico
in cui viviamo come estrema forma di adesione al reale, non
slegata, dunque, da un passato prossimo i cui effetti durano
10 La distinzione fra ‘letteratura’ e ‘paraletteratura’ è stata esaurientemente indagata da A. CATALFAMO, Letteratura e cultura dei ceti subalterni in Italia, Solfanelli, Chieti 2012, pp. 111-144, chiarendo come il
destino di ‘classico sommerso’ abbia travolto non solo Lucio Mastronardi,
ma anche scrittori come Emilio Salgari e Edmondo De Amicis.
11 CALVINO, Ricordo di Lucio Mastronardi, in AA.VV., «Per Lucio
Mastronardi»…, cit., p. 14.
26
nel presente.
Possibili collegamenti con la letteratura europea, in fatto
di tentativi di sperimentalismo linguistico-espressivo, sono
rinvenibili nelle soluzioni narrative e poetiche delle Generaciones spagnole (’98, ’14, ’27), in particolare nella tecnica
dell’esperpento di Valle-Inclàn e nella ricerca di uno stile
da parte di Dàmaso Alonso, il maggiore esponente della critica stilistica europea. Il termine esperpento, che serve ad
indicare la deformazione grottesca della realtà, è infatti la
traduzione stilistica di una visione molto critica della società,
che si palesa nella degradazione psicologica dei personaggi
e degli ambienti nei quali essi vivono, per certi versi molto
simile a quella operata, nei suoi romanzi e racconti, da Pirandello prima e da Mastronardi poi.
Connessioni con la narrativa postmoderna in generale
sono soprattutto quella spettacolarizzazione delle merci e del
consumo tipici dei romanzi di Mastronardi, come l’ambientazione spesso ‘surreale’ dei suoi racconti, quasi intenzionale
rappresentazione di un’iperealtà, in cui i personaggi principali, per esempio nel Calzolaio di Vigevano, non riescono a
svincolarsi dall’idea della fabbrica e della lavorazione delle
scarpe nemmeno nei momenti intimi, o tentano il suicidio
quando si dibattono nelle loro crisi d’identità, pur dopo aver
raggiunto l’agognato, ma freddo e spersonalizzante successo economico. E’ il caso del protagonista di A casa tua
ridono (1971) che, paradossalmente, finisce per tentare un
suicidio nelle acque del Ticino, le stesse che ingoieranno,
ma per sempre, il nostro autore quella mattina di aprile nel
1979. Prossimità tematiche certamente non trascurabili sono
inoltre ravvisabili con le opere della fase non combinatoria
dello stesso Calvino, in particolare Marcovaldo e Le città
invisibili.
In conclusione, che la definizione di ‘classico sommerso’
indichi un autore a lungo o a torto dimenticato (e la tradizione letteraria italiana ne è piena, da Emilio Salgari, troppo tardivamente rivalutato, a De Amicis, di cui soltanto di recente
riemergono dal dimenticatoio i numerosi reportages12), che
la medesima stia a significare una singola opera sottovalutata
o del tutto caduta in oblio di uno scrittore noto al grande pubblico per altri lavori od uno solo, riteniamo che la comunità
scientifica debba sentire la necessità di restituire giustizia
all’uomo, oltre che al letterato impegnato a lasciare un messaggio profondamente legato al momento storico-economico
vissuto (e per molti versi attuale), in special modo quando
non ne sia stato finora riconosciuto quale originale e sfortunato interprete. Ci piace chiudere queste annotazioni sullo
scrittore vigevanese proprio con una riflessione di quel Calvino, a cui tante volte il disperato Mastronardi si rivolse nel
tentativo (a volte confuso, come l’ultima delle sue visite in
treno) di ottenere un riconoscimento ufficiale non tanto della
12 Ci sia consentito rimandare al saggio in rivista M.L. ZITO, Edmondo
De Amicis viaggiatore in Francia. I Ricordi di Parigi, in «Carte di Viaggio», 5, 2012, pp. 91-101 e al nostro E. DE AMICIS, Ricordi di Parigi , a
cura di Maria Lucia Zito, Solfanelli, Chieti 2012, come a ID., La carrozza
di tutti, a c. di Elvio Guagnini, Genova, De Ferrari 2008 e a ID., Ricordi di
Londra, a c. di L. PASQUINI, Carabba, Lanciano 2007.
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | LETTERATURE
sua opera, quanto dei contenuti da essa veicolati:
Forse stiamo avvicinandoci a un momento di crisi della vita urbana,
e Le città invisibili sono un sogno che nasce dal cuore delle città invivibili. Oggi si parla con eguale insistenza della distruzione dell’ambiente naturale quanto della fragilità dei grandi sistemi tecnologici che
può produrre guasti a catena, paralizzando metropoli intere. La crisi
della città troppo grande è l’altra faccia della crisi della natura. […]
Quello che sta a cuore al mio Marco Polo è scoprire le ragioni segrete
che hanno portato gli uomini a vivere nelle città, ragioni che potranno
valere al di là di tutte le crisi. Le città sono un insieme di tante cose: di
memoria, di desideri, di segni d’un linguaggio; le città sono luoghi di
scambio, come spiegano tutti i libri di storia dell’economia, ma questi
scambi non sono soltanto scambi di merci, sono scambi di parole, di
desideri, di ricordi. Il mio libro s’apre e si chiude su immagini di città
felici che continuamente prendono forma e svaniscono, nascoste nelle
città infelici.13
BIBLIOGRAFIA RAGIONATA
Opere di Mastronardi
Il calzolaio di Vigevano, Torino, Einaudi, 1962 (già in «Il
menabò», I, 1959, pp. 9-101); Il maestro di Vigevano, ivi,
1962 (ed. economica, Mondadori, Milano 1969); Il meridionale di Vigevano, ivi, 1964; A casa tua ridono, Rizzoli,
Milano 1971; L’assicuratore, ivi, 1975. L’ultima raccolta
comprende diversi racconti già comparsi in rivista: è il caso
e non solo di Posteggiatore, 22 dicembre 1955; Serata indimenticabile, 29 dicembre 1955; Dalla santa, 5 gennaio e 12
gennaio 1956; Ricordi di tempi andati, 1 marzo, 8 marzo,
12 marzo 1956, tutti comparsi sul «Corriere di Vigevano»,
per poi essere rimaneggiati variamente o stemperati in altre
opere, tranne l’ultimo. Posteggiatore trovò una sua collocazione fra le prime sessanta pagine del Maestro di Vigevano,
il secondo in un’espansione dell’Assicuratore, il terzo nei
Nuovi racconti italiani II, Presentazione di L. Silori, Milano, Nuova Accademia 1964. Gente di Vigevano (che comprende Il calzolaio di Vigevano, Il maestro di Vigevano, Il
meridionale di Vigevano, Gli uomini sandwich, La ballata
dell’imprenditore) con Prefazione di S. Pautasso, ivi, 1977.
Altri racconti, sparsi in rivista, ed alcuni stralci del Calzolaio di Vigevano risultano antologizzati in A. GUGLIELMI,
Vent’anni d’impazienza. Antologia della narrativa italiana
dal ’46 ad oggi, Feltrinelli, Milano 1965, pp. 189-198 e in G.
CONTINI, Letteratura dell’Italia Unita. 1861-1968, Sansoni, Firenze 1968, pp. 1034-1035. Le ultime edizioni dell’opera e la relativa curatela si devono a G. TESIO: L. Mastronardi, Il maestro di Vigevano. Il calzolaio di Vigevano. Il
meridionale di Vigevano, Einaudi, Torino 1994 e Id., A casa
tua ridono e altri racconti, ivi, 2002, corredati da abbastanza
ampie introduzioni ed esaustiva bibliografia. In particolare,
la Trilogia di Vigevano contiene in appendice due scritti di
Calvino e di Gian Carlo Ferretti.
Studi critici
Si citano alcune fra le recensioni più importanti e gli scritti comparsi in rivista, che sono i più numerosi: E. VITTORINI, in «Il menabò», I, 1959, pp. 101-103; E. MONTALE,
in «Corriere della sera», 31 luglio 1959; G. MARIANI, in
«Cultura e scuola», gennaio 1962 (poi in La giovane narrativa italiana tra documento e poesia, Firenze, Le Monnier
1962); C. Salinari, in «Vie Nuove», 28 giugno, 1962; A.
ASOR ROSA, in «Quaderni piacentini», gennaio-febbraio
1964; E. SICILIANO, in «L’Europa letteraria», febbraio
1964; G. PAMPALONI, in «Corriere della Sera», 24 giugno 1971; G. SPAGNOLETTI, in «Il Giorno», 7 maggio
1975. Per i volumi si ricordano G. AMICI, Il realismo nella
narrativa da Verga a Mastronardi, Ponte Nuovo, Bologna
1963; G. BARBERI SQUAROTTI, Narrativa italiana del
dopoguerra, Cappelli, Bologna 1965; A. GUGLIELMI,
Vent’anni d’impazienza, cit.; G. MANACORDA, Storia
della letteratura italiana contemporanea, Editori Riuniti,
Roma 1967; G. CONTINI, Letteratura dell’Italia Unita, cit.,
G. PULLINI, Volti e risvolti del romanzo italiano contemporaneo, Mursia, Milano 1971; G. MANACORDA, Vent’anni
di pazienza. Saggi sulla letteratura italiana contemporanea,
La Nuova Italia, Firenze 1972; U. FRAGAPANE, in Letteratura italiana. Novecento. I contemporanei. Gli scrittori e
la cultura letteraria nella società italiana, Marzorati, Milano 1979.
Si ricordano inoltre le due interviste allo scrittore a cura
di G. C. FERRETTI, in «Rinascita», 21 marzo 1964 e di
G. BOCCA, in «Il Giorno», 11 agosto 1971, nonché l’unico
Convegno di cui si posseggano e siano stati pubblicati gli
Atti, sebbene, oramai, il volume risulti introvabile: AA.VV,
«Per Mastronardi». Atti del Convegno di Studi su Lucio
Mastronardi, Vigevano, 6-7 giugno 1981, a c. di M.A. GRIGNANI, La Nuova Italia, Firenze 1983. In occasione del
suddetto Convegno, per iniziativa del Comune di Vigevano,
sono stati ripubblicati gli originali di Posteggiatore, Serata
indimenticabile, Dalla santa e Ricordi di tempi andati, in
L. MASTRONARDI, Quattro racconti (1955-56), a c. di R.
MARCHI, Aurora Edizioni, Pavia 1981.
Per ciò che concerne i carteggi, alcune lettere Mastronardi-Calvino sono state pubblicate, a cura di G. TESIO in I.
CALVINO, I libri degli altri, Einaudi, Torino 1991. Il nucleo maggiore che compone i carteggi e i manoscritti è custodito presso la famiglia Mastronardi.
Allo scrittore è stata dedicata a Vigevano, nell’aprile del
2009, una Tavola Rotonda con interventi di Maria Antonietta Grignani, Mauro Novelli, Bianca Garavelli e alcuni scrittori, intitolata proprio «Lucio Mastronardi». A parte alcune
tesi di laurea e articoli sparsi, e mancando tuttora un ritratto
letterario ancorato ai testi, si deve a un non addetto ai lavori
una lodevole monografia: R. DE GENNARO, La rivolta impossibile. Vita di Lucio Mastronardi, Ediesse, Roma 2012,
che comincia a colmare in ogni caso una grossa lacuna scientifica.
13 I. CALVINO, Presentazione a Le città invisibili, Mondadori, Torino
2002, pp. X-XI.
27
SCIENZE DELLA VITA E DELLA SALUTE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
Protonterapia e Radioterapia a confronto
nel trattamento di neoplasie primarie e
radio-indotte. Un’analisi costi-utilità per
il progetto TOP-IMPLART
MARCO RAO, MONIA VADRUCCI
ENEA FSN-TECFIS-APAM Development of Particle Accelerators and Medical Applications Physical Technologies for Safety and Health
Division Fusion and Technologies for Nuclear Safety Department
Il lavoro effettuato riguarda un’analisi costi-utilità tra diversi trattamenti terapici per la cura di patologie oncologiche, considerando i rischi di una seconda neoplasia indotta
dal trattamento della primaria: gli organi interessati sono
rispettivamente la prostata e la vescica, le tecniche di cura
5, 3 radioterapie e 2 metodi basati sull’uso di protoni. I dati
sono forniti dalla letteratura e da attività sperimentali e prodotti sulla base di ipotesi di lavoro in chiave deterministica e
probabilistica, utilizzando come criterio di scelta l’ICER (Incremental Cost Effectiveness Ratio) e il WTP (Willingness
to Pay). I risultati dimostrano, sulla base dei dati disponibili
e dei riferimenti di letteratura, la sostanziale superiorità delle
tecniche basate su protoni nella cura delle patologie considerate.
L’
INTRODUZIONE
adroterapia rappresenta una prospettiva tecnologica di estremo interesse
nelle terapie oncologiche (Amaldi &
Kraft, 2005): i vantaggi che essa offre rispetto alle terapie convenzionali
consistono essenzialmente nella capacità di colpire in modo
selettivo ed efficace le sole cellule tumorali; nella capacità
di mantenere la collimazione nel fascio di protoni nel suo
passaggio nel materiale biologico, minimizzando il danno ai
tessuti sani; nella superiore capacità di distruggere i tumori
radio-resistenti alla terapia tradizionale. Gli elementi tecnologici necessari consistono nell’acceleratore di protoni e/o di
ioni che produce più fasci di particelle (es. sincrotrone); nel
sistema di trasporto dei fasci nelle sale di trattamento; nel
sistema di posizionamento del paziente; nel sistema di controllo del rilascio di energia (dose); nel piano tridimensionale
di trattamento personalizzato sul paziente ottenuto integrando le immagini diagnostiche (Computed Tomography - CT,
Magnetic Resonance - MR, Positron Emission Tomography
28
- PET). La più diffusa applicazione dell’adroterapia è rappresentata dai tumori solidi1, non infiltranti e fissi e dai tumori
rari scarsamente responsivi alle tecniche di radioterapia convenzionale (RT)2.
Nell’ambito delle terapie basate su protoni, si presentano
i risultati di un’attività di ricerca sviluppata dall’Unità Centrale Studi e Strategie (UCS-Studi) e dal laboratorio di Acceleratori di Particelle per Applicazioni Medicali (APAM) di
ENEA: nello specifico, le analisi condotte hanno utilizzato
i dati economici e di efficacia medica riferibili al progetto
TOP-IMPLART (Terapia Oncologica con Protoni – Intensity Modulated Proton Linear Accelerator for Radiotherapy)
(Ronsivalle, 2011), sviluppato da ENEA-TECFIS3-APAM,
Istituto Superiore di Sanità (ISS) e Istituto per la cura dei
Tumori (IFO). Obiettivo della suddetta attività è la messa a
punto di metodologie generali, applicabili ad un insieme diversificato di patologie, in grado di fornire valutazioni quantitative sulle possibilità tecnico-economiche di applicazione
dei trattamenti adroterapici nel contesto del sistema sanitario
nazionale (S.S.N.)
Nel lavoro in esame è stata effettuata una valutazione delle
conseguenze del trattamento radioterapico di tumori alla prostata e di tumori secondari da questo indotti (l’organo considerato è la vescica).
L’ANALISI COSTI-EFFICACIA E COSTI-UTILITÀ
Il trattamento e la cura di diverse patologie cliniche mediante protonterapia offre maggiori vantaggi per la salute
(minore tossicità) del paziente rispetto ai trattamenti basati
1 Massa compatta di tessuto che cresce e che si differenzia dal tumore
liquido costituito da cellule in sospensione (Treccani, 2014).
2 Tra questi: i melanomi dell’uvea, i tumori della base del cranio e della
colonna (cordomi, condrosarcomi a basso grado, meningiomi) e alcuni tumori solidi pediatrici (Vu, 2009).
3 Tecnologie fisiche per la salute.
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE
sulle radiazioni convenzionali. Tuttavia, uno dei principali
ostacoli connessi alla diffusione di tale tecnologia è rappresentato dai costi per la realizzazione dei centri dedicati, in
media ampiamente superiori rispetto a quelli di un centro
tradizionale.
In generale, la valutazione economica ed il confronto tra
percorsi di cura alternativi in ambito sanitario non possono
basarsi esclusivamente su variabili di prezzo/costo. La valutazione economica in sanità dovrebbe essere definita come
un’analisi comparativa sia dei costi (risorse utilizzate) che
dei benefici (miglioramento dello stato di salute) derivanti
dai programmi alternativi, finalizzata ad identificare quello più conveniente dal punto di vista del benessere sociale
(Rebba, 2013).
Tra le varie metodologie di analisi economica esistenti
in ambito sanitario, l’approccio più opportuno, in grado di
tenere conto, da un lato delle diverse ricadute positive e/o
negative sulla salute del paziente derivanti dalle tipologie
di trattamento e, dall’altro del valore economico associato
ai diversi stati di salute sia nel periodo di trattamento che
di quello successivo, risulta essere l’Analisi Costo-Utilità
(CUA). Secondo tale approccio i risultati sono i benefici
del trattamento prescelto, misurati attraverso indicatori che
esprimono gli anni di vita guadagnati dal paziente che riceve lo specifico trattamento ponderati per lo stato di salute
o qualità della vita, Quality Adjusted Life Years (QALY)
(Whitehead & Ali, 2010) (Weinstein, 2009).
La rappresentazione dello spazio degli eventi associato ai
percorsi clinici dei pazienti tipicamente l’uso di sistemi dinamici stocastici, in particolare modelli di Markov (Briggs,
1998) e tecniche di simulazione di tipo Monte Carlo: i dettagli tecnici sui metodi possono essere reperiti in molte pubblicazioni, come (Wai-KiChing, 2006) in particolare nell’economia sanitaria (Briggs, 1998).
I processi di Markov sono comunemente impiegati nella
descrizione del percorso clinico del paziente in numerosi diversi tipi di patologie: quelli qui utilizzati sono alimentati
dai dati forniti dai SSN e da attività sperimentali (PT) (Vu,
2009).
DATI ED IPOTESI DI BASE DELL’ANALISI
I dati utilizzati provengono sia da letteratura consolidata
(Konski & Speier, 2007) sia legati ad attività di carattere sperimentale (la stima del rischio di seconda neoplasia) con le
simulazioni effettuate da ENEA, IFO e APSS. Tali dati sono
stati impiegati nell’elaborazione di una struttura decisionale
di tipo Markov formulando una serie di assunzioni sul percorso clinico del paziente: il primo “circuito” di tale percorso
segue uno standard costituito da trattamento/terapia ormonale/chemioterapia riguardo all’azione di cura, in conformità
allo studio di riferimento sulla patologia principale (Konski
& Speier, 2007).
Il secondo circuito attiene alla possibilità di insorgenza
di una seconda neoplasia indotta dalle radiazioni del trattamento della malattia primaria. Tale seconda neoplasia è stata
considerata, formulando una ipotesi arbitraria, come evento
generato a distanza di almeno un anno dalla fine del trattamento primario e/o dell’eventuale prosecuzione del controllo mediante terapia ormonale.
Una ulteriore scelta arbitraria è stata compiuta generando
l’occorrenza della medesima al di fuori del pattern di cura
ormonale della prima: ciò equivale a considerare la seconda
neoplasia come evento separato dal modello di risposta standard del paziente per la prima patologia. Le tecniche considerate sono 5, di seguito elencate e brevemente descritte:
- RT Conformazionale Tridimensionale (3D-conformal
radiotherapy, 3D-CRT): essa utilizza fasci di radiazioni
adattati alla forma del volume bersaglio;
- RT a intensità modulata (intensity modulated radiotherapy, IMRT): permette di irradiare con assoluta precisione
e con dosi di radiazioni più elevate anche volumi bersaglio
di forma complessa e/o localizzati in stretta prossimità di
strutture critiche in grado di tollerare dosi inferiori a quelle
richieste per il controllo della neoplasia;
- Volumetric Modulated Arc Therapy (VMAT), diretta
evoluzione delle tecniche di IMRT classica: possibilità di
erogare al paziente dosi anche molto elevate con un grado
di precisione molto alto e talora con un singolo arco di
rotazione di 360°del Gantry. A differenza della IMRT che
prevede una interruzione della erogazione del fascio per riprogrammare campi o archi successivi, la VMAT permette
di somministrare al paziente la dose prescritta in maniera continuativa consentendo in tal modo l’esecuzione del
trattamento in tempi minimi (90-120 s);
- Intensity-Modulated Particle Therapy (IMPT):radioterapia
con particelle il cui piano di trattamento è ottimizzato in
modo che la somma di tutti i fasci di particelle coprano
uniformemente in dose il bersaglio (T. Lomax 1999, PSI:
“...a number of individually inhomogeneous (in dose)
fields are calculated in such a way that, when combined,
these fields deliver a homogeneous and conformal dose to
the PTV, while reducing dose to selected OARs”);
- Single Field, Uniform Dose (SFUD, T. Lomax AJ (2007),
radioterapia con particelle il cui piano di trattamento è ottimizzato ottimizzando ogni singolo fascio di particelle
erogato sul volume bersaglio per coprirlo uniformemente
in dose.
ENEA, in collaborazione con IFO e APSS, ha sviluppato
dei piani di trattamento rispettivamente per fotoni e protoni,
allo scopo di stimare il cosiddetto Radiation Induced Second
Primary Risk (RISPC), caratterizzandolo con i dati del progetto TOP IMPLART (figura 1). Il risultato di tali attività è
stata una stima della Dose Equivalente per Organo (OED)
per le 5 tecnologie e del conseguente Excess of Absolute
Risk (EAR) usato per stimare l’aumento di rischio di seconda neoplasia e caratterizzabile su specifici organi).
Per quanto concerne i costi è stato preso a riferimento il
tariffario della Regione Lazio fornito per le differenti alternative di trattamento considerate, in particolare per la radio29
SCIENZE DELLA VITA E DELLA SALUTE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
Figura 1 - Parametri chiave dell’analisi (costo medio, efficienza, rischio di seconda neoplasia indotta
da radiazione)
RISULTATI
La figura 2 illustra i risultati della
simulazione del modello di Markov
costruito, evidenziando per una
ipotetica coorte di 1000 pazienti
iniziali, le probabilità di trovarsi in
due stati distinti: lo stato di “buona
salute”, il miglior stato possibile
post-intervento alla prostata, e lo
stato di “morte”, l’evento negativo
estremo. Per ogni anno è riportata
la percentuale di persone che si trova negli stati indicati. Ciò sta a dire
che, ad esempio, al 10 anno abbiamo una percentuale di persone in
buona salute pari al 64% circa per
Elaborazione ENEA su: Konski, Kulkarni, sperimentazioni laboratorio IFO, ISS, APAM
le due protonterapie considerate, e
del 49% circa per le terapie fotoniche. Osservando il grafico emerge
Figura 2–Risultati della Markov cohort simulation per adroni e fotoni a confronto
in modo immediato come la protonterapia ottenga risultati migliori in termini di salute del paziente.
La figura riporta due tipi di trattamento, Protoni e Fotoni: si è operata questa semplificazione in quanto
i due diversi gruppi di terapie presentano risultati molto simili all’interno dei rispettivi gruppi ed invece
molto diversi tra i due gruppi stessi. Per comodità di visualizzazione,
dunque, allo scopo di evidenziare
le differenze tra protoni e fotoni si
sono utilizzati i risultati relativi, in
particolare, ai casi SFUD (per gli
adroni) e 3D-CRT (per i fotoni).
La figura 3 illustra il risultato della analisi costi-utilità, sulla
base del costo totale dei trattamenti
nell’orizzonte temporale considerato e dell’efficacia sulla salute
espressa per mezzo dei QALY.
Anche questi risultati mostrano
Elaborazione ENEA su: Konski, Kulkarni, sperimentazioni laboratorio IFO, APAM
il forte divario in termini di efficacia fra la protonterapia e le altre
terapia con tecniche ad intensità modulata con archi multipli opzioni terapeutiche considerate. Il confronto tra terapie ale la protonterapia a ciclo intero: per l’efficacia, si è tenuto ternative può essere effettuato in termini del rapporto tra la
conto dei dati di letteratura relativi al trattamento radiotera- differenza di costo e la differenza di efficacia considerando
pico e adroterapico di base.
le terapie prese per coppie. Questo è il metodo del IncreI rischi di tumori secondari da radiazione per ogni tecnica mental Cost Effectiveness Ratio (ICER): questo indicatore
sono stati dedotti con una procedura basata su uno degli studi considera, prendendo le terapie a due a due, il rapporto tra
di riferimento utilizzati (Murray, Henry, Hoskin, Siebert, & la differenza di costo e la differenza di utilità che si ha nel
Venselaar, 2013) calcolando gli istogrammi Dose-Volume passare dall’una all’altra. Il grafico in figura 3 illustra che
dei diversi piani di trattamento costruiti e tenendo conto del- le performance delle due metodiche con protoni risultano
la diversa efficacia radiobiologica dei fotoni e dei protoni.
sostanzialmente uguali fra loro, così come le performance
delle tre metodiche a base di fotoni. Quando una terapia è
30
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE
Figura 3 – Analisi costo efficacia per le terapie considerate (costi in kEUR, efficacia in QALY)
Elaborazione ENEA su: Konski et al. 2007, Kulkarni et al., 2013, sperimentazioni laboratorio IFO, APAM
Figura 4 – Analisi di sensitività probabilistica per adroni e fotoni (SFUD e 3D-CRT) (costi in kEUR,
efficacia in QALY)
Elaborazione ENEA su: Konski et al. 2007, Kulkarni et al., 2013, sperimentazioni laboratorio IFO, APAM
più efficace ma anche più costosa di una concorrente, per
poter effettuare una decisione occorre aggiungere ulteriori
criteri: uno dei possibili, pur discutibile, è rappresentato dalla
disponibilità a pagare (Willingness To Pay) (Gafni, 1998)4.
4 Occorre notare che i costi reali del trattamento delle patologie consi-
La valutazione è stata completata
impiegando il criterio della disponibilità a pagare insieme ai risultati
di figura 3, nel contesto di un’analisi di sensitività probabilistica sui
parametri di costo ed efficacia delle
terapie considerate, con i risultati
riportati in figura 4.
La figura illustra il risultato di
1000 simulazioni effettuate sui
parametri di costo e di rischio di
seconda neoplasia per i due gruppi di terapie (rappresentati, ancora,
dai trattamenti SFUD e 3D-CRT).
Come visibile, la soglia rilevata dal calcolo effettuato è circa
5.500 €/QALY. Questo risultato
è stato confrontato con il valore
benchmark di 50.000 $/QALY dello studio di riferimento (Konski &
Speier, 2007), mettendo in evidenza la superiorità della protonterapia
rispetto alle terapie a base di fotoni
per il caso analizzato con i dati disponibili.
CONCLUSIONI
Il lavoro effettuato rappresenta
un primo esperimento di valutazione del rischio di neoplasie secondarie radio-indotte, inserito nel contesto della analisi costi-utilità di
terapie protoniche confrontate con
terapie alternative di tipo convenzionale. Il confronto, effettuato per
il trattamento di una patologia primaria (prostata) e secondaria (vescica) ha evidenziato la superiorità
della terapia a base di protoni. Fra
le tecniche considerate per l’analisi
comparativa vi è un forte divario di
costo che non fa emergere dall’analisi una strategia dominante in
modo immediato: l’applicazione
del criterio della disponibilità a
pagare conduce a risultati particolarmente positivi tenendo conto dei
valori di riferimento medi presenti
in letteratura riguardo al costo accettabile per guadagnare un QALY.
derate possano risultare ben superiori a quelli relativi ai soli trattamenti
sanitari operati, ove includano, ad esempio ulteriori misure di costo sociale
quali gli oneri finanziari indiretti sopportati dalle famiglie dei pazienti in
un lungo arco di cura
31
SCIENZE DELLA VITA E DELLA SALUTE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
La valutazione effettuata non si limita al solo costo degli interventi e delle terapie e suggerisce inoltre che le alternative
tradizionali siano da considerarsi strettamente dominate dalla concorrente (maggiori costi reali – minore utilità).
Un’analisi più dettagliata delle tecnologie esaminate (anche con riferimento ai diversi tipi di impianti radiativi) è
necessaria per una migliore valutazione dei reali costi delle
opzioni di trattamento (specie protoniche), in modo particolare per comprendere meglio l’impatto delle medesime sul
sistema sanitario nazionale e migliorare il supporto al policy
making.
BIBLIOGRAFIA
Amaldi, U., & Kraft, G. (2005). Radiotherapy with beam
of carbon ions. Reports of Progress in Physics , 1861-1882.
Briggs, A. (1998). An Introduction to Markov Modeling
for Economic Evaluation. Pharmaeconomics , 397-409.
ENEA-ISS-IFO. (2009). Realizzazione di un acceleratore
a 150 MeV. Roma.
Gafni, A. (1998). Willingness To Pay - What’s in a name?
Pharmaeconomics , 455-470.
Konski, A., & Speier, W. (2007). Is Proton Beam Therapy
32
Cost Effective in the Treatment of Adenocarcinoma of the
Prostate? Journal of Clinical Oncology , 3603-3608.
Murray, L., Henry, A., Hoskin, P., Siebert, F., & Venselaar, J. (2013). Second primary cancers after radiation for
prostate cancer: a review of data from planning studies. Radiation Oncology , 1-12.
Rebba, V. (2013). Lezioni di economia sanitaria. Padova:
Università degli Studi di Padova.
Ronsivalle. (2011). EPJ.
Treccani. (2014). Tratto il giorno 2014 da Treccani: http://
www.treccani.it/enciclopedia/tumore-solido_(Enciclopedia_
della_Scienza_e_della_Tecnica)/
Vu, A. (2009). Radiation Therapy of Pediatric Brain Tumors: Comparison of Long Term health Effects and Costs
Between Proton Therapy and IMRT. Boston: Massachuttes
Institute of Technology.
Wai-KiChing. (2006). Markov Chains: Models, Algorithms and Applications. New York: Springer.
Weinstein, M. (2009). QALYs: The Basics. Value in Health - Supplement I , 55-59.
Whitehead, S., & Ali, S. (2010). Health outcomes in economic evaluation: the QALY and utilities. British Medical
Bulletin , 5-21.
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE
La neuromodulazione tramite Brain
Computer Interface: basi teoriche
e dati empirici
OLIMPIA PINO1 E FRANCESCO LA RAGIONE2
1 Dipartimento di Neuroscienze, Università di Parma
2 Microengineering, Caserta
I modelli a network neurocognitivi rappresentano un utile
framework teorico per comprendere la regolazione cerebrale
neuropatologica in quanto le connessioni o le collezioni disfunzionali tra network innescano segnalazioni aberranti che
possono propagarsi ad interi network. Le ricerche nell’ambito delle Brain-Computer Interface (BCI) sono in continua
crescita. L’articolo presenta le BCI, i pattern cerebrali comunemente utilizzati e l’impiego di questi sistemi per il neurofeedback insieme al principio di entrainment audio-visivo.
Contestualmente è descritto un prototipo e un primo studio
condotto per verificare se la stimolazione ripetitiva audiovisivo induce sincronizzazione delle oscillazioni cerebrali
regolando gli stati emozionali di individui affetti da disturbi
ansiosi e depressivi. La remissione significativa dei sintomi
depressivi e il miglioramento nel funzionamento cognitivo
correlato alla predominanza dei ritmi theta pone nuove sfide
che le ricerche future dovranno affrontare.
L
INTRODUZIONE
’attività cerebrale è “spontanea” e può essere utilizzata per comprendere gli stati del
cervello. I neuroni attivi generano attività
elettrica rappresentata in termini di onde. Il
benessere psicofisico di un individuo può essere dedotto dalla sincronia delle sue onde cerebrali che può
essere turbata da stress ambientali. Si potrebbe pensare che
sia necessario “regolare” queste onde facendole coincidere
con valori normativi (mostrati da chi sta bene). In realtà, il
principio dell’allòstasi (Sterling, 2012) suggerisce il concetto della “stabilità attraverso il cambiamento” che definisce
il benessere come la capacità degli organismi di adeguarsi
alle mutazioni dell’ambiente giungendo a un personale equilibrio nello specifico ambiente (inteso secondo moltissime
sfumature) di vita: non esisterebbero, allora, parametri di riferimento validi per ognuno.
1. NEURO-PLASTICITÀ E ONDE CEREBRALI
Da molto tempo si è provato ad associare differenti espressioni dei complessi fenomeni dei segnali cerebrali (come la
frequenza e l’ampiezza) a peculiarità osservabili del comportamento per ottenere una maggiore comprensione delle funzioni cerebrali. L’importanza dei ritmi oscillatori per il normale funzionamento del cervello è stata rinsaldata dalle scoperte sulle loro alterazioni in condizioni patologiche come
l’epilessia o il Parkinson. I ritmi del cervello sono di solito
classificati in quattro gruppi noti come bande di frequenza
delta, theta, alfa e beta e in 8 sottogruppi. Una prospettiva evolutiva suggerisce che il cervello sia formato da vari
network o reti filogeneticamente distinti con una frequenza
naturale. Un network è definito in base alla connettività strutturale o funzionale. Il cervello umano adulto è una piccola
architettura non casuale caratterizzata da raggruppamenti
locali densi di connessioni tra i nodi vicini e relativamente
poche connessioni a largo raggio. È stato anche proposto che
i network più complessi operino con le gamme di frequenza
maggiori. In linea con questa idea, l’attività ad onde lente
corrispondente alle frequenze delta (1-3 Hz) e theta (4-7 Hz)
deriva dalle strutture sottocorticali evolutivamente più antiche (tronco cerebrale e complesso setto-ippocampale). La
stimolazione elettrica del sistema reticolare attivatore ascendente del tronco cerebrale (ARAS) provoca risposte corticali
nella banda 1-4 Hz (delta) mentre la stimolazione del sistema
limbico evoca una distinta attività a 7 Hz (theta). L’attività delle onde più veloci, alfa (8-12 Hz) e beta (13-30 Hz),
sembra avere origine rispettivamente nei circuiti talamo-corticale e cortico-corticale e sembra indotta dagli interneuroni
inibitori. Una modulazione dell’attività theta è implicata in
compiti cognitivi (attenzione sostenuta, mantenimento nella memoria di lavoro, processi di codifica e recupero e potenziamento a lungo termine). Crescenti evidenze indicano
un’organizzazione gerarchica delle oscillazioni neurali col
ritmo più veloce accoppiato alla fase di quello più lento in
33
SCIENZE DELLA VITA E DELLA SALUTE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
uno schema di codifica efficiente del flusso di informazioni. spaziale dell’attivazione, considerati indicatori di accresciuLa sincronizzazione di fase è un meccanismo fondamentale, ta efficienza neurale; b) un’espansione spaziale o aumento
supporta la comunicazione neurale - consentendo a più input nella forza di attivazione che indicano il reclutamento di alsinaptici di arrivare ad un neurone postsinaptico contempo- tre unità corticali; c) una ristrutturazione o redistribuzione
raneamente - e la plasticità neurale ed è, probabilmente, rile- dell’attivazione neurale, cioè un cambiamento nel contributo
relativo di specifiche aree mentre i pattern globali di attività
vante per molti processi cognitivi.
Le onde delta e theta sono di solito legate a stati di an- sostanzialmente non si modificano) o come modifica nella
sia e tensione, le alfa indicano rilassamento mentre le beta localizzazione dell’attivazione. L’integrità neuropsichica
contraddistinguono l’attività cognitiva. Un individuo sotto sembra produrre maggiore coerenza all’EEG e rispecchiare
stress mostra iperattività delle bande d’onda del lobo fronta- i cambiamenti degli stati di coscienza in chi pratica abitualle dell’emisfero sinistro con una flessione delle alfa nel lobo mente la meditazione (LeDoux, 2015).
destro (la coerenza EEG tra i due lobi frontali probabilmente
sarebbe prossima a zero). Chi soffre di depressione mostra 2. LE BRAIN COMPUTER INTERFACE
una ridotta coerenza cerebrale tra le onde alfa, beta, delta E IL NEURO-FEEDBACK
e theta nelle aree frontali (Davidson, 1992). Le oscillazioUna Brain Computer Interface (BCI) è un sistema di coni delta sono caratteristiche del sonno e sembrano coinvolte
nell’attività cerebrale con funzione autonomica, nei processi municazione che permette di indirizzare l’intenzione dell’umotivazionali associati a meccanismi di gratificazione e dife- tente verso l’esterno superando le abituali vie neuromuscosa atavici e nei processi cognitivi correlati all’attenzione ver- lari periferiche per favorire, accrescere o ripristinare alcune
so stimoli salienti dal punto di vista motivazionale (Knyazev, funzioni cognitive e/o senso-motorie in presenza di gravi
2012). Un gruppo di meditatori Zen mostrava un’accresciu- disturbi motori rappresentando l’unica via per relazionarsi
ta attività delta durante il riposo soprattutto nella corteccia con l’ambiente: grazie all’interfaccia con il computer, si rilemediale prefrontale rispetto ai controlli (Faber et al., 2008). va l’attività elettrica cerebrale generata in compiti cognitivi
L’aumento dell’attivazione delta è considerato effetto dell’i- “traducendola” in azioni come far funzionare dispositivi in
nibizione della corteccia prefrontale mediale che produce un una casa domotica o azionare una carrozzina elettrica (Fig.
calo del coinvolgimento emotivo e cognitivo, definito dai 1).
Neuro-Upper (NU) è un prototipo di BCI del nostro labosoggetti “distacco”. Anche Tei e colleghi (Tei et al., 2009)
hanno rilevato discrepanze tra meditatori abituali di Qi gong ratorio che sfrutta l’entrainment audio-visivo e un sistema
rispetto ai principianti per la banda delta durante il riposo di retroazione (neuro-feedback, NFB). Il neuro-feedback è
ad occhi chiusi. Lehmann e colleghi (Lehmann et al., 2012) efficace persino con i neonati, agendo in modo involontahanno studiato anche la connettività tra differenti regioni rio. Il biofeedback, di cui il NFB fa parte, è definito dalla
corticali in meditatori di diverse tradizioni rilevando sempre International Society for Neurofeedback Research (ISNR)
topografie differenti nella frequenza delta per i praticanti abi- e dall’Association for Applied Psychophysiology and Biotuali. Un altro dato è la riduzione dell’interdipendenza fun- feedback (AAPB) come un “processo che rende l’individuo
zionale fra varie regioni cerebrali che, a livello soggettivo, capace di imparare a modificare la propria attività fisiologica
produce l’esperienza di non coinvolgimento, la sensazione per migliorare la propria salute e le proprie prestazioni”. Sedi unità col tutto e la dissoluzione dei confini dell’Io. L’ana- condo la definizione, qualsiasi congegno che misuri un’attilisi delle interazioni fra le oscillazioni fornisce interessanti vità fisiologica “restituendone” l’informazione in modo rapiintuizioni sui meccanismi cerebrali di elaborazione. Knya- do e accurato è un dispositivo di biofeedback.
La risposta ad uno stimolo esterno induce cambiamenzev (2012), valutando le relazioni tra le onde delta e beta,
ti nell’attività delle
ha notato un aumento
popolazioni neuronadella loro correlazione
li definiti potenziali
in situazioni ansiogene
evento-correlato (ERP)
nelle cortecce orbito(Mehta, Hameed &
frontale e cingolata anJackson, 2011). I potenteriore. Le pratiche di
ziali evocati sensoriali
meditazione mostrano
(SEPs) sono potenziali
come, entro certi limielettrici registrati (di
ti, è possibile usare il
solito con l’EEG) sotto
potenziale del cervello
stimolazione degli orumano. La plasticità
gani di senso e si distinneurale permette camguono da quelli spontabiamenti reattivi di tipo
nei che emergono senza
strutturale come: a) un
stimoli. Diversamente
calo dell’attivazione o
dagli ERP, i SEP sono
una ridotta estensione Figura 1. Organizzazione essenziale di una BCI (Fonte: Hortiz-Rosario & Adeli, 2013).
34
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE
connessi alla fase dello stimolo e, per questo motivo, possono essere migliorati in prove successive. Tale potenziamento
può essere considerato una riorganizzazione spontanea delle
oscillazioni cerebrali in risposta ad uno stimolo. Con la ripetizione di questo, la risposta si ripete e può diventare organizzata: il lampeggiare ripetitivo di una luce, ad esempio, fa
sì che il contenuto spettrale del segnale rimanga pressoché
uguale (ossia con gli stessi picchi armonici e in relazione di
fase con lo stimolo). La presentazione del feedback visivo
all’utente è una caratteristica tipica dei sistemi SSVEP-BCI
perché stimola l’attenzione e la motivazione necessarie per
migliorare prestazioni (Maggi, Parini, Piccini, Panfili & Andreoni, 2006). NU è un sistema neurofeedback in quanto:
Ø misura l’attività fisiologica per riproporla all’utente e
indurre specifiche modifiche;
Ø la sua funzione è facilitare cambiamenti durevoli;
Ø è un sistema che cerca di migliorare l’auto-regolazione, considerata potenziabile col supporto di tecnologie non
invasive;
Ø si basa sull’assunto che le dinamiche oscillatorie neurali siano i processi basilari.
Una differenza con gli abituali dispositivi di NFB è non
presupporre pattern oscillatori dati come valori normativi.
Essendo ogni organismo è diverso, si usano frequenze di
stimolazione visiva dipendenti dalle risposte individuali. Il
controllo consapevole per NU, a differenza dei classici dispositivi di NFB, non è importante quanto la potenza di elaborazione neurale.
(MTL e nel giro angolare). I nodi del PCC, ippocampo e giro
angolare sono tipicamente associati al recupero episodico,
autobiografico e alla memoria semantica mentre nodi specifici nella mPFC sono differentemente associati a processi
cognitivi legati al sé o sociali e alla regolazione emozionale.
Il SN è un sistema congiunto alla corteccia cingolata anteriore dorsale (dACC) e a quella frontoinsulare (FIC), e serve a
individuare, integrare e filtrare le informazioni interocettive,
autonomiche ed emotive rilevanti. Disfunzioni in questo circuito sono peculiari in ansia, dolore e abuso di sostanze.
Una prova indiretta dell’interrelazione di questi network è
la frequente comorbidità dei disturbi. I modelli a network propongono che il cervello opera con connettività locale ad alta
densità e minore connettività gerarchica. La psicopatologia
può essere legata a disfunzioni in alcuni network o nella loro
integrazione funzionale, in particolare nei raggruppamenti
di regioni cerebrali o nelle loro connessioni. Implicita negli
studi sui network cerebrali psicopatologi è la nozione che
connessioni o collezioni disfunzionali diano luogo a segnalazioni aberranti che possono propagarsi a interi network o
subnetwork, solo di recente osservati in studi clinici (Menon,
2011). A sostenere queste ipotesi contribuisce l’osservazione
che il neurofeedback, che regola la connettività all’interno
e tra diversi network, provoca la scomparsa di diversi sintomi simultaneamente. La teoria Polivagale (Porges, 2011),
collegando le componenti corticali e le risposte periferiche
nell’ansia contribuisce a creare un modello comprensivo e a
suggerire trattamenti più efficaci.
4. LA NEUROMODULAZIONE DELLE FUNZIONI
3. NETWORK COINVOLTI NELLE NEUROPATOLOGIE
CEREBRALI CON LA STIMOLAZIONE AUDIO-VISIVA
I principali trattamenti per i disturbi d’ansia e la depressione sono quello farmacologico e la psicoterapia, con enormi
limiti in termini di efficacia, effetti secondari, costi e tempi.
L’adozione delle BCI può tagliare i costi riducendo la presenza del terapista (Shangkai, Yijun, Xiaorong, & Bo, 2014).
È meglio, inoltre, concettualizzare i disturbi psicologici alla
luce delle alterazioni nei circuiti delle regioni limbiche, frontostriate e preventrali e non in base ai cambiamenti neurochimici (Menon, 2011). Questo approccio sta fornendo nuovi
spunti sull’organizzazione cerebrale aberrante nei disturbi
psichiatrici e neurologici e spinge ad una maggiore sintesi
e integrazione entro una prospettiva neuroscientifica finora
assente.
I network neurocognitivi di connettività intrinseca implicati nell’autoregolazione cerebrale di interesse per la
neuropatologia sono tre e si influenzano a vicenda: il CEN
(Central Executive Network), ossia il sistema frontoparietale
ancorato alla dllPFC e il laterale PPC; i suoi nodi mostrano
forti accoppiamenti funzionali intrinseci e una forte coattivazione in un’ampia gamma di attività cognitive ad alto carico.
Il CEN serve per la memoria di lavoro, il problem-solving
e la presa di decisioni. Molti disturbi psichiatrici presentano deficit in questi processi. Il DNM è connesso alla PCC e
alla mPFC con nodi principali nel lobo temporale mediale
Le onde cerebrali, oltre a desincronizzarsi in funzione
di un’eccessiva stimolazione esterna, hanno la capacità di
sintonizzarsi su stimoli periodici uditivi, visivi o tattili, in
base al meccanismo di “entrainment”, innescando processi
di organizzazione, comunicazione, sinergia, ordine cognitivo, consapevolezza e benessere. Il fenomeno fu rilevato e
definito da Huygens nel 1666 in base all’osservazione che
due orologi a pendolo posti accostati assumevano lo stesso
ritmo oscillatorio. In ambito neuroscientifico si parla di entrainment quando le onde cerebrali mostrano un’oscillazione
sovrapponibile a uno stimolo esterno. È, comunque possibile valutare quantitativamente l’abilità di una cellula di sincronizzarsi con dinamiche oscillatorie esterne esaminando
la risonanza della membrana della cellula. La risonanza di
membrana è un fenomeno dipendente dalla frequenza che si
rivela in presenza di un input verso il neurone.
La sincronizzazione può avvenire con la stimolazione cerebrale non invasiva per mezzo di forme pulsate - che ripetono brevi eventi di stimolo a intervalli regolari - o moduli
continui che generano modelli oscillanti di stimolazione. La
stimolazione può essere sensoriale (di solito visiva e uditiva)
o transcranica, come accade per la fMRI con cui è possibile
un feedback in tempo reale regolando l’attivazione in determinate aree cerebrali (Enriquez-Geppert, Huster & Herr35
SCIENZE DELLA VITA E DELLA SALUTE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
mann, 2013). L’entrainment spiega la sensibilità del cervello
per la musica e il suo ritmo. I brani musicali hanno sequenze
temporali (ritmi) e frequenze di eventi (picchi) organizzati
in serie (melodie) e in parallelo (armonia) (Mauro, 2005).
Il meccanismo di codifica neurale si sincronizza rapidamente con le strutture musicali. Quando uno specifico stimolo
musicale attiva determinati meccanismi cerebrali, si genera una risposta globale EMR correlata a specifici elementi
strutturali della musica. Il cervello e la musica, oltre ad avere
gli stessi principi temporali, si sintonizzano diversamente a
seconda della regione cerebrale attivata o della tipologia di
brano. In altre parole, la musica lascia una specifica traccia
nei neuroni e questa traccia corrisponde allo stile di quella
musica: la “Sonata in Re maggiore per pianoforte” di Mozart, ad es., attiva strutture cerebrali ampie (in questo caso le
aree temporali, prefrontali, occipitali e cervelletto), mentre il
“Per Elisa” di Beethoven innesca più processi uditivi e musicali (Hughes, Daboul & Fino, 2000). L’entraiment tra musica e cervello si spiega, matematicamente, in base ai principi
di risonanza non-lineare (Large & Almonte, 2012). Le aree
implicate sono direttamente correlate al parametro musicale
indagato: nella breve sequenza delle note in un accordo musicale la dissonanza tra i suoni attiva il paraippocampo e il
precuneo (Blood, Zatorre, Bermudez & Evans, 1999) mentre
la consonanza attiva le cortecce orbitofrontale, frontopolare
(ossia l’area 10 di Brodmann nel cervello umano) e cingolata subcallosale, regioni coinvolte nell’elaborazione emotiva (Schmithorst & Wilke, 2002). La musica, infatti, innesca
anche il circuito dopaminergico della gratificazione. Stimoli
musicali piacevoli e spiacevoli attivano aree diverse: i primi
l’insula, il giro frontale inferiore (inclusa l’area di Broca 44)
e lo striato ventrale, punto di arrivo della via nigro-striatale
del circuito del piacere (reward) mentre i secondi il giro paraippocampale, l’amigdala e le aree temporali (Juslin, Liljeström, Västfjäll & Lundqvist, 2010). Per identificare stimoli
davvero piacevoli si è chiesto agli stessi soggetti di scegliere
i brani gradevoli (Salimpoor, Benovoy, Larcher, Dagher &
Zatorre, 2011) e, per avvalorare la piacevolezza dello stimolo, si sono usati i “brividi” (chills o musical frisson) provati
quando si sperimenta qualcosa di piacevole. Tale misura,
comunque, non è risultata necessaria per la piacevolezza,
mentre si ha sempre un aumento dell’attivazione nel nucleo
accumbens destro anche senza brividi (Loui, Bachorik, Li &
Schlaug, 2013).
La presentazione di stimoli visivi permette di rilevare i
potenziali evocati visivi (PEV). Gli stimoli che provocano i
VEPs più comunemente sono i flash e i pattern. Questi VEPs
transitori si presentano come una successione di forme d’onda. Il sistema visivo completo ha tre principali vie parallele
che partono dalla retina (MC, PC e KC), passano dal nucleo
genicolato laterale (LGN) e giungono nell’area visiva V1.
Queste vie originano dai coni sensibili alle diverse lunghezze
d’onda, hanno specifiche funzioni e giocano un ruolo chiave
nella formazione dei VEPs a livello corticale. In base agli
attributi degli stimoli, le risposte sono differenti: la via MC
risponde preferenzialmente a stimoli neutri dal punto di vista
36
del colore ma a luminanza diffusa, basso contrasto e larga
ampiezza, le vie PC e KC rispondono meglio a stimoli con
colori differenti, alto contrasto, dimensione ridotta, con variazione spaziale significativa nella luminanza e contrasto invertito lentamente (Vialatte, Maurice, Dauwles & Cichocki,
2010).
Gli effetti della luce sono anche non visivi e sono mediati, in parte, dalle cellule retiniche dei gangli. La lunghezza
d’onda, la durata e l’intensità dell’esposizione alla luce modulano le risposte cerebrali dapprima osservate nelle strutture sottocorticali correlate alla vigilanza (ipotalamo, tronco
encefalico, talamo) e limbiche (amigdala e ippocampo), seguite da modulazione dell’attività corticale. Dopo la scoperta
delle opsine non-visive si è compreso che alcune patologie
possono essere dovute a carenza di vitamina D: individui
con disturbo affettivo stagionale (Stagional Affective Disorder - SAD), per es., presentano quantità inferiori alla media
di vitamina D e, se trattati con speciali lampade, migliorano.
La light therapy ha confermato che la luce, consentendo la
produzione di vitamina D, riduce i sintomi psicopatologici
e il decadimento cognitivo. Le aree cerebrali con recettori
per la vitamina D sono molte, come la corteccia cingolata, il
talamo, il cervelletto, l’amigdala e l’ippocampo (Pino & La
Ragione, 2014). Gli approcci applicativi sono sempre diversificati, Lim (2013) ha usato la stimolazione intranasale con
una luce vicina all’infrarosso (near-infrared - NIR), altri una
combinazione di luce pulsata a ritmi binaurali e, di recente,
le BCI (Shangkai, Yijun, Xiaorong & Bo, 2014).
5. NEURO-UPPER: PROTOTIPO E PRIMI DATI
SPERIMENTALI
In base alle alterazioni nelle sub-bande alfa, al fatto che
diverse forme di musica attivano regioni cerebrali distribuite (Loui et al., 2013) con effetti legati a struttura armonica
o metrica, timbro, integrazione del contesto verbale (Salimpoor, van den Bosch, Kovacevic, McIntosh, Dagher &
Zatorre, 2013) e ai dati sull’entrainment selettivo neuronale
(Nozaradan, Peretz & Mouraux, 2012), la possibilità di modificare le oscillazioni cerebrali con la stimolazione ritmica è
diventata popolare (Thut, Schyns & Gross, 2011). Vari studi,
infatti, hanno indicato che le misure psicometriche di ansia
e depressione correlano positivamente con le onde alfa e negativamente con le beta, a prescindere dalla zona corticale
(Knyazev, Savostyanov & Levin, 2004).
NU è un sistema multi-intent che rileva 8 diversi segnali EEG online con la cuffia NeuroSky MindWave®, li invia al software-hardware proprietario trasmettendoli come
feedback dinamico all’utente tramite un effettore di otto lampade colorate relative alle otto bande e sub-bande rilevate
(Alfa 1, Alfa 2, Beta 1, Beta 2, Delta, Gamma 1, Gamma
2 e Theta) che con flash di luce riflette continuativamente
lo spettro di frequenza di ogni segnale (Fig. 2). Nello stesso tempo, una serie di istogrammi sul monitor del computer
indica all’utente il cambiamento di tali pattern in funzione
della stimolazione acustica.
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE
La cuffia MindWave® è usata per il basso costo, l’usabilità data dalla connessione wireless, la velocità del setup
e l’efficacia nell’individuare gli stati mentali (Katie, Aidan,
Ian & Dave, 2010) nonostante la precisione necessaria per
le applicazioni di classificazione online e controllo sia stata
Figura 2. Neuro-Upper: hardware a led ed effettore a luci lampeggianti
messa in discussione (Lim & Chia, 2015). Il sistema è dotato
di un algoritmo che filtra il rumore, tipico delle interferenze
elettromagnetiche ambientali, permettendo di avere un segnale limpido e privo di errori. L’elettrodo ricava le onde
cerebrali a livello frontale inviandolo, tramite Bluetooth®,
a un programma apposito. Con un singolo elettrodo, la ricezione consiste nella media delle onde prevalenti in un dato
momento. Dato che il rosso ha riportato un maggiore vantaggio attentivo, la luce blue sembra accrescere le risposte
di allerta e la prestazione, mentre il blue, insieme al verde
e al giallo sembrano i migliori candidati per le BCI basate
sui SSVEP in quanto associati a contenuti positivi (Elliot,
2015; Godinez Tello, Torres Muller, Ferreira & Freire Bastos, 2015) sono state adoperate lampade con sfumature di
queste tonalità (Fig. 3).
Al primo studio hanno preso parte sette soggetti selezionati
in base ad alcuni criteri di inclusione/esclusione e ai punteggi di depressione (HAMS, Hamilton, 1960) e ansia (STAI,
Spielberger, Gorsuch, Lushene, Vagg & Jacobs, 1983). I criteri diagnostici relativi ai disturbi psicopatologici sono stati
Figura 3. Cuffia MindWave® e feedback online
stabiliti seguendo la classificazione del Manuale Diagnostico
e Statistico dei disturbi mentali (DSM 5; APA, 2013). I partecipanti, che avevano un’età media di 47 anni, presentavano
uno o più disturbi di personalità, ed erano sottoposti ad una
batteria di valutazione per misurare l’effetto del trattamento,
hanno partecipato in media a 53 sedute individuali di 30 minuti ognuna. In base a studi precedenti sono state predisposte
apposite play-list musicali diversificate in base al disturbo.
Le clip, senza restrizioni di genere, comprendevano classica, folk, jazz, elettronica, rock, punk, techno e tango (vedi
http://www.zlab.mcgill.ca/supplements/supplements_in-
tro.html) sono state cambiate solo due volte durante il training. I partecipanti sedevano su una comoda poltrona posta
in una camera buia a circa 2 m. di distanza dall’effettore collocato a 1.60 di altezza da terra indossando la Mindwave® e
gli auricolari per ascoltare la musica.
I risultati hanno indicato una differenza significativa nel
punteggio della depressione, passato da 19.71 a 7.71 (W=28,
P=0.022). Un dato inatteso è il miglioramento rilevante della
prestazione cognitiva, evidenziato già in altrove (Chen, Chen,
& Dai, 2015), con un netto aumento dei punteggi alla Scala
WAIS-R (Wechsler, 1981): il QIV medio è salito da 104.14 a
130.57 (W=0, P=0.016). L’analisi delle serie temporali sulle
mediane degli spettri per ogni banda di frequenza ha mostrato che la maggior parte di queste mostrava una tendenza
a decrescere, ad eccezione delle delta e theta, mantenutesi
pressoché stazionarie. Applicando i modelli di regressione
multipla alle differenze nelle mediane di ciascuna banda tra
la prima e l’ultima seduta e ai punteggi ai test tra la prima e la
seconda misurazione, si è notato che le variazioni ai punteggi
della STAI Y-1 correlano significativamente con i predittori
“differenze in alfa 2” e “differenze in beta 2” (F [2,4] =10.07,
P=0.027). Gli aumenti dei QIV e QIP alla WAIS-R sembrano influenzati, rispettivamente, dalle variazioni della banda
theta con un effetto significativo della variabile indipendente
sui cambiamenti del QIP (F [1,5] =11.76, P=0.018).
CONCLUSIONI
Lo studio, riportato estesamente altrove (Pino & La Ragione, 2016), ha diversi limiti ma apre alcuni interrogativi che
meritano altri approfondimenti. Un primo limite è la mancanza di un gruppo di controllo sottoposto ad altro o nessun
trattamento. Un secondo limite è la ridotta consistenza del
campione. Un terzo limite è la mancata valutazione sia del
mantenimento degli effetti sia della modulazione neuro-biologica (cortisolo e acido idrossindolacetico valutati in fase
di baseline). La remissione dei sintomi depressivi, passati
dal range di gravità a quello di normalità, e l’aumento del
quoziente intellettive suggerisce un’efficacia preliminare del
sistema. Bisognerà indagare ancora se l’autoregolazione persiste nel tempo e se l’entrainment ha luogo anche in persone senza disturbi. Un’osservazione interessante che merita
approfondimento è il recupero spontaneo di ricordi remoti
che quasi tutti i soggetti riferivano dopo il primo mese di
training. Infine, anche se è noto che NU si basa sul condizionamento operante, tale meccanismo va studiato più a fondo
anche per spiegare come mai riaffiorino alla coscienza questa
tipologia di ricordi. La possibilità di ottimizzare l’efficacia
della riabilitazione di alcuni disturbi psichiatrici in termini di
intensità, rapidità e durata degli effetti, ha comunque grande
interesse per la pratica clinica.
RIFERIMENTI BIBLIOGRAFICI
American Psychiatric Association. (2000). Diagnostic and
statistical manual of mental disorders (4th ed., text rev.).
37
SCIENZE DELLA VITA E DELLA SALUTE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
doi:10.1176/appi.books.9780890423349.
American Psychiatric Association (2013). Diagnostical
and Statistical Manual of Mental Disorders, 5th edition
(DSM-5). Washington, DC: American Psychiatric Publishing.
Blood, A.J., Zatorre, R.J., Bermudez, P., & Evans, A.C.
(1999). Emotional responses to pleasant and unpleasant music correlate with activity in paralimbic brain regions. Nature
Neuroscience, 2, 382-287.
Davidson, R.J. (1992). Anterior cerebral asymmetry and
the nature of emotion. Brain and Cognition factors. Psychophysiology, 35, 389-404.
Elliot, A.J. (2015). Color and psychological functioning:
A review of theoretical and empirical work. Frontiers in
Psychology, 6 (368), 368. doi: http://dx.doi.org/10.3389/
fpsyg.2015.00368. PMid:25883578.
Enriquez-Geppert, S., Huster, R.J. & Herrmann, C.S.
(2013). Boosting brain functions: Improving executive functions with behavioral training, neurostimulation, and neurofeedback. International Journal of Psychophysiology, 88,
1-16. http://dx.doi.org/10.1016/j.ijpsycho.2013.02.001.
Faber, P.L., Steiner, M.E., Lehmann, D., Pascual-Marqui,
R.D., Jäncke, L., Esslen, M., et al. (2008). Deactivation of
the medial prefrontal cortex in experienced Zen meditators.
Abstract Brain Topography, 20, 172-173.
Falzon, O., & Camilleri, K.P. (2013). Multi-colour stimuli to improve information transfer rates in SSVEP-based
Brain-Computer Interfaces. Communication presented at the
IEEE EMBS Conference on Neural Engineering, San Diego,
California.
Godinez Tello, R.M. Jr, Torres Muller, S.M., Ferreira, A.
& Freire Bastos, T. (2015). Comparison of the influence of
stimuli color on Steady-State Visual Evoked Potentials. Research on Biomedical Engineering, 31, 218-231. doi: http://
dx.doi.org/10.1590/2446-4740.0739.
Hamilton, M. (1960). A rating scale for depression. Journal
of Neurology, Neurosurgery and Psychiatry, 23, 56-62.
Hughes, J.R., Daboul, Y., & Fino, J.J. (2000). The Mozart
effect: Distinctive aspects of the music – A clue to brain coding? Clinical Electroencephalography, 31, 94-103.
Juslin, P.N., Liljeström, S., Västfjäll, D., & Lundqvist, L.
(2010). How does music evoke emotions? Exploring the underlying mechanisms. In Handbook of music and emotion:
Theory, research, applications, Series in Affective Science.
New York: Oxford University Press.
Katie, C., Aidan, S., Ian, P. & Dave, M. (2010). Evaluating a brain-computer interface to categorise human emotional response. Proc. 10th IEEE International Conference on
Advanced Learning Technologies, pp. 276-278.
Kirsh, D.L., & Nichols, N. (2013). Cranial electrotherapy
stimulation for treatment of anxiety, depression, and insomnia. Psychiatric Clinical of North America, 36, 169-176. doi:
http://dx.doi.org/10.1016/j.psc.2013.01.006.
Knyazev, G. (2012). EEG delta oscillations as a correlate of basic homeostatic and motivational processes. Neurosci. Bio behav. Rev. 36, 677-695. doi:10.1016/j. neubio38
rev.2011.10.002
Knyazev, G.G., Savostyanov, A.N., & Levin, E.A., (2004).
Alpha oscillations as a correlate of trait anxiety. International Journal of Psychophysiology, 53, 147-160.
Large, E.W., & Almonte, F.V. (2012). Neurodynamics,
tonality, and the auditory brainstem response. New York
Academy of Science, New York, 1252, E1-E7.
Large, E.W., & Kolen, J.F. (1994). Resonance and the
perception of musical meter. Connection Science: Journal
of Neural Computing, Artificial Intelligence and Cognitive
Research, 6, 177-208.
LeDoux J. (2015). Anxious. Using the brain to understand
and treat fear and anxiety. Viking, New York.
Lehmann, D., Faber, P.L., Tei, S., Pascual-Marqui, R.D.,
Milz, P., & Kochi, K. (2012). Reduced functional connectivity between cortical sources in five meditation traditions detected with lagged coherence using EEG tomography. Neuroimage 60, 1574-1586. doi:10.1016/j.neuroimage.2012.
01.042
Lim, C.A. & Chia, W.C. (2015). Analysis of single-electrode EEG rhythms using MATLAB to elicit correlation with
cognitive stress. International Journal of Computer Theory
and Engineering, 7, 149-155. doi:10.7763/IJCTE.2015.
V7.947.
Lim, L. (2013). The potential of intranasal light therapy
for brain stimulation. In: NAALT Conference. Palm Beach
Gardens: Florida.
Loui, P., Bachorik, J.P., Li, H.C. & Schlaug, G. (2013).
Effects of voice on emotional arousal. Frontiers in Psychology. 4, 675. doi: 10.3389/fpsyg.2013.00675.
Maggi, L., Parini, S., Piccini, L., Panfili, G., & Andreoni, G., (2006). A four command BCI system based on the
SSVEP protocol. Proc. 28th IEEE EMBS Annual International Conference, New York City, USA, Aug 30-Sept 3, pp.
1264-1267.
Mauro, D.G. (2005). Using music to tap into a universal
neural grammar. XXVII Annual conference of the Cognitive
Science Society, 132, 21-23.
Menon, V. (2011). Large-scale brain networks and psychopathology: A unifying triple network model. Trends in
Cognitive Neuroscience, 15, 483-506.
Mehta, N.A., Hameed, S.H.S., & Jackson, M.M. (2010).
Optimal control strategies for an SSVEP-based brain computer interface. International Journal of Human-Computer
Interaction, Volume 27, Issue 1, Special Issue: Current
Trends in Brain Computer Interface (BCI) Research and Development.
Moratti, S., Rubio, G., Campo, P., Keil, A. & Ortiz, T.,
(2008). Hypofunction of right temporoparietal cortex during
emotional arousal in depression. Archives of General Psychiatry, 65, 532-541.
Nozaradan, S., Peretz, I., & Mouraux, A. (2012). Selective
neuronal entrainment to the beat and meter embedded in a
musical rhythm. The Journal of Neuroscience, 32, 1757217581.
Ortiz-Rosario, A. & Adeli, H. (2013). Brain-computer in-
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE
terface technologies: from signal to action. Review of Neuroscience, 24, 537-552. doi: 10.1515/revneuro-2013-0032.
Pino, O., & La Ragione, F. (2016). A Brain Computer Interface for audio-visual entrainment in emotional regulation:
Preliminary evidence of its effects. Online International Interdisciplinary Research Journal, VI (II), 1-12.
Pino, O., & La Ragione, F. (2014). The secret in the air.
The effect of negative air ions: Empirical evidence and erroneous beliefs. Lambert Academy Publishing, Saarbruken,
Germany.
Porges S.W. (2011). The polyvagal theory: Neurophysiological foundations of emotions, attachment, communication, and self-regulation. New York, NY: W. W. Norton &
Company.
Raven, J., Raven, J. C., & Court, J. H. (2003). Manual for
Raven’s Progressive Matrices and vocabulary scales. San
Antonio, TX: Harcourt Assessment.
Salimpoor, V.N., Benovoy, M., Larcher, K., Dagher, A., &
Zatorre, R.J. (2011). Anatomically distinct dopamine release
during anticipation and experience of peak emotion to music.
Nature Neuroscience, 1, 257-264. doi:10.1038/nn.272.
Salimpoor, V.N., van den Bosch, I., Kovacevic, N., McIntosh, A.R., Dagher, A., & Zatorre, R.J. (2013). Interactions
between the nucleus accumbens and auditory cortices predict
music reward value. Science, 340, 216-219.
Shangkai G., Yijun W., Xiaorong G., & Bo, H. (2014).
Visual and auditory Brain-Computer Interfaces. IEEE Tran-
sactions on Biomedical Engineering, 61, 5, 1436-1447.
Spielberger, C.D., Gorsuch, R.L., Lushene, R., Vagg, P.R.,
& Jacobs, G.A. (1983). Manual for the State-Trait Anxiety
Inventory. Palo Alto, CA: Consulting Psychologists Press.
Sterling, P. (2012). Allostasis: A model of predictive regulation. Physiology and Behaviour, 106, 5-15.
Tei, S., Pascal, A.E., Faber, P.L., Lehmann, D., Tsujiuchi,
T., Kumano, H., et al. (2009). Meditators and non-meditators: EEG source imaging during resting. Brain Topography,
22, 158-165. doi:10.1007/s10548-009-0107-4.
Thut, G., Schyns, P.G. & Gross, J. (2011). Entrainment
of perceptually relevant brain oscillations by non-invasive
rhythmic stimulation of the human brain. Frontiers of Psychology, 2, 170. doi: 10.3389/ fpsyg.2011.00170.
Vialatte, F.B., Maurice, M., Dauwles, J., & Cichocki, A.
(2010). Steady-state visually evoked potentials: Focus on essential paradigms and future perspectives. Progress in Neurobiology, 90, 418-438. doi:10.1016/j.pneurobio.2009.11.005.
Waldhauser, G.T., Bäum, K.H.T., & Hanslmayr, S.
(2015). Brain oscillations mediate successful suppression
of unwanted memories. Cerebral Cortex, 25, 4180-4190.
doi:10.1093/cercor/bhu138
Wechsler, D. (1981). Manual for the Wechsler Adult Intelligence Scale-Revised (WAIS-R). New York: The Psychological Corporation.
Zatorre, R.J. (2003). Music and the brain. Annals of the
New York Academy of Sciences, 999, 4-14.
39
MATEMATICA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
A description of the paradox
of unexpected examination
in the language of probability
BRUNO CARBONARO, FEDERICA VITALE
Dipartimento di Matematica, Seconda Università degli Studi di Napoli, Caserta
A description of the paradox of unexpected
examination in the language of probability
Bruno Carbonaro∗and Federica Vitale†
Abstract: The present paper deals with a well-known paradox of prediction, envisaged as one of
the most important aspects of scientific activity, the so-called “paradox of unexpected hanging”, or —
in a slightly different, less cruel form — “paradox of surprise class examination”. This paradox has
been recently discussed by Shira Kritchman and Ran Raz [9] by a logical analysis based on Gödel’s
second incompleteness theorem. In the present paper, it is shown that the self-reference upon which
this paradox and the solution offered in [9] are based can be also described and managed by means of
the tools delivered by the mathematical probability theory.
1
The paradox
The Paradox of Surprise Class examination, also known in a more cruel form as the Paradox
of Unexpected Hanging, dates back to a paper D. J. O’Connor [1], where it was presented
as a “paradox of Class A Blackout” and classified as a “pragmatic paradox”, subsequently
renamed by Weiss [5] as a “prediction paradox”. It was given a number of different forms and
different solutions by the Authors who have examined and discussed it from 1951 to 2010
(see [7] for sufficiently complete references). Looking at the wide literature on prediction
paradoxes, one cannot help remarking on one hand the surprisingly little attention paid to
these by mathematicians [8], on the other hand the fact that, in spite of occasional mentions
to probability, the formal language of probability has — at least as far as we are aware —
never been used, neither to express the predictions involved in any formulation of the paradox
nor to describe the arguments to establish whether they are contradictory and the reason why
they actually describe a real situation. The point of the present paper is just to show how this
language could suggest a perspective to “exhorcise” (as D. J. O’Connor [4] writes about the
solution offered by Alexander in [3]) the paradox and to exclude contradictions.
To explain the point, let us first report the anecdote giving rise to the problems that define
the paradox.
A school teacher τ decides to examinate one of his pupils, identified here as σ , on a day of
∗ Dipartimento
40
† Dipartimento
di Matematica, Seconda Università degli Studi di Napoli, Caserta - [email protected].
di Matematica, Seconda Università degli Studi di Napoli, Caserta - [email protected].
1
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | MATEMATICA
2
the next week (from monday to friday). He announces to σ his decision, adding a prediction:
whenever the examination will take place, it will be a surprise to σ 1 . We can express the
announcement of τ as the logical product p ∧ q of the following two statements:
(p)
“τ will examine σ once and only once in the next week” ,
(q)
“whenever the examination will take place, it will be a surprise for σ ” .
The pupil reflects upon the announcement and notices that p ∧ q cannot be a true proposition. In fact, σ sees at once that τ cannot wait until the next friday to examine him. In fact,
should he wait, then σ , having seen the first four days of the week to pass with no examination, could know in advance, going back home on thursday, that he will be examined the day
after (and condition q would be infringed). Accordingly, the latest day for the examination
should be thursday. But the same reasoning as above shows that τ cannot wait until thursday,
because in this case σ could know in advance (going back home on wednesday) the time of
examination (since friday has been previously ruled out). So, τ can postpone the examination
at most to wednesday. But, in the same way as above, σ is led to conclude that — in order
to satisfy the “surprise condition” for every day — the examination cannot be postponed to
wednesday nor to tuesday, and that it cannot take place even monday. As a final consequence,
σ then finds that q → ¬p, i. e. p ∧ q → p ∧ ¬p, and teacher’s announcement is a contradiction. Since he knows his teacher very well, σ can exclude that τ had the purpose to deceive
him and — though surprised — feels compelled to deduce that the teacher must be mistaken
and, as a consequence, when noticing his oversight, he will cancel the examination. Thus, he
arrives at excluding examination for every day.
At this point, as repeatedly remarked [7], there is no paradox at all: the teacher has simply
stated a contradiction which, in virtue of its nature of a logically false proposition, will turn
out to be also empirically false. But, the next week, σ goes to his school quite confident
to be not examined: and one day (no matter which one) the teacher calls him to the chair to
examine him! Going to the chair, σ bitterly thinks that the teacher, after all, was not mistaken,
as he actually performs a quite unexpected examination in the planned time interval.
Now, this is a paradox. It can be described and analyzed in several ways, but the best way
to express it seems to be by means of the question: how is it possible that a contradiction
describes so precisely an actual state of empirical world? And, on the other hand, how is it
possible that the result of a correct logical reasoning turns out instead to be false? Once it has
been envisaged by these questions, it seems to be, rather than a logical paradox, a paradox
about the behaviour of the world or, maybe more precisely, about our perception of the world.
But, before analyzing the logical problem, we must acknowledge that there are several
aspects in this short tale that are ambiguous or unconvincing. First of all, as pointed out by
Chow [8], there is no precise definition of a “surprise examination” or, what is the same, of
1 In most reports of the paradox, rather than a prediction, “surprise” is presented as a prescribed property of the
examination: “the examination must, and will, be a ‘surprise examination’ ” (whenever it will be performed in the
week). But this makes no difference for the terms of the problem.
41
MATEMATICA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
3
what we mean by the word “surprise”. This word may have indeed at least two different
meanings: (a) that σ excludes to be examined; (b) that σ does not know for certain that he
is going to be examined. Some attention should be paid to make a distinction between these
two meanings. In all the discussions about the paradox, the statement q is given interpretation
(b), but the story seems to suggest that, once p is assumed to be true, requiring condition (b)
to be satisfied for every day of the week entails condition (a) to hold for every day of the
week.
Second, the behavior of the schoolboy, as described in the usual formulation of the paradox, is rather unnatural. Any other pupil would object to the teacher that his statements are in
mutual contradiction and would ask which one should he take as true. And the teacher would
have at his disposal three answers:
1. To admit the contradiction, and to give up the “surprise” condition (or at least to exclude
friday from it), thus asserting that p is true and q is false;
2. To admit the contradiction, and to give up the certainty of examination, thus asserting
that p is false and q is true;
3. To deny any contradiction.
In all cases but the second one, the pupil is not allowed to conclude that the examination
will be canceled (to overcome the fact that such a conclusion is obviously strained, Wright
[6] presents cancelation as a result of an agreement between the teacher and his pupils). But
special attention must be paid to the third answer. What should then the schoolboy think in
this last case? He would probably waste almost all his time trying to find a reason to teacher’s
answer and asking himself whether something has escaped his attention. So, he would spend
in the doubt all the time of the week before the examination, thus realizing q and leaving the
teacher free to realize p.
The doubt is itself sufficient to guarantee a certain amount of surprise. The original version of the story excludes any interaction between pupil and teacher, so leaving space to
a doubt among the above three answers (what would the teacher answer, if the schoolboy
should question about the contradiction?). But, at its very end, “forces” an unjustified, undoubted conclusion: the answer must be the second one.
What all the usual formulations of the paradox invariably hide is that q does not describe
any event, either independent or depending on human decisions and actions, but a “state of
knowledge” of the pupil and, as such, is itself able to modify this state. The self-reference
appealed to by almost all the authors who have discussed the paradox and suggested solutions
to it is expressed by the (implicit) statement “your mind will be in the state produced by this
statement”. By uttering proposition q (see, e. g., [3, 4, 6]), the teacher produces the condition
described by q. Any analysis in terms of “truth tables”, i. e. in terms of propositions that
can only be true or false unavoidably hides this circumstance, so requiring arguments of a
42
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | MATEMATICA
4
psychologic (or semantic) rather than strictly logical (or syntactic) character, that leave a
flavour of unsatisfaction.
We shall present here a different formalization of the story and of the subsequent paradox, in terms of probability measures. The interpretation of statements p and q as prescribing
particular values to suitable probability measures can enlighten some previous solutions proposed in the literature (see the papers by Quine, Nerlich, Meltzer, Chapman and Butler, Kiefer
and Ellison, Ayer, quoted in [7]), that — more or less explicitly — underline the relevance of
what the schoolboy may believe or not. But, as far as we are aware, not one of the authors
who have tackled the problem of solving the paradox has made an explicit use of the formal
notion of probability, nor of the techniques of mathematical probability theory. This is rather
surprising, for a description of the paradox in terms of probabilties seems to be the most
appropriate one under at least three respects:
• first, it may suggest — as we shall see in the sequel — a possible explicit interpretation
of the word “surprise”, which is undefined and rather ambiguous (cf. [8]): as a matter
of fact, the word “surprise” labels any event that contradicts an expectation, and the
notion of “expectation” can be in turn defined b
• next, it may outline a possible rôle of probability in the very formulation of empirical
statements, either referred to past events or to future ones;
• finally, it may show a way to bypass the notion of “contradiction” in cases similar to
the one depicted in the paradox.
We hope to be able to show that the techniques of mathematical probability theory, based
on the notion of conditional probabilityand on the distinction between probability measures
defined by different individuals on the same set of possible events, are a powerful tool to
define unambiguously all the terms of the problem (the notion of “surprise”, the difference
between teacher’s planning and its realization), and to replace the crude notion of “contradiction” with the less restrictive one of “incompatibility”, allowing to ascribe a positive degree
of belief to each of two propositions that cannot be simultaneously true. This also produces
a kind of formalization of the notion of “doubt”, which seems to be central in any solution
of the paradox, as q seems to be uttered to the explicit aim of raising a doubt on the initially
undoubted announcement p; and also leads to understand that the usual, forced conclusion
that the examination will be canceled is nothing more than a “limiting case” of doubt2 .
2 Another interesting feature of the description presented here is that it can be envisaged as a probabilistic counterpart of the purely logical solution proposed by Shira Kritchman and Ran Raz [9] , based on Gödel’s second
incompleteness theorem
43
MATEMATICA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
5
2
The notion of “surprise”
As previously observed, a complete formalization of the paradox in terms of probability
requires a suitable formal definition of “surprise”, for at least two reasons. First, if all the
statements, the pupil’s reasonings and his psychologic states are to be described in terms of
probability, our notion of “surprise” must be described in the same terms; second, as already
pointed out, the statement that an event E is “surprising” for an individual σ can be interpreted
as meaning either that σ excludes the event E from the class of possible events, or that σ does
not know for certain that E will take place. And the word “surprise” may be suitably defined
in terms of probability in such a way as to unify these interpretations. To this aim, we propose
the following
Definition 2.1. Let σ be any individual and let (Ωσ , Fσ ) be the sample space of all possible
experiences of σ 3 . Moreover, let Pσ a probability measure defined by σ on Fσ . An event
E ∈ Fσ will be said a surprise for σ with respect to Pσ if and only if
Pσ (E) <
1
.
2
Though essentially trivial, this definition will be undoubtedly disputed as arbitrary. Still,
it is based on the simple observation that one cannot speak of “surprise” without any further
specification. There are many degrees of surprise. If one reads a “whodunit” mistery, in
which a murderer must be identified, then one can be led to form the opinion that this is
a given character A; with less confidence, one could accept that the murderer is another
character B; and with still less confidence, one could be even prepared to find that it is C; but
there will be a number of characters D1 , D2 , . . . , Dn which will be excluded from the list
of possible murderers. If, at the end of the novel, one reads that the guilty is Dh for some h,
then one is strongly surprised. If the murderer turns out to be C, then one is just surprised, if
it is B, then the reader is surprised a little. The definition then expresses the almost obvious
assumption that an event E starts to be a surprise when the confidence that E will take place
is less than the confidence that E will not take place.
3
The sample space of the pupil
The basic idea of the present paper is that the teacher says what he says exactly with the
explicit aim to produce in his pupil the state of expectation implying the truth of proposition q.
In other words, q seems to be a self-fulfilling profecy similar to the ones so often proposed in
so many fantasy movies and novels. So, the analysis of the paradox is simply a particular case
of a more general logical analysis of self-fulfilling profecies. In such analysis, the information
3 For the definition of a “sample space” , as well as for all technical definitions concerning the basic language of
probability, the reader is referred to any good undergraduate textbook on probability.
44
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | MATEMATICA
6
implicitly carried by the fact itself that a profecy exists is a relevant element to give a semantic
definition of the truth of the profecy, and probability, with special reference to conditional
probability, seems to be the most effective tool to achieve a formal definition.
To describe the meaning (hence, the truth) of q in proper mathematical terms involving
probability, we need to introduce and describe the “sample space” Ωσ of the pupil, i. e. the
space of all his (possible) experiences. To this aim, we need:
• the set T = {1, 2, 3, 4, 5}, which is to represent “the next week”;
• the “examination space” Ω = {0, 1} containing only two outcomes: here, the outcome
0 means “σ is not examined” and the outcome 1 means “σ is examined”;
• the “teacher’s communication space”, a set Γ of (equivalence classes of) english propositions uttered by the teacher during the lessons before the week in which the examination should be performed; in order to avoid useless mathematical technicalities, we
do not analyze in details the contents of Γ, and confine ourselves to introduce (and
use) the σ -algebra (T , ¬, ∨, ∧) associated to Γ (with the usual meaning of “negation”,
“logical sum”, “logical product” for ¬, ∨ and ∧ respectively). Accordingly, any outcome p ∈ T means the event “the teacher utters p”. An order (“inclusion”) relation
“<” is defined on T by setting p < q when the proposition ¬p ∨ q is a tautology. For
convenience, we also set
Π=
p,
p∈T
the logical sum of all propositions in T .
The explicit introduction of T is of the greatest relevance to describe as clearly and
completely as possible the influence of teacher’s profecy on the conclusions of σ .
Now the space Ωσ of all possible experiences of σ 4 must contain not only all what could
happen but also all what the teacher could say or have said in the classroom during the lessons.
Denoting by P(Ω5 ) the class of all subsets of Ω5 , for any event E ∈ P(Ω5 ) and any p ∈ T ,
we denote by the symbol E × Π or simply by the symbol E the event “E happens whatever
the teacher says” and by the symbol Ω5 × p or simply by the symbol p the event “the teacher
states p whatever will happen in the week”. We use either the symbol E × p or the symbol
(E × Π) ∩ (Ω5 × p to denote the event “τ states p and the event E will take place in the week”.
So, we can set Ωσ ≡ Ω5 × Π, and the event
E ≡ {(1, 0, 0, 0, 0), (0, 1, 0, 0, 0), (0, 0, 1, 0, 0), (0, 0, 0, 1, 0), (0, 0, 0, 0, 1)} ⊂ Ω5 ,
(1)
(or, more precisely, the event E ×Π ⊂ Ωσ , disregarding any communication from the teacher)
means “σ is examined once and only once in the time interval T , whatever the teacher says”.
For future purposes, in order to simplify the notation, we also introduce,
4 Restricted
to the lessons, of course.
45
MATEMATICA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
7
• for any h ∈ T , the event
Ah ≡ {(δh1 , δh2 , δh3 , δh4 , δh5 )} ,
where, for any i ∈ T ,
δhi =
0 if i = h ,
1 if i = h ,
which therefore means “σ is examined at time h (whatever the teacher says)”; we also
set A0 = {(0, 0, 0, 0, 0)}, which is the event “σ is not examined at all in the week”;
• for any k ∈ T , the event
Hk ≡ A0 ∪
5
Ah
h=k
,
which, for k ≥ 2, obviously means “σ is not examined at any time t ∈ {1, . . . , k − 1}”;
H1 ≡ A0 ∪ E is instead the event “σ is examined at most once in the week”: according
to the usual formulation of the paradox, it is assumed through the whole discussion that
Pσ (H1 ) = 1 .
(2)
Of course, on Ωσ the pupil assigns a probability distribution Pσ , which will be influenced
and modified not only by each experience of σ but also by all what his teacher τ says. More
precisely, the “outcomes” considered by σ are couples (x, p), with x ∈ Ω5 (a sequence of five
numbers x1 , x2 , . . . ,x5 , where xh is either 0 or 1 for any h ∈ T ) and p a proposition stated
by τ, that the pupil can decide to take or not in consideration, i. e. to believe or not. So, the
probability Pσ ({(x, p)}) ≡ Pσ ({x} × p) assigned by σ to the outcome (x, p) is the “degree of
belief” of σ that the event x will happen and teacher’s proposition p is true (“joint probability
of x and p”). The probability of an event E ⊆ Ω5 assigned by σ disregarding any communication by the teacher, i. e. without any decision about the truth of the propositions stated by τ
is Pσ (E × Π), which can be also denoted by the symbol Pσ (E) and is said the “absolute probability” of E. The conditional probability of an event A ⊆ Ω5 under an hypothesis B ⊆ Ω5 ,
assigned (or calculated) regardless of teacher’s statements is Pσ (A | B) ≡ Pσ (A × Π | B × Π).
The conditional probability of an event A ⊆ Ω5 under an hypothesis B × p ∈ P(Ω5 ) × T ,
i. e. under the assumption that the event B happened and teacher’s statement p is true, is
Pσ (A | B, p) ≡ Pσ (A | B × p) ≡ Pσ (A × Π | B × p).
On the other hand, the probability of a proposition p ∈ T assigned by σ without any
assumption on whether and when and how many times he will be examined in the week,
is Pσ (Ω5 × {p}), which can be also denoted by the symbol Pσ (p) and is said the “absolute probability” of p. It can be meant as the “degree of belief” of σ that p is true before
formulating any prediction about the examination.
46
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | MATEMATICA
8
4
Teacher’s announcement in terms of probabilities
Let us now turn our attention to teacher’s announcement. We start with remarking that τ in
turn assigns a probability distribution Pτ on the sample space Ω5 . Of course, as Ω5 contains
all possible sequences of examinations of τ to σ , such probability distribution is simply a
necessary consequence of the decision of τ to examine σ once and only once in the week. But
we can also assume that τ knows his pupils (in particular, σ ) so well as to be in a position not
only to know Ωσ (which contains only possible class examinations involving τ and possible
communications of τ to his pupils, and in particular those communications that σ will be
forced to take into account in order to decide his own behaviour) but also to make predictions
about at least some values of Pσ . Accordingly, we acknowledge at once that propositions p
and q can be rephrased as two statements concerning respectively Pτ and Pσ . More precisely,
proposition p can be expressed by the relation
(p)
Pτ (E) = 1
(3)
(where E is defined by (1)) while proposition q, which is instead a prediction of τ about Pσ ,
can be rephrased as the condition
(q)
Pσ (Ak | Hk ) ≡ Pσ (Ak × T | Hk × T ) <
1
,
2
∀k ∈ T .
(4)
Notice that there can be no contradiction between conditions (3) and (4), as the former
expresses a decision of τ, while the latter is neither the expression of a decision nor a prescription, as σ seems to believe, but simply a prediction on the probability distribution assigned
by σ on Ωσ . In this connection, it should be carefully noted that relation (4) is a statement
about absolute probability defined by σ on his sample space, which is by definition assigned
disregarding all the elements of T , i. e. without taking any one of them as true.
It can be objected that giving to q the form (4) is a quite arbitrary interpretation. Of
course, it is so. But the pupil’s assumption that q is a prescription and that accordingly the
examination will be canceled also is (as we shall see in more details) quite arbitrary, and
evidently wrong. Here, our aim is mainly to suggest a possible interpretation of teacher’s
statements that could exclude that a contradiction may describe actual events, as well as
point out why and where pupil’s reasonings are wrong, showing however that “surprise” is
unavoidable, unless σ decides to disregard completely statement q.
Accordingly, Definition 2.1 and relations (3)–(4) seem to provide a sufficiently plausible
ground to an analysis of pupil’s reasoning in terms of probability, which should be helpful
to recognize those aspects under which it is correct (and leads to an uncertainty status) and
those under which it is uncorrect (leading to the wrong conclusion that examination must and
will be canceled).
47
MATEMATICA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
9
5
Pupil’s reasoning in terms of probability
After the teacher has stated p, the pupil constructs his “sample space” Ωσ and defines a
conditional probability measure Pσ (· | p) on its subspace Ω5 × {p}.
Since σ believes that p is true, Pσ (p) = Pσ (Ω5 × {p}) = 1 and
so that A0 ⊂ E c 5 entails
Pσ (E | p) = 1 ,
(5)
Pσ (A0 | p) = 0 .
(6)
Moreover, assuming as usual that the absence of any additional information is expressed
by the uniformity of the probability measure,
Pσ (Ah | p) =
1
,
5
∀h ∈ T
(7)
and, since
Pσ (Ak | Hk , p) =
Pσ (Ak | p)
=
Pσ (A0 | p) + ∑5h=k Pσ (Ah | p)
1
5
(8)
=
Pσ (A0 | p) + 5−k+1
5
1
,
=
5Pσ (A0 | p) + 5 − k + 1
=
∀k ∈ T ,
relation (6) implies
Pσ (A1 | H1 , p) = Pσ (A1 , p) =
1
5
Pσ (A2 | H2 , p) =
Pσ (A4 | H4 , p) =
1
2
1
4
Pσ (A3 | H3 , p) =
1
3
(9)
Pσ (A5 | H5 , p) = 1 .
All these relations are quite obvious, and seem to give a very realistic picture of the actual
way of arguing of every schoolboy or schoolgirl in the world. According to them, σ is
moderately sure to be not examined on monday, tuesday and wednesday, starts to fear to be
examined on thursday and is quite afraid on friday morning, because he now knows that he
will be examined.
But now the teacher adds his statement (q), which has the natural effect to induce σ to
revise his probability distribution on Ωσ (in particular, on Ω5 ). And, if we carefully analyse
the whole sequence of facts as it is reported in the usual formulation of the paradox, then we
see that σ seems to make his first, heavy mistake. He seems to believe that statement (q)
5 As
48
usual, the symbol E c denotes the complement of E with respect to Ω5 , i. e. E ∪ E c = Ω5 .
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | MATEMATICA
10
does not describe his absolute probability, but the above probability Pσ (· | p), so that he must
add condition q to condition p. To this aim, condition (4) must be replaced by condition
Pσ (Ak | Hk , p ∧ q) <
1
,
2
∀k ∈ T ,
(10)
in order to define a conditional probability measure Pσ (· | p ∧ q) satifying both relation
Pσ (A0 | p ∧ q) = 0 .
(11)
and relation (10). But these two relations, taken simultaneously, lead at once to the contradiction 1 = Pσ (A5 | H5 , p ∧ q) < 1/2, so that Pσ needs to be modified in such a way that
Pσ (A5 , p ∧ q) = 0. But all what can be obtained is that relations (7), (21) and (9) are replaced
by relations
1
∀ h ∈ T \ {5} ,
(12)
Pσ (Ah | p ∧ q) = ,
4
Pσ (Ak | p ∧ q)
=
Pσ (Ak | Hk , p ∧ q) =
Pσ (A0 | p ∧ q) + ∑4h=k Pσ (Ah | p ∧ q)
1
4
=
and
=
Pσ (A0 | p ∧ q) + 4−k+1
4
1
=
,
4Pσ (A0 | p ∧ q) + 4 − k + 1
Pσ (A1 | H1 , p ∧ q) = Pσ (A1 | p ∧ q) =
1
4
(13)
∀ k ∈ T \ {5} ,
Pσ (A2 | H2 , p ∧ q) =
1
3
(14)
1
Pσ (A3 | H3 , p ∧ q) =
Pσ (A4 | H4 , p ∧ q) = 1 ,
2
respectively. The contradiction is reproduced unchanged for A4 . Looking for a probability distribution Pσ (· | p ∧ q) such that Pσ (A4 | p ∧ q)) = Pσ (A5 | p ∧ q) = 0, the result is that
relations (12), (13) and (14) are now replaced by relations
Pσ (Ah | p ∧ q) =
Pσ (Ak | Hk , p ∧ q) =
∀ h ∈ T \ {4, 5} ,
(15)
Pσ (Ak | p ∧ q)
=
Pσ (A0 | p ∧ q) + ∑3h=k Pσ (Ah | p ∧ q)
1
3
=
Pσ (A0 | p ∧ q) + 3−k+1
3
1
,
=
3Pσ (A0 | p ∧ q) + 3 − k + 1
=
and
1
,
3
(16)
∀ k ∈ T \ {4, 5} ,
1
1
Pσ (A2 | H2 , p ∧ q) =
3
2
Pσ (A3 | H3 , p ∧ q) = 1 .
Pσ (A1 | H1 , p ∧ q) = Pσ (A1 | p ∧ q) =
(17)
49
MATEMATICA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
11
Going on with this search for a conditional probability satisfying both the conditions
assigned by the teacher, one simply finds
Pσ (A1 | p ∧ q) = Pσ (A2 | p ∧ q) = Pσ (A3 | p ∧ q) =
= Pσ (A4 | p ∧ q) = Pσ (A5 | p ∧ q) = 0 ,
(18)
which, joined with condition (11) and condition (2), shows that
Pσ (p ∧ q) = 0 .
(19)
Indeed, H1 is the smallest subset of Ω5 such that Pσ (H1 × Π) = 1 and {Ah }0≤h≤5 is a partition
[Ω5 × p ∧ q]) = Pσ (Ah | p ∧ q)Pσ(p ∧ q) = 0 for any h ∈
of H1 . Accordingly, Pσ ([Ah × Π] ∩ 5
5
5
{0, 1, 2, 3, 4, 5} and Pσ (p ∧ q) = Pσ
h=0 (Ah × Π) ∩ [Ω × p ∧ q] = ∑h=0 Pσ ([Ah × Π] ∩
[Ω5 × p ∧ q]) = 0.
Notice that condition (19) does not mean that proposition p ∧ q is a contradiction, but
simply that σ cannot believe that the events described by p and q respectively will happen
together. At the same time, as we have seen, τ may be quite convinced that the events
described by p and q can happen together. As a matter of fact, his statements refer to two
different subjects and — as we shall see later — cannot be compared and do not interfere with
each other unless their subjects (i. e. the probability distributions Pτ and Pσ ) are assumed to
be the same.
6
What the pupil can actually conclude
As a consequence of his reasoning starting from relation (11) and arriving at relations (18) and
(19), σ makes a serious mistake he will pay hard in the week, when he will be unespectedly
examined: he perceives relation (19) as witnessing a contradiction between p and q, from
which he deduces that τ cannot but cancel the planned examination. In our language, this
means that now Pτ (A0 ) = 1 and, as a consequence, Pσ (A0 ) = 1.
In view of what happens in the next week, σ should feel compelled to find the mistake in
his reasoning, and to look for a correct “solution”, avoiding a quite unexpected examination.
To this aim, he can argue in two ways.
1. F IRST “ SOLUTION ”: σ takes relation (19) as the very startpoint for the construction
of an absolute probability distribution on Ω5 . According to this relation, p and q are
incompatible (though not necessarily in mutual contradiction) statements. So, taking
p ∨ q as the space of leading teacher’s propositions, the set {p, q} is a partition (or a
family of alternatives) for p ∨ q, and — according to the law of total probabilities —
Pσ is constructed by means of the relation
Pσ (S) = Pσ (S | p)Pσ (p) + Pσ (S | q)Pσ (q) ,
50
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | MATEMATICA
12
for any event S ⊆ Ω5 . In particular,
Pσ (A0 ) = Pσ (A0 | p)Pσ (p) + Pσ (A0 | q)Pσ (q) ,
where Pσ (A0 | p) = 0 and Pσ (A0 | q) > 1/4, as we may easily deduce replacing relations
(7)–(21) by the relations
Pσ (Ah | q) =
Pσ (Ak | Hk , q) =
=
=
1 − Pσ (A0 | q)
,
5
∀h ∈ T
(20)
Pσ (Ak | q)
=
Pσ (A0 | q) + ∑5h=k Pσ (Ah | q)
1−Pσ (A0 | q)
5
(5−k+1)(1−Pσ (A0 | q))
Pσ (A0 | q) +
5
(21)
=
1 − Pσ (A0 | q)
,
5Pσ (A0 | q) + (5 − k + 1)(1 − Pσ (A0 | q)
∀k ∈ T ,
with Pσ (A0 | q) unknown. As a consequence,
Pσ (A0 ) =
Pσ (q)
> 0,
4
and σ cannot be sure that he will be certainly examined in the week, as he believed
on the only ground of teacher’s statement p. This is sufficient to guarantee a certain
amount of surprise. On the other hand, this result does not allow the pupil to predict
that the teacher will cancel the examination, that is to exclude that he will be examined.
2. S ECOND “ SOLUTION ”: σ may choose to reject conclusion (19). Then, he should reject
both relations (18) and (11). But now, assuming
Pσ (A0 | p ∧ q) = α > 0 ,
(22)
and again all the days of the week to have the same probability to be chosen for the
examination, i. e.
1−α
,
∀h ∈ T ,
Pσ (Ah | p ∧ q) =
5
one easily obtains
Pσ (A5 | H5 , p ∧ q) <
1
2
if and only if
Pσ (A0 | p ∧ q) >
1
,
6
so that q is satisfied, but at the price of a logical contradiction, as (22) really contradicts
(6): since p ∧ q < p, from (22) and (6) we have 0 < Pσ (A0 × [p ∧ q]) ≤ Pσ (A0 × p) = 0.
To avoid this inconsistency, σ is forced to review and correct his earlier probability
distribution, allowing
Pσ (A0 | p) > 0 .
51
MATEMATICA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
13
The last relation is not so surprising as it could seem at a first, superficial glance. We
should acknowledge indeed that the very reason why σ perceives p ∧ q as a contradiction is
that he takes for granted that his own probability distribution Pσ (· | p) on Ω5 must coincide
with teacher’s probability distribution Pτ , i. e. in particular
Pτ (A0 ) = 0
⇐⇒
Pσ (A0 ) = 0 ,
whence
Pτ (A0 ) = 0
=⇒
Pσ (A0 | p) = 0 .
But we have seen that neither the above equivalence nor the last implication are logically
necessary. Even though the latter can be somehow forced by the pupil’s absolute trust in his
teacher’s sincerity, the former does not follow. In this connection, rejecting relation (19), we
may use the partition {p ∧ ¬q, p ∧ q, ¬p ∧ q} to obtain
Pσ (A0 ) = Pσ (A0 | p ∧ ¬q)Pσ (p ∧ ¬q) + Pσ (A0 | p ∧ q)Pσ (p ∧ q) +
+ Pσ (A0 | ¬p ∧ q)Pσ (¬p ∧ q) = Pσ (A0 | p ∧ q)Pσ (p ∧ q) +
+ Pσ (A0 | ¬p ∧ q)Pσ (¬p ∧ q) > 0 .
It could be worthy to be remarked that σ cannot avoid to be more or less “surprised” by
the examination, as he cannot be sure that he will be examined in the week, so that — at the
time of examination — he will cannot help exclaiming “So, I am really examined!”. There
is no reasoning capable to show that the teacher was wrong. The pupil would not have been
surprised only if the teacher had not declared that he would.
Finally, just in order to conclude our discussion, it may also be worthy to be observed that
the above formal description ascribes a precise rôle to remarks, interpretations and solutions
proposed by several Authors in the literature about the paradox: both the conclusions we
have arrived at seem to confirm Quine’s remark that the pupil cannot exclude from the very
beginning that the examination will not take place (see [7] for the reference), while the form
(3) points out that announcement p should be envisaged — according to Alexander — as
expressing an intention rather than a prescription on what the pupil should believe (since a
complete prescription on this matter should be derived from the above analysis of the join of
announcements p and q) , while our conclusions show that the last day the pupil still finds
himself in front of the choice between “being necessarily examined today” and “not being
examined at all”, as observed by Chapman and Butler, and our construction of Ωσ and Pσ
stresses the relevance of the notion of “utterance” [2]. Finally, the present description also
gives a complete expression to some informal appeals to probability proposed in [5, 6] and in
other papers.
52
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | MATEMATICA
14
References
[1] D. J. O’Connor , Pragmatic Paradoxes, Mind 57 (1948), 358–359.
[2] J. Cohen, Mr. O’Connor’s Pragmatic Paradoxes, Mind 59 (1950), 85–87.
[3] P. Alexander, Pragmatic Paradoxes, Mind 59 (1950), 536–538.
[4] D. J. O’Connor, Pragmatic Paradoxes and Fugitive Propositions, Mind 60 (1951), 358–
359.
[5] P. Weiss, The Prediction Paradox, Mind 61 (1952), 265–269.
[6] J. A. Wright, The Surprise Exam: Prediction on Last Day Uncertain, Mind 76 (1967),
115–117.
[7] M. Gardner, The Unexpected Hanging and Other Mathematical Diversions, The University of Chicago Press, Chicago and London, 19912 .
[8] T. Y. Chow, The Surprise Examination or Unexpected Hanging Paradox, Amer. Math.
Monthly 105 (1998), 41–51
[9] S. Kritchman and R. Raz, The Surprise Examination Paradox and the Second Incompleteness Theorem, Notices of the AMS 57(11) (2010), 1454–1458.
53
DESIGN | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
Sperimentazione su biocomposito
autoprodotto dagli scarti delle vongole
per possibile utilizzo di design
MARIA FRANCESCA ZERANI, CARLO SANTULLI
Università degli Studi di Camerino, Scuola di Architettura e Design (SAAD)
Il presente lavoro propone una possibile utilizzazione dei
materiali ceramici ottenuti dagli scarti delle vongole per la
fabbricazione di un biocomposito adatto alla produzione di
piccoli oggetti di design. In particolare, si discute lo sviluppo di alcuni piccoli oggetti di design, inquadrati sotto il
termine generico di Bioclams. La sperimentazione effettuata
s’inserisce nell’ambito della recente tendenza all’autoproduzione (DIY new materials) dei materiali, che consente di
rivalorizzare gli scarti nell’ambito di un’idea di sostenibilità
basata sulla creazione di un legame affettivo con l’oggetto e
quindi un maggior valore intrinseco.
N
1. INTRODUZIONE
ello scenario attuale, il fatto che esista
un notevole problema di smaltimento dei
cosiddetti “rifiuti”, specialmente se non
adatti all’utilizzo nel compost né tanto
meno alla termovalorizzazione, riporta
l’attenzione sul loro riutilizzo nell’ambito dei materiali. Si
possono citare scarti a base di polisaccaridi, come per esempio la chitina ottenuta dal carapace dei gamberi (Yen et al.,
2009), oppure legnosi, come accade per diversi tipi di gusci,
per esempio con quelli dei pistacchi, che sono stati utilizzati
per la produzione di carboni attivi (Foo & Hamed 2011), o
anche ceramici, nel caso ad esempio dell’utilizzo del guscio
d’uovo come riempitivo di polimeri a base di amido (Bootklad & Kaewtatip 2013). E’ evidente tuttavia che oltre
all’approccio ingegneristico, che vede nel rifiuto polverizzato il sostituto di altri materiali di nuova produzione od estrazione, e quindi in termini di riduzione di impatto ambientale,
altre strade possono essere investigate.
Una strada è stata definita in termini di “upcycling” cioè
utilizzo espressivo degli scarti, che si può tradurre come rivalorizzazione del materiale. In questo contesto, il materiale
non viene necessariamente ridotto in polvere, ma ci si sofferma piuttosto a sfruttare le sue caratteristiche intrinseche,
54
per esempio in termini di irregolarità superficiali o particolari
effetti di contatto con la luce: questo porta ad un utilizzo per
un periodo più lungo, connessa al maggior gradimento da
parte dell’utente ed alla susseguente formazione di un legame affettivo con l’oggetto (Santulli & Langella 2013). Tale
problematica è particolarmente sentita nel caso dello sviluppo delle bioplastiche: l’interesse del design per le plastiche,
almeno quelle di origine petrolchimica, è stato relativamente
tardivo, vedendole piuttosto come materiali economici e leggeri, ma non desiderando conferire loro un particolare valore
espressivo (Sparke 1990). Questo discorso vale anche per le
bioplastiche di origine industriale, tipicamente a base di biopoliesteri, come l’acido polilattico, o di polisaccaridi. Anche
qui, l’accento posto sulla questione della biodegradabilità e
della compostabilità ha portato ad una scarsa cura per l’aspetto estetico e formale della bioplastica, con la conseguenza del limitarne l’utilizzo ad un contesto “usa e getta” in vista
di una non sempre efficace raccolta del rifiuto allo scopo di
produzione di compost e rigenerazione della materia prima
vegetale (Karana 2012). D’altro canto, è anche chiaro come
nel contesto attuale sia necessario uscire per quanto possibile
dalla concezione di una società dell’”usa e getta” e, per quanto lodevole, quest’approccio alle bioplastiche non vada nella
direzione giusta (Cooper 2012).
In realtà, precedenti studi hanno evidenziato come per la
generazione precedente di materiali plastici, ottenuti dal riprocessamento di materiali naturali, si poneva molto chiaramente, benché ovviamente nei limiti di quanto disponibile
all’epoca, il problema estetico. Questo vale per esempio per
i prodotti a base di caseina, come la galalite o Erinoid, che
è stata di recente oggetto di uno studio specifico per la sua
autoproduzione, anche senza utilizzo di formaldeide, e valorizzazione (Colotto et al., 2016). Alcune esperienze imprenditoriali italiane possono leggersi attraverso quest’attenzione
a queste proto-plastiche, cui è stato progressivamente offerto
un contenuto di design, com’è il caso di Mazzucchelli (Cecchini 2014) o di Guzzini (Rognoli & Santulli 2014) per materiali come la celluloide ed il corno.
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | DESIGN
Una possibilità più specifica per l’utilizzo “espressivo” di
scarti accade se questi formano strutture naturali complesse
ed efficaci, come nel caso di gusci legnosi o conchiglie. In
questo caso, una particolare attenzione al mondo della natura
porta ad individuare la loro “personalità” in termini anche
espressivi, e quindi tesi a riportare a delle emozioni, che ne
producono un elevato gradimento, ovviamente assente nel
caso dei “rifiuti”. La possibilità investigata in questo lavoro è la produzione di oggettistica attraverso l’integrazione di
scarti da gusci di vongole (Ruditapes semidecussatus) all’interno d’una bioplastica autoprodotta e con una composizione
determinata in seguito ad un’attività di sperimentazione. L’idea è che tale materiale sia costituito al 100% da scarti locali
e consenta il loro utilizzo espressivo nell’ambito di oggetti di
qualche pregio.
2. ANTECEDENTI NELL’USO DI SCARTI CERAMICI
Il recupero degli scarti ceramici ha in definitiva ricevuto
un’attenzione minore, in parte dovuta al fatto che siano inerti e quindi scaricabili nel terreno senza impatto ambientale.
Un’eccezione a questa situazione è rappresentata per esempio dal recupero degli scarti dal dragaggio dei fiumi, che possono contenere percentuali non irrilevanti di vetro e ceramici
di maggior pregio e che è stata proposta per la produzione di
piastrelle o simili (Brusatin et al., 2005). Nel caso specifico
dell’applicazione di gusci ceramici polverizzati, si rilevano
proposte come l’uso di polvere da gusci di ostriche come cementante per agglomerati di terra e “ceneri volanti” (Liang
& Wang 2013). Vi sono stati anche tentativi di introduzione
all’interno di matrici polimeriche, come il polietilene a bassa
densità (LDPE), mescolando quantità variabili, 10 o 20% in
peso, di polvere di gusci di ostriche setacciate a 75 micron
(Shnawa et al., 2011). Questo viene proposto allo scopo di
sostituire i tipici filler ceramici delle termoplastiche, come
talco, silice, idrossiapatite o nitruro di boro che assicurano
migliori prestazioni meccaniche e permettono utilizzi più efficaci, per esempio in ambito di accessori elettrici (Wang et
al., 1998).
Come si intuisce dagli esempi fatti, l’introduzione del materiale ceramico di scarto in forma polverizzata all’interno di
una matrice polimerica industriale permette senza particolari
problemi la produzione dell’oggetto in plastica coi metodi
più diffusi, per esempio lo stampaggio ad iniezione. Dal
punto di vista dell’upcycling, o rivalorizzazione dello scarto, questo però ha due conseguenze negative: che di fatto
il ceramico sparisce all’interno della matrice polimerica al
punto da essere indistinguibile, e che non è possibile nessuna
personalizzazione, legata al mantenimento per quanto possibile, della struttura naturale, per cui tutti i pezzi della stessa
serie risultano praticamente uguali tra loro. Come già sperimentato in altre occasioni, una soluzione per quest’impasse
può essere il ricorso all’autoproduzione, inglobando quindi i
frammenti ceramici in una bioplastica appositamente sviluppata in modo da offrire una sufficiente interfaccia col filler,
allo stesso tempo mantenendolo visibile. In pratica svilup-
pando ed ottenendo una bioplastica con processi artigianali
piuttosto che industriali, anche se moderatamente industrializzabili, e per questo totalmente controllabili dal designer
ed anche dall’utente finale. Questo tipo di esperienza rientra
nei cosiddetti “Do-It-Yourself (DIY) Materials” (Bianchini
et al., 2015). Questo concetto riguarda un nuovo approccio
al design emerso recentemente che porta nuove relazioni tra
designer, tecnologie, processi di produzione e materiali. E’
un sistema che, come la stampa 3D ad esempio, riporta alla
luce l’artigianalità evoluta dei prodotti. In questo caso, si
è scelta una bioplastica DIY a base di gelatina di ossa sulla
quale si erano separatamente effettuate prove sperimentali
allo scopo di stabilire la composizione più adatta della matrice per usi semi-strutturali e non completamente effimeri (nel
senso di essere in grado di supportare almeno il proprio peso
ed una certa durata di servizio in oggetti non “usa e getta”).
(Capitani et al., 2016).
3. SVILUPPO DEL MATERIALE
Questo studio presenta un materiale naturale che nasce dalla reazione chimica tra gelatina, acqua e glicerina e
dall’aggiunta di gusci di vongole. Ogni ingrediente ha la sua
funzionalità, donando al materiale finale qualità differenti.
I gusci delle vongole, come quelle di tutti i molluschi, non
sono biodegradabili e, quindi, non possono concorrere alla
produzione in breve tempo di compost, creando un grave
problema per lo smaltimento. La bioplastica qui presentata cerca di risolvere tale problema tramite un processo di
upcycling, cioè convertendo creativamente un materiale di
scarto in oggetti nuovi e di migliore qualità.
La gelatina è fondamentale per la riuscita del materiale.
Questa sostanza naturale una volta era conosciuta in Italia
come “colla di pesce”, in quanto era utilizzata come collante,
e veniva ricavata dalle vesciche natatorie dei pesci, in particolare di storione. Oggi sul mercato è presente principalmente gelatina alimentare che deriva per l’80% dalla cotenna
del maiale, per il 15% dal bifido bovino (strato intermedio
tra pelle e ipoderma), e per il 5% da ossa di maiali e bovini.
Chimicamente, la gelatina è composta di collagene, la più
comune proteina strutturale del regno animale, formata da
tre catene di amminoacidi che si avvolgono a formare una
struttura a tripla elica, ed il contenuto di collagene ha un notevole effetto nel determinare le prestazioni meccaniche dei
film ottenuti (Bigi et al., 2004). Il districamento di questa
struttura fibrosa con riduzione dei legami di reticolazione
avviene con la necessaria aggiunta di acqua e di glicerina,
mettendo poi a scaldare la miscela fino al raggiungimento
di una temperatura di circa 70°C: tale temperatura non va
superata e si deve considerare come il limite massimo per
il processamento. Prove effettuate, esposte nella Sezione 4,
hanno dimostrato come già ad 80°C si abbia una consistente
degradazione, dovuta al proseguire della rottura dei legami
di reticolazione. La glicerina ha la funzione di lubrificante
molecolare, ovvero si va a inserire tra le catene polimeriche della gelatina, mantenendole distanti e non rigide in una
55
DESIGN | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
struttura cristallina.
Le conchiglie delle vongole, come in tutti i molluschi,
risultano formate in massima parte di carbonato di calcio
(90-95%), oltre che di fosfato di calcio (idrossiapatite) e di
un’altra sostanza proteica, la conchiolina. Quest’ultima è
causa di cattivo odore, per cui le conchiglie devono essere
accuratamente lavate per eliminare questo strato proteico,
prima di essere frantumate ed aggiunte agli altri componenti.
Queste conchiglie hanno varie funzioni, infatti, oltre al già
citato upcycling, impediscono in maniera considerevole il ritiro della bioplastica nella fase di asciugatura. Altro fattore è
di natura estetica, le vongole danno personalità al materiale
creando un’interessante texture, donando anche caratteristiche di lucentezza, grazie gli effetti di birifrangenza dell’idrossiapatite (Meyers et al., 2008).
Uno dei problemi maggiori nella produzione di bioplastiche è il ritiro nella fase di essiccazione. Nel nostro caso,
le varie sperimentazioni ci hanno suggerito che l’aggiunta
di gusci di vongole (ma anche di altri molluschi) influenza positivamente, in maniera molto evidente, il ritiro, come
pure la giusta quantità di gelatina. La temperatura ha poi un
ruolo importante nel processo di essiccazione. Il graduale
abbassamento della temperatura permette la formazione dei
legami tra l’acqua ed il collagene, in quanto l’energia termica delle molecole diminuisce: la reticolazione così ottenuta
permette di trattenere le molecole di acqua. Facendo asciugare la bioplastica a 4°C, il tempo di asciugatura è di circa
5 giorni.
4. CARATTERIZZAZIONE DEL MATERIALE
Le varie prove sperimentali sulla quantità di ogni ingrediente e sul tipo di asciugatura hanno portato ad una ricetta finale nella quale per ogni 100 ml d’acqua si utilizzavano 23 ± 1 g di gelatina in polvere, 3.3 ± 0.1 g di glicerina
ed un massimo di 50 g di gusci di vongole, il che forniva
un’interfaccia sufficientemente efficace, come osservabile
in Figura 1, e consentiva di stendere il biocomposito sullo
stampo senza poi avere un ritiro troppo pronunciato. Per assicurarne l’inserimento all’interno della bioplastica, i gusci
di vongole venivano tritati in pezzi con dimensione massima
di pochi millimetri, com’è visibile in Figura 2. Va notato
come la densità misurata della bioplastica era dell’ordine di
1.08±0.02 g/cm³, mentre con l’introduzione dei gusci di vongole, prevalentemente costituiti da aragonite, che ha densità
di circa 2.9 g/cm³, la densità misurata saliva a circa 1.61 ±
0.03 g/cm³. Questo in effetti comportava, nella lavorazione
manuale con la quale la bioplastica veniva prodotta, una tendenza del filler ceramico a scendere per gravità.
Prelevando un campione di bioplastica sono state effettuate delle prove per testare la resistenza al calore del materiale. Il frammento di bioplastica è stato immesso in una
termobilancia. La temperatura è stata selezionata secondo
il criterio di simulare una condizione di stress alla quale la
bioplastica potrebbe essere sottoposta se impiegata in oggetti
reali. Il ciclo ha previsto quindi un periodo di cinque minuti
a 40°C, seguito da altri cinque minuti a 60°C ed infine altri
Figura 1 Vista laterale stratigrafica del composito con l’interfaccia tra i frammenti di guscio e la matrice bioplastica
Figura 2 Vista superiore stratigrafica
56
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | DESIGN
Figura 3 Biocomposito con frammenti di gusci di vongole (a sinistra) e sola matrice bioplastica (a
destra)
otto minuti ad 80°C. Lo scopo è stato quello di individuare, in seguito all’applicazione
del calore, la perdita di massa nel campione e
la presenza di modificazioni a livello macroscopico. Al termine della prova si è osservata
una perdita di massa nel campione dell’ordine
del 4.5 ± 0.5%. I campioni, una volta assoggettati al trattamento, si presentavano molli
e non più in grado di ritornare neanche dopo
raffreddamento al grado di solidità originario.
Come già detto in precedenza, si può ipotizzare in linea generale che il limite di possibile
applicazione sia non superiore ai 70°C, il che
va connesso con la degradazione delle catene
alfa e beta del collagene. Una vista d’insieme
di un campione di biocomposito ottenuto in
confronto con la bioplastica a base di gelatina
è riportata in Figura 3. Va notato al riguardo
che l’utilizzo di gelatina in polvere nel materiale porta alla formazione di bolle d’aria
sulla superficie, come osservabile in Figura
4, problema non riscontrato con l’utilizzo di
gelatina in fogli.
5. PRODUZIONE DI OGGETTI:
IL PROGETTO BIOCLAMS
Figura 4 Biocomposito ottenuto con gelatina in polvere (a sinistra)ed in fogli (a destra)
Figura 5 Primo prototipo di braccialetto
Il materiale sviluppato è stato utilizzato nella produzione di oggetti progettati per durare
nel tempo, con lo scopo di riutilizzare materiali di scarto quali i gusci dei molluschi, rifiuti molto difficili da smaltire: un esempio di
primo prototipo è fornito dal braccialetto in
Figura 5. Il biocomposito è molto adatto alla
costruzione di questo genere di prodotti, non
subendo modifiche strutturali dopo la fase di
essiccazione. Questo processo di upcycling
dona un valore aggiunto al materiale estendendone la vita.
A questa serie di oggetti autoprodotti, è
stato associato il marchio Bioclams, nome
scelto per esaltare l’utilizzo delle vongole
stesse. Nel dare forma al materiale sono stati
utilizzati diversi stampi in materiale plastico,
risultati molto efficienti nel conferire senza
imperfezioni la forma desiderata alla bioplastica. Risulta molto semplice anche la fase di
estrazione dallo stampo, dovuta al ritiro del
materiale già osservabile dopo i primi 30 minuti. Grazie a questo suo comportamento non
è necessario l’utilizzo di sostanze distaccanti.
Bioclams prevede la realizzazione di due
serie di oggetti: dei porta tende magnetici (Figura 6) e degli attaccapanni a ventosa (Figura
7). Oggetti scelti per enfatizzare due possibili
funzioni di Bioclams, la funzione strutturale
57
DESIGN | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
Figura 6 Differenti attaccapanni realizzati con Bioclams
nel primo caso e la funzione decorativa nel secondo. I portatende sono stati realizzati secondo un procedimento atto a
evitare l’utilizzo di colle artificiali: all’interno dello stampo,
un contenitore in PET dalla forma particolare, vengono inseriti una calamita al neodimio e il nastro che andrà a sollevare
le tende, sui quali viene colato il materiale poi lasciato ad
asciugare. I vari componenti vengono così ancorati all’oggetto stesso, conferendo unità strutturale senza l’utilizzo di
colle. Nel caso degli attaccapanni si è partiti da un oggetto già funzionale, un comune attaccapanni, a cui Bioclams
ha donato un valore estetico aggiunto. Si è raggiunto questo
obiettivo immergendo l’attaccapanni all’interno di un comune stampo per dolci in silicone colmo di bioplastica, dove è
stato poi lasciato ad asciugare.
Per la realizzazione di questi prodotti si è deciso di sperimentare con diverse colorazioni, illustrate in Figura 8. Il
colore di base è dato dalla gelatina stessa e tende al giallo
pallido, mentre altri colori possono essere facilmente ottenuti
aggiungendo altri ingredienti, i quali in alcuni casi donano
anche un gradevole odore all’oggetto stesso. Per il colore blu
è stato utilizzato il colorante alimentare, per il giallo è stato
utilizzato lo zafferano in polvere, per il rosso l’alchermes,
per il verde il liquore alla menta, mentre per il colore marro58
ne la cannella. L’arancione è stato ottenuto mescolando l’alchermes allo zafferano in polvere, ottenendo inizialmente un
colore opaco di tonalità arancione, che poi asciugandosi va a
tendere al marroncino. L’utilizzo del colorante va ad influire
sui tempi di asciugatura della bioplastica, prolungandoli da
5 a 7 giorni.
L’aspetto di Bioclam dipende anche dal tipo di gelatina
utilizzata: la gelatina in polvere, seppur meno costosa, tende a rendere il prodotto finale meno lucido e più schiumoso
rispetto alla gelatina in fogli, anche se in certo senso più
“personalizzabile”. Bioclams nelle sue infinite combinazioni di colore e forme diventa quindi un mezzo molto adatto
per la realizzazione di oggetti personalizzabili fin nei minimi dettagli, permettendone la creazione utilizzando materiali di scarto facilmente reperibili. Una raccolta dei primi
oggetti creati col materiale è esposta in Figura 9, mentre in
Figura 10 è illustrata la brochure, che riporta anche alcuni
dei dati esposti nella caratterizzazione del materiale. Il logo
individua la provenienza dello scarto utilizzato per la produzione.
Il limite più evidente del materiale è rappresentato dalla
non uniformità del ritiro ed in alcuni casi anche dalla formazione di bolle d’aria, il che può essere ridotto da un’adeguata
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | DESIGN
Figura 7 Portatende ottenuti con l’uso di Bioclams
formatura sotto moderata pressione. Inoltre si presta ad un
utilizzo a temperature non eccedenti i 70°C, il che esclude
ovviamente alcune applicazioni. Tuttavia, rappresenta un
tentativo di rivalorizzazione di un materiale di scarto che si
presta ad ulteriori sviluppi, nel rispetto della “personalità”
del materiale stesso.
6. CONCLUSIONI
Il lavoro sviluppato è volto al riutilizzo creativo ed a scopo di valorizzazione di uno scarto dalla filiera alimentare di
origine locale (gusci di vongole), integrato all’uopo in una
matrice bioplastica autoprodotta a base di gelatina animale.
Il materiale prodotto rientra nel filone dei materiali “fai da
te” (DIY materials) ed è suscettibile di sviluppi nell’ambito
del design e più in particolare degli oggetti per uso domestico. Questo riporta l’attenzione sulla “personalità” dello
scarto, in particolare se valorizzato attraverso l’integrazione
in un contesto adatto e per esempio attraverso l’applicazione
di colori naturali e propone utilizzi alternativi degli inerti che
ne esaltino per quanto possibile le caratteristiche espressive
e strutturali.
BIBLIOGRAFIA
M. Bianchini, E. Karana, S. Maffei, V. Rognoli, DIY materials, Materials Design Volume 86, 2015, 692–702.
A. Bigi, S. Panzavolta, K. Rubini, Relationship between
triple-helix content and mechanical properties of gelatin
films, Biomaterials 25 (25), 2004, 5675-5680.
M. Bootklad, K. Kaewtatip, Biodegradation of thermoplastic starch/eggshell powder composites, Carbohydrate
Polymers 97 (2), 2013, 315-320.
G. Brusatin, E. Bernardo, F. Andreola, L. Barbieri, I. Lancellotti, S. Hreglich, Reutilization of waste inert glass from
the disposal of polluted dredging spoils by the obtainment of
ceramic products for tiles applications, Journal of Materials
Science 40 (19), 2005, 5259-5264.
C. Cecchini, Dalla celluloide alla plastica bio: 150 anni
di sperimentazioni materiche lette attraverso l’azienda Mazzucchelli 1849, AIS Design n.4, 2014, ID 0403.
G. Colotto, C. Santulli, R. Giacomucci, Produzione di oggetti di design per il catering da plastiche a base di latte autoprodotte, Scienze e Ricerche n. 25, 15 marzo 2016, 79-88.
D. Capitani, V. Corradetti, G. Di Girolami, N. Proietti, Roselli G., Santulli C., Valente F., Development and
analysis of gelatin-based bioplastics coloured with natural
extracts, 5th Scientific Day of The School of Science and
Technology, Camerino, June 2016.
T. Cooper (a cura di), Longer lasting products: alternatives to the throwaway society, Gower, 2012.
K.Y. Foo, B.H. Hameed, Preparation and characterization
of activated carbon from pistachio nut shells via microwaveinduced chemical activation, Biomass and Bioenergy 35 (7),
2011, 3257–3261.
E. Karana, Characterization of ‘natural’ and ‘high-quality’ materials to improve perception of bio-plastics, Journal
of Cleaner Production 37, 2012, 316-325.
C.F. Liang and H.Y. Wang, Feasibility of Pulverized Oyster Shell as a Cementing Material, Advances in Materials
Science and Engineering 2013, Articolo ID 809247.
M.A Meyers, P.Y. Chen, A. Yu-Min Lin, Y. Seki, Biological materials: Structure and mechanical properties, Progress in Materials Science 53, 2008, 1-206.
59
DESIGN | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
Figura 8 Differenti colorazioni di Bioclams
Figura 9 Vista d’insieme degli oggetti ottenuti
60
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | DESIGN
properties of low density polyethylene with oyster shell composite: DSC
Study, World Applied Sciences
Journal 14 (11), 2011, 1730-1733.
P. Sparke, The Plastics Age: From
Modernity to Post-Modernity, B.A.S
Printers, England, 1990.
M. Wang, C. Berry, M. Braden,
W. Bonfield, Young’s and shear
moduli of ceramic particle filled
polyethylene, Journal of Materials
Science: Materials in Medicine 9
(11), 1998, 621-624.
M.T. Yen, Yang JH, Mau JL,
Physicochemical characterization of
chitin and chitosan from crab shells,
Carbohydrate Polymers 75 (1),
2009, 15-21.
SITOGRAFIA
Plastiquarian (articolo sull’Erinoid)
http://plastiquarian.
com/? page_id=14228 (Accesso
16/6/2016)
Cook 2 Design (di Giada Lagorio), approccio giocoso che invita a
cuocere i propri materiali http://giadalagorio.com/portfolio/cook2design/ (Accesso 17/6/2016)
Cooking material (e-book) di L.
Humier e A. Tardieu (https://itunes.
apple.com/us/book/cooking-material/id569508821?l=it&ls=1) (accesso 17/6/2016)
Figura 10 Proposta di brochure di presentazione del prodotto
V. Rognoli, C. Santulli, L’approccio della fratelli Guzzini
ai materiali, AIS Design Storia e Ricerche 4, 2014, ID:0405.
C. Santulli, C. Langella, + Design - Waste: a project for
upcycling refuse using design tools, International Journal of
Sustainable Design 2 (2), 2013, 105-127.
H. A. Shnawa, N. A. Abdulah, F. J. Mohamad, Thermal
RINGRAZIAMENTI
La caratterizzazione del materiale
è stata effettuata presso il laboratorio di Tecnologie e Diagnostica per la Conservazione ed il
Restauro della scuola di Scienze e Tecnologie dell’università
degli studi di Camerino, in Ascoli Piceno: si ringrazia per la
collaborazione la prof.ssa Graziella Roselli ed il dott. Giuseppe Di Girolami.
61
OPINIONI | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
Con rispetto
parlando
PIETRO RAMELLINI
Ateneo Pontificio Regina Apostolorum,
Roma
N
on ricordo più da quanto
tempo sbatto contro un piccolo ma spinoso problema,
però sono sicuramente diversi anni: la
questione cioè dell’uso di un linguaggio rispettoso della differenza sessuale.
La lista delle soluzioni già prospettate è ormai lunga, anche perché si è
intrecciata con l’affermarsi della distinzione sesso/genere e l’affacciarsi di
scelte di vita che superano la dicotomia
maschio/femmina. Anch’io ho provato
varie soluzioni: non avendo a disposizione il comodo pronome inglese s/he,
ho cominciato a indirizzare le e-mail a
cari/e colleghi/e, cercando di alternare
sapientemente cari/e a care/i; ho tentato di usare il doppio pronome, impastoiandomi in laboriose ripetizioni di egli
ed ella oppure lei e lui (chiedendomi
tra l’altro se qualcuno usi ancora ella);
non è andata meglio con la duplicazione dei nomi, che porta a chiedersi se
62
rendere il femminile di inventore con
inventora o inventrice, imponendo lunghe e spesso inconcludenti ricerche sui
vocabolari; e così via.
Per me e per altri/e amici/e (cioè
amici e amicie?) che hanno tentato
queste vie, la tentazione di passare ad
un metalivello è presto diventata irresistibile. Qualcuno l’ha buttata in psicologia spicciola, finendola con questo
stress e rilassandosi nelle vecchie e
care tradizioni grammaticali; il che è
perfettamente accettabile in termini di
italiano standard, ma poco appetibile
per chi ha la volontà di consolidare la
parità uomo-donna anche nel linguaggio quotidiano. Altri si sono trincerati
dietro all’idea che i linguaggi naturali
non si cambiano ope legis né forzando i
tempi, perché occorre rispettare la loro
dinamica - per l’appunto - naturale e
la loro longue durée; è una concezione profonda della storia della lingua,
che ricorda alla lontana le discussioni
talmudiche sull’opportunità di accelerare la venuta del Messia o i vecchi dibattiti post-marxiani per stabilire se si
dovesse attendere o stimolare l’ascesa
del proletariato. Ora, se è vero che solo
l’evoluzione spontanea di una lingua
è vincente sul lungo periodo, è però
caratteristico dell’uomo influenzare la
sua propria evoluzione, e dunque anche
il proprio linguaggio. I più sensibili ai
risvolti sociopolitici della questione
fanno spesso professione di benaltrismo, affermando che la parità sessuale
e di genere ha problemi più urgenti da
risolvere; tuttavia, anche se non si accettasse del tutto la tesi Sapir-Whorf,
è evidente che il linguaggio in senso
lato (langue, parole, lessico famigliare,
idioletto e via dicendo) ha un profondo
legame con le strutture di pensiero e la
cultura; quanto poi all’idea che le donne non abbiano alcun bisogno di paternalismi grammaticali, anche questa
non è risolutiva, data l’ampia varietà di
convinzioni all’interno della galassia
femminista.
Non andrò avanti a elencare altre posizioni concettuali, valutandone i pro
e i contro; piuttosto, presenterò due
possibilità che ho sperimentato negli
ultimi tempi.
La prima è quella di inserire nel discorso, con una certa nonchalance,
sostantivi di genere grammaticale inaspettato; nel caso dell’italiano, dove il
genere grammaticale non marcato è solitamente il maschile, si tratta di usare
sostantivi femminili. Supponiamo ad
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | OPINIONI
esempio che io stia scrivendo un pezzo
sulla valutazione dell’apprendimento
(che per inciso è stato un mio recente
contributo a Scienze e Ricerche); poniamo che a un certo punto io intenda
sostenere che i docenti devono essere
liberi da pregiudizi; potrei allora scrivere che “da un professore ci si aspetta libertà dai pregiudizi sullo studente”, con il sottinteso che questa frase
comprende (semanticamente) anche
professoresse e studentesse, in tutte le
loro possibili combinazioni, anche se
(grammaticalmente) ho citato solo persone di sesso maschile. Ma se io scrivo
invece che “da una professoressa ci si
aspetta libertà dai pregiudizi sullo studente, e da un’alunna fiducia verso il
professore”, allora si crea una situazione grammaticalmente inaspettata,
in cui la violazione delle auree massime conversazionali di Paul Grice può
indurre la lettrice a riflettere su come
viene sessuata la lingua italiana. So per
certo che l’effetto di ostranenie grammaticale si verifica, perché vari lettori
non solo lo hanno notato, ma mi hanno
chiesto chiarimenti in merito; del resto,
lo studio degli spoonerismi ci ha reso
coscienti di quanto il sistema psicolinguistico lavori su aspettative e anticipazioni. D’altro canto, questa tattica - più
pragmatica e quasi performativa che
sintattica - presenta il rischio che la lettrice venga sviata, finendo per pensare
più al sessismo che all’argomento dello
scritto; finché si tratta di un mio pezzo, pazienza, vuol dire che non era così
interessante da monopolizzare l’attenzione, ma il problema del depistaggio
comunque si pone.
Utilizzo con profitto anche una seconda tattica. Quando parlo, poniamo,
del metodo scientifico, me ne esco con
frasi di questo tipo: “Oggi parleremo
del metodo scientifico. Dunque, quando una scienziata deve affrontare un
certo problema, agisce così”, passando
quindi ad illustrare il suo modo di lavorare. Posso assicurare che parlare di
ricerca riferendosi sempre e solo a biologhe o meteorologhe, e citando come
esempi Barbara McClintock o Marie
Skłodowska, produce una dissonanza
tra le aspettative degli uditori e lo svol-
gersi del discorso che provoca salutari
prese di coscienza, o almeno interessanti discussioni sulla reverse discrimination e il conformismo del nonconformismo. In alcuni campi, poi,
l’effetto è particolarmente avvertito e
quasi dirompente; si provi ad esempio
a tenere un seminario di filosofia usando caparbiamente frasi come “Quando
una filosofa vuole costruire un sillogismo, procede così e cosà”, per esemplificarlo poi con un bel “Tutte le donne
sono mortali; Santippe è una donna;
dunque Santippe è mortale”. Ovviamente, anche in questo caso si corrono
dei rischi: se qualcuno avanzerà subito l’ipotesi che Socrate recitasse tutti i
giorni quel sillogismo, in certi ambienti la reazione quasi pavloviana sarà di
osservare quanto le donne siano assenti
dal canone filosofico mondiale, suggerendo di trarne le debite conseguenze.
Ora, da quando le filosofe dispongono
di stanze tutte per loro quest’ultima osservazione ha perso gran parte del suo
nerbo, ma tutto fa brodo se si tratta di
innescare una riflessione sulla filosofia
delle filosofe, che la si intenda come
amore per la sapienza oppure - à la Irigaray - come saggezza dell’amore.
Un ultimo caveat: ogni discorso su
sesso e genere è suscettibile di essere
male interpretato e strumentalizzato, ed
è in ogni caso destinato ad infiammare
gli animi. Ma questo va avanti dai tempi dei tempi, e bene fa il teologo Enzo
Bianchi a ricordarci che un famoso versetto del/della Genesi può anche essere tradotto così: “Il Signore Dio disse:
“Non è cosa buona che il terrestre sia
solo. Farò per lui un aiuto contro di lui”
(Gen 2, 18, corsivo mio). Anche queste
opinioni non sfuggiranno probabilmente al loro destino di logomachia, ma se
vi avessimo fatto arrabbiare, credete
che non s’è fatto apposta.
63
OPINIONI | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
Gli Hooligans
e la metropoli.
Il conflitto che
emerge dalla
Francia
LUCA BENVENGA
Università del Salento
L’
analisi di un fenomeno
aggregativo multispaziale come quello degli
hooligans europei (dai contemporanei
contenuti inglesi, polacchi, russi, croati), radicali nei comportamenti e nelle
mutazioni tecno-scientifiche del corpo,
è ricca di spunti critici, di bozze di pensiero configuranti una razionalizzazione tecnica del conflitto sociale nel XXI
secolo che è bene indagare nella sua
complessità (di seguito, per l’economia
del testo, proposto in modo sommario,
tale da considerare come un invito alla
ricerca).
Accettando il rovesciamento della
categoria roversiana della “sindrome
del beduino” come presupposto di una
alleanza tra ultras rivali, manifesta
nell’attuale scontro di civiltà enfatizzato nella co-azione, nei paesi occidentali, di organizzazioni spazialmente e politicamente lontane in contrapposizione
ad un comune nemico, i Salafiti, Euro
2016 ci ha consegnato degli scenari e
delle pratiche sociali solide, capaci di
produrre una stabilità cognitiva e delle certezze affettive nelle soggettività che hanno contribuito a sviluppare
delle forme di opposizione (opinabili
ed esasperate certo, ma tuttavia da cogliere come interessanti indicatori di
regolarità comportamentali organizza-
64
te in uno spazio sociale, senza entrare
nel merito degli strali ideologici su cui
appuntare queste entità), che restituiscono le cornici normative della postmodernità, in cui complessi aggregativi urbani vivono correlati a questioni
pratiche, ad orizzonti post-ideologici
ed extrapartitici, ed ecco spiegata la
denigrazione dei mendicanti rom da
parte dei tifosi inglesi o la caccia ai
musulmani a Marsiglia e a Lione, il
tutto in contrapposizione al dilagante
processo di islamizzazione del diritto
europeo e alla massiccia immigrazione (più o meno regolamentata) verso
i paesi capitalistici occidentali principale minaccia della dissoluzione della
dimensione omogenea della società e
dell’erosione dell’integrità culturale
dello Stato-Nazione (in questa direzione convergono le spinte comunitariste
che definiscono i confini dell’in-group
– l’Occidente cristiano - e l’esclusione
dell’out-group – l’Oriente musulmano
e tutte quelle etnie che non hanno assorbito le regole elaborate dai processi
di civilizzazione).
La Francia, fino ad oggi, ci ha restituito una realtà già vista, certo, ma occorre riflettere dapprima sulla identità
biologica dell’area sociale (gli individui responsabili della violenza urbana
sono nella stragrande percentuale tutti
ventenni o trentenni), e contestualmente decodificare l’hooliganesimo quale
aggregato che funziona come valvola
di scarico delle pulsioni collettive dei
giovani in preda ad una segmentazione
del mercato occupazionale, articolazione di una società a capitalismo consumistico e dai rigurgiti xenofobo-culturali, in cui il lavoro è sempre meno
regolamentato e discontinuo, cui si va a
sommare un flusso transmigratorio costante in una economia digitale che, nel
medio e lungo periodo, ha generato una
“guerra tra poveri”, tra proletari e proletarizzati non coinvolti nella gestione
delle teconologie, ovvero tra i moderni
operai legati al tempo-macchina, e il
cui prezzo della forza-lavoro è in costante ribasso.
Questo incipit avalla una posizione
teorica secondo la quale per cogliere le
declinazioni del fenomeno è opportuno
soffermarsi e dibattere sulle questioni
legate all’indeterminatezza esistenziale
che incarna l’attuale modello di accumulazione, produttore di pluralizzate
contingenze dalle reversibili e delle
volte radicali e autoorganizzate risposte.
Gli hooligans ci hanno mostrato
come l’antagonismo oggi confligga in
superfici aperte, vuote, spazi fisici che
rifuggono una “prevenzione situazionale”, per dirla con le parole del sociologo urbano Jean Pierre Garnier, restituendo un panorama in cui il conflitto
oggi è proteiforme e massificato, e che,
almeno nell’Occidente industrializzato,
non si risolve nella produzione (causa
processi di distinzione della classe operaia e la trasformazione dei sistemi produttivi) ma tracima negli spazi urbani
indifendibili (quartieri popolari ermetici e non accessibili, spazi liberi non
securizzati e disciplinati come lo sono
state le piazze francesi), interpretabile
sempre più come variabile dipendente
dagli indirizzi politici ed economici
internazionali, centralizzato non esclusivamente sulla composizione della
classe sociale ma sulla aleatorietà dei
destini di una intera generazione che ha
revocato il credito di fiducia assegnato
ai sistemi istituzionali, ma si presenta
al pubblico nella sua autoreferenzialità
e nel preliminare riconoscimento della
propria autonomia e “giustizia fai da
te”.
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | LETTERARURE
Letteratura è formazione
DANIELA TONOLINI
L
a “Letteratura” altro non è se non ciò che
un autore sceglie di raccontarci attraverso la
sua speciale sensibilità, e la sua particolare
capacità di scegliere determinate parole e
di inserirle in specifiche costruzioni sintattiche. Di conseguenza, l’accostamento a opere letterarie si
svela in quanto lettura, ascolto, comprensione dell’altro e degli infiniti mondi nei quali ci troviamo proiettati; diviene, in
sostanza, la chiave per cogliere ciò che l’altro vede, prova,
percepisce, e ci racconta. Di qui l’importanza di riuscire ad
afferrare non solo ciò che l’altro ci narra ma anche come ce
lo trasmette. Tale forma di ascolto, tale attenzione alla parola
letteraria è in grado di compiere cambiamenti così profondi
in noi da “trasformarci”, da donarci una nuova forma mentale, e di conseguenza comportamentale, rivelandosi quale
vero e proprio momento di formazione. Ogni volta che ci
avviciniamo alla lettura
di un testo stiamo formando un aspetto di noi
stessi.
A questo proposito,
esiste un particolare
metodo di lettura che
ci consente di allenarci alla comprensione e
all’ascolto
dell’altro,
proprio perché ci abitua
a cogliere in un testo
quegli elementi essenziali, responsabili di determinate emozioni e di
determinate sensazioni
che l’autore, più o meno
consapevolmente provoca nel lettore.
Sono elementi che si
nascondono dentro par-
ticolari strutture del testo e non sempre rilevabili a prima
vista.
Allenarsi a questo genere di lettura ci permette di vedere
con gli occhi di una infinità di autori.
E proprio grazie a questo esercizio volto a cogliere, nella
loro ricchezza, le parole chiave di un testo - sia che questo
sia frutto di una comunicazione, oppure espressione di uno
scritto autobiografico non necessariamente letterario, o ancor più di un’opera della grande letteratura -, ci permette di
conoscere e riconoscere ciò che l’altro vuole comunicarci.
Il processo di “Formazione” è la capacità di assolvere a
un compito difficilissimo, ma al tempo stesso meraviglioso:
tracciare, per ogni singolo allievo, un percorso speciale. Un
percorso che lo conduca verso la conoscenza, dunque verso
l’acquisizione di una solida base teorica; verso l’autonomia,
cioè verso l’apprendimento di un metodo che
gli permetta un’autonoma attività di ricerca;
verso lo sviluppo della
sua creatività tale da costituirsi come premessa
all’elaborazione e rielaborazione personale di
nuovi metodi di ricerca.
Da qui scaturiscono
competenze e abilità
proprie a chi si assuma
un ruolo educativo così
inteso, tali da presupporre alcune fondamentali capacità: quella di
stimolare la disponibilità ad apprendere delle
persone coinvolte nella
relazione,
situazione
65
LETTERATURE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
che deve sempre precedere l’apprendimento; quella di arricchire il bagaglio culturale, attraverso il possesso e la gestione di precise e approfondite conoscenze nella materia di sua
competenza; una preparazione che gli permetta di sostenere
l’educando nelle sue aspirazioni così come nell’accettazione
dei suoi limiti; la capacità di individuare e coltivare le potenzialità dell’allievo affinché possa poi metterle al servizio
della comunità; il tutto sempre nel rispetto e nella tutela dell’
integrità e della personalità di chi si trova di fronte.
Se formare significa tutto questo, tale compito implica uno
sforzo non indifferente da parte di entrambe le componenti,
in quanto l’educatore si trova a dover acquisire alcune competenze professionali attraverso un proprio percorso formativo; così come l’altro, a sua volta, grazie alle competenze
dell’educatore, si deve far artefice della propria crescita
«integrale»1.
il «culto della parola come luogo di verifica dei problemi e
delle idee»3; che, proprio per questo, si svela qualcosa di ben
diverso dallo strumento teso a convincere a tutti i costi. Si
impara così, attraverso la letteratura, a leggere le persone che
ogni giorno chiedono - spesso silenziosamente - di essere lette e interpretate. Perché c’è soprattutto la parola al centro del
rapporto che l’educatore e il formatore hanno con l’altro, e
viceversa. La parola in cui si depositano emozioni, desideri,
resistenze, ma soprattutto “storie”. Storie da decifrare, là ove
la parola è offerta con un balbettio o circonlocuzioni, da chi
al tempo stesso si vuol aprire, ma ha timore di aprirsi.
Questo genere di comunicazione dipende dalla nostra capacità di saper osservare l’altro e di saper cogliere attraverso
l’ascolto della sua storia la sua richiesta (che non per forza è
una richiesta di aiuto).
TESTIMONIANZE
CONFRONTO E COMUNICAZIONE
Ecco perché il personale e diretto contatto con il testo letterario è un imprescindibile momento formativo per ognuno
di noi ma, soprattutto, per chi si occupa di educazione e formazione.
Da qui il titolo Letteratura è Formazione: che vuole rappresentare, più che un legame, un rapporto di identità: nel
preciso momento in cui entriamo in contatto con un testo letterario, stiamo formando noi stessi, una formazione che si
nutre di confronto e di comunicazione.
Confronto: Attraverso la letteratura ci poniamo a confronto con altre situazioni (storie, modi di sentire, visioni del
mondo): ciò che ci permette di costruire, di modificare, di
formare il nostro pensiero critico, e che ci consente di formulare domande analitiche.
Essere in altre storie significa non appiattirsi sulla propria
storia. E qui preme sottolineare che non è sufficiente limitarsi
alla lettura di autori moderni; è anche importante leggere gli
antichi, sentire “i classici nostri contemporanei”. Imparare a
essere fuori tempo significa essere al passo con i tempi perché ci permette di non appiattirci sul nostro presente, come
ben ricorda Mario Pomilio: «Il contatto col grande è stata
tutta la mia pedagogia, l’unico criterio, anche morale, da me
seguito nel mio piccolo e segreto magistero. [...] E non era
inoltre, il contatto col grande, un modo di farti libera? Di
consentirti di disporre di punti di riferimento forte dei quali
ti saresti sicuramente più orientata nelle tue scelte anche di
vita?»2.
Comunicazione: Attraverso la letteratura si incrementano
i nostri strumenti cognitivi e dunque migliora la comunicazione. Perché più strumenti cognitivi si hanno più si può leggere il mondo e interpretarlo. Più si può riuscire a esprimere
fino in fondo la propria verità, i propri concetti; a comunicare pienamente la propria idea all’interlocutore, identificando
1 luiGi Pati, Pedagogia della comunicazione educativa, Brescia, La
Scuola, 1984, p. 75 e segg.
2 Mario PoMilio, Scritti cristiani, Milano, Vita e Pensiero, 2015, p. 17.
66
Jonathan Gottschall illustra non solo la relazione tra quanto leggiamo - e come lo leggiamo - e la nostra vita reale, ma
addirittura il rapporto osmotico tra letteratura e vita reale:
«I personaggi dei romanzi sono soltanto ghirigori di inchiostro sulla carta (o macchie chimiche sulla celluloide). Sono
persone di inchiostro. Vivono in case di inchiostro all’interno di città di inchiostro. Svolgono mestieri di inchiostro.
Hanno problemi di inchiostro. Sudano inchiostro e piangono
inchiostro e, quando li tagliamo, sanguinano inchiostro. Tuttavia le persone di inchiostro riescono senza troppa fatica
a filtrare dalla membrana porosa che separa il loro mondo
d’inchiostro dal nostro. Si muovono nel nostro mondo fatto
di carne e ossa e vi esercitano un potere reale. I personaggi
di inchiostro dei romanzi sono una presenza viva e reale nel
nostro mondo. Modellano le nostre credenze e le nostre abitudini, e così facendo, trasformano le società e la storia»4. Si
intende cioè che i personaggi e le parole dei libri e le situazioni che troviamo nella prosa letteraria – specie se si tratta
di uno scritto di qualità - esercitano su di noi un potere reale,
capace di cambiarci. Beninteso, purché si utilizzi una lettura
partecipe e non distratta, ossia quel particolare metodo di lettura che consente a quella parola di entrare nella nostra anima «effortlessly», senza troppa fatica, ossia con naturalezza,
armonia ed eleganza.
E allora è vero anche il contrario: solo se sappiamo esprimerci attraverso la parola giusta sapremo toccare l’anima
del nostro interlocutore. Il che, rapportato al legame tra la
3 Ibidem.
4 The characters in fiction are just wiggles of ink on paper (or chemical
stain on celluloid). They are ink people. They live in ink houses inside ink
towns. They work at ink jobs. They have ink problems. They sweat ink and
cry ink, and when they are cut, they bleed ink. And yet ink people press
effortlessly through the porous membrane separating their inky world
from ours. They move through our flesh-and-blood world and wield real
power in it. […] The ink people of scripture have a real, live presence in
our world. They shape our behaviors and our customs, and in so doing,
they transform societies and histories. Jonathan Gottschall, Ink people
in The Storytellig Animal. How Stories Make Us Human, Boston, New
York, Houghton Mifflin Harcourt, 2012, p. 144.
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | LETTERATURE
professione di educatore e la letteratura, ribadisce la forza
della letteratura come indispensabile strumento formativo
per questa professione. Ove la grande risorsa è costituita dalla letteratura e dalla lettura di testi narrativi quali strumenti
tra i più efficaci per la formazione degli educatori: non solo,
consiste nella apertura a nuove prospettive e nella possibilità di utilizzare risorse proprie che pensavamo di non avere,
proprio perché si passa dalla realtà di “lettore” a quella di
“co-autore”.
Romanzi, racconti e novelle costituiscono una delle vie
più rapide e più efficaci alla conoscenza di molteplici realtà.
Perché, grazie alla letteratura, si affina lo sguardo e si arricchisce il giudizio di nuove prospettive, talvolta mostrando situazioni consuete ma da altri punti di vista. Dunque grazie a
essa, si entra in contatto con situazioni nuove, anche calate in
epoche lontane, ma comunque con persone ora simili a noi,
ora diverse da noi. Racconta come siamo; e, raccontando una
storia, racconta il mondo. Per tale via la letteratura aiuta dunque l’educatore a sviluppare la sua dimensione cognitiva, talvolta anche esercitandolo al ragionamento; amplifica i suoi
orizzonti esperienziali, aiutandolo a orientarsi tra i molteplici
modi di intendere la vita. E, soprattutto, pur mettendolo in
sintonia con l’altro, ha la capacità di esaltare la sua individualità. Una individualità che chiede di saper conoscere le
capacità proprie da mettere al servizio degli altri.
La letteratura, dunque, si dà quale possibilità di un viaggio
alla conoscenza di noi stessi. Una conoscenza però anche dei
nostri limiti, dei quali bisogna sempre tenere conto nel mo-
mento in cui ci mettiamo in relazione con l’altro.
Ma c’è pure un altro aspetto della letteratura quanto mai
importante nella prospettiva del lavoro dell’educatore. Lo ricorda Claudio Magris in una conversazione con Mario Vargas Llosa. Ed è che la letteratura aiuta a mettere in ordine gli
avvenimenti. Il romanzo, il racconto, la narrazione, nascono
dal desiderio di trovare un ordine, una coerenza. Non per nulla, «il romanzo è stato il genere più censurato, perseguitato
e proibito […]. C’è un rischio nel lasciare che una società
produca letteratura e s’impregni di letteratura. Una società
impregnata di letteratura è più difficile da manipolare da
parte del potere […] crea cittadini critici, indipendenti e più
liberi». E ancora: «Scrittori che ci fanno capire come sia costantemente necessario cercare di comprendere le cose e fare
i conti con la difficoltà, e talora con l’incapacità, di comprendere. Scrittori, dunque, che diventano parte di noi»5. Dunque
ci sono letture che ci fanno capire che è necessario avere una
chiara visione di ciò che ci circonda e che, nello stesso tempo, mettono alla prova il nostro impegno e la nostra capacità
di comprendere. Sono letture che allenano la nostra capacità
di dare un senso a ciò che vediamo. In tal modo la narrativa
consente al lettore di imbattersi in pochissimo tempo nelle
più svariate situazioni, di incontrare uomini e donne in luoghi e tempi distanti da noi, grazie a un autore, un uomo come
tutti noi che funge da tramite interpretando ciò che vede e
5 Claudio Magris, Mario Vargas llosa, La letteratura è la mia vendetta, Milano, Mondadori, 2012, p. 9 e segg.
67
LETTERATURE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
che percepisce, leggendo la realtà con il suo sentire, con la
sua sensibilità.
Ma per tornare alla capacità della narrativa di migliorare il
livello della comunicazione educativa nel suo proporsi come
via e magistero alla acquisizione della espressione efficace,
chiara, esatta, ovvero a quella “pienezza” della parola, una
ulteriore testimonianza viene da Luigi Barzini. A proposito del quale narra il figlio Luigi Barzini junior: «Era bravo,
bravissimo, il migliore dei giornalisti del suo tempo, eppure era convito di essere un mediocre […]. Anzi, si riteneva,
come diceva lui stesso, un cretino. Mio padre mi ha sempre
raccontato che tutte le volte che lo mandavano a fare un servizio era preso da una grande angoscia. Si diceva: “Finora
ce l’ho fatta, ancora non hanno capito che sono un cretino.
Ma questa volta, no. Non mi sarà possibile nasconderlo. Se
ne accorgeranno tutti” […] Scrivere era un tormento per lui
[…]. Quasi una tortura. Tutte le volte, sempre, era come se
si fosse al suo esordio. Procedeva lentamente sulla pagina,
pieno di dubbi, di ripensamenti. Cancellando, correggendo,
riscrivendo continuamente e rimanendo sempre insoddisfatto. Ma alla fine, ne uscivano articoli di così scorrevole lettura
da far pensare che fosse facile ottenere quelle pagine. Erano
invece il risultato di un lungo lavoro. Diceva “La semplicità
[…] è un punto di arrivo”. E si irritava tutte le volte che s’imbatteva in qualche esempio di prosa ampollosa, infarcita di
parole difficili. “Io non capisco” proseguiva “perché debbono scrivere così complicato che non si comprende che cosa
vogliono dire”»6.
Una semplicità che non va però confusa con la banalità,
perché qui semplicità è sinonimo di capacità di utilizzo di
termini pienamente comunicativi di quanto si vuol raccontare; una semplicità densa di significato.
LA PAROLA
letteratura, ossia capacità critica nel decifrare il valore e la
profondità della “parola”.
Che è il percorso sin qui prospettato, con andamento capovolto: che parte dalla acquisizione di una metodologia di
lettura fondata sul ricco mondo letterario, per passare alla
decifrazione di espressioni emozionali “non letterarie”;
giungendo infine a verificare il possibile reimpiego di testi
letterari nella prassi educativa.
Come ricorda infatti l’allora cardinal Montini richiamando
Bernanos: «ogni nostra parola è come una sfinge che siede sul significato della parola stessa. Se noi penetriamo in
questa c’è un abisso»9. Per questo la parola dell’altro chiede di essere ”trattata con profondità”. E per questo allora la
letteratura, che sulla densità della parola si fonda, può ben
costituire uno strumento di percorso a sua volta formativo,
sia in ottica di decifrazioni, come in quella di appropriata
comunicazione.
E la parola letteraria, tanto più se di grandi Autori, risuona
così forte, profonda, ricca e pertinente che, se ben compresa
dal futuro formatore (ma non certo da lui solo), può dare corpo a una vera e concreta azione rappresentativa. Tale azione,
se scientemente pensata, orchestrata e strutturata, può sollecitare un senso di appartenenza in coloro che vi si trovano
coinvolti, in quanto il formatore, operando su quei più profondi significati, può trasferire queste azioni agli altri, così
creando un senso e un clima di piena appartenenza al gruppo: di “essere gruppo”. Di essere tutti quanti “azione rappresentativa”. Ma questo soprattutto se si possiede la capacità
di comprensione della pienezza della parola, perché allora
diviene possibile il suo riutilizzo creativo nelle più varie e
ampie direzioni.
In tal senso la letteratura, intesa qui come lettura di testi
narrativi, costituisce una grande risorsa, uno tra gli strumenti
più efficaci per la formazione degli educatori.
È dunque la parola, il suo più profondo significato, la chiave che consente appieno quel tipo di rapporto definibile come
«comunicazione educativa»7, la cui caratteristica fondamentale è il darsi come «empatica»8, ossia quale atto intenzionale
di chi intende, e sa, calarsi nei panni dell’altro pur rimanendo
se stesso, in modo da saperne percepire paure, confusione,
incertezze, ira, frustrazione, ma pure gioia, senza che però
tale percezione divenga il suo proprio sentire.
È, dunque, la disponibilità a volere, e la capacità di sapere, “leggere” l’altro, e nell’altro: nelle sue parole, espresse o
inespresse.
Ciò che significa: capacità di osservazione; capacità di decodifica delle emozioni; ma anche capacità espressiva, verbale e scrittoria, personale, poiché solo se la si possiede si è
in grado di leggerla negli altri; capacità e volontà di acquisire metodologie di decifrazione grazie al ricco mondo della
6 luCiano siMonelli, Dieci giornalisti e un editore, Milano, Simonelli,
2009, pp. 72-3.
7 l. Pati, Pedagogia della comunicazione educativa, cit., p.75.
8 Ibidem, p. 215.
68
9 La citazione, tratta dal discorso rivolto nel 1956 al Congresso degli
Scrittori Cattolici a Varese, si legge in AA.VV., Il Ragguaglio dell’attività
culturale e artistica dei cattolici in Italia, 1957, Milano, Istituto di Propaganda Libraria, 1957, p. 48.
N. 36 - 1° SETTEMBRE 2016
RICERCHE
Le ricerche e gli
articoli scientifici sono
sottoposti prima della
pubblicazione alle
procedure di peer review
adottate dalla rivista,
che prevedono il giudizio
in forma anonima di
almeno due “blind
referees”.
70
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | INGEGNERIA ELETTRONICA
Elettronica sostenibile
AGOSTINO GIORGIO, ANDREA CUPERTINO, MARCELLO CASTELLANO
Laboratorio di Elettronica dei Sistemi Digitali, Dipartimento di Ingegneria Elettrica e dell’Informazione, Politecnico di Bari
Il presente articolo si prefigge di analizzare l’impatto ambientale dell’elettronica, con particolare attenzione alla fase
di smaltimento dei dispositivi elettronici, e di indicare due
approcci progettuali finalizzati ad una ottimizzazione dei
tempi e dei modi di smaltimento dei dispositivi, per una riduzione dell’impatto ambientale. Infatti, da quando l’elettronica di consumo è entrata massivamente nella vita di milioni di
persone si è assistito ad un graduale incremento della quantità di dispositivi prodotti e dei rifiuti derivati, molto spesso
non trattati adeguatamente e destinati alla discarica. A questo
si aggiunge il rapido incremento delle prestazioni dei sistemi
elettronici di ampio consumo che conduce ad una massiva
dismissione degli stessi a causa di una rapida obsolescenza.
Per ridurre l’impatto ambientale in fase di smaltimento, risulta di importanza cruciale l’impiego di dispositivi completamente biodegradabili, che richiedono tecnologie (processi
e materiali) innovative. Per prolungare, poi, il tempo di vita e
di utilizzo di dispositivi obsoleti si è analizzata la possibilità
di creare con essi griglie computazionali, al fine di rendere
fruibile ciò che sarebbe altrimenti un rifiuto.
I
1. INTRODUZIONE
l costante sviluppo della tecnologia offre continuamente nuove opportunità per l’economia, per
l’ambiente e per le società di tutto il mondo. Questa
evoluzione ha tuttavia determinato un aumento di
volume delle apparecchiature elettroniche di ampio
consumo in uso ed obsolete, e comporta continue sfide in
relazione al fragile equilibrio dell’ecosistema sulla Terra. E’
quindi necessario attuare delle scelte responsabili per proteggere l’ambiente, così come la salute degli esseri umani, attraverso l’integrazione della sostenibilità in ogni fase del ciclo
di vita dei dispositivi elettronici. Cercare di perseguire un
modello di sviluppo sostenibile, significa attuare l’insieme
di pratiche e scelte che “consentano alle generazioni presenti
di soddisfare i loro bisogni senza compromettere il diritto
delle generazioni future di soddisfare i loro”, definizione
ormai di senso ed accezione comune, apparsa per la prima
volta nel Rapporto Brundtland (da meglio citarsi con il titolo
Our Common Future)[1] commissariato dalle Nazioni Unite
nel 1987. Quindici anni prima di tale documento, un altro
rapporto, il MIT Report[2] commissariato dal Club di Roma,
ha avuto il pregio di creare una consapevolezza diffusa sulla gravità della crisi ambientale sulla Terra e portare conseguentemente la relazione tra ambiente e sviluppo all’interno
del dibattito globale. Entrambi gli studi si interrogano sul
futuro del pianeta in previsione di una crisi ambientale, il primo ipotizzando una trasformazione qualitativa insostenibile
dei processi del pianeta Terra, il secondo una trasformazione
quantitativa insostenibile delle risorse (esaurimento delle risorse), segnando profondamente la nascita della teoria dello
sviluppo sostenibile, che troverà piena realizzazione nella
conferenza su Ambiente e Sviluppo del 1992 delle Nazioni
Unite (Earth Summit di Rio de Janeiro) tramite la creazione
dell’Agenda 21. Lo sviluppo sostenibile appare anche tra gli
otto obiettivi della Dichiarazione del Millennio[3], firmata
da tutti gli Stati membri dell’ONU.
L’applicazione delle sostenibilità nell’ambito dell’elettronica richiede un approccio olistico che consideri tutti gli
aspetti dell’intero ciclo di vita di un prodotto e dei processi
tecnologici connessi. Operazione oggi possibile grazie a metodi quali il Life Cycle Assessment (LCA) che permette di
valutare l’interazione di un prodotto con l’ambiente in tutte
le sue fasi: pre-produzione, produzione, uso (comprendente
riuso e manutenzione), riciclaggio e dismissione finale, e le
conseguenze di natura economica, sociale ed ambientale. Per
semplicità di analisi, nel seguito queste verranno ricondotte alle sole tre fasi di creazione, utilizzo e smaltimento del
dispositivo elettronico, ciascuna delle quali ha significative
ricadute sull’ambiente.
In relazione alla fase di creazione e progettazione, gli impatti ambientali più significativi sono l’inquinamento del
suolo, del mare e dell’aria e il consumo di risorse naturali,
71
INGEGNERIA ELETTRONICA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
e volta a minimizzare gli impatti
da cui segue che per integrare la
ambientali del prodotto, sia fonsostenibilità è necessaria un’atdamentale per prevenire le enortenta scelta delle materie prime
mi conseguenze derivanti dallo
ed un utilizzo responsabile delle
smaltimento.
risorse e delle tecnologie per il
Purtroppo la situazione reale si
loro sfruttamento. In relazione
discosta molto dalle buone praalla fase di utilizzo le conseguentiche previste per legge: seconze più significative si hanno sul
do quanto emerso dal Coutering
deterioramento dello strato di
WEEE Illegal Trade [6] finanozono e sull’aumento dell’effetziato dall’UE, in Europa il 65%
to serra, fenomeni che è possidei RAEE (pari a 6,2 milioni di
bile mitigare operando una ridutonnellate sui 9,5 milioni di tonzione delle sostanze tossiche, in
nellate totali) sono stati trattati in
particolare i cloroflurocarboni
maniera non adeguata nel corso
(CFCs), sottoposti a pesanti limidel 2012, in termini economici
tazioni con il Protocollo di Monuna perdita stimata tra 800 mitreal. All’interno dell’Unione
lioni e 1,7 miliardi di euro. Dati
Europea la riduzione di sostanze
Figura 1: Percentuale di RAEE riciclati nell’Unione Europea
che, riferiti alla realtà Italiana,
dannose negli apparecchi elettro- nel 2012
diventano ancora più preoccunici è altresì regolamentata dalla
panti: come si può notare dalla
Direttiva RoSH 2 (Restriction of
Use of Certain Hazardous Substances) (2011/65/UE). E’ Figura 1, la percentuale di RAEE correttamente riciclati è
inoltre necessario operare una riduzione dei consumi ener- ben al di sotto della media europea. Questo rende chiaro
getici, tramite l’utilizzo di risorse rinnovabili e tecnologie quanto sia urgente e necessario ricercare ed attuare delle socon alti livelli di efficienza energetica; processo ancora in luzioni che rendano sostenibile, sotto l’aspetto ambientale
atto, fortemente incentivato dalla nascita di due standard in- ed economico, i dispositivi elettronici ed i processi ad essi
ternazionali, lo statunitense Energy Star e lo svedese TCO connessi, esigenza a cui si cercherà di dare una risposta nel
Certification, ampiamente diffusi su tutta la gamma di ap- seguito con la proposizione di due soluzioni progettuali per
parecchiature elettroniche odierne. La fase di “fine vita” del due classi di problemi: la creazione di nuovi dispositivi eletprodotto oggi rappresenta quella più delicata, con conse- tronici maggiormente sostenibili ovvero biodegradabili, e il
guenze spesso irreversibili e molto gravi sull’inquinamento riutilizzo in configurazioni a “griglia” computazionale dei
del suolo, dell’acqua e dell’aria; le norme più importanti in dispositivi obsoleti per capacità e risorse e quindi divenuti
materia sono la Direttiva RAEE (Rifiuti da apparecchiature troppo poco performanti per continuare ad essere utilizzati
elettriche ed elettroniche) (2012/19/UE) per quanto riguarda singolarmente.
l’Unione Europea e il trattato di Basilea che regolamenta il
traffico transfrontaliero di sostanza dannose[4].
2. ELETTRONICA BIODEGRADABILE
La necessità di eliminare gli effetti ambientali appena analizzati ha delle ripercussioni significative sui metodi di proUn generico dispositivo elettronico di consumo è costigettazione dei nuovi dispositivi, tanto da dar vita al recente
tuito dall’assemblaggio di componenti elettronici, aventi
paradigma del Design for Environment (DfE) [5], che posvariate funzioni, da strutture metalliche e da materiale in
tremmo rendere in italiano come Progettazione Sostenibile.
plastica. I componenti elettronici più diffusi possono essere
Questo raggruppa l’insieme di tecniche e scelte per la creaschematicamente divisi in circuiti stampati (PCB), circuiti
zione di un nuovo prodotto che tengano in considerazione
integrati, elementi passivi e attivi, saldature e cavi di connesl’impatto ambientale come requisito imprescindibile. Il prisione. I materiali costituenti includono tipicamente metalli
mo obiettivo che tale metodologia di progettazione si prefigpesanti, substrati e strati dielettrici, semiconduttori inorgage di raggiungere è la riduzione delle risorse e dei materiali
nici, conduttori metallici e rivestimenti plastici o ceramici.
utilizzati (Design for Reduction), il secondo è quello del riMateriali solitamente scelti per la loro stabilità chimica e
utilizzo del prodotto (Desing for Reuse), il terzo è il riciclo
la capacità di non degradarsi per lunghi periodi di tempo.
dello stesso alla fine del ciclo di vita (Design for Recycling).
Tuttavia, come già detto, l’aumento della domanda di tecQuesti 3 punti sono anche quelli che compongono il conologie elettroniche, unita all’accelerazione del tasso di obsiddetto “approccio delle 3R: Riduci, Riusa, Ricicla” per la
solescenza sta generando un aumento del volume di rifiuti
corretta gestione dei rifiuti, derivante dalla Direttiva Quaelettronici, con conseguenze rilevanti soprattutto in relaziodro sui Rifiuti (2008/98/UE), la quale definisce una gerarne allo smaltimento in discarica a causa della lenta capacità
chia di azioni (la riduzione, il riuso e il riciclo) da mettedi degradazione che presentano. Ciò implica che il rilascio di
re in atto prima dello smaltimento del rifiuto in discarica.
metalli pesanti e sostanze tossiche può inquinare in maniera
Per tanto, è evidente come una progettazione responsabile
consistente il suolo, l’aria e l’acqua. Allo stesso modo il re72
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | INGEGNERIA ELETTRONICA
Figura 2: chip costituito da transistor, diodi, induttori, capacitori e resistori tutti realizzati su un substrato di seta.
B: vista eplosa del chip, con una vista dall’alto in basso a destra. C: processo di degradazione del chip immerso in
acqua
cupero dei materiali riciclabili, plastica e metalli, comporta
processi chimici e meccanici che immettono nell’atmosfera
sostanze tossiche.
Una potenziale strada da intraprendere per arginare questo fenomeno è la creazione di dispositivi che coinvolgano
solo materiali biodegradabili, che possano degradarsi in un
tempo prestabilito con un tasso di degradazione controllato,
paradigma definito “elettronica transitoria”, in contrapposizione alla caratteristica di invarianza fisica e funzionale
che ha da sempre contraddistinto il mondo dell’elettronica.
Quindi, materiali per i quali esista in natura un microorganismo capace di produrre degli enzimi in grado di catalizzare
le reazioni di degradazione del materiale e decomporlo.
2.1 Circuiti integrati
I circuiti integrati (IC) consistono di una matrice di materiale semiconduttore incapsulata in un involucro che può
essere di materiale ceramico o plastico e conduttori metallici per il collegamento con gli altri componenti. I circuiti
elettronici attualmente in produzione sono realizzati da un
substrato cristallino di silicio o di un altro semiconduttore,
che si stima rappresenti il 99% dell’intera massa, e possono contenere più di un miliardo di componenti elettronici in
piastrine (chip) di area 2cm x 2cm [7]. Dunque la regione attiva rappresenta una parte molto limitata di materia e per minimizzare l’uso dei semiconduttori nel substrato sono state
sviluppate tecnologie per realizzare l’intero dispositivo su un
materiale sacrificale e trasferirlo stampato su qualsiasi tipo di
substrato, inclusi substrati biodegradabili e non tossici.
La possibilità di traferire un’intera gamma di componenti
elettronici su un substrato biodegradabile presuppone però
un’attenta scelta dei materiali e dei processi tecnologici con
cui essi vengono realizzati. Infatti se per i componenti passivi (resistori, induttori, capacitori) è sufficiente adottare
materiali biodegradabili o che siano in quantità trascurabili
nel processo di degradazione dell’intero IC, per i dispositivi
attivi ed in particolare per i transistor, è necessario associare
alla scelta dei materiali quella della tecnologia di funzionamento dei componenti. Di particolare rilevanza in tal senso
sono i transistor a film sottile (Thin Film Transistor), dei dispositivi a tre terminali (gate, drain, source) che permettono
di trasportare cariche tra due elettrodi, sotto l’imposizione di
un effetto di campo originato da un terzo elettrodo; basati sul
medesimo fenomeno che è alla base dei MOSFET, ma con la
possibilità di poter depositare i componenti su un substrato
isolante. Nel seguito verranno presentate anche soluzioni che
utilizzino transistor a giunzione bipolare (BJT), dispositivi
formati da tre strati di materiale semiconduttore drogato in
modo da formare una doppia giunzione p-n, dove ad ogni
strato è associato un terminale (base, collettore, emettitore).
Qualora i materiali che costituiscono le due regioni di base e
di emettitore siano costituite da materiali differenti, il dispositivo prende il nome di transitori ad eterogiunzione bipolare
(HBT).
2.1.1 Substrato in seta
Una recente ricerca [8] ha dimostrato come sia possibile
creare un circuito completo a partire dagli induttori, i condensatori, i resistori, i diodi, i transistor, le interconnessioni
fino al substrato e l’incapsulamento completamente disgregabile in acqua deionizzata. Nell’esempio mostrato in Figura
2 è stato utilizzato del magnesio (Mg) come materiale conduttore, dell’ossido di magnesio (MgO) come dielettrico (ma
è anche possibile utilizzare del diossido di silicio, SiO2), delle nanomembrane di silicio monocristallino (SiNMs) come
semiconduttore, e della seta (che è sia idrosolubile che degradabile dagli enzimi) come base costitutiva del substrato
e del packaging.
Un transistor del tipo qui descritto coinvolge meno di 1µg
di Si che può essere dissolto come Si(OH)4 in non più di 30µL
73
INGEGNERIA ELETTRONICA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
Figura 3: OFET top-gate con substrato e dielettrico di gate realizzati in carta
Figura 4. OFET bottom-gate con substrato realizzato in carta e dielettrico di gate in pentacene
di acqua (o bio-fluido), fenomeno osservabile nella parte C
della Figura 2. I pregi di questo dispositivo sono la totale
biodegradabilità dei chip ottenibili, combinata alle ottime
prestazioni del silicio. La vulnerabilità ad acqua e solventi,
se da un lato gioca un ruolo chiave nella degradabilità del
dispositivo, dall’altro ne limita gli utilizzi.
Oltre che per il substrato, vi è una vasta gamma di composti organici che possono essere utilizzati come parti funzionali nei transistor per le loro proprietà dielettriche o da
semiconduttore, che vengono per questo chiamati trasistor
organici (OFET, OLED). Si può far risalire la loro invenzione al 1983 [9], quando è stato osservato il primo effetto
di campo in un transistor nel quale il canale di connessione
tra drain e source era stato realizzato con del poliacetilene.
2.1.2 Substrato in carta
Un recente studio condotto dall’università di Perugia e dal
Georgia Tech [10] ha dimostrato come sia possibile utilizzare
sia come substrato che come dielettrico di gate per un OFET
”il materiale sintetico più economico realizzato dall’umanità: la carta’’. Gli elettrodi sono stati realizzati in oro per la
compatibilità con l’energy gap del pentacene, (C22H14) una
molecola planare formata da 5 anelli di benzene utilizzata
per realizzare il canale che connette gli elettrodi di drain e
source.
Per il dielettrico di gate sono state proposte due soluzioni.
Infatti, oltre a rispettare la proprietà di biodegradabilità, il
materiale scelto deve anche presentare una struttura che permetta la crescita del polimero regolare e in forma cristallina,
così da aumentare la mobilità e le prestazioni del dispositivo.
Nella Figura 3 è stata utilizzata la carta, col risultato di un
minor utilizzo di materiale ed un inferiore spessore totale del
dispositivo. Per migliorare la mobilità è possibile utilizzare
la carta solo come substrato e uno strato di pentacene come
dielettrico di gate, come nel dispositivo rappresentato in Figura 4. Questo è stato il primo dispositivo completamente
74
stampabile su carta, presentato nel 2010, e rappresenta certamente un passo significativo per l’elettronica più sostenibile
con processi di fabbricazioni a basso costo.
In alternativa al pentacene, il materiale più studiato tra la
classe dei semiconduttori organici è la melanina, una classe
di pigmenti naturali conduttivi con proprietà fisiche ed elettriche uniche. I maggiori vantaggi di questo materiale sono
la semplicità del processo di fabbricazione di film sottili e la
sua biodegradabilità.
2.1.3 Substrato polimerico
Uno studio condotto da Christopher J. Bettinger [11]”container-title”:”Life Science Systems and Applications Workshop (LiSSA ha ricercato la possibilità di fabbricare transistor biodegradabili e biocompatibili tramite dei polimeri
con l’aggiunta di oro e argento per realizzare gli elettrodi,
rappresentato in figura 5 “container-title”:”Life Science
Systems and Applications Workshop (LiSSA. Per lo strato
dielettrico è stato selezionato l’alcol polivinilico (PVA) e il
PLGA per il substrato. stata, invece, .
Lo studio ha dimostrato come questi dispositivi siano stabili in acqua e si degradino completamente in un tampone
salino fosfato nell’arco di 10 settimane. La biodegradabilità
del DDFTTF non è stata esplicitamente studiata tuttavia si è
ipotizzato possa subire lo stesso processo che decompone le
molecole di melanina. Per quanto riguarda l’oro e l’argento
utilizzati per il drain, il source ed il gate, sono in quantità
sufficientemente piccole da poter essere trascurate.
2.1.4 Substrato in CNF
Una ricerca condotta nel 2015 [12]such as cell phones,
tablets and other portable electronic devices, are typically
made of non-renewable, non-biodegradable, and sometimes
potentially toxic (for example, gallium arsenide ha verificato la possibilità di creare interi chip su un substrato di
nanofibre di cellulosa, materiale ecocompatibile completa-
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | INGEGNERIA ELETTRONICA
mente derivato dal legno, con ottime proprietà elettriche per
utilizzi alle frequenza delle microonde. Il substrato in CNF è
stato ricoperto con uno strato di resina epossidica formata da
biosfenolo A, per conferirgli una maggior protezione all’acqua, vulnerabilità tipica del materiale. Questa particolare
resina riesce inoltre, a migliorarne le caratteristiche meccaniche in termini di trasparenza e trasmittanza. Alle frequenze delle microonde il materiale ampiamente più utilizzato è
l’arseniuro di gallio, per le sue ottime prestazioni in questo
intervallo di frequenza, rispetto al silicio o ad altri semiconduttori, motivo per il quale le parti attive sono in GaAs.
Figura 5: a: rappresentazione delle molecole scelte per la
realiazzazione di un TFT organico. b: TFT organico con
sustrato polimerico
Per realizzare un transistor ad eterogiunzione in GaInP/
GaAs si è fatta crescere l’eterogiunzione su un ”sacrificial
layer” in (Al0.96Ga0.04As) su un wafer di GaAs per poi essere
stampato sul substrato di CNF. I passaggi del processo di
fabbricazione sono rappresentati nella Figura 6. Con un
processo analogo si è riusciti a realizzare un diodo Schottky
e componenti passivi, capacitori e induttori, rappresentati
nella Figura 7. Tramite questi componenti è stato possibile
realizzare circuiti integrati, come il full bridge rectifier in
Figura 7. E’ stata anche studiata la possibilità di realizzare
circuiti logici, un inverter e le porte logiche NAND e NOR,
Figura 6: processo di fabbricazione di un HBT con substrato in nanofibre di carbonio
Figura 7: A sinistra array di induttori e capacitori su substrato in CNF su una foglia. Nel riquadro giallo
un’immagine ottica di un induttore, nel riguardo rosso di un capacitore. A destra Immagine ottica di un full bridge
costruito in CNF
75
INGEGNERIA ELETTRONICA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
Figura 8: Immagine ottica di un INVERTER (a sinistra), di una porta NAND (al centro), di una porta NOR (a
destra), realizzati su substrato in CNF
rappresentati nella Figura 8 e un full adder nella Figura 9 a
partire da un CMOS su substrato di CNF.
Dal punto di vista dell’impatto ambientale, lo strato di
nanofibre di cellulose si degrada completamente tramite dei
funghi. Nello specifico è stata analizzata l’azione di due differenti tipi, il Postia placenta e il Phanerochaete chrysosporium, con ottimi risultati. Lo strato di arseniuro di gallio non
degradabile, si è calcolato essere in quantità sufficientemente
modeste da poter essere trascurate.
2.1.5 Substrato in CNC
Dai nanomateriali in cellulosa possono essere estratti, oltre
alle nanofibre, anche dei nanocristalli (CNC), caratterizzati
da una dimensione più contenuta ed un una minor rugosità
della superficie. Quest’ultima caratteristica risulta fondamentale in alcune applicazioni, come lo sviluppo di celle
solari con un substrato a CNC [13].
In Figura 10 è rappresentata una cella solare con substrato in CNC. L’elettrodo inferiore è realizzato in argento con
l’aggiunta di uno strato di etossilati ”polyethylenimine”
(PEIE) per migliorarne l’efficienza; quello superiore invece
in MoO3/Ag evaporato su uno strato fotoattivo di PBD−TTT
−C :PCBM. Questa configurazione permette di creare celle
solari organiche con prestazioni confrontabili con quelle con
substrati in vetro o materiali plastici.
Il dispositivo così creato è, inoltre, possibile riciclarlo a
temperature contenute utilizzando dei solventi. Immergendolo in acqua distillata per un massimo di 30 minuti si disintegra il substrato in nanocristalli di cellulosa; quindi si possono filtrare i residui solidi con un filtro di carta. Lo strato di
materiale fotoattivo presente sul filtro, può essere separato
dagli elettrodi sciacquando i residui con del clorobenzene.
Figura 9: immagine ottica di un
full adder realizzato su substrato
in CNF
Ciò che rimane quindi sul filtro di carta sono parti Ag e Mg
che possono venire riciclati. Alternativamente è possibile
utilizzare una fiamma a bassa temperatura per bruciare lo
strato di CNC e le parti polimeriche, in maniera tale da riciclare le parti metalliche.
2.2 Circuiti stampati
Un circuito stampato (Printed Circuit Board, PCB) è una
parte essenziale della stragrande maggioranza dei dispositivi
elettronici in commercio, costituendo il supporto meccanico
e le interconnessioni elettriche per i componenti montati. E’
costituito da uno strato dielettrico in fibra di vetro o vetronite ed uno metallico, tenuti assieme da una resina epossidica. Come per i circuiti integrati, la crescente attenzione allo
Figura 10: a: struttura di una cella solare con substrato in CNC. b: struttura chimica dei polimeri utilizzati. c: foto di una cella solare
fabbricata
76
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | INGEGNERIA ELETTRONICA
smaltimento dei rifiuti elettronici e agli impatti ambientali
della tecnologia, ha portato alla realizzazione di numerosi
studi volti ad individuare materiali biodegradabili per la loro
realizzazione.
Un recente studio congiunto dell’University of Illinois ad
Urbana-Champaign e del Missouri University of Science
Technology [14] ha indagato circa la possibilità di utilizzare
uno strato di carbossimetilsellulosa (Na-CMC), un derivato
della cellulosa, per il substrato, un metallo transitorio, quali
magnesio (Mg), tungsteno (W) e Zinco (Zn) per le interconnessioni e un sottile strato di ossido di Polietilene (PEO) per
migliorare le capacità conduttive del circuito stampato e offrire maggiore aderenza ai componenti che vengono montati. L’intero sistema così creato si degrada completamente se
immerso in acqua per 10 minuti, lasciando solo i componenti
saldati sul PCB e i metalli transitori Una maggior protezione
all’acqua può essere ottenuta tramite l’utilizzo di un incapsulamento in materiali inorganici come MgO, SiO2, Si3N4,
caratterizzati da un lento tasso di degradazione.
Altri esperimenti si sono concentrati sull’utilizzo di biopolimeri al posto del tradizionale substrato in fibra di vetro. La Bupadest University of Technology and Economics
[15] ha indagato l’utilizzo di poli-acido-lattico (PLA) o di
cellulose-acetate (CA) con uno strato di rame per realizzare
le interconnessioni elettriche. Per migliorare l’adesività tra i
due materiali è tuttavia risultato necessario aggiungere uno
strato di pre-preg, un materiale composito costituito da fibre
“pre-impregnata” con resine a base epossidica.
3. GRID COMPUTING E RIUSO DEI DISPOSITIVI
OBSOLETI
Nel 1998 Carl Kesselman e Ian Foster pubblicarono ”The
Grid: Blueprint for a New Computing Infrastructure” [16],
pietra miliare dei sistemi distribuiti, in cui definirono il Grid
Computing come ”un’infrastruttura hardware e software che
offra un accesso affidabile, consistente, pervasivo e poco costoso a grandi capacità computazionali.” Al momento attuale è utilizzato maggiormente per calcoli ad alte prestazioni,
dove sono richieste capacità di calcolo di cui sarebbe impensabile poter disporre solo in locale; tuttavia, il grid computing, può rappresentare una valida soluzioni progettuali per
il riutilizzo di tutti i dispositivi elettronici obsoleti e poco
performanti, riuscendo quindi a trasformare quello che viene
considerato un rifiuto in una preziosa risorsa.
Infatti, la corsa al materiale informatico più nuovo e dalle prestazioni più elevate, alimentata da precise strategie di
mercato di produttori di hardware e software che impongono
un’obsolescenza programmata ai dispositivi e ai programmi
informatici, determina un ciclo di vita dei prodotti elettronici
molto breve ed un tasso di smaltimento, anche di dispositivi funzionanti, in continuo aumento. Esiste cioè, allo stato
attuale, una consistente quantità di dispositivi elettronici obsoleti, i quali vengono dismessi e molto spesso smaltiti in
discarica, anche se funzionanti. Per contrastare questo fenomeno è necessario e doveroso applicare un modello circola-
re alla produzione e alla progettazione dei nuovi dispositivi,
che consenta di rivalorizzare ciascun prodotto al termine del
proprio ciclo di vita. Pertanto, se da un lato si impone lo
studio di tecnologie innovative ed in fase di progetto un’attenta scelta di materiali biodegradabili e processi con bassi
consumi energetici, dall’altro lato è possibile avvalersi delle moderne tecnologie di calcolo distribuito. Infatti, tramite
la creazione di griglie computazionali (Grid Computing) si
possono assemblare e sincronizzare risorse sottodimensionate e dalle ridotte capacità computazionali (se considerate
singolarmente) per costituire una risorsa adeguata alle attuali
esigenze.
3.1 Sistemi distribuiti
Un sistema distribuito è definito come un insieme di componenti indipendenti che appare all’utente come un singolo
sistema coerente. Questa definizione evidenzia due aspetti
importanti: il primo, che un sistema distribuito è costituito da
componenti autonomi, il secondo, che gli utenti, intesi come
persone o programmi, pensano di avere a che fare con un
unico sistema. Questo vuole dire che i vari componenti devono collaborare tra loro. Le modalità con cui questa comunicazione avviene rappresenta il fulcro dei sistemi distribuiti.
I principali obiettivi da raggiungere per cui valga la pena
avvalersi di tali sistemi sono l’accessibilità delle risorse, la
trasparenza e l’apertura e scalabilità [17].
Infatti, caratteristica essenziale di un sistema distribuito è
rendere facile per gli utenti l’accesso alle risorse remote e
condividerle in maniera efficiente e controllata, per ragioni
di natura economica, di sicurezza e di semplicità di collaborazione. Un’altra caratteristica, la cosiddetta trasparenza, è
quella di nascondere che i propri processi e le proprie risorse
siano fisicamente distribuite. Infine, un sistema distribuito
si avvale di standard di comunicazione per garantire l’apertura e la scalabilità e determinare la possibilità di cambiare
componenti e comportamenti in base alla politica scelta. Un
sistema si definisce aperto se offre servizi secondo regole
standard per descriverne la sintassi e la semantica e questo
garantisce l’interoperabilità e la portabilità dello stesso. La
scalabilità definisce la capacità del sistema di crescere o diminuire di scala in base alle necessità e può essere misurata
almeno su tre grandezze: rispetto alle proprie dimensioni, dal
punto di vista geografico e dal punto di vista dell’amministrazione.
3.1.1 Sistemi distribuiti per calcoli alle alte prestazioni
Un’importante classe di sistemi distribuiti è quella usata
per calcoli ad alte prestazioni, in cui si possono distinguere
due sottogruppi, i sistemi di calcolo a cluster e la tecnologia
a griglia.
Nei cluster l’hardware è costituito da risorse omogenee
connesse da una rete locale ad alta velocità. Nel caso della
tecnologia grid, la connessione è operata tra sistemi distribuiti, ciascuno dei quali può risiedere in un dominio di amministrazione diverso e può distinguersi in termini di hardware,
software e tecnologia di rete.
77
INGEGNERIA ELETTRONICA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
la risorsa più appropriata
Lo scopo principale di
sulla quale eseguire un job
un cluster è quello di diin attesa, ottimizzando l’ustribuire un’elaborazione
tilizzo delle risorse [19].
(parallelizzabile)
sulle
varie risorse omogenee
3.3 Virtual
che lo compongono; nella
Organizations
tecnologia grid l’obiettivo
Le virtual organizations
principale è la collabora(VO) sono gli enti
zione delle varie risorse
che
partecipano
alla
che lo compongono.
costituzione della Grid
E’ importante sottolinee sottostanno a politiche
are come le due tecnologie
di
autorizzazione
a
si pongano in un rapporto
autenticazione concordate
di successione, in cui il
insieme agli organi di
grid computing rappresenFigura 11: Rappresentazione di una Virtual Organization
coordinamento
[20].
ta la più recente evoluzioHanno il compito di
ne dei sistemi di calcolo
definire chiaramente le
distribuito. Solo con l’avvento del nuovo millennio, quando il numero di calcolatori risorse condivise, i soggetti e le entità che partecipano alla
presenti in rete ha raggiunto un numero considerevole e le condivisione e le condizioni della condivisione. Una VO
capacità di elaborazione dei singoli processori sono diventa- comprende utenti (users), risorse e servizi ad essi associati,
te adeguate, è stato possibile sviluppare sistemi composti da uniti da un obbiettivo comune ma non localizzati all’interno
nodi eterogeni, definiti inizialmente di metacomputing[18]. di un singolo dominio amministrativo (Figura 11), motivo
Quando Ian Foster e Kesselmann, nel 1999, pubblicarono che impone una struttura dinamica.
Per poter coordinare e far cooperare tutti i componenti della visionaria metafora di una “Griglia di distribuzione della
potenza computazionale in cui, come i watt nella griglia di la griglia è necessaria la presenza di uno “strato”, ovvero di
distribuzione dell’elettricità, la potenza computazionale può un software intermedio tra l’utente e la griglia stessa, che
essere distribuita a chi ne fa richiesta senza badare alla sua mascheri l’eterogeneità delle risorse, tale cioè da porsi (“nel
provenienza”, entrò nel linguaggio comune il termine Grid mezzo”) sotto le applicazioni per far funzionare la struttura
Computing. L’idea alla base è ripartire il carico su tutte le ri- desiderata: il middleware.
Per utilizzare l’approccio del grid computing come strasorse disponibili sfruttando le capacità inutilizzate su ciascuna di esse, superando qualsiasi barriera fisica di elaborazione tegia progettuale utile a prolungare il tempo di vita dei dispositivi obsoloescenti, è fondamentale poter utilizzare un
dati di un qualunque server oggi disponibile.
middleware che sia portabile, caratteristica dettata dalla forte eterogeneità delle risorse, e facilmente scalabile. Inoltre,
3.2 Struttura del grid computing
Anche se le risorse possono essere condivise ed utilizzate l’infrastruttura deve tenere in considerazione l’esigua potenda tutti i componenti della griglia, usualmente vi si accede za computazionale che ciascuna risorsa può condividere.
Al giorno d’oggi il Globus Toolkit (GT), un software svitramite un’applicazione o un job in esecuzione. Il termine
job identifica una sequenza di controllo che compone una luppato dalla Globus Alliance, rappresenta lo standard indusingola unità di lavoro; i jobs possono quindi calcolare qual- striale per il Grid Computing e lo sviluppo del middleware
siasi cosa, eseguire uno o più comandi di sistema, muovere o connesso.
La Globus Alliance è un organismo che conduce ricerche
collezionare dati o operare sulle macchine. Un’applicazione
invece, identifica di solito un compito a più alto livello e può per lo sviluppo della tecnologia, degli standard e dei sisteessere costituita da più jobs. Questi, a loro volta, possono es- mi connessi alla Grid nato nel 1996. Come il WEB ha rivosere ulteriormente suddivisi in subjob. Se un’applicazione è luzionato l’accesso alle informazioni, l’obiettivo di questo
organizzata come collezione di job, è progettata per eseguir- organismo è quello di raggiungere un simile risultato nella
li in parallelo su differenti macchine della griglia. Quanto computazione.
La Globus Alliance ha ideato e fornito una tecnologia
meno i jobs (o i subjobs) interagiscono tra loro, tanto più
l’applicazione diventa scalabile e può essere eseguita su più fondamentale per la creazione di una Grid, il Globus Toolkit (GT) appunto, che è un pacchetto software che include
risorse, con notevole guadagno in termini di tempo.
La gestione delle applicazioni e dei jobs viene eseguita da servizi software, librerie per il monitoraggio e la gestione
un software definito job scheduler. Uno scheduler general- delle risorse, della sicurezza e dei file. E’ stato concepito per
mente stabilisce l’ordine temporale con cui i processi che ri- rimuovere ostacoli derivanti dall’incompatibilità delle risorchiedono l’accesso alle risorse (di solito alla CPU) vengono se (le interfacce, i servizi) e i protocolli adottati permettono
eseguiti, in base a delle politiche di scheduling. Nel caso del all’utente di accedere alle risorse in remoto come se fossero
sistema a Grid, questo si occupa di gestire automaticamente in locale e di controllare chi e quando utilizza le proprie ri78
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | INGEGNERIA ELETTRONICA
sorse in locale.
E’ importante segnalare che il GT si è evoluto attraverso
una strategia open-source, la quale ha permesso un’adozione
più vasta e rapida, guidata dalle grandi innovazioni tecniche
e dalla comunità che offre costanti miglioramenti. Agli inizi
del 2000 il New York Times ha definito questa tecnologia
come il “de facto standard” per il Grid Computing e poco
dopo, nel 2002, è stato insignito del prestigioso R&D 100
Awards come ’Most Promising New Technology” tra le 100
migliori innovazioni di quell’anno
Include inoltre componenti per la creazione di sistemi che
seguano l’Open Grid Services Architecture (OGSA), un framework definito dall’Open Grid Forum (OGF). L’OGF è una
comunità di utenti, sviluppatori e realizzatori che promuovono lo sviluppo di sistemi distribuiti di calcolo, in particolare
nel campo del Grid Computing e del Cloud Computing. E’
stato fondato nel 2006 dalla fusione del Global Grid Forum
e dell’Enterprise Grid Alliance, con l’obiettivo di sviluppare
standards per il Cloud ed il Grid Computing e la Globus Alliance e uno dei membri leaders.
L’OGSA si occupa soprattutto della definizione di servizi basilari che la grid deve offrire e propone un’architettura
a clessidra per la gestione delle grid composta da 5 livelli
gerarchici, a partire dal livello applicativo che fornisce l’interfaccia con la quale l’utente può interagire con il sistema,
fino al livello di rete fornisce le risorse alle quali l’accesso è
mediato dai protocolli di grid.
3.4 Il Volunteer Computing e le sue potenzialità
Un’interessante applicazione dei sistemi di calcolo distribuiti, nata a metà degli anni ’90, è il Volunteer Computing.
Questo si basa sull’idea che la maggior parte dei computer
privati dispongono di risorse sottoutilizzate per la maggior
parte del tempo che invece potrebbero essere utilizzate per
risolvere problemi scientifici o ingegneristici che richiedono grandi potenze di calcolo. Da queste breve descrizione si
può notare una differenza sostanziale con la tecnologia Grid:
la condivisione delle risorse non rappresenta l’obiettivo per
cui realizzare l’infrastruttura, come succede nel Grid Computing, ma un mezzo per poter risolvere problemi scientifici.
Il termine Volunteer non è casuale, gli utenti mettono a
disposizione parte delle risorse computazionali del proprio
computer in maniera volontaria, le quali vengono utilizzate per archiviazione o computazione distribuita. Ciascun
volontario deve disporre di una connessione ad internet, e
mantiene l’anonimato. Per via del loro anonimato, gli utenti
non possono utilizzare le risorse degli altri membri, possono solo condividere le proprie risorse per effettuare i calcoli
richiesti dal progetto a cui si è deciso di aderire. Il progetto
è solitamente sviluppato e gestito da un gruppo scientifico e
gli utenti devono solo scaricare un software che, sfruttando
i tempi morti e le risorse inutilizzate dei computer, esegue il
calcolo richiesto.
Il progetto che, per primo, ha dimostrato le potenzialità
del Volunteer Computing è stato Seti@HOME, permettendo
di risolvere problemi di calcolo intensivo in modo efficiente
e a costo zero attraverso cicli di CPU dei desktop pc degli
utenti. SETI è l’acronimo di Search for Extra-Terrestrial Intelligence. Infatti, il progetto nasce per analizzare segnali radio in cerca di segni di intelligenze extraterrestri, sfruttando
appunto calcolo distribuito volontario. Nel 2003, il team che
lo aveva sviluppato ha lanciato BOINC (Berkeley Open Infrastructure for Network Computing), una piattaforma open
source universale che permette agli scienziati di adattare
applicazioni al volunteer computing. In poco tempo questa
piattaforma è diventata il middleware di riferimento per il
Volunteer Compunting, venendo adottata da più di 50 progetti fino ad ora.
4. CONCLUSIONI
In questo articolo si è voluto delineare l’impatto ambientale dell’elettronica e alcune soluzioni progettuali che possano
contrastarlo. A partire da un’analisi dei più rilevanti effetti
sull’ecosistema che i dispositivi elettronici, in tutto il loro
ciclo di vita, provocano, è stato evidenziato come sia urgente
la necessità di ricercare metodi progettuali più sostenibili,
tanto per i nuovi dispositivi quanto per la consistente quantità di dispositivi ormai obsoleti.
Le ricerche condotte finora sulla possibilità di creare dispositivi completamente biodegradabili hanno portato ad ottimi risultati, ma in campi applicativi spesso molto ristretti.
Questo rallenta e complica la transizione verso una progettazione incentrata completamente alla biodegradabilità ma
ne stimola anche la ricerca. Infatti, una sensibilità sempre
maggiore da parte della comunità scientifica sta portando a
continue invenzioni in questo settore, che fanno presagire un
cambiamento di obiettivi nel medio-lungo periodo.
Si è visto, infatti, come sia possibile realizzare le parti funzionali degli attuali dispositivi elettronici tramite materiali
biodegradabili, con prestazioni spesso confrontabili con le
tecnologie attualmente consolidate e diffuse. I materiali analizzati esibiscono inoltre innovative caratteristiche, quali la
trasparenza e la flessibilità, oltre alla degradabilità nell’ambiente, che conferiscono ai dispositivi elettronici derivanti
proprietà uniche che li rendono adatti a nuove ed imprevedibili applicazioni, come biosensori per il monitoraggio ambientale o l’elettronica biointegrata per applicazioni mediche
E’ quindi importante un continuo sforzo della ricerca verso
soluzioni tecnologiche che rendano le apparecchiature elettroniche completamente biodegradabili, senza conciò inficiare sui costi e sulle prestazioni.
La scelta del Grid come infrastruttura per realizzare
sistemi di calcolo distribuiti con dispositivi obsoleti e altrimenti destinati allo smaltimento, si presta ad essere una soluzione progettuale ottimale per via della sua natura altamente
decentralizzata e con domini amministrativi differenti. La
possibilità di creare una tale infrastruttura non è, naturalmente, priva di insidie, le più delle quali di natura tecnica,
che la rendono una tecnologia prematura allo stato attuale.
Così come è avvenuto per il Volunteer Computing negli ultimi dieci anni, riuscire a sviluppare un middleware semplice
79
INGEGNERIA ELETTRONICA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
e portabile riveste un ruolo fondamentale nell’adozione
di questa tipologia di tecnologia nell’ambito di studio. Le
notevoli capacità di memoria che posseggono le attuali apparecchiature al termine del loro ciclo di vita suggeriscono
anche la possibilità di estendere lo studio a tecnologie distribuite per l’elaborazione dei big data, basate su approcci di
tipo map-reduce.
L’analisi delle valutazioni quantitative e dei modelli di
riferimento per il calcolo della riduzione dell’impatto ambientale possono rappresentare ulteriori sviluppi del presente
studio nell’ottica di rendere le soluzioni presentate realmente
applicabili e accrescere la conoscenza della loro efficacia.
Affinché la problematica degli impatti ambientali in relazione ai dispositivi elettronici possa considerarsi risolta è tuttavia fondamentale anche mirare a sensibilizzare la società
che impari a bilanciare le rapide evoluzioni tecnologiche con
una gestione responsabile di prodotti e materiali.
BIBLIOGRAFIA
[1] G. Brundtland, M. Khalid, S. Agnelli, S. Al-Athel, B.
Chidzero, L. Fadika, V. Hauff, I. Lang, M. Shijun, M. Morino de Botero, M. Singh, S. Okita, e A. Others, Our Common Future (’Brundtland report’). Oxford University Press,
USA, 1987.
[2] The Limits to Growth. Earthscan, 2004.
[3] U. G. Assembly, «United Nations millennium declaration», Resolut. Adopt., vol. 18, 2000.
[4] N. Sinnadurai e J. H.K. Charles, «Electronics and its
impact on energy and the environment», in 32nd International Spring Seminar on Electronics Technology, 2009. ISSE
2009, 2009, pagg. 1–10.
[5] «The four Rs of electronics waste recycling», Recycling
Product News, 11-ott-2013. [In linea]. Available at: http://
www.recyclingproductnews.com/article/3711/the-four-rsof-electronics-waste-recycling. [Consultato: 19-apr-2016].
[6] J. Huisman, I. Botezatu, L. Herreras, M. Liddane, J.
Hintsa, V. Luda di Cortemiglia, P. Leroy, E. Vermeersch, S.
Mohanty, S. van den Brink, B. Ghenciu, D. Dimitrova, E.
Nash, T. Shryane, M. Wieting, J. Kehoe, K. Baldé, F. Magalini, A. Zanasi, F. Ruini, e A. Bonzio, Countering WEEE
Illegal Trade (CWIT) Summary Report, Market Assessment,
Legal Analysis, Crime Analysis and Recommendations Roadmap. 2012.
[7] R. C. Jaeger, T. N. Blalock, G. Meneghesso, e A. Neviani, Microelettronica, 4 edizione. Milano: McGraw-Hill
Education, 2013.
[8] S.-W. Hwang, H. Tao, D.-H. Kim, H. Cheng, J.-K.
Song, E. Rill, M. A. Brenckle, B. Panilaitis, S. M. Won, Y.-S.
Kim, K. J. Yu, A. Ameen, R. Li, Y. Su, M. Yang, D. L. Kaplan, M. R. Zakin, M. J. Slepian, Y. Huang, F. G. Omenetto,
e J. A. Rogers, «A Physically Transient Form of Silicon Electronics, With Integrated Sensors, Actuators and Power Supply», Science, vol. 337, n. 6102, pagg. 1640–1644, set. 2012.
[9] S. Forrest, «The dawn of organic electronics», 01ago-2000. [In linea]. Available at: http://spectrum.ieee.org/
80
semiconductors/materials/the-dawn-of-organic-electronics.
[Consultato: 12-nov-2015].
[10] Y.-H. Kim, D.-G. Moon, e J.-I. Han, «Organic TFT
array on a paper substrate», IEEE Electron Device Lett., vol.
25, n. 10, pagg. 702–704, ott. 2004.
[11] C. J. Bettinger, «Biodegradable materials and systems
for electronically active device-based tissue regeneration»,
in Life Science Systems and Applications Workshop (LiSSA),
2011 IEEE/NIH, 2011, pagg. 135–138.
[12] Y. H. Jung, T.-H. Chang, H. Zhang, C. Yao, Q. Zheng,
V. W. Yang, H. Mi, M. Kim, S. J. Cho, D.-W. Park, H. Jiang,
J. Lee, Y. Qiu, W. Zhou, Z. Cai, S. Gong, e Z. Ma, «Highperformance green flexible electronics based on biodegradable cellulose nanofibril paper», Nat. Commun., vol. 6, pag.
7170, mag. 2015.
[13] Y. Zhou, C. Fuentes-Hernandez, T. M. Khan, J.-C.
Liu, J. Hsu, J. W. Shim, A. Dindar, J. P. Youngblood, R. J.
Moon, e B. Kippelen, «Recyclable organic solar cells on cellulose nanocrystal substrates», Sci. Rep., vol. 3, mar. 2013.
[14] X. Huang, Y. Liu, S.-W. Hwang, S.-K. Kang, D.
Patnaik, J. F. Cortes, e J. A. Rogers, «Biodegradable Materials for Multilayer Transient Printed Circuit Boards», Adv.
Mater., vol. 26, n. 43, pagg. 7371–7377, nov. 2014.
[15] A. Géczy, M. Kovács, e I. Hajdu, «Conductive layer deposition and peel tests on biodegradable printed circuit
boards», in Design and Technology in Electronic Packaging
(SIITME), 2012 IEEE 18th International Symposium for,
2012, pagg. 139–142.
[16] I. Foster e C. Kesselman, A c. di, The Grid: Blueprint
for a New Computing Infrastructure. San Francisco, CA,
USA: Morgan Kaufmann Publishers Inc., 1999.
[17] A. S. Tanenbaum e M. V. Steen, Sistemi distribuiti.
Principi e paradigmi. Pearson Italia S.p.a., 2007.
[18] M. Migliardi, «Grid Computing: da dove viene e che
cosa manca perche’ diventi una realta’?», MONDO Digit.,
vol. 2, pagg. 21–31, 2004.
[19] B. Jacob, M. Brown, K. Fukui, e N. Trivedi, Introduction to Grid Computing. 2005.
[20] M. Castellano, Grid based collaborative distributed
system for e-learning design and production. Wip Edizioni,
2015.
[21] I. Foster, C. Kesselman, e S. Tuecke, «The Anatomy
of the Grid: Enabling Scalable Virtual Organizations», Int J
High Perform Comput Appl, vol. 15, n. 3, pagg. 200–222,
ago. 2001.
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE
Dalla terapia genica al doping genetico
ROSA ADA VOLPE & FILOMENA MAZZEO
Dipartimento di Scienze e Tecnologie, Università degli Studi di Napoli “Parthenope”
La terapia genica ha lo scopo di utilizzare i fondamenti
dell’ingegneria genetica per uso terapeutico attraverso la
correzione o la manipolazione di geni difettosi, ed è fondamentale per la cura di molte patologie degenerative. Il doping genetico sfrutta lo stesso concetto della terapia genica
ma non a scopo terapeutico, bensì per migliorare le prestazioni degli atleti modificando alcuni geni che portano ad aumentare la resistenza e la massa muscolare. Dopo aver fatto
cenno alle differenti tecniche di inserimento, tramite vettori,
di geni ricombinanti, verranno descritti i principali transgeni
responsabili del miglioramento delle prestazioni atletiche: in
particolare quelli che aumentano l’emoglobina, l’ematocrito
e il flusso emodinamico, e quelli che aumentano selettivamente la crescita della massa muscolare. Tale metodica sicuramente non è scevra di effetti avversi, e talora fatali, che
ognuna di queste tecniche comporta sull’atleta. L’utilizzo del
passaporto biologico-molecolare dell’atleta rappresenta una
possibile strategia preventiva e cautelativa antidoping.
INTRODUZIONE: CONCETTO DI TERAPIA GENICA E
U
DOPING GENETICO
n gene è un’unità biologica di ereditarietà
a codici semplificati, finalizzata alla realizzazione di una proteina. In alcuni casi
il gene può contenere informazioni errate,
che determinano una mancanza di sintesi
o la produzione di una proteina difettosa. La terapia genica,
pertanto, ha lo scopo di correggere il difetto genetico introducendo geni funzionanti o manipolando geni esistenti per
ottenere benefici terapeutici [1] [2]
Gli studi di terapia genica hanno consentito il trattamento
di patologie degenerative che agiscono a livello neuromuscolare o, più in generale, che interessano l’apparato locomotore come la distrofia muscolare di Duchenne [3] [4].
Se questa terapia consente di aumentare le proteine
dell’organismo, comprese quelle dei muscoli, di conseguenza è stata perciò anche ipotizzata la sua possibilità di essere
utilizzata e sfruttata nello sport a scopo dopante. Questo tipo
di tecnologia prende il nome di doping genetico che sfrutta dunque lo stesso concetto della terapia genica, ma non a
scopo terapeutico, bensì per migliorare le prestazioni degli
atleti portando all’interno delle cellule, con “vettori virali”,
geni che sviluppano capacità, resistenza, forza del cuore, dei
polmoni, dei muscoli. Sono circa 250 i geni che si stanno investigando, collegati in qualche modo al miglioramento delle
performance sportive in particolare attraverso l’aumento della resistenza e della massa muscolare [5].
Sia che si tratti di sport, lavoro o della vita quotidiana, ogni
abuso di farmaci è una forma di doping ed è perciò sempre
scorretto, ma poiché l’abuso di sostanze o metodi per potenziare le prestazioni risale a tempi molto antichi, ben presto
la comunità medica e sportiva è stata costretta a dare una
risposta al problema [6].
Il doping infatti coinvolge atleti e tutto ciò che ruota intorno ad essi: amici, parenti, medici, farmacisti, biologi, chimici, case farmaceutiche e talvolta organizzazioni criminali
[6] [7].
Lo studio sul doping genetico, dunque, è cominciato nel
2001, quando la commissione medica del Comitato Olimpico Internazionale si riunì per discutere le possibili implicazioni della terapia genica ossia l’impiego di terapie geniche
in via di sviluppo per il trattamento di patologie degenerative, a scopo dopante. Tale lavoro è stato proseguito dalla
WADA (World Anti Doping Agency), che ha promosso
diverse iniziative in questo senso, tra cui la predisposizione
di una lista di sostanze proibite, il finanziamento di specifici progetti di ricerca per rilevare nell’individuo la presenza
di famaci dopanti e che ha dato la seguente definizione del
doping genetico: “uso non terapeutico di cellule, geni ed
elementi genetici o della modulazione dell’espressione genetica, con capacità di aumentare le prestazioni atletiche”
(AMA-WADA, 2008).
81
SCIENZE DELLA VITA E DELLA SALUTE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
Per meglio comprendere come si possano sfruttare le terapie geniche per il doping occorre approfondire il concetto
stesso di terapia genica.
STRATEGIE DI TERAPIA GENICA E
SOMMINISTRAZIONE DI GENI TERAPEUTICI
Nell’approccio alla terapia genica occorre anzitutto comprendere i meccanismi patologici e fisiologici della malattia
da curare, individuare il giusto bersaglio cellulare e l’appropriato metodo di trasferimento, ed infine, quando è possibile,
creare un modello animale della patologia da curare per effettuare studi preclinici in vivo [2].
Tra le varie strategie di possibile utilizzo possiamo annoverare [2,3,5,7].
· la compensazione genica, ossia l’introduzione di copie
funzionali del gene difettivo o assente;
· il riparo genico o correzione del gene difettivo;
· l’inattivazione cioè introduzione di DNA e RNA antisenso
per inibire l’espressione genica;
· la terapia anti-angiogenica di interruzione del nutrimento
ai tumori;
· la terapia anticorpale ossia l’ introduzione di geni che producono anticorpi intracellulari;
· la terapia anti-infiammatoria o prevenzione del riconoscimento dei tessuti da parte dell’organismo;
· la vaccinazione o introduzione di geni che inattivano agenti infettivi;
· le terapie cellulari: trapianto di cellule geneticamente modificate.
La terapia genica può essere utilizzata sia su cellule somatiche, modificando in tal modo il genoma di specifici tessuti
come i muscoli, sia su cellule della riproduzione o germinali.
Con il trasferimento genico su linee cellulari somatiche, si
modifica il genoma di tessuti (muscoli, polmoni, cervello,
ossa, reni, cuore etc.), senza che questa modificazione venga
trasmessa alla generazione successiva; l’alterazione genetica
riguarda esclusivamente il paziente su cui è stata realizzata.
Ciò non significa che tale terapia sia priva di rischi. Ora si
sta studiando quali possano essere le complicazioni derivanti dell’inserzione casuale di un gene estraneo nel genoma;
secondo il vettore che si utilizza, i rischi possono essere più
o meno elevati, determinando così le indicazioni e le controindicazioni di un dato trattamento [7].
L’applicazione di queste tecniche al doping genetico è
proibita ed in particolare sono proibiti i seguenti metodi che
hanno la potenziale capacità di migliorare la performance atletica attraverso:
· il trasferimento di polimeri di acidi nucleici o di analoghi
di acido nucleico
· l’utilizzo di cellule geneticamente modificate
Se si trasferisce un gene ad una linea cellulare germinale,
la modifica che si apporta al genoma verrà trasmessa alle
generazioni successive attraverso le stesse cellule germinali
(spermatozoi e ovuli). Attualmente è impossibile controllare
completamente le alterazioni genetiche che vengono apportate da un trasferimento genico, di conseguenza si rischia di
provocare delle anomalie fisiologiche che verrebbero trasmesse alle generazioni successive; inoltre, l’alterazione di
materiale genetico ereditabile pone una serie di interrogativi dal punto di vista etico e morale. Per queste ragioni, la
modificazione genetica di linee cellulari germinali non viene
considerata una strategia adottabile, e la sua sperimentazione
clinica è vietata legalmente in quasi tutti i paesi del mondo
[2].
MECCANISMO DI AZIONE DELLA TERAPIA GENICA
Il meccanismo di azione della terapia genica si esplica attraverso tecniche di trasferimento di geni modificati nel genoma umano con l’utilizzo di speciali vettori [8].
Metodi di trasferimento
I metodi di trasferimento del materiale genetico possono
essere (Figura 1):
Ex vivo o in vitro
Figura 1
82
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE
Le cellule bersaglio sono prelevate dal paziente, coltivate e
modificate geneticamente in laboratorio e quindi reintrodotte
nello stesso individuo. Questa tecnica è molto efficiente, non
crea problemi di tipo immunologico ma può essere utilizzata solo per alcune malattie immunologiche, ematologiche e
metaboliche.
Un possibile utilizzo ipotizzabile nella tecnica ex vivo del
doping genetico consiste nel modificare l’emopoiesi agendo
direttamente sul tessuto emopoietico.
In vivo locale o in situ o in vivo topico
Il materiale genetico, prodotto con l’introduzione di vettori, rilascia un fattore terapeutico in una specifica parte del
corpo attraverso una somministrazione intra-tissutale. Questa tecnica è efficace solo per la cura dei tumori localizzati,
per le patologie del cervello, dell’apparato scheletrico e muscolare e del tessuto cutaneo.
Un possibile utilizzo del doping genetico nella tecnica in
vivo locale, consiste nell’agire direttamente sul muscolo (in
particolare sui fattori di crescita o sui modificatori di fibre o
sui cardio modulatori) oppure sulle articolazioni (in particolare sugli inibitori dell’infiammazione, sui fattori di riparo o
sui recettori del dolore).
In vivo sistemico
La proteina prodotta dal transgene ottenuta con l’introduzione di vettori contenenti materiale genetico viene somministrato direttamente per via sistemica endovena o intra arteriosa o per inalazione nel corpo del paziente. Questa tecnica
si utilizza per arrivare a cellule e tessuti poco accessibili ma
è meno efficiente per l’attraversamento di svariate barriere
organiche.
Un possibile utilizzo ipotizzabile nella tecnica sistemica
del doping genetico, consiste nell’ impiegare a livello vascolare, fattori ormonali, anabolizzanti e killer del dolore.
Mezzi di trasferimento
Per trasferire i geni modificati nel genoma umano si utilizzano diversi trasportatori, i cosiddetti “vettori”.
Il materiale genetico può essere trasportato da appositi vettori che possono essere virus o vettori non mediati da virus:
Vettori Virali
Il materiale genetico può essere trasferito a cellule in coltura o in vivo agli esseri viventi usando i virus che, durante
l’evoluzione, hanno sviluppato sistemi molto efficienti per
introdurre il loro genoma (patrimonio genetico) in cellule
per completare il loro ciclo vitale e generare altri virus. I
virus utilizzati a questo scopo vengono modificati in modo
da avere difetti di replicazione che gli consentano di introdurre contemporaneamente il gene di scelta ed elementi di
regolazione che ne controllino l’espressione e ne assicurino
l’inserimento nel tessuto corretto. L’utilizzo dei vettori virali
risulta altamente efficiente nel trasferimento genico, ma può
anche portare a reazioni immunitarie, tossicità ed eventuale
mutagenesi. [9].
I virus più comunemente impiegati sono adenovirus, retrovirus e lentivirus.
Gli adenovirus, virus a DNA, sono i vettori migliori da
usare quando le cellule che si vogliono raggiungere sono
quelle del tessuto muscolare scheletrico, in particolare quelli
di generazione avanzata che evitano rischi pro-infiammatori
[9].
I retrovirus, virus ad RNA, hanno la particolare proprietà
di inserire il loro genoma portando una modificazione permanente nel genoma dell’ospite, a differenza di altri virus
che non integrano il loro genoma nel nucleo delle cellule
ospiti e il gene scelto si perde nelle successive divisioni [10].
I lentivirus appartengono alla famiglia dei retrovirus di
cui condividono la morfologia e il ciclo replicativo ma a differenza dei precedenti, possono infettare anche cellule non
proliferanti come le cellule differenziate. Un possibile limite
è dato dalla risposta immunitaria dell’ospite che può bloccare gli effetti di una ripetuta “somministrazione” di virus
contente il materiale genetico da trasferire [11].
Vettori non virali
I sistemi non virali di inserzione di materiale genico prevedono l’iniezione diretta del DNA nel nucleo della cellula
ospite oppure di liposomi che trasportano il DNA; i liposomi
hanno bassa immunogenicità ma sono poco efficienti nel rilascio genico in vivo ed hanno difficoltà a rilasciare il DNA
nel nucleo. Tutti i vettori non virali sono relativamente facili
da preparare, meno costosi, presentano una tossicità inferiore, ma minore efficienza rispetto a quelli virali, in quanto
sono instabili nella maggior parte dei tessuti e possono essere
utilizzati in vivo solo per tessuti superficiali [12].
Queste sono in sintesi le caratteristiche che deve avere un
vettore ideale:
· di facile produzione e in elevate quantità
· sicuro, cioè inerte dal punto di vista immunologico
· selettivo per determinati tipi cellulari
· capace di trasportare geni piccoli e grandi
· capace di infettare sia cellule in divisione che quiescenti
DALLA TERAPIA GENICA AL DOPING GENETICO
Il doping genetico sfrutta la terapia genica per migliorare le
performance degli atleti e per farlo può modificare selettivamente una cellula o un gene, oppure rimodulare un recettore
alla regolazione specifica dell’espressione di un gene dopo il
trasferimento genico, oppure utilizzare specifici ormoni o anticorpi per stimolare o inibire l’espressione di un gene [1,7].
Potremmo schematicamente individuare tre livelli di doping genetico (Figura 2) poiché la manipolazione genetica
può avvenire:
· prima della competizione: in tal caso l’effetto è di tipo anabolizzante
· durante la competizione: si somministrano sostanze che
migliorano la performance
· dopo la competizione attraverso l’uso di sostanze di riparo
Gli studi effettuati negli ultimi vent’anni evidenziano le
varie tipologie di geni le cui modifiche hanno indotto un aumento della resistenza alla fatica oppure un aumento della
83
SCIENZE DELLA VITA E DELLA SALUTE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
Figura 2
massa muscolare [8].
Ecco alcuni esempi di geni modificati attraverso il doping
genetico per l’aumento della resistenza e della massa muscolare.
I geni coinvolti nell’aumento della resistenza allo sforzo
fisico o al dolore sono i seguenti:
1) L’ EPO (Eritropoietina), è un regolatore fisiologico della produzione di globuli rossi che dunque stimola l’eritropoiesi. Viene prodotta soprattutto nel rene in risposta all’ipossia e al cloruro di cobalto. In alta montagna a partire dai 3000
metri di altitudine si instaura la cosiddetta “acclimatazione
ventilatoria”, caratterizzata da evidente aumento della ventilazione polmonare a riposo. L’esercizio fisico, sia in ipossia
acuta che cronica, determina iperventilazione molto più elevata. L’iperventilazione oltre ad avere l’effetto di aumentare
la quantità di ossigeno disponibile per i tessuti, provoca un
aumento dell’eliminazione di anidride carbonica con l’espirazione. Dopo circa 15 giorni di permanenza in quota si verifica un aumento progressivo della concentrazione dei globuli
rossi nel sangue circolante (poliglobulia), tanto più marcato
quanto più elevata è la quota, raggiungendo i massimi valori
dopo circa 6 settimane. Tale fenomeno rappresenta un ulteriore tentativo da parte dell’organismo di compensare gli effetti negativi dell’ipossia. Infatti, la ridotta pressione parziale
d’ossigeno nel sangue arterioso provoca un’aumentata secrezione dell’ormone eritropoietina che stimola il midollo osseo
ad incrementare il numero di globuli rossi, così da permettere
all’emoglobina in essi contenuta, di trasportare una maggiore
quantità di O2 ai tessuti. Inoltre insieme ai globuli rossi aumentano anche la concentrazione di emoglobina [Hb] ed il
valore dell’ematocrito (Hct), cioè del volume percentuale di
cellule del sangue in rapporto alla sua parte liquida (plasma).
Sotto lo stimolo dell’ipossia acuta la frequenza cardiaca aumenta, per compensare con un maggior numero di battiti al
minuto, la minore disponibilità di ossigeno, mentre cala la
gittata sistolica (diminuisce cioè la quantità di sangue che
il cuore pompa ad ogni battito). Nell’ipossia cronica la fre84
quenza cardiaca ritorna ai valori normali. Nel complesso, gli
studi indicano quindi che, dopo l’acclimatazione, si verifica
un significativo aumento dell’emoglobina (Hb) e dell’ematocrito (Hct). Lo stimolo ipossico (naturale o artificiale) di
durata adeguata produce, quindi, un reale incremento della
massa eritrocitaria, seppure con una certa variabilità individuale. Ai fini del miglioramento della performance, tuttavia,
è probabile che intervengano altri adattamenti periferici,
come una maggiore capacità da parte del tessuto muscolare di estrarre ed utilizzare ossigeno. Questa affermazione è
vera sia in soggetti sedentari che in atleti. I livelli di EPO in
condizioni di ipossia stimolata geneticamente aumentano in
maniera significativa e continuano a salire per circa tre ore
anche dopo che è terminato lo stimolo ipossico per poi ridursi con una emivita di circa 5.2 h. [13] [14]
L’Eritropoietina ricombinante è abusata in alcuni sport di
resistenza, come ad esempio il ciclismo [15] in quanto stimola la poliglobulia, ovvero un maggior numero di globuli rossi
con conseguente aumento della capacità di trasportare ossigeno ai tessuti. Tale alterazione può senz’altro migliorare le
prestazioni atletiche. Studi preclinici hanno dimostrato che
tale gene può essere introdotto con successo negli animali
come scimmie e roditori [16] [17] ove la terapia genica con
EPO incrementa il valore dell’ematocrito fino all’80% anche
se sono stati descritti diversi effetti avversi tra i quali, paradossalmente, l’anemia [18].
2) La HIF (Hypoxia Inducible Factor) proteina che attiva
i fattori indotti dall’ipossia modifica l’assunzione dell’ossigeno disponibile. L’HIF è una proteina contenuta nel nucleo
cellulare che svolge un ruolo fondamentale nella trascrizione
genica in risposta all’ipossia. E’ infatti un fattore di trascrizione che codifica per le proteine coinvolte nella risposta
ipossica ed è fondamentale per la sintesi dell’eritropoietina.
In condizioni di ipossia la via del sensore di ossigeno (per
molte cellule è rappresentato dal citocromo C-Ossidasi) è
bloccata, quindi l’HIF aumenta. Con l’utilizzo di questa proteina ricombinante sono stati riscontrati disturbi cardiocircolatori anche fatali. [19].
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE
3) Il PPARdelta, (Peroxisome Proliferator-Activated Receptor delta) recettore attivante la proliferazione dei perossisomi -, codifica gli enzimi di ossidazione degli acidi grassi.
Tale fattore è coinvolto in alcune modificazioni del metabolismo energetico ed è associato alla formazione delle fibre
muscolari di tipo I (fibre lente, che determinano la resistenza)
e può indurre anche la conversione da fibre di tipo II (fibre
veloci, che determinano la velocità) a fibre di tipo I. Gli atleti
in genere hanno alti livelli di fibre di tipo I. L’inserimento
del gene PPAR-delta migliora significativamente la resistenza degli animali e contrasta lo sviluppo di obesità migliorando il metabolismo anche in assenza di esercizio. Gli effetti
fisiologici di PPAR-delta sono da attribuire alla aumentata
capacità da parte del tessuto muscolare di ossidare gli acidi
grassi per soddisfare le richieste energetiche dell’organismo
[20-21]. Effetti avversi con l’utilizzo di questo recettore ricombinante sono soprattutto le abnormi risposte immunitarie
dell’organismo [22].
4) Il recettore VEGF (Vascular Endothelial Growth Factor) è un fattore di crescita che agisce sull’endotelio vascolare con conseguente miglioramento emodinamico [1]. Esso
si lega a recettori specifici presenti sulla membrana delle cellule endoteliali che a seguito di una sequenza di reazioni enzimatiche che prevede la fosforilazione di substrati specifici
(trasduzione del segnale) dà come risultato finale la variazione della struttura del citoscheletro delle cellule endoteliali,
con la conseguente modificazione della motilità cellulare e
miglioramento della circolazione sanguigna. Sono stati segnalati effetti avversi a carico del sistema renale [23].
5) Le endorfine sono un gruppo di sostanze prodotte dal
cervello nel lobo anteriore dell’ipofisi, classificabili come
neurotrasmettitori, a struttura peptidica, dotate di proprietà analgesiche e fisiologiche simili a quelle della morfina e
dell’oppio, ma con portata più ampia e possono essere prodotte attraverso manipolazione genica per aumentare la “resistenza” al dolore dovuto a sforzo o a lesione.
Per favorire l’aumento della massa muscolare:
1) L’ormone della crescita (HGH) regola il controllo della
massa muscolare; l’ormone della crescita o growth hormone
ha un ruolo fondamentale nella crescita prima della pubertà
essendo responsabile della promozione dello sviluppo longitudinale di ossa e muscoli. Oltre che per la sua attività anabolizzante e di stimolo nell’aumentare la massa muscolare, il
GH è implicato anche nella riduzione della massa grassa per
i suoi effetti di lipolisi o catabolismo lipidico, un processo
metabolico che comporta la scissione di trigliceridi e il rilascio di acidi grassi nel sangue. Questo processo permette
la liberazione di calorie dal tessuto adiposo, che sono utilizzate come fonte di energia metabolica dai muscoli, e causa
una perdita di peso. Il GH è sintetizzato dall’ipofisi sotto il
controllo di altri ormoni prodotti dall’ipotalamo, uno che ne
stimola la secrezione e uno, la somatostatina, che ne inibisce
la liberazione. Il GH viene rilasciato in maniera intermittente
e generalmente la maggiore produzione si ha la notte durante
le fasi del sonno profondo. I picchi di secrezione si hanno
durante l’adolescenza, e diminuiscono con l’età. Gli stimoli
fisiologici per stimolare la produzione di GH, oltre al sonno,
sono l’esercizio, lo stress e il digiuno. Solo una piccolissima
frazione di ormone della crescita è eliminato dai reni con le
urine (1/10,000). Il GH viene metabolizzato nel fegato (cioè
trasformato in altre molecole o metaboliti) e in altri tessuti;
ha una vita media nel plasma molto breve di circa 15 minuti. Lo stesso avviene quando il GH viene somministrato ed
è, quindi, molto difficile rintracciarlo nel nostro organismo,
per questo è molto utilizzato nel doping. Oggi il GH viene
prodotto in laboratori specializzati utilizzando la tecnica del
DNA ricombinante (rhGH). Nonostante i costi particolarmente elevati ed i fattori di rischio tumorale la popolarità
del GH è cresciuta molto in questi ultimi anni; il suo utilizzo
è stato infatti esteso non solo nell’ambito sportivo ma anche
alle terapie anti-invecchiamento (soprattutto negli Stati Uniti) [24].
2) Il fattore di crescita IGF-1 (Insulin-like Growth Factor-1) è un peptide la cui sintesi è stimolata nel fegato dall’ormone della crescita (GH) ed è coinvolto nella crescita e nel
riparo muscolare. Gli studi sui roditori hanno chiaramente
dimostrato che l’IGF-1 introdotto negli animali da laboratorio, mediante un vettore virale, controlla lo sviluppo muscolare producendo una ipertrofia muscolare, con aumento della
forza del 15% e della capacità di riparo muscolare. Il gene
in questo caso è stato introdotto solo localmente nel tessuto
muscolare scheletrico evitando gli effetti tossici sistemici.
Questa stessa efficienza e assenza di tossicità non è stata però
riprodotta in altre specie animali. La ricerca dunque in questo caso si propone di raggiungere effetti GH/IGF1-simili,
con lo scopo di promuovere, se possibile selettivamente, la
crescita della massa muscolare [25]. Effetti avversi sono gli
stessi riscontrati nell’utilizzo del GH ricombinante ossia l’insorgenza di tumori [26]. L’ipertrofia muscolare può essere
stimolata anche dalla proteina legante il fattore di crescitainsulino simile (IGFBP) che esercita il controllo della crescita muscolare.
3) La miostatina, conosciuta come una proteina enzimatica che limita la crescita muscolare negli esseri viventi inibendo lo sviluppo muscolare, è un altro candidato al doping
genetico. Sostanze che bloccano la miostatina o geni che producono una miostatina funzionalmente difettosa consentono
una crescita soprafisiologica della muscolatura provocando
sia un aumento del numero sia delle dimensioni delle fibre
muscolari striate, come si osserva in alcuni bovini portatori
di una mutazione congenita della miostatina che ne inibisce
l’attività. La manipolazione di questa proteina regolatrice
potrebbe portare ovvi vantaggi agli atleti. Una terapia genica
con l’introduzione del un gene mutato per aumentare la massa muscolare si è rivelata finora efficace in modelli animali
affetti da distrofia muscolare, ma non ancora soddisfacenti nell’uomo [27-28]. Al momento si sono verificate spesso
rotture tendinee o muscolari con l’utilizzo di queste tecniche
ricombinanti [29].
4) L’ACTN3 è un gene che attiva la proteina legante l’actinina, aumentando le fibre muscolari a contrazione veloce e
85
SCIENZE DELLA VITA E DELLA SALUTE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
dunque la massa dei muscoli scheletrici.
In sintesi i principali obiettivi potenziali della terapia genica a fini dopanti appaiono attualmente principalmente i seguenti (tabella 1):
1) ricerca di effetti simili a quelli ottenuti somministrando
EPO in quanto negli animali l’EPO incrementa il valore
dell’ematocrito fino all’80 %
2) promuovere e migliorare il livello emodinamico andando
ad agire sull’endotelio vascolare utilizzando il VEGF.
3) ricerca di effetti IG/IGF1 simili allo scopo di promuovere
selettivamente la crescita della massa muscolare
4) aumentare la massa muscolare attraverso il blocco selettivo della miostatina, in quanto negli animali tale percorso è risultato efficace nella cura alla distrofia muscolare.
rapia genica alcuni di questi pazienti hanno sviluppato gravi
risposte immunitarie ed altri hanno sviluppato disturbi di
tipo leucemico [30].
Un ulteriore effetto dannoso può essere quello a cui sono
sottoposti pazienti cui viene somministrata EPO ricombinante; infatti un abuso di EPO attraverso i farmaci è regolarmente reversibile non appena si interrompe l’assunzione, ma
se avviene mediante l’integrazione di geni EPO aggiuntivi, i
livelli di eritrociti saranno eccessivi per tutta la vita e di conseguenza, ciò aumenterebbe l’insorgenza di disturbi tromboembolitici ed altri danni permanenti di tipo cardiovascolare
[14].
FATTORI DI RISCHIO DEL DOPING GENETICO
La nuova minaccia del doping genetico ha cominciato a
essere discussa dalla World Anti-Doping Agency (WADA)
nel 2002 molto prima che potesse diventare un pericolo reale
[31].
Le implicazioni di questi interventi sul patrimonio genetico per modificare i parametri biologici correlati forza, potenza e resistenza interessano non solo i medici e i ricercatori
ma anche gli allenatori e gli atleti stessi che cercano in tutti
i modi possibili di migliorare le proprie prestazioni fisiche.
Per il momento la manipolazione genetica per migliorare le
prestazioni sportive è più teorica che verificata da studi sperimentali nell’uomo. La WADA ha però già posto tra i metodi proibiti il trasferimento di acidi nucleici o di sequenze di
acido nucleico e l’utilizzo di cellule normali o geneticamente
modificate.
Il doping genetico è di difficile individuazione durante i
controlli anti-doping. Infatti, le proteine prodotte dal trasferimento genico sarebbero indistinguibili da quelle endogene
normali. In molti casi i geni e i loro prodotti rimarrebbero
all’interno di un tessuto (ad esempio il tessuto muscolare)
I potenziali rischi per la salute associati al doping, in generale, riguardano molteplici organi: il cuore, i reni, il fegato
con conseguente sviluppo di tumori[7]. Per quanto riguarda
il doping genetico come per qualsiasi intervento di terapia
genica il rischio comprende lo sviluppo di una risposta immunitaria violenta ai vettori virali, riposte autoimmuni verso
le proteine codificate dal gene introdotto, e la possibilità di
patologie derivanti da mutazioni che possono insorgere in
seguito all’inserimento del gene con effetti avversi anche
gravi.
I pazienti sottoposti all’IGF-1, dopo il trasferimento del
gene, aumentano il rischio di sviluppare il cancro e di esso ne
incrementano la crescita [25-26]. Nel caso di aumento di massa muscolare dovuto ad un’elevata espressione dell’IGF-1 o
derivante da un blocco della miostatina si possono generare
rotture muscolari e/o tendinee da sovraccarico [27-28-29].
Un altro effetto avverso inaspettato è stato descritto in alcuni pazienti affetti da grave immunodeficienza. Dopo late-
CONTROLLI ANTI DOPING GENETICO
Tabella 1: Obiettivi potenziali della terapia genica a fini dopanti
Gene modificato per doping
genetico
Organo bersaglio
Prodotto del gene
Risposta fisiologica
ACTN3
Muscoli scheletrici
Proteine leganti l’actina
Coinvolto nelle fibre muscolari a contrazione
veloce
Endorfine
Sistema nervoso centrale e periferico
peptidi ampiamente attivi
Modulazione del dolore
EPO
Sistema emopoietico
Ormone glicoproteico
Aumenta la massa RBC e la resa di ossigeno
HGH
Sistema endocrino
aminoacido 191
Accelera il sistema endocrino
HIF
Sistema ematologico ed
immunologico
Multisubunità proteica
Regola la trascrizione per l’ipossia - elemento
di risposta
IGF-1
Muscoli scheletrici/Sistema
endocrino
aminoacido 70
Aumenta la dimensione del muscolo
scheletrico e accelera il sistema endocrino
Miostatina
Muscoli scheletrici
2-subunità proteica
Aumenta le dimensioni e la resistenza del
muscolo scheletrico
PPAR-delta
Muscoli scheletrici e tessuto adiposo
proteina recettore dell'ormone
Favorisce il metabolismo dei grassi e aumenta
Il numero di contrazione delle fibre
VEGF
Endotelio vascolare
Omodimeri leganti disulfide glicosilati
Induce sviluppo di nuovi vasi sanguigni
Abbreviazioni: ACTN3, actinin binding protein 3; EPO, erythropoetin; HGH, human growth factor; HIF, hypoxia inducible factor; IGF-I, insulin-like growth factor; PPAR-delta,
peroxisome proliferators-activated receptor (delta); VEGF, vascular endothelial growth factor. (Gaffney, Parisotto, 2007)
86
SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE
rendendo difficile l’individuazione nel sangue e nelle urine.
Per questi motivi il doping genetico rappresenta un richiamo
irresistibile per gli atleti che assumono sostanze per migliorare le prestazioni sportive, rischiando di andare incontro a
effetti avversi e che possono talora rivelarsi letali [32] [33].
I problemi dell’individuazione di nuovi metodi di doping
genetico dunque sono tanti e principalmente etici ed economici: infatti i test di indagine stanno diventando molto dispendiosi e troppo invasivi. Ad esempio spesso occorre una
biopsia o comunque l’estrazione di un campione di tessuto
per individuarli, tecnica comunque troppo invasiva da sottoporre all’atleta che difficilmente presterebbe il consenso ad
attivarla [7] [34].
Per poter arginare l’avvento del doping genetico recentemente è stato introdotto il concetto di passaporto biologicomolecolare al fine di individuare i geni, introdotti nell’organismo, codificanti le proteine necessarie per migliorare
le prestazioni sportive [35].
Si tratta di un documento elettronico individuale in cui
sono inseriti i dati biologici e cioè ematologici, steroidei ed
endocrinologici dell’atleta sospettato di aver assunto sostanze dopanti.
La determinazione periodica dei livelli di espressione
di questi geni potrebbe consentire di definire un pattern di
espressione specifico per ciascun atleta che si sottopone ad
analisi riscontrando DNA estraneo nel sangue periferico, ma
tale indagine vale solo entro circa 60 gg dalla eventuale somministrazione della sostanza dopante. In questo modo il riscontro di alterazioni del pattern di espressione di questi geni
può essere considerato sospetto di doping genetico.
CONCLUSIONI
Occorre naturalmente agire anche in ambito preventivo
per evitare la pratica del doping, sia esso farmacologico o
genetico [36].
Il primo passo da percorrere verso la strada della prevenzione è sicuramente la diffusione della conoscenza del fenomeno, in particolar modo sui suoi effetti negativi sulla salute
[37]..
E’necessario che le comunità mediche e sportive e tutti
gli stakeholders utilizzino le proprie risorse economiche per
favorire la ricerca su nuovi metodi dopanti per incrementare
i test antidoping e adottino comuni strategie per prevenirne
l’utilizzo, sia esso genetico che non, promuovendo in ogni
modo possibile i valori dello sport come strumento di crescita sana e leale dell’individuo, in particolare attraverso
campagne di informazione e di sensibilizzazione partendo
soprattutto dalle più giovani fasce di età e utilizzando tutti gli
strumenti di comunicazione di massa come i social network,
per la tutela della salute nelle attività sportive.
BIBLIOGRAFIA
Jafarlou M, Baradaran B, Saedi TA, Jafarlou V, Shanehbandi D, Maralani M, Othman F (2016) An overview
of the history, applications, advantages, disadvantages and
prospects of gene therapy. J Biol Regul Homeost Agents
30(2):315-21.
Kumar SR , Markusic DM, Biswas M, High KA, Herzog
RW (2016) Clinical development of gene therapy: results
and lessons from recent successes. Mol Ther Methods Clin
Dev May 25;3:16034.
Beytia, M. D. L. A., Vry, J., & Kirschner, J (2012) Drug
treatment of Duchenne muscular dystrophy: available evidence and perspectives. Acta Myologica 31(1): 4
Fakhfakh, R., Michaud, A., & Tremblay, J. P (2011) Blocking the myostatin signal with a dominant negative receptor improves the success of human myoblast transplantation
in dystrophic mice. Molecular Therapy 19(1): 204-210
Azzazy et al (2005) Doping in the recombinant era: strategies and counterstrategies. Clin Biochem 38 (11): 959-65
Santamaria S (2015) Sport: dai valori al Doping - Scienze
e Ricerche - 4819-8
Santamaria, S., Ascione, A., Tafuri, D., & Mazzeo, F
(2013). Gene doping: biomedical and law aspects of genetic
modification of athletes. Med Sport 17(4):193-99
Roland W. Herzog, Ou Cao, and Arun Srivastava (2010)
Two Decades of Clinical Gene Therapy – Success Is Finally
Mounting. Discov. Med (45): 105-111
Zhou S, Murphy JE, Escobedo JA (1998) Adeno-associated virus-mediated delivery of erythropoietin leads to sustained elevation of hematocrit in nonhuman primates. Gene
Therapy 5(5):665-70
Bushman FD1 (2007) Retroviral integration and human
gene therapy - J Clin Invest 117(8):2083-6
Rothe M, Modlich U, Schambach A (2013) Biosafety
challenges for use of lentiviral vectors in gene therapy. Curr Gene Ther 13(6):453-68
Murali Ramamoorth and Aparna Narvekar (2015) Non
Viral Vectors in Gene Therapy- An Overview . J Clin Diagn.
Res Jan 9 (1): GE01–GE06
Neuberger, E. W., Perez, I., Le Guiner, C., Moser, D.,
Ehlert, T., Allais, M., & Snyder, R. O (2016) Establishment
of two quantitative nested qPCR assays targeting the human
EPO transgene. Gene therapy 23(4):330-9
John MJ, et al. Erythropoietin use and abuse (2012) Ind J
End Met 16(2):220-7
Svensson EC, et al. (1997) Long-term erythropoietin expression in rodents and non-human primates following intramuscular injection of replication-defective adenoviral
vector. Hum Gene Ther 8(15):1797-806
Chenuaud P, et al. (2004) Autoimmune anemia in macaques following erythropoietin gene therapy. Blood
103(9):3303-4
Gao G, et al. (2004) Erythropoietin gene therapy leads to
autoimmune anemia in macaques. Blood 103(9):3300-2
Lasne F, et al. Genetic doping with erythropoietin cDNA
in primate muscle is detectable (2004) Mol Ther 10(3):40910
Pugh CW, Ratcliffe P.J. (2003) Regulation of angiogenesis by hypoxia: role of the HIF system. Nat Med Jun 9 (6):
87
SCIENZE DELLA VITA E DELLA SALUTE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016
677-84
Grimaldi PA. (2005) Regulatory role of peroxisome proliferator-activated receptor delta (PPAR delta) in muscle metabolism. A new target for metabolic syndrome treatment?
Biochimie 87(1):5-8
Wang YX, et al. (2004) Regulation of muscle fiber type
and running endurance by PPARdelta. PLoS Biol 2(10): 294
Takahashi S, et al (2006) Peroxisome proliferator-activated receptor delta (PPARdelta), a novel target site for
drug discovery in metabolic syndrome. Pharmacol Res
53(6):501-7
Schrijvers BF1, Flyvbjerg A, De Vriese AS (2004) The
role of vascular endothelial growth factor (VEGF) in renal
pathophysiology - Kidney Int 65(6):2003-17
Wideman L1, Weltman JY, Hartman ML, Veldhuis JD,
Weltman A (2002) Growth hormone release during acute
and chronic aerobic and resistance exercise: recent findings
- Sports Med 32(15):987-1004
Lee S, et al. (2004)Viral expression of insulin-like growth
factor-I enhances muscle hypertrophy in resistance-trained
rats. J Appl Physiol 96(3):1097-104
Barton-Davis ER, et al. (1998) Viral mediated expression of insulin-like growth factor I blocks the aging-related
loss of skeletal muscle function. Proc Natl Acad Sci U S A
95(26):15603-7
McPherron AC, Lee SJ (1997) Double muscling in cattle
due to mutations in the myostatin gene. Proc Natl Acad Sci
U S A 94(23):12457-61
88
Schuelke M, et al. (2004) Myostatin mutation associated
with gross muscle hypertrophy in a child. N Engl J Med
350(26):2682-8
Bogdanovich S, et al. (2002) Functional improvement
of dystrophic muscle by myostatin blockade. Nature
420(6914):418-21
Woods NB, et al (2006) Gene therapy: therapeutic gene
causing lymphoma. Nature 440(7088):1123.
Van der Gronde, T., de Hon, O., Haisma, H. J., & Pieters,
T (2013) Gene doping: an overview and current implications
for athletes. British journal of sports medicine 47(11): 670678
Callaway E. Sports doping: Racing just to keep up (2011)
Nature 475(7356):283-5
Körner, S., & Symanzik, T. Gene doping–challenge for
sport and society (2016). Pharmakon 4(1):36-42.
Gould, D. Gene doping: gene delivery for olympic victory (2013). British journal of clinical pharmacology 76(2):
292-298
Sottas PE1, Vernec A (2012) Current implementation
and future of the Athlete Biological Passport - Bioanalysis.
(2012) Jul;4(13):1645-52. doi: 10.4155/bio.12.130
Fischetto, G., & Bermon, S (2013) From gene engineering to gene modulation and manipulation: can we prevent
or detect gene doping in sports? Sport Med 43(10): 965-977
Gaffney, Parisotto, (2007) Gene Doping: A Review of
Performance-Enhancing Genetics Pediatric Clinics of North
America 54(4):807-22