1 settembre 2016 - Scienze e Ricerche
Transcript
1 settembre 2016 - Scienze e Ricerche
ISSN 2283-5873 Scienze e Ricerche SR N. 36, 1° SETTEMBRE 2016 36. Scienze SRe Ricerche RIVISTA BIMENSILE · ISSN 2283-5873 GLI ANNALI 2015 1 numero in formato elettronico: 7,00 euro ( UN NUMERO A SCELTA IN OMAGGIO AGLI ABBONATI ) Abbonamento annuale a Scienze e Ricerche in formato elettronico (24 numeri + fascicoli e numeri monografici): 42,00 euro * * 29,00 euro per gli autori e i componenti del comitato scientifico e del collegio dei referees www.scienze-ricerche.it 36. Sommario ROBERTO FIESCHI 9 agosto 1945: la bomba atomica su Nagasaki pag. 5 pag. 9 pag. 12 pag. 15 pag. 17 pag. 23 pag. 28 pag. 33 pag. 40 pag. 54 pag. 62 pag. 64 pag. 65 pag. 71 pag. 81 GIAN PAOLO CAPRETTINI McLuhan, Shakespeare e il potere (dei media) ROBERTO SCANDONE Ricordo di Paolo Gasparini 17 9 PIERANGELO CRUCITTI, FRANCESCO BUBBICO, LUCA TRINGALI Mauro Cristaldi. 1947-2016. In memoriam DAVIDE DI PALMA AND DOMENICO TAFURI Management and social criticality in Italy MARIA LUCIA ZITO Il mondo come rappresentazione: note a margine per un ritratto di Lucio Mastronardi MARCO RAO, MONIA VADRUCCI Protonterapia e Radioterapia a confronto nel trattamento di neoplasie primarie e radio-indotte. Un’analisi costi-utilità per il progetto TOP-IMPLART OLIMPIA PINO E FRANCESCO LA RAGIONE La neuromodulazione tramite Brain Computer Interface: basi teoriche e dati empirici BRUNO CARBONARO, FEDERICA VITALE A description of the paradox of unexpected examination in the language of probability MARIA FRANCESCA ZERANI, CARLO SANTULLI Sperimentazione su biocomposito autoprodotto dagli scarti delle vongole per possibile utilizzo di design OPINIONI PIETRO RAMELLINI Con rispetto parlando LUCA BENVENGA Gli Hooligans e la metropoli. Il conflitto che emerge dalla Francia DANIELA TONOLINI Letteratura è formazione RICERCHE AGOSTINO GIORGIO, ANDREA CUPERTINO, MARCELLO CASTELLANO 81 Elettronica sostenibile ROSA ADA VOLPE & FILOMENA MAZZEO Dalla terapia genica al doping genetico n. 36 (1° settembre 2016) 3 N. 36, 1° SETTEMBRE 2016 ISSN 2283-5873 Scienze e Ricerche Rivista bimensile (esce il 1° e il 15 di ogni mese) n. 36, 1° settembre 2016 Coordinamento • Scienze matematiche, fisiche, chimiche e della terra: Vincenzo Brandolini, Claudio Cassardo, Alberto Facchini, Savino Longo, Paola Magnaghi-Delfino, Giuseppe Morello, Annamaria Muoio, Andrea Natali, Marcello Pelillo, Marco Rigoli, Carmela Saturnino, Roberto Scandone, Franco Taggi, Benedetto Tirozzi, Pietro Ursino • Scienze biologiche e della salute: Riccardo N. Barbagallo, Cesario Bellantuono, Antonio Brunetti, Davide Festi, Maurizio Giuliani, Caterina La Porta, Alessandra Mazzeo, Antonio Miceli, Letizia Polito, Marco Zaffanello, Nicola Zambrano • Scienze dell’ingegneria e dell’architettura: Orazio Carpenzano, Federico Cheli, Massimo Guarnieri, Giuliana Guazzaroni, Giovanna La Fianza, Angela Giovanna Leuzzi, Luciano Mescia, Maria Ines Pascariello, Vincenzo Sapienza, Maria Grazia Turco, Silvano Vergura • Scienze dell’uomo, filosofiche, storiche, letterarie e della formazione: Enrico Acquaro, Angelo Ariemma, Carlo Beltrame, Marta Bertolaso, Sergio Bonetti, Emanuele Ferrari, Antonio Lucio Giannone, Domenico Ienna, Rosa Lombardi, Gianna Marrone, Stefania Giulia Mazzone, Antonella Nuzzaci, Claudio Palumbo, Francesco Randazzo, Luca Refrigeri, Franco Riva, Mariagrazia Russo, Domenico Russo, Domenico Tafuri, Alessandro Teatini, Patrizia Torricelli, Agnese Visconti • Scienze giuridiche, economiche e sociali: Giovanni Borriello, Marco Cilento, Luigi Colaianni, Riccardo Gallo, Agostina Latino, Elisa Pintus, Erica Varese, Alberto Virgilio, Maria Rosaria Viviano Scienze e Ricerche in formato elettronico (pdf HD a colori): • abbonamento annuale (24 numeri + supplementi): 42,00 euro (29,00 euro per gli autori, i componenti del comitato scientifico e del collegio dei referees) Scienze e Ricerche in formato cartaceo (HD, copertina a colori, interno in b/n): • abbonamento annuale (24 numeri): 168,00 euro • abbonamento semestrale (12 numeri): 84,00 euro • una copia: 13,00 euro (7,00 euro per gli abbonati alla versione cartacea) Il versamento può essere effettuato: • con carta di credito, utilizzando il servizio PayPal accessibile dal sito: www.scienze-ricerche.it • versamento sul conto corrente postale n. 1024651307 intestato a Scienze e Ricerche, Via Giuseppe Rosso 1/a, 00136 Roma • bonifico sul conto corrente postale n. 1024651307 intestato a Scienze e Ricerche, Via Giuseppe Rosso 1/a, 00136 Roma IBAN: IT 97 W 07601 03200 001024651307 4 La rivista ospita due tipologie di contributi: • interventi, analisi, recensioni, comunicazioni e articoli di divulgazione scientifica (solitamente in italiano). • ricerche e articoli scientifici (in italiano, in inglese o in altre lingue). La direzione editoriale non è obbligata a motivare l’eventuale rifiuto opposto alla pubblicazione di articoli, ricerche, contributi o interventi. Non è previsto l’invio di copie omaggio agli autori. Scienze e Ricerche è anche una pubblicazione peer reviewed. Le ricerche e gli articoli scientifici sono sottoposti a una procedura di revisione paritaria che prevede il giudizio in forma anonima di almeno due “blind referees”. I referees non conoscono l’identità dell’autore e l’autore non conosce l’identità dei colleghi chiamati a giudicare il suo contributo. Gli articoli vengono resi anonimi, protetti e linkati in un’apposita sezione del sito. Ciascuno dei referees chiamati a valutarli potrà accedervi esclusivamente mediante password, fornendo alla direzione il suo parere e suggerendo eventuali modifiche, miglioramenti o integrazioni. Il raccordo con gli autori è garantito dalla segreteria di redazione. Il parere dei referees non è vincolante per la direzione editoriale, cui spetta da ultimo - in raccordo con il coordinamento e il comitato scientifico - ogni decisione in caso di divergenza di opinioni tra i vari referees. L’elenco dei referees impegnati nella valutazione degli articoli scientifici viene pubblicato con cadenza annuale. Chiunque può richiedere di far parte del collegio dei referees di Scienze e Ricerche allegando alla richiesta il proprio curriculum, comprensivo della data di nascita, e l’indicazione del settore scientifico-disciplinare di propria particolare competenza. Scienze e Ricerche Sede legale: Via Giuseppe Rosso 1/a, 00136 Roma Registrazione presso il Tribunale di Roma n. 19/2015 del 2/2/2015 Gestione editoriale: Agra Editrice Srl, Roma Tipografia: Andersen Spa Direttore responsabile: Giancarlo Dosi www.scienze-ricerche.it [email protected] SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | COPERTINA 9 agosto 1945: la bomba atomica su Nagasaki ROBERTO FIESCHI Professore Emerito di Fisica, Università degli Studi di Parma S i potrebbe pensare che non valga la pena di tornare sulle esplosioni atomiche dell’agosto 1945: da tempo è terminata la lunga guerra fredda (si stima che durante quegli anni siano state prodotte 130000 testate nucleari ed effettuate oltre 2000 esplosioni sperimentali), c’è stata la distensione e le superpotenze hanno ridotto in parte i loro arsenali nucleari; la Corea del Nord non preoccupa più che tanto, e l’Iran rispetta gli accordi. Ma non dimentichiamo che nove Stati hanno armi nucleari, che esistono tuttora oltre 15000 armi nucleari nel mondo (quasi un centinaio in Italia), che una parte di esse è pronta all’impiego, che gli Stati non rinunciano a modernizzare i loro arsenali spendendo annualmente centinaia di miliardi di dollari… Missile nucleare nel suo “silos” Ripercorriamo qui in particolare le vicende che accompagnarono il bombardamento di Nagasaki, perché negli ultimi anni sono emersi particolari interessanti, prima ignoti o poco noti. *** Le tappe principali, alla conclusione del Progetto Manhattan: 16 luglio – la bomba al plutonio, chiamata Gadget, viene sperimentata con successo ad Alamogordo, Nuovo Messico (Trinity test), dimostrando che il meccanismo a implosione funziona. E’ il prototipo della bomba, chiamata Fat Man per la sua forma arrotondata, che verrà poi lanciata su Nagasaki. Lo stesso giorno, a San Francisco viene imbarcata sull’incrociatore Indianapolis, per l’isola di Tinian, nell’arcipelago delle Marianne, la bomba all’uranio, chiamata Little Boy, che verrà poi lanciata su Hiroshima; vi arriverà dieci giorni dopo. L’incrociatore verrà affondato da un sottomarino giapponese il 30 luglio: quasi 900 morti. Nei giorni seguenti il 509th Composite Group, che include le Superfortezze volanti B-29 che sganceranno le bombe sul Giappone, incomincia gli addestramenti. 23 luglio – Henry Stimson, ministro della guerra, riceve la lista degli obiettivi (Hiroshima, Kokura e Niigata) e le informazioni sulle bombe disponibili. Due giorni dopo, il generale Leslie Groves, il responsabile militare del Progetto Manhattan, emana l’autorizzazione per gli attacchi atomici; alla lista precedente viene aggiunta Nagasaki. 26 luglio – a Los Alamos viene consegnato a Raemer Schreiber, l’ufficiale che sarà responsabile del suo trasporto a Tinian, il plutonio che costituirà il nocciolo esplosivo di Fat Man: una massa di 6,1 kg, delle dimensioni di un pompelmo, 5 COPERTINA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 chiamata Rufus, leggermente calda per effetto della radioattività. Durante il volo il plutonio uscì dalla sua scatola e rotolò in giro, fino a che fu ripreso e assicurato. Schreiber sbarcò a Tinian col suo prezioso carico il 28. Il 31 luglio Little Boy è pronto, ma un tifone in arrivo ne ritarda l’impiego. Il giorno seguente il Colonnello Paul Tibbets emana l’ordine per l’attacco atomico e sceglie l’equipaggio che l’accompagnerà nella missione, che coinvolgerò sette bombardieri B29; informerà i suoi uomini che verrà sganciata una bomba potentissima, ma senza rivelarne la natura. Chiamerà il suo B-29 Enola Gay, il nome di sua madre! 5 agosto – Little Boy viene caricato sul B-29; la missione è prevista per il 6 agosto. Prima della partenza il Cappellano William Downey legge all’equipaggio una preghiera composta per l’occasione (*)! Alle 2,45 parte Enola Gay; la bomba è ancora disinnescata, verrà innescata alle 7,30. Partono anche gli altri B-59 che accompagnano la missione. 6 agosto – la visibilità è buona; giunto su Hiroshima, da un’altezza di oltre 6000 piedi, l’aereo sgancia la bomba, che esplode alle 8,15 (ora di Hiroshima) all’altezza di circa 600 metri; la sua potenza è di almeno 12,5 kiloton, ossia equivalente a quella di 12500 tonnellate di tritolo. L’aereo si allontana dalla zona per evitare lo shock della esplosione. La palla di fuoco si espande e la nuvola a fungo raggiunge grandi altezze. Il numero delle vittime è stimato tra 200000 e 240000. (*)“Almighty Father, Who wilt hear the prayer of them that love thee, we pay thee to be with those who brave the heights of Thy heaven and who carry the battle to our enemies. Guard and protect them, we pray thee, as they fly their appointed rounds. May they, as well as we, know Thy strength and power, and armed with Thy might may they bring this war to a rapid end. We pray Thee that the end of the war may come soon, and that once more we may know peace on earth. May the men who fly this night be kept safe in Thy care, and may they be returned safely to us. We shall go forward trusting in Thee, knowing that we are in Thy care now and forever. In the name of Jesus Christ. Amen.” 6 Il Giappone rifiuta di arrendersi. 8 agosto – oltre cento B-29 bombardano Tokio, distruggendo buona parte di quanto era sopravvissuto ai precedenti attacchi. L’Unione Sovietica dichiara guerra al Giappone. IL BOMBARDAMENTO DI NAGASAKI La missione per lanciare sul Giappone la seconda bomba atomica fu più complicata della prima; quasi nulla andò secondo i piani prestabiliti. Prima di morire Frederick Ashworth ha rivelato alcuni fatti ignoti o poco noti su quanto avvenne in quei primi giorni di agosto. Ashworth è stato il responsabile dell’assemblaggio dei component di Fat Man e del controllo della bomba a bordo del velivolo che la sganciò su Nagasaki. Vale la pena di desrivere la vicenda con un certo dettaglio. Il 2 agosto erano arrivati a Tinian i component di Fat Man da assemblare. Fat Man è una bomba molto diversa da Little Boy: l’esplosivo è plutonio anziché uranio 235, il meccanismo d’innesco è più complicato, tanto che gli scienziati di Los Alamos ritennero necessario sperimentarne un prototipo (the Gadget); la potenza esplosiva è quasi doppia, 22 kt; è il prototipo di tutte le bombe che verranno fabbricate nei decenni successivi. Il lancio di Fat Man era previsto per l’11; l’obiettivo prioritario era Kokura la città con i più grandi impianti di munizioni; Nagasaki era l’obiettivo di riserva. Il 7 agosto viene deciso di anticipare il lancio di Fat Man, SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | COPERTINA al 9 agosto, anche a causa delle previsioni dell’avvicinarsi di un tifone. La giustificazione di questo immediato secondo lancio era di forzare i giapponesi alla resa, dando l’impressione che molte altre bombe atomiche fossero disponibili. Ma il Giappone era già pronto alla resa. 8 agosto – un giovane ingegnere nucleare, Bernard O’Keefe, sta sistemando il nocciolo entro la bomba; prova a inserire il cavo che innesca l’esplosione nella presa ma si accorge con angoscia che non è possibile perché ambedue le connessioni sono femmine. Scopre che all’altro estremo del cavo la spina è saldata, scorrettamente, con un’altra spina; cerca un saldatore e riesce a sistemare le connessioni. Ora Fat Man è pronto e, alle 22, viene caricato sul B-29 chiamato Bockscar. O’Keefe è esausto. Alla missione partecipano tre aerei, Bockscar, con la bomba, Big Stink, con l’attrezzatura fotografica e Great Artist, con gli strumenti per misurare gli effetti dell’esplosione; due aerei da ricognizione partiranno un’ora prima. Per poter ospitare la grossa bomba e per ridurre il peso dell’aereo tutte le armi di bordo sono state tolte; ciononostante l’aereo stenta a decollare. Il Rendezvous è stabilito a 17000 piedi al di sopra di Yakushima; il colonnello Tibbets informa gli equipaggi che non devono attendere più di 15 minuti al Rendezvous, prima di procedere per il Giappone, per non esaurire il carburante indispensabile per il ritorno. Il B-59 Bockscar 9 agosto, 02.15 – al momento della partenza si scopre che la pompa di uno dei tank del carburante di riserva non funziona; si parte comunque, alle 3.47. Poco dopo partono anche gli aerei The Great Artiste e Big Stink. Un’ora prima erano partiti i due aerei che devono controllare le condizioni del tempo, Enola Gay e Laggin’ Dragon. Alle sette Philip Barnes, l’assistente di Ashworth, spaventato, sveglia il suo capo che si era addormentato: “C’è qualcosa che non va, una spia rossa lampeggia, come se la bomba dovesse esplodere”. Barnes e Ashworth consultarono le istruzioni tecniche, iniziano i controlli e scoprono che due interruttori erano stati invertiti nel procedimento per armare l’ordigno; sistemati nella loro posizione corretta, l’allarme cessa e Ashworth torna a dormire. Ore 9.10 - Bockscar sale a 30000 piedi, raggiunge il punto di Rendezvous, vede l’aereo The Great Artiste, ma non il terzo aereo, Big Stink; il comandante Sweeney, in contrasto con Ashworth che vorrebbe procedere, e contravvenendo agli ordini ricevuti da Tibbets, gira lentamente sull’isola di Yakushima per ben 45 minuti: così si spreca prezioso carburante, mettendo a rischio il viaggio di ritorno. Big Stink intanto stava volando a 39000 piedi, cercando invano gli altri due velivoli. Ore 10.44 – Bockscar arriva sopra Kokura, l’obiettivo prestabilito, ma la visibilità è insufficiente; dopo alcuni voli di attesa intorno alla città, la contraerea e i caccia giapponesi costringono gli aerei ad allontanarsi. Si decide allora di dirigersi verso l’obiettivo di riserva, Nagasaki, 95 miglia più a sud, dove i due aerei arrivano un’ora dopo. Nagasaki era una città collinosa su una baia pittoresca; era famosa perché vi era stata ambientata l’opera Madame Butterfly di Giacomo Puccini; ospitava i grandi impianti militari Mitsubishi, sul fiume Urakami. Ora da oltre oceano, invece dell’odioso Pinkerton, ufficiale della marina degli Stati uniti, arriva un potente B-59 col suo carico di morte. Ore 12.02 (11.02 ora di Nagasaki) – La città è coperta da nubi; a un certo punto, si apre uno spiraglio di visibilità e la bomba viene sganciata. La fretta impedisce di colpire esattamente l’obiettivo previsto, così l’esplosione risparmia una parte della città. Fat Man esplode a un’altezza di 650 piedi, con una potenza di 22000 tonnellate di tritolo. Quasi la metà della città è distrutta, tuttavia la struttura collinare riduce i danni. Come a Hiroshima, la situazione è drammatica e caotica: moltissimi ospedali sono distrutti ed è impossibile curare i feriti; case, chiese scuole sono scomparse; i trasporti non esistono più; il numero di morti è incerto: tra 60000 e 80000 persone. A questo punto, compiuta la missione, i due aerei non hanno carburante sufficiente per il ritorno alla base e si prospetta lo scalo a Okinawa, o anche un ammaraggio di fortuna. Ashworth invita l’equipaggio a indossare le giubbe di salvataggio. 7 COPERTINA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 Ore 1.00 – si avvista Okinawa. In extremis Bockscar riesce ad atterrare, lanciando razzi per avvisare la torre di controllo, nonostante che uno dei motori sia senza carburante, e riesce a evitare di travolgere altri aerei intorno alla pista. A terra si pensava ormai che l’aereo fosse perduto. Più tardi, con gli altri due aerei, riparte per Tinian, dove atterra a tarda notte. 8 Sulla giustificazione per l’impiego delle bombe atomiche e sui reali motivi che portarono gli Stati Uniti alla decisione il dibattito è stato molto ampio negli anni e nei decenni successivi a quell’agosto 1945. Uno dei motivi fu certamente una prova di forza verso l’URSS, in vista dei contrasti del dopoguerra. Prevale la convinzione che il Giappone si sarebbe comunque arreso, specialmente dopo l’intervento sovietico. SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA COMUNICAZIONE McLuhan, Shakespeare e il potere (dei media) GIAN PAOLO CAPRETTINI Università degli Studi di Torino, Master in Giornalismo 1. IL POTERE COME ESTENSIONE: VOCE E I SCRITTURA, PENSIERO E AZIONE l potere, genericamente parlando, si potrebbe definire come l’estensione dell’uomo. Forse questa è soltanto un’immagine antropologica che si riferisce alle capacità che soprattutto la mano esprime chiaramente, e anche il braccio, come fosse un utensile: “le prolongement de la main” secondo l’etnologo Leroi-Gourhan. Il potere è anzitutto una capacità tecnicopratica di agire in uno spazio. La stessa capacità della scrittura si realizza in una gestualità che dà vita a una grafia espressa mediante una sequenza che occupa uno spazio. Anche da qui discende la grande importanza dei media da intendere come espansioni delle braccia e della mente umani. Lo stesso uso dei personal, tablet e portatili mostra infatti all’opera un potere mediatico che si esprime nella utilizzazione del sistema mente-braccio-mano. Ma attenzione, Marshall McLuhan ha distinto lo spazio visivo, soprattutto analitico e lineare, dallo spazio acustico, simultaneo e sinestetico. E parallelamente, potremmo aggiungere, si deve distinguere l’attività della scrittura che ha bisogno di un supporto, dal foglio di carta allo schermo, e che si effettua mediante la digitazione - dall’attività della voce, la quale al contrario è più sintetica che analitica, in quanto si diffonde in uno spazio che viene già dato e definito e ha scansioni e riconoscibilità grazie all’ascolto. Radicalizzando, la scrittura vede in posizione dominante il mittente, che la produce, la voce invece il destinatario, che la riconosce. Scrittura e voce producono manifestazioni simboliche – “espan- sioni simboliche”, come le avrebbe chiamate Leroi-Gourhan - assai differenti: la prima istituisce documenti finiti, file costituiti da una sequenza quantificabile, la seconda esercita la sua forza in un contesto e produce effetti di verità assai differenti dal momento in cui si produce a quelli in cui venga riascoltata. La documentazione scritta, anche sul piano giuridico, ha per di più una efficacia e una verosimiglianza di natura differente da quella vocale. Sotto questi aspetti, nella nostra civiltà dei media, forti sono le somiglianze tra scrittura e immagine , tanto da farci notare quanto l’avvento dei telefonini e dei social abbia dato vita, un’altra volta, sull’onda della differenza tra telefono/radio e televisione, a due regimi di senso: uno improntato agli scambi orali-acustici-verbali, l’altro a quelli visivi-iconici-scritti. Messaggi di due distinti generi che poi, ovviamente, si compongono e si fondono in vari modi: ad esempio la scrittura veloce che si fa iconica ovvero l’immagine equivoca, ambigua che necessita di didascalie, di commenti grafico-verbali. A parte tutti i casi, diciamo più naturali, di media, come il cinema e la televisione, dove le fonti sono montate insieme e rese interdipendenti, tanto da generare un ambiente autonomo, quasi con una vita a sé stante. Grazie a queste considerazioni potremmo evidenziare due forme di controllo, due tipi di poteri: uno connesso con le intercettazioni, ad esempio ambientali o telefoniche (vedi il meraviglioso film di Francis Ford Coppola “La conversazione”), e un altro connesso con le registrazioni di telecamere: sostanzialmente un potere che spia i pensieri e un altro che spia le azioni. La civiltà dei media ci impone di passare continuamente da strutture lineari, alfabetizzate, discorsi9 SCIENZE DELLA COMUNICAZIONE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 ve, quelle della lingua, a configurazioni sintetiche, onnicomprensive. McLuhan, oltre cinquant’anni fa, parlava di postalfabetismo, cioè di un ritorno a forme di comunicazione e di potere di tipo tribale, orale, spaziale, caleidoscopico: tutto quello che oggi ci ha, anche felicemente, invaso con i new media e i social ma che ci interpella allarmati sulla invasione dei nostri spazi privati, del nostro agire quotidiano. Un potere insomma, un controllo che discende direttamente dall’uso dei media, dalle onde alle tracce magnetiche. Perché e come questa osservazione ci porta a Shakespeare? A poche pagine dall’inizio di uno dei suoi libri folgoranti, “Understanding Media” (Gli strumenti del comunicare, 1964) McLuhan cita più volte Shakespeare, a cominciare dalla celebre finestra di Giulietta: “Zitto! Che luce erompe da quella finestra?...Ecco: parla … e tuttavia non dice nulla” (“Romeo e Giulietta”, atto II, scena II), che a suo parere pare una moderna televisione; e poi un passo di “Otello” (atto I, scena II), quando Brabanzio accusa Otello dell’uso di “sporchi incantesimi”, di “droghe e filtri che fiaccano la volontà” al fine di “abusare della fragile giovinezza”di Desdemona: qui McLuhan fa un paragone con “il potere di trasformazione” dei media; e ancora in “Troilo e Cressida” Shakespeare, secondo McLuhan, “esprime la consapevolezza che una buona navigazione sociale e politica dipende dal saper prevedere le conseguenze delle innovazioni” (p. 18). McLuhan è un visionario provocatore ma conosceva bene l’opera di Shakespeare che aveva studiato a Cambridge, dove aveva partecipato a una memorabile lecture tenuta da John Dover Wilson, nel 1934, l’anno prima che uscisse il suo celebre libro What happens in Hamlet (“Cosa accade in Amleto”).In effetti i due drammi principi per cogliere le articolazioni del potere sono “Amleto” e “Giulio Cesare”. Il primo mostra un Amleto (erede dei miti arcaici della tradizione norrena e dell’Irlanda celtica, dove in realtà è più un semplicione che un eroe ma comunque un uomo non afflitto da dubbi) calato nell’inquietudine e nell’esitazione della vendetta, simulatore di follie, trascinato a valutare la colpa della madre che ha sposato l’assassino del padre pochi mesi dopo l’omicidio. Insomma il potere stritolato nelle questioni dinastiche, nel destino tragico delle decisioni politiche : Carl Schmitt riporta Amleto al problema della successione di Elisabetta sul trono di Inghilterra. Un Amleto che esprime le lacerazioni religiose e politiche dell’Europa, a pochi decenni dalla nascita di quell’era di Gutenberg, l’era della stampa, la prima complessa forma di meccanizzazione secondo McLuhan che ha generato nuove forme di organizzazione del lavoro. Così l’incertezza di Amleto riflette le inquietudini di un’epoca. E “Giulio Cesare”? Celebre l’inizio, dove letteralmente si parla del carro del vincitore, dell’ingresso trionfante di Cesare a scapito di Pompeo.“O duri cuori, crudeli uomini di Roma, non conosceste Pompeo? Quante volte siete saliti sulle mura.. con i vostri bimbi sulle braccia e lì siete rimasti l’intera giornata per vedere il grande Pompeo , e quando vedevate appena spuntare il suo carro non avete innalzato gridi tali che il Tevere tremava?... Ed ora spargete fiori sul cam10 mino di colui che viene a trionfare sul sangue di Pompeo! Andatevene” (atto I, scena I). Il potere è dunque un teatro globale, uno spazio scenico in cui si muovono le forze e i destini, ma oggi, nota McLuhan nel 1972 in un’intervista, non ci accontentiamo più di essere spettatori, vogliamo essere protagonisti nel “teatro globale” che è diventato il nostro mondo, la nostra vita. “Non c’è più una platea: sono diventati tutti attori, tutti coinvolti nell’azione globale del mondo… Dopo la conquista della luna… lo stesso nostro pianeta è diventato un’astronave: ognuno sulla Terra è diventato membro dell’equipaggio”. Analogamente Shakespeare dà vita a quel memorabile incontro di Amleto con l’attore che declama la morte di Priamo, che piange per Ecuba. “Gli attori sono la cronaca del nostro tempo” afferma Amleto: il teatro è nel teatro, ha offerto “uno specchio alla vita”, il mondo intero, nella poetica barocca, è diventato teatro. “Operare nella dimensione pubblica – notava Schmitt in Amleto o Ecuba (1956) – era operare su di un palcoscenico”; il potere, la politica dunque erano spettacolo e quindi da allora sarebbero stati pronti a venire anche smascherati sul loro stesso palcoscenico. 2. TEMPO, SPAZIO E IL “GIOCO” DELLA COMUNICAZIONE Si è più volte sostenuto (ricordo una sottolineatura di Umberto Eco) che è la dimensione del presente a dominare la scena attuale, a coinvolgere le nuove generazioni. A mio parere è il processo di globalizzazione, quello banalmente del villaggio globale, ad avere creato, più che una dominanza del presente, una specie di sincronicità simultanea, una cancellazione del procedere del tempo. L’idea che vi sia uno spazio senza confini, globalizzato, porta con sé la conseguenza che il tempo si fermi, si sospenda, meglio, si astragga, tanto che il relativismo è stato sostituito da una sorta di nichilismo del divenire: esso nasconde una inquietante predeterminazione, la tendenza ad attenderci soluzioni apocalittiche alimentate da vari timori o da paralizzanti stabilità o ancora da recessioni prodotte da difficoltà economiche. L’idea di progresso è stata di fatto cancellata nella postmodernità ma perfino quella di sviluppo è in difficoltà, essendo l’asse storico avvitato su stesso, reso prigioniero da allarmismi o semplicemente da previsioni, analisi delle tendenze, sondaggi, tutte azioni volte a mitigare, annullare o perfino ad anticipare l’azione del tempo e le conseguenze del suo scorrere. McLuhan lo notava in un scritto del 1970: “Per l’uomo arcaico o tribale non c’era passato né storia. Solo un eterno presente. Oggi noi assistiamo a un ritorno a questa visuale da quando le innovazioni tecnologiche sono divenute così imponenti da creare sempre nuovi scenari uno sull’altro”. Mentre però l’uomo arcaico, legato alla tradizione orale, viveva “immerso nella realtà” e nello stesso tempo in conformità ad archetipi che gli fornivano ritmi (ad esempio la notte e il giorno, le stagioni e i cicli della luna, e poi il lavoro e la festa, il profano e il sacro ecc., come ha ricordato anche Mircea Eliade), oggi si è immersi nei media e gli archetipi appaiono SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA COMUNICAZIONE unicamente per i loro guasti, per le loro crisi, attraverso effimere epifanie di “divinità momentanee”(Cassirer). Ne deriva , tra l’altro, ciò che McLuhan - in una lettera del giugno 1968, a Pierre Elliott Trudeau, il primo ministro canadese dell’epoca, suo amico – indicava come “l’erosione dell’identità individuale causata dall’ambiente del software”. E a questo riguardo, immaginando gli effetti di mutazione generati dai media, McLuhan ipotizzava “terapie sociali e programmi di immunizzazione” nei confronti dei media paragonabili all’azione preventiva in medicina. I nuovi media – ma siamo nel 1968!- avrebbero reso tutte le istituzioni obsolete, e dunque il potere democratico– suggerisce a Trudeau in una lettera successiva – avrebbe potuto avvantaggiarsi dallo stimolare non tanto il feed back, la risposta degli interlocutori, bensì il feed forward, cioè l’anticipazione di informazioni, la volontà e la capacità, da parte di chi governa, di segnalare i propri problemi emergenti , ad esempio in televisione, in modo da ricevere suggerimenti dai cittadini, soprattutto dai giovani. Pura fantascienza? Intervistato da Empedocle Maffia per il GR1 della Rai, nel 1972, McLuhan ricorda che Tommaso d’Aquino sosteneva che il contatto è la prima forma di ogni conoscenza. E siccome il contatto “è costituito da piccolissimi intervalli”, tali intervalli “non devono essere né molto ampi, altrimenti si perde la connessione e nemmeno troppo stretti, altrimenti si perde il respiro”. Vale pertanto la metafora dell’ingranaggio e del lubrificante che ne garantisce il movimento senza rotture. Dunque, gioco, quel gioco che ci dev’essere tra l’asse e la ruota. I media infatti assediano i propri utenti come il potente (o il cantante) quando i seguaci (o i fan) non gli danno fiato. Nessun medium si sottrae all’essere incalzante, a cancellare lo spazio e il tempo, in ogni circostanza, in ogni occasione. Ancora nel Giulio Cesare Shakespeare faceva dire all’indo- vino (atto II, scena IV): “Qui la strada è stretta: la folla che segue Cesare alle calcagna, di senatori, di pretori e di comuni supplicanti farebbe quasi morire schiacciato un uomo debole: io me ne vado in un posto più sgombro e là parlerò a Cesare quando s’avanza”. La parola dunque ha bisogno dei suoi spazi, delle sue pause, dei suoi giochi: esperienza e necessità assai difficili quando tutta la stessa realtà è trasformata in un equivalente mediatico, quando l’esperienza senza media è quasi impossibile. Come, in ultima analisi, dare a Cesare quel che è di Cesare, ma soltanto quello e non altro? RINVII BIBLIOGRAFICI G. P. Caprettini, Modernità all’italiana. Origini e forme dello spettatore globale, Cartman, Torino 2012. G. De Santillana, H. von Dechend, Il mulino di Amleto. Saggio sul mito e sulla struttura del tempo (1969), trad. it. Adelphi, Milano 1983. R. Eugeni, Semiotica dei media. Le forme dell’esperienza, Carocci, Roma 2010. A. Leroi-Gourhan, Il gesto e la parola (1964), trad.it. Einaudi, Torino 1977. M. McLuhan, Gli strumenti del comunicare (1964), trad.it. Il Saggiatore, Milano 1990. M. McLuhan, Corrispondenza (1931-1979), trd.it. SugarCo, Milano 1990. M. McLuhan, Le radici del cambiamento. Platone, Shakespeare e la tv, Armando, Roma 1998. M. McLuhan, Percezioni. Per un dizionario mediologico, Armando, Roma 1998. C. Schmitt, Amleto o Ecuba. L’irrompere del tempo nel gioco del dramma (1956), trad.it. Il Mulino, Bologna 1983. 11 PROTAGONISTI | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 Ricordo di Paolo Gasparini ROBERTO SCANDONE Università degli Studi Roma Tre I l 28 luglio è deceduto Paolo Gasparini, Professore Emerito dell’Università Federico II di Napoli. Paolo era nato a Napoli nel 1937. Fra i suoi primi ricordi vi è quello dell’ultima eruzione del Vesuvio nel 1944 osservata da Sant’Anastasia così come ci è narrato nel bel libro di Elena Cubellis e Aldo Marturano sulle testimonianze dell’eruzione. Si presentò alla maturità con molta apprensione, tanto che, come ci raccontò egli stesso, insieme ad altri compagni di classe si recò a piedi al Santuario di Pompei prima di affrontare l’esame. I suoi primi passi universitari furono incerti. Iscritto alla facoltà di Ingegneria, ritenne opportuno abbandonarla dopo un burrascoso esame con il famoso e temibile matematico napoletano Renato Caccioppoli, finito con un diciotto e lancio del libretto dalla finestra. Questo evento lo spinse a iscriversi a Geologia dove nel 1961 si laureò con lode svolgendo una tesi in Geofisica sulla Radioattività dell’Isola d’Ischia. Molto più deciso e veloce fu il suo percorso accademico che avvenne secondo lo schema classico di allora: borsa di studio CNR, posto di Tecnico Laureato e, nel 1964, Assistente Ordinario alla Cattedra di Fisica Terrestre. Conseguì a soli trenta anni la libera docenza, passo fondamentale per il proseguimento della carriera. A questo punto avvenne una svolta che rappresentò una novità rispetto al comune percorso accademico italiano e che è solo un indizio dell’aspetto intraprendente del suo carattere: utilizzando una borsa di studio Nato si recò presso la Rice University in Texas, per perfezionare le sue conoscenze di radioattività delle rocce e successivamente fu invitato al Lawrence Radiation Laboratory a Berkeley. Grazie a queste esperienze pubblicò, insieme a John Adams, un libro con la Elsevier: Gamma-ray spec12 trometry of rocks. Al suo ritorno in Italia, alla fine del 1969, cominciò formare un suo gruppo di ricerca per lo studio della radioattività delle rocce e della geocronologia. Primi componenti del gruppo furono la borsista Lucia Paolo Gasparini Civetta e il tecnico Nicola Roberti. Io lo conobbi a fine 1969 quando lo incontrai per concordare i corsi da seguire per l’indirizzo di Geofisica della laurea in Fisica. Allora l’indirizzo non era molto popolare a Fisica, e i pochi studenti che lo sceglievano erano considerati come merce rara. Con Paolo seguii il corso di Geofisica Nucleare e incontrai altri ragazzi che stavano svolgendo la tesi con lui: Giuseppe Capaldi, Giuseppe Rolandi e Massimo Cortini. Una cosa mi colpì particolarmente del corso, fra i libri di testo indicati vi era “T con 0” di Italo Calvino. Alla richiesta del perché di tale testo mi chiese solo se mi era piaciuto e tanto bastava. Questo fu il mio primo contatto con l’ironia di Paolo. Eravamo nel pieno della contestazione studentesca e la levità di Paolo era rinfrescante nell’atmosfera cupamente accademica dell’Istituto di Fisica Terrestre, dominato dall’unico anziano cattedratico, Giuseppè Imbò, che pretendeva di regolare vita pubblica e privata di tutti i suoi dipendenti. Ma, per dirla con Guccini, “un’altra grande forza spiegava allora le sue ali”: per la geologia la “grande forza” era la teoria della tettonica a Zolle. L’idea di Paolo era di applicare quel concetto, allora davvero rivoluzionario, per comprendere la storia geologica dell’Italia. Il laboratorio di geocronologia, e poi quello di paleomagnetismo, realizzato alcuni anni più tardi, dovevano essere funzionali allo scopo. Solo un miracolo poteva permettere la realizzazione di un progetto tanto ambizioso. Il miracolo avvenne nel 1970 quando Paolo fu “ternato” a soli 33 anni, al concorso per Ordinario di Fisica Terre- stre dell’Aquila. Allora il meccanismo era tale per cui si doveva rientrare nella terna di un concorso a cattedra per poi essere chiamati dove si liberava un posto. Il posto che si liberò fu quello lasciato dal pensionamento di Giuseppe Imbò. Così in un solo colpo Paolo si trovò ordinario di Fisica Terrestre e direttore dell’Istituto monocattedra, e per di più direttore dell’Osservatorio Vesuviano. Il vento del cambiamento investì l’Istituto e l’Osservatorio come un ciclone. L’Osservatorio era da anni amministrato con parsimonia e ristrettezze senza alcun progetto di espansione malgrado i posti disponibili. In breve tempo furono assunti giovani studenti che si erano appena laureati in tutti i gruppi di ricerca dell’Istituto di Fisica Terrestre, fra cui Giuseppe Capaldi, Ignazio Guerra, Folco Pingue e Sergio Montagna. Massimo Cortini ebbe una borsa di studio all’Istituto ed il sottoscritto, dopo la laurea nel 1972, un incarico di Tecnico Laureato all’Osservatorio. Nel frattempo, grazie all’amicizia con Felice Ippolito, all’epoca direttore dell’Istituto di Geologia, si realizzava nel 1973 la fusione fra l’Istituto di Fisica Terrestre e l’Istituto di Geologia nel nuovo Istituto di Geologia e Geofisca guidato da Ippolito. Gasparini manteneva la direzione dell’Osservatorio e proseguiva nella radicale operazione di rinnovamento. Nel corso degli anni furono assunti all’Osservatorio Roberto Scarpa, Edoardo Del Pezzo, Raimondo Pece e Marcello Martini. Allo stesso tempo diversi ricercatori dell’Osservatorio andavano a insegnare in differenti SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | PROTAGONISTI Università Italiane. Le intuizioni di Paolo sulla geodinamica italiana si concretizzarono nel 1973 con la pubblicazione insieme a Franco Barberi, Fabrizio Innocenti e Letterio Villari di un lavoro sul Journal of Geophysical Research con la prima identificazione della placca in subduzione sotto l’arco delle Eolie. Insieme all’importanza scientifica, quel lavoro ebbe anche un altro risvolto: segnò la pacificazione di un lungo contrasto che aveva visto contrapposte la scuola di vulcanologia napoletana a quella pisana. La collaborazione si rafforzò nello stesso anno con un altro importante lavoro di geodinamica sul ruolo della Sicilia nel contesto geodinamico e la identificazione della sua appartenenza alla placca africana, pubblicato nel 1974 sulla rivista Earth Science Letters. Erano anni di lavoro intenso, ma nel gruppo di Geofisica di Napoli la tensione della ricerca si stemperava in un forte rapporto di amicizia extra lavoro, favorito dalla presenza del direttore. Formammo la squadra di calcio dell’Osservatorio Vesuviano e Paolo ne divenne il portiere dopo un clamoroso scivolone del titolare, Lorenzo Casertano, che gridando “lascia, lascia” su uno spiovente a campanile si fece scavalcare dalla palla che finì in porta. Facemmo varie partite con alterno esito contro l’Osservatorio Astronomico e la Banca Popolare. A volte, la sera, andavamo a giocare a pallacanestro al dopolavoro FS dei Campi Flegrei, e Paolo svolgeva egregiamente il ruolo di play-maker. Non mancarono episodi spassosi dei quali si rise insieme per anni. Recatosi una volta a vedere una partita di calcio del Napoli, insieme a Nicola Roberti, non trovando biglietti disponibili, si infilarono in un buco della recinzione dove Paolo fu letteralmente sparato oltre dalla pressione della folla. Ci chiedemmo spesso cosa ne avrebbero pensato i suoi colleghi se fosse stato fermato dalla polizia e finito nelle pagine di cronaca. Alla metà degli anni 70, Paolo intraprese un nuovo e fondamentale ruolo favorendo la realizzazione e poi assumendo la direzione del Progetto Finalizzato Geodinamica. Il progetto rappresentò, a mio avviso, il più stimolante tentativo di coordinare insieme geofisici, geologi, vulcanologi e ingegneri per definire il carattere e i rischi geofisici del territorio italiano. Furono coinvolte personalità di primo piano come Franco Barberi, che poi ne prenderà la direzione, Paolo Scandone, Giuseppe Grandori, Giuseppe Luongo, Fabrizio Innocenti, Letterio Villari e altri. Il risultato di quegli studi ha rappresentato la base di molte delle conoscenze scientifiche attuali sui terremoti e i vulcani dell’area italiana. Una logica conseguenza di questi progetti fu il rinnovato interesse per il Vesuvio e i Campi Flegrei con l’avvio di nuove indagini sul rischio vulcanico. In quest’ambito fu realizzato un primo convegno scientifico a Napoli con l’intervento congiunto delle autorità politiche e dei ricercatori per cercare di illustrare i problemi del rischio nell’area Napoletana. Al convegno, svoltosi nel 1977 nel Maschio Angioino, parteciparono oltre ai ricercatori napoletani e pisani, anche il famoso vulcanologo inglese George Walker ed il grande vulcanologo Alfred Rittman in una delle sue ultime presentazioni pubbliche. Furono in quella sede presentate le prime mappe di rischio vulcanico del Vesuvio Nuovi interessi tuttavia attrassero la curiosità di Paolo e, sul finire degli anni 70, lasciò a Franco Barberi la direzione del Progetto Geodinamica e cominciò ad interessarsi del magnetismo terrestre recandosi successivamente in Venezuela, Norvegia e Brasile dove ri- 13 PROTAGONISTI | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 mase per vari anni. Lo incontrai di nuovo proprio in Brasile per scrivere insieme a lui e a Marta Mantovani un lavoro sullo stato termico della camera magmatica del Vesuvio. Ebbi così anche l’occasione di leggere in anteprima alcuni capitoli del nuovo libro che stava scrivendo insieme a Marta: Fisica della Terra Solida, un libro di testo di Geofisica in italiano su cui si sono formati generazioni di geofisici. Il terremoto del 1980 dell’Irpinia e Basilicata ci colse tutti impreparati; la rete sismica dell’Osservatorio centrata sulla sorveglianza del Vesuvio e dei Campi Flegrei era inadeguata a identificare con precisione la localizzazione e la magnitudo dell’evento. Paolo si trovava negli Stati Uniti e dapprima non colse la gravità dell’evento, ma ritornò in Italia dopo alcuni giorni e si adoperò per il miglioramento della rete sismica. L’Osservatorio si dotò per la prima volta di un adeguato calcolatore con cui localizzare gli epicentri dei terremoti e si modernizzò la rete dei sensori. Fu forse questa esperienza che lo spinse a occuparsi dello studio del Radon come precursore delle eruzioni e dei terremoti. Nel 1983 lasciò, per sua scelta, la direzione dell’Osservatorio Vesuviano, cedendola a Giuseppe Luongo che per molti anni aveva svolto le funzioni di vice-direttore. Curiosamente questo passaggio coincise con il riacutizzarsi della crisi bradisismica dei Campi Flegrei, così come era avvenuto all’inizio della sua direzione. Per un certo periodo si dedicò all’attività professionale, aprendo uno studio di consulenza a Milano, e meditò 14 in alcuni momenti di abbandonare l’università. Fortunatamente questo non si verificò e alla fine degli anni ’80 riprese a interessarsi alla sismologia, diventando coordinatore del primo corso di dottorato in Geofisica e Vulcanologia a Napoli. Fu questo dottorato la fucina di un nuovo gruppo di ricerca orientato principalmente a problemi sismologici di cui poi si occuperà fino al suo pensionamento nel 2012. Nel 1991 assumeva la carica di Presidente dell’Associazione Internazionale di Vulcanologia e Geochimica dell’Interno della Terra. Anche in questa funzione si adoperò per sburocratizzare l’Associazione, per renderla partecipata e vivace attraverso l‘iscrizione di soci individuali, mentre fino ad allora si reggeva sulla sottoscrizione dei singoli stati che aderivano. Al termine della sua carriera accademica, e anche dopo il pensionamento, mantenne la presidenza della fondazione scientifica dell’Università Federico II di Napoli che si occupa di ambiente e rischi naturali. Da questi cenni sulla sua storia scientifica e umana, emerge come Paolo fosse una persona brillante, curiosa e di vasti interessi. Ha saputo approfondire molteplici tematiche delle scienze della terra e ha creato una scuola di ricercatori che rappresentavano il suo braccio intellettuale. Non era un accentratore, anzi favoriva negli altri la ricerca libera e senza vincoli, sapeva spronare con garbo i suoi allievi e collaboratori per farne emergere le capacità. Ricordo che quando agli inizi della mia carriera gli manifestai i dubbi sulla tematica che avevo affrontato fino a quel momento, sdrammatizzando mi consigliò di prendermi del tempo che prima o poi avrei trovato l’argomento che più mi avrebbe attratto. Così fu, e gliene sono ancora grato. In occasione del suo pensionamento, organizzò un incontro per salutare tutte le persone che riteneva avessero contribuito ad arricchire la sua vita e il suo lavoro. Ci ritrovammo in molti, come in un incontro di famiglia con un padre che saluta i suoi figli e fratelli. Paolo è stato un innovatore che ha contribuito a rilanciare la Geofisica in Italia nel secondo dopoguerra, in un periodo difficile per il nostro paese, e ha continuato a stimolarci con la sua curiosità, le sue domande, la sua inarrestabile intraprendenza. Addio Paolo che la terra ti sia lieve come fu lieve il tuo calpestarla. - Cubellis E. Marturano A., 2010, Testimonianze, Ricordi e Descrizioni dell’ultima eruzione del Vesuvio nel marzo 1944, Napoli, pp. 42+214 - Barberi F, Gasparini P, Innocenti F and Villari L (1973) Volcanism of the southern Tyrrhenian Sea and its geodynamic implications. Journal of Geophysical Research 78: 5221-5232 - Barberi F., L. Civetta, P. Gasparini, F. Innocenti, Scandone R., L. Villari, 1974, Evolution of a section of the Africa-Europe plate boundary: paleomagnetic and volcanological evidence from Sicily, Ea. Plan. Sci. Lett., 22, 123-132 - M. S. Mantovani, P. Gasparini 1981, Fisica della terra solida, edizione italiana a cura di Cornelia Veltri, Liguori, Napoli, Editore. pp. 520 SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | PROTAGONISTI Mauro Cristaldi 1947 - 2016 In memoriam PIERANGELO CRUCITTI, FRANCESCO BUBBICO, LUCA TRINGALI Società Romana di Scienze Naturali, SRSN Ma noi viviamo in un’epoca in cui è proprio il naturalista che riesce a vedere più chiaramente certi pericoli. Spetta dunque a lui predicare. Konrad Lorenz, Gli otto peccati capitali della nostra civiltà, 1973 I l 21 agosto 2016 il Prof. Mauro Cristaldi è deceduto improvvisamente stroncato da un infarto mentre era in vacanza in Sicilia. Su mandato di questa rivista, di cui era collaboratore e membro del Comitato Scientifico (Cristaldi et al., 2014) spetta a noi il compito di tratteggiare gli aspetti salienti della sua attività didattica e scientifica all’unisono con le altissime doti umane; compito che assolviamo con il dolore e la mestizia di chi lo ha conosciuto e frequentato per oltre trenta anni entrando con lui in un rapporto di profonda solidarietà intellettuale. Mauro (ci si consenta) inizia la sua carriera di scienziato conseguendo la Laurea in Scienze Naturali nel 1972 presso Sapienza - Università di Roma. In questa prestigiosa sede ottiene la qualifica di ricercatore nel 1980, quindi diventa professore associato di Zoologia (UniCal, 1987-1991) e successivamente di Anatomia Comparata (UniRoma1, Facoltà di Scienze Matematiche Fisiche e Naturali, dal 1991 fino alla sua scomparsa). È tra i soci fondatori della Associazione Teriologica Romana (AsTeRo) insieme ad altre figure di teriologi e zoologi di vaglio - Giovanni Amori, Longino Contoli, Augusto Vigna Taglianti. Sotto la sua presidenza matura e si concretizza l’idea di trasformare l’AsTeRo in una istituzione a carattere nazionale. È infatti nel corso della assemblea dei soci di Perugia del 30 settembre 1992 (presieduta da Mauro Cristaldi nel corso del 54° Congresso dell’Unione Zoologica Italiana) che viene formalmente costituita la Associazione Teriologica Italiana (ATIt), sotto la guida del neo-eletto Presidente prof. Erne- Mauro Cristaldi sto Capanna. Nel 2012 viene cooptato all’unanimità Socio Ordinario della Società Romana di Scienze Naturali (SRSN) istituzione con la quale ha collaborato per oltre trent’anni in maniera generosa e produttiva. La sua poliedrica attività scientifica ha interessato numerose linee di ricerca: - biologia morfo-funzionale ed evolutiva dei Vertebrati; - citotassonomia dei Roditori; - protezione ambientale e studio del controllo dei Roditori nelle biocenosi terrestri a bioclima mediterraneo con una specifica attenzione alle aree contaminate, urbane e agricole; - filogenesi dei Roditori e storia naturale delle specie commensali; - comparazione tra teriocenosi terrestri; - utilizzazione dei mammiferi murini selvatici come bioindicatori per la valutazione dell’impatto ambientale in situ, sia in aree protette sia in aree soggette a diverse alterazioni ecologiche (e.g. inquinamento da residui industriali, agricoli, minerari, radioattività e reflui del traffico urbano); - analisi dei micronuclei e delle anomalie spermatiche, determinazione dell’età, valutazione delle asimmetrie morfologiche, analisi sierologiche mirate allo studio della trasmissione di zoonosi, determinazione di radionuclidi e metalli pesanti in piccoli mammiferi; - analisi dei cambiamenti climatici ed effetti potenziali sulle specie (Cristaldi et al., 2001; Milana et al., 2012; Szpunar et al., 2008). Le summenzionate linee di ricerca lo hanno portato a svolgere indagini in situ, in aree contaminate sia in Italia e sia all’estero: - Svezia e Lazio (Cristaldi et al., 1990, 1991) sia in precedenza che a seguito dell’incidente di Chernobyl; - Boemia e Moravia, aree ad elevata contaminazione di origine industriale (Degrassi et al., 1999); - Parco Nazionale di Doñana (Spagna) prima e dopo l’incidente minerario di Aznalcollar del 1998 (Tanzarella et al., 2001); - Lazio e Biellese, contaminazione naturale da Radon (Ieradi et al., 2008); - ex-Jugoslavia, Arcipelago della Maddalena, area PISQ in Sardegna; come consulente dal 1999 sulla contaminazione di aree ad impatto bellico (Cristaldi et al., 2013). Con lo scopo di indagare gli effetti di origine antropica e/o naturale (e.g. produzione energetica e industriale, zoo/ agro-tecnologie, indici di termoxerofilia, piovosità differenziale) ha inoltre iniziato la progettazione di stazioni in aree mediterranee per il monitoraggio delle comunità di piccoli mammiferi (progetti PRIN 2005 e 2009 coord. proff. M. Barbieri e P. Brandmayr). Lo sviluppo della carriera universitaria gli ha consentito di raggiungere le seguenti posizioni: - docente della Scuola di Dottorato in Biologia Animale; - Scuola di Dottorato in Igiene Ambientale e Industriale (diretta dalla Prof.ssa I. Petritsi) 2002 - 2011; - membro dal 2007 del Centro Interdipartimentale per lo Studio delle Scienze Applicate alla Protezione dell’Ambiente e dei Beni Culturali (Direttori proff. L. Campanella e M. V. Russo) presso Sapienza Università di Roma; - collaboratore ufficiale nell’insegna15 PROTAGONISTI | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 mento di “Biologia Animale (con elementi di Anatomia Comparata)” per Scienze Ambientali, insieme alla prof. ssa M. Cobolli (BIO/05); - docente nel modulo di competenza dell’insegnamento di “Zoologia Generale e Anatomia Comparata” per Scienze Naturali; - collaborazione didattica con la fisiologa dott.ssa Giovannella Bruscalupi (BIO/09) nell’insegnamento di “Biologia e Fisiologia Cellulare” per la laurea specialistica in “Monitoraggio Ambientale” (Scienze Ambientali), ora corso “Biomarcatori di Alterazioni Ambientali” per la Laurea magistrale “Monitoraggio e Riqualificazione ambientale”; - introduzione, nel corso di specializzazione in “Conservazione della Natura e delle sue Risorse” (attualmente laurea magistrale in “Conservazione e Divulgazione naturalistica”) dell’insegnamento della Morfologia Comparata. Alla costante attività di ricerca ha sempre affiancato una attenta ed intensa attività didattica, offrendo agli studenti, oltre alle usuali lezioni ex-cathedra, una serie di seminari destinati a fornire, tramite l’intervento diretto di specialisti di diversi settori in qualità di relatori, una visione complessiva di fenomeni evolutivi, adattativi ed ecologico-applicativi, ben consapevole dei limiti oggettivi delle competenze di ogni singolo titolare di cattedra, con il fine ultimo di conseguire una reale integrazione delle conoscenze. La sua attività scientifica non era disgiunta da un appassionato impegno politico data la convergenza di politica e scienza nelle numerose ricerche dedicate agli effetti di contaminanti e radiazioni sui mammiferi (Cristaldi, 1999). Il barbone e il vocione di Mauro erano inconfondibili, costituendo una presenza ed una compagnia costante 16 e rassicurante, non c’era argomento di attualità politica, accademica o scientifica che non venisse commentato con dovizia di particolari dal Nostro. Si usciva dal suo laboratorio, testimonianza di un carattere simpaticamente “scapigliato”, arricchiti e confortati dalla sua generosità. Nel ricordo di una persona di altissima integrità morale e scientifica siamo vicini alla moglie e ai figli in questo doloroso momento. Una commemorazione del prof. Cristaldi, a cura del Presidente della Società Romana di Scienze Naturali, prof. Pierangelo Crucitti, si terrà presso la sede sociale della SRSN (via Fratelli Maristi 43, Roma) in occasione delle celebrazioni del cinquantennale dell’istituzione previste per il 2017. BIBLIOGRAFIA Cristaldi M., 1999. Il dominio globale del mondo USA: come paradigma la “guerra umanitaria” contro la Jugoslavia. Proteo, 3/1999. Cristaldi M., D’Arcangelo E., Ieradi L. A., Mascanzoni D., Mattei T., Van Axel Castelli I., 1990. 137-Cs Determination and Mutageniticy Tests in Wild Mus musculus domesticus Before and After the Chernobyl Accident. Environmental Pollution, 64: 1-9. Cristaldi M., Ieradi L. A., Mascanzoni D., Mattei T., 1991. Environmental impact of the Chernobyl accident: mutagenesis in bank voles from Sweden. International Journal of Radiation Biology & Related Studies in Physics, Chemistry & Medicine, 59 (1): 31-40. Cristaldi M., Ieradi L. A., Amori G., Testi A., 2001. A study on the biological effects induced in natural populations by climatic changes. Italian Workshop on Global Change, National IGBP Committee. CNR, Rome: 241- 242. Cristaldi M., Foschi C., Szpunar G., Brini C., Marinelli F., Triolo L., 2013. Toxic Emissions from a Military Test Site in the Territory of Sardinia, Italy. Int. J. Environ. Res. Public Health, 10: 1631-1646. Cristaldi M., Szpunar S., Foschi C., 2014. La componente mobile animale dell’ecosistema Roma. Scienze e Ricerche, 1: 12-19. Degrassi F., Tanzarella C., Ieradi L. A., Zima J., Cappai A, Lascialfari A, Allegra F., Cristaldi M., 1999. CREST staining of micronuclei from free-living rodents to detect environmental contamination in situ. Mutagenesis, 14: 391-396. Ieradi L. A., Cristaldi M., Ermenegildi A., La Barbera L., Radicchi L., Renzopaoli F., Esposito M., Aumento F., Lombardi S., 2008. Mutagenetic effects in mice exposed to radon-222 emissions in Latium region (Italy). Fresenius Environmental Bulletin, 17: 1420-1425. Milana G., Cristaldi M., Szpunar G., Amori G., Aloise G., Luiselli L., 2012. Distribution models, climatic changes and potential effects on species. Congreso Internacional de Educación Superior “Universidad 2012”. La Habana,Cuba, 6 pp. Szpunar G., Aloise G., Mazzotti S., Nieder L., Cristaldi, M. 2008. Effects of global climate change on terrestrial small mammal communities in Italy. Fresenius Environmental Bulletin, 17: 1526-1533. Tanzarella C., Degrassi F., Cristaldi M., Moreno S., Lascialfari A., Chiuchiarelli G., Ieradi L. A., 2001. Genotoxic damage in free-living Algerian mouse (Mus spretus) after the Coto Doñana ecological disaster. Environmental Pollution, 115: 43-48. SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA FORMAZIONE Management and social criticality in Italy DAVIDE DI PALMA1 AND DOMENICO TAFURI2 1 Department of Sport Sciences and Wellness, Parthenope University, Naples, Italy 2 Full Professor of Methods and Educational Activities of Sport, Parhenope University, Naples, Italy Nowadays, because of the shortage of economic and financial resources, it is increasingly necessary to adopt an effective and efficient management process to address the many critical issues that characterize both the Italian and the international social context. Among these, one of the main problems to be addressed is represented by disability. It can generate social, economic and financial inefficiencies, especially in Italy, where the management approach adopted to limit the adverse effects does not appear powerful. In this regard, the objective of this work is to bring to evidence the importance to implement the foundations of a new management model in Italy, so that we can promote social inclusion, employment and hence economic integration of disabled persons. It will be also described, how this innovative model, already consolidated in other countries, is able to generate the benefits for the various stakeholders of the national socio-economic system. T INTRODUCTION he current global situation fully reflected, in particular, by the Italian one, is characterized by a large and growing gap between the demand for social services (including medical services, health care, economic, financial and business support, etc.) and the constraint of the scarcity of resources available to address them (4). This imposes the need to adopt a management model that, taking into account this imbalance between supply and demand, is also able to satisfy simultaneously social requirement and economic needs. In Italy, one of the main social problems that does not appear optimally managed is represented by disability. It is estimated that over one billion people in the world lives with some form of disability. At least one-fifth of these, approximately 200 million individuals suffer from severe disabilities and so they are forced to face a number of signif- icant difficulties and problems in everyday life. Specifically, in Italy there are 4.1 million disabled people, 1 million of whom are considered seriously disabled. In addition, the percentage of disability in the world and in Italy is continuing to rise due to the gradual increase in the age average of the population and the consequent increase in individuals suffering from chronic diseases (15). Up until now, the solutions proposed in Italy to meet the needs of these citizens were inefficient and the continuous cuts in social policies do nothing but help make the situation more critical. Thus it becomes necessary to resort to an effective and efficient management approach that, in order to pursue improvements in the quality of life for people with disabilities, proposes an organizational and strategic system aimed at social, territorial and economic inclusion of these 17 SCIENZE DELLA FORMAZIONE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 individuals. In this regard, it proposes the implementation in Italy of the “Disability Management” model, an innovative approach, already well established in countries such as Canada and the US, which has the goal of building, managing and organizing solutions that support the autonomy of persons with disabilities in different spheres of everyday life, especially in relation to the labor market and the companies. This implies the consequent need to structure the working figure of “disability manager” as a professional operator able to facilitate the removal of barriers in health care, in rehabilitation processes, in infrastructure, support services, information, education, transport and mainly in the labor market with the intent to unlock the vast untapped production potential of people with disabilities. the progressive aging of the population to which it is closely related the increase of people with chronic degenerative diseases that as a direct result multiply the large number of disabled persons (15). Censis, in fact, states that in Italy in 2020 the number of disabled people will reach about 5 million people, that is almost equal to 8% of the population, up to reach 7 million in 2040, that is 10.9%, as shown in the following table (5, 9). Tab. 1.1: Increase of disability in Italy DISABILITY IN ITALY The concept of disability is not always very clear. In fact, sometimes there is a bit of confusion, probably due to the different definitions used in recent decades to refer to people with disorders, deficits, impairments, or otherwise characterized by different skills from the so-called “Non-disabled”. The succession of different definitions, from the postwar period to the present day, is the result of the evolutionary trend that has characterized the approach to disability both from a medical and a legislative point of view and that also brought to a cultural evolution on the theme both for society and economy as a whole. On May 21, 2001, on the occasion of the 54th World Health Assembly, it was approved the International Classification of Functioning, Disability and Health (ICF) which has been accepted by 191 countries as “standards of evaluation and classification of health and disability”. Disability is thus described as a consequence or result of a complex relationship among the health condition of an individual, personal factors and environmental factors that represent the circumstances in which the individual lives (7, 11, 16, 24). The newly introduced classification is the expression of a bio-psychosocial approach to disability which considers the complex relationships that exist between an individual and the variables range affecting it. The multidimensionality is therefore one of the main features of the model, since not only does it consider the biological aspect of disability, but also the psychological, social and economic ones (7). In fact, the causal link between health condition and disability occurs when the economic and social environment, not adapting to the person’s health conditions, create obstacles and barriers to activity, participation and productivity of the person (1, 3, 10). In relation to this meaning, according to data collected by the WHO, more than one billion people in the world has some form of disability, or about 15% of the world population; about 80% of them lives in developing countries. As for Italy, according to Censis estimates (Social Investment Study Centre), 6.7% of the population is disabled, or about 4.1 million people, of which nearly 1 million to be considered seriously disabled. In addition, we must consider 18 Source: Censis, 2016 (www.censis.it) Concerns that may arise from the analysis of these estimates, oblige the institutions and society to become aware of the problem that is destined increasingly to impact on the sustainability of socio-economic development. In addition, it was estimated that among the poorest people in the world, those who live on less than $ 1 per day, and who lack all those goods that are considered necessities, about 1 in 5 has a disability (5, 6 ). The fact that disability in most cases causes poverty is due to the difficulties that people with disabilities may encounter in carrying out certain activities, as well as the lack of adequate services to ensure their integration and accessibility. All of these issues hinder the participation of these people in society (have an education, a job, etc). The exclusion increases the risk of poverty, which in turn causes disability. The lack of resources to cope with the treatment and care needed can further worsen the situation, aggravating the state of disability. And yet, with regard to the inclusion of the disabled in the labor market, the data collected from a study carried out by the Secretariat for the Convention on the Rights of Persons with Disabilities (Scrpd) show that about 60-70% of people with disabilities in industrialized countries do not have a job (3, 6). According to Istat, in Italy this figure is around 80%, or almost twice the rate of inactivity reported to the rest of the non-disabled population. In Italy in fact, only 16% of people with disabilities, aged between 15 and 74 years, work. Among the disabled people working, estimates show that only 17% of disabled people employed in our country claims to have found a job thanks to the employment centers, while 31% was entrusted to the network of relatives and friends, 20% participated in an open competition and only 16% has sent a resume in response to ads (6, 12, 17). The exclusion of disabled people from the labor market and the economic production system proves to be a problem that does not just creates a great burden for such people, but SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA FORMAZIONE also, and above all, for society as a whole; In fact, only the unused labor generates an economic loss that ranges from 4% to 7% of the national GDP (12). That is why, both for disabled people and national economy is crucial to encourage participation and the ability to express and enhance their skills and abilities, mainly in the business world, but at the moment the management policy of vertical cuts to social policies implemented in Italy seems to diverge from that purpose resulting in a reduction of assistance to the disabled equal to about 20% in the North, 30% in Center and even 50% in southern Europe (17). A change of course is required, achievable through a new management and organizational model for disabled students, intended as productive resources and not socio-economic weights. In this regard it is proposed the innovative approach of “disability management.” AN INNOVATIVE MANAGEMENT MODEL FOR DISABILITY: DISABILITY MANAGEMENT The Disability Management is shaped on the need to reconcile the right to the inclusion of both the disabled and chronically ill, with business efficiency requirements. It has been theorized for the first time in the eighties, in different economic, managerial and organizational disciplines, and it has only spread in some countries such as Canada, the US and Northern Europe, while in others such as China, Japan and France has only recently been taken into consideration. The model has the intent to reconcile the interests of the company with the needs of the worker, whether disabled or sick, to work not only for economic needs, but also to satisfy an unquenchable need for identity and integration through the work, and to ensure their productive contribution to society. The difficulties in reaching this goal are clearly linked to the vision and the preconceptions related to the working capacity of sick and disabled, as well as self-induced mechanisms of disability and disease itself, and related to changes in the performance mode of work as a result of the disease. In fact, if the worker’s needs are just considered within the work place, it tends to create behaviors that lead them, in the long run, to get away and isolate themselves from the business reality, where they are tolerated but not integrated (18). The change of the logic underlying the Italian system of social protection in recent decades, where it has gone from paternalistic government assistance to greater accountability of the recipients of the measures (so-called Workfare), offered new space for the dissemination of the Disability tool management. According to a working definition, the Disability Management is an active process of minimizing the impact of a disability (whether arising from disability, illness or injury) on the individual’s ability to participate competitively to the work environment. The purpose of this management model is, in fact, to offer support to employees with chronic illness or disabilities to optimize their professional performance, while limiting the negative effects of the disease on the performance, through a comprehensive, coherent and progres- sive set up by the company. The company’s ability to actively and effectively participate in the implementation of this system of relations contributes to cost control, as well as to support employment and productivity (19, 20). Although it is primarily aimed at the business market, governments have nevertheless an important role in supporting, encouraging and promoting policies and actions designed to create more opportunities and therefore greater inclusion for people with disabilities. Is, however, important to ask whether the Italian context and related businesses that characterize it, known for their small size, are suitable and prepared to adopt disability management practices. Starting from the provisions of Article 2, letter. “o” of the Legislative Decree. N. 81/2008 of the Consolidated Law on protection of health and safety in the workplace, “Health” means a “state of complete physical, mental and social well-being, not just the absence of disease or infirmity”; this meaning is then conceived by the Italian legislature in the broad sense, thus making it necessary for companies to adapt their organizational, technical and managerial structure to minimize not only the risk of possible disease or infirmity, but also the one connected to all cases where the quality of life of workers may be affected. The concept of health proposed by the Legislative Decree. N. 81/2008, is inspired by the ICF classification established by the WHO, and proves to be quite modern and evolved to accommodate and encourage an integrated approach as recommended by the Disability Management. The real obstacle to the adoption of corporate policies oriented to Disability Management consists in setting the cultural evolution of society. In particular, it should be understood that to balance the needs of the economy with the demands of a model of social protection, it is important that the business world incorporate a culture of enterprise closer to demographic and ethical dynamics (19, 20). In order for these measures to be successful, it is fundamental that businesses, as well as workers and institutions, change their ways of thinking about the problem of disability, which is not to cure disease but a characteristic inherent in human diversity, which must be valued and protected. Institutions should therefore act on the issue both in a general sense, teaching to respect the rights of citizenship of the “weaker” categories, and in a more specific sense, normalizing in Italy these principles of design for all, accessibility and auxiliary technologies, already existing from decades in the US and in the Nordic countries (10, 13, 21). Disabled people represent a largely ignored vast pool of work force; to hire such individuals can constitute a more than sensible choice for business and for the entire economic system in order to increase productivity, but this requires to overcome the fear of what is unknown, and greater attention to capacity rather than disability. The disability management in Italy is the key to activate this change, representing the model to be used for a variety of companies and both public and private organizations in order to facilitate and encourage the inclusion of disabled people in society and in the labor market, turning them into 19 SCIENZE DELLA FORMAZIONE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 productive units for the whole economy. It might be created, as well, a network characterized by the possibility of linking the different companies with disabled persons to obtain a social-economic mutual benefit. In fact, by participating in this network, companies could: make use of a diverse workforce, improve productivity, reduce turnover of staff, make workplaces safer, improve customer service and increase brand loyalty; at the same time it would be encouraged full employment as well as equal opportunities for the disabled, setting up an initiative that has as its primary purpose to counteract negative stereotypes about disability to replace them with an inclusive vision of the value of diversity and the contribution that each individual can give to the company (1, 2). In summary, the disability management aims at promoting practices that make it possible to reduce the problems related to disability, through the reorganization, the reasonable accommodation and a strategic rearrangement (8). This management methodology, leads, in addition, benefits for various categories of stakeholders, in particular in (22, 25): · Governments, since if people with disabilities can reach their own autonomy, welfare costs in their regards are significantly reduced; · The companies, because they can achieve productivity increase, thanks to a better corporate vision, obtained through a more responsible and attentive business approach to the needs of workers; · Trade unions, since the workers are better protected; · Workers, that being valued have the opportunity to fully express their skills. 20 Analyzing, then, the question from a macroeconomic point of view, it must be stressed that the culture of inclusion and equal opportunities is a lever to fight poverty; In fact, if it is true that poverty fuels the disability, and disability in turn, feeds poverty, you could reverse the trend of this vicious circle. The companies, however, sometimes blinded by productivity and efficiency requirements are unable to grasp the major opportunities that can be hidden behind the disability management practices. It is therefore necessary to understand that it is work that must be appropriate, and not the employee, since each person is characterized by the features that if poorly integrated in the business environment can create problems and therefore higher costs (1, 2, 17). In this regard, probably, it is no coincidence that, initially, in our country the status of the Disability Management tool has been assumed for the public sector, even before than being implemented in the private sector. The mechanism by which to implement this tool, in fact, requires margins of flexibility, collaborative and cooperative views in the management of human resources that the private sector still does not own or, perhaps better, cannot exploit. In fact, unfortunately, up until now the approach of Disability Management has not, at all, place its roots in Italy. Lack of adequate knowledge and tools to face this phenomenon, especially in companies, is leading to poor management and organization of disabled people’s needs, risking, at the same time, to lose their know-how and their productivity. In this scenario, very important in order to support the adoption of this new management model, are cases such as SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA FORMAZIONE Canada and the US, where the Disability Management consists in the assumption of supporting government policy and organizational practices that allow to pursue the objective of minimizing the production loss, reducing the incidence of work disability and, preventing accidents and diseases which result in a chronic disability (22, 23, 25). THE ROLE OF DISABILITY MANAGER At a time when the discipline of disability management, overcoming the above assumptions, is able to enter its operational phase, the profession of disability manager takes shape. He, therefore, has the task of building integrated network, deploy services and propose management solutions that, starting necessarily from the need of the person with disabilities, are able to pursue, at the same time, business productivity purposes. In this regard he must have both individual skills and the tools to achieve a unified vision and coordination to improve the quality of territorial and economic policies. His goal is to promote urban accessibility, health and social coordination, the school inclusion, but above all the work, by going beyond the boundaries of the services and the enhancement of existing expertise in the area. The disability manager is, therefore, a figure which has the task, on the one hand, to seek different solutions that emphasize the strengths of people with disabilities and, second, to spread an organizational culture free from prejudices and discriminatory feelings. Therefore, as we said previously, the first obstacle to face is represented by prejudices and ways of thinking of many business managers and police makers, who due to a “managerial myopia” expect from the management methods based on disability management only a reduction in productivity, without foreseeing the multiple advantages in the long run (1, 2, 18). This professional has already found a place in countries, such as Canada and the US, particularly attentive to the management of these critical issues through the modus operandi of the Disability Management, while in Italy it was considered for the first time in the “White Paper on accessibility and urban mobility”, as a result of the work of the technical committee set up between the town of Parma and the Ministry of Labour, Health and Social Policies, in 2009. It was initially assumed as a figure to be mainly fit into the public administration and in particular in the municipalities of above 50 thousand inhabitants. The use of disability managers in Italy could, however, be necessary to implement the commitments that Italy has assumed by ratifying the UN Convention on the Rights of Persons with Disabilities, with Law March 3, 2009, n. 18 (3). It would be desirable, however, to assume a disability manager able to operate in all sectors, so no specialization on Public Administration or private enterprise and without artificial distinctions between productive sectors, in order not to create further inconsistency between the different economic sectors of the country. CONCLUSIONS In Italy, as in much of the rest of the world, it is increasingly difficult to meet the demand for social services because of the socio-demographic changes of the population, but especially for the scarcity of resources available to cope with these many critical issues. It was noted how disability represents a major social criticality above mentioned, due to the number of subjects covered in this status, its estimated valuations for the coming years and the narrow two-way correlation between the status of disability and poverty. The relevant aspect in this regard is, however, that the main problem lies in the management of the critical issues that currently in Italy cannot satisfy neither the social-health objective nor the economic one. In this regard, one possible solution is to be found in the adoption of an innovative management approach, such as disability management, so that we can actually benefit from including people with disabilities in society and, specifically, in the world of work. According to the dictates of this approach, by adapting the business and enterprise environment itself to the characteristics of workers with disabilities, it helps to promote the overall productivity of the latter, which would be valued as a resource and not considered as a social and economic burden. This incentive for potential inclusion in the working world encourages the inclusion of the disabled in the society, and it is able to generate multiple indirect benefits to other private and public stakeholders and to the entire economic system. However, to facilitate this management approach, it is necessary an evolution in the cultural setting of both the society and the business system. They must understand that, in order to balance the needs of the economy with the demands of a model of social protection, it is important that the world production incorporates a management culture more attentive to social, demographic and ethical dynamics. REFERENCES 1. Angeloni, S. (2010). L’aziendabilità. Il valore delle risorse disabili per l’azienda e il valore dell’azienda per le risorse disabili: Il valore delle risorse disabili per l’azienda e il valore dell’azienda per le risorse disabili. Milano, FrancoAngeli. 2. Angeloni, S. (2011). Il Disability Management Integrato: un’analisi interdisciplinare per la valorizzazione delle persone con disabilità, Roma, Rirea, 3. Baratella P. e Littamè E. (2009). I diritti delle persone con disabilità. Dalla Convenzione Internazionale ONU alle buone pratiche, Trento, Erickson. 4. Belfiore, P., Sorrentini, A., Di Palma, D., Zamparelli, B., Liguori, G., SIHHS (2015). Health Technology Assessment come strumento per il management sanitario: esperienze in Campania. Organizzazione Sanitaria. 4: 12-19. 5. Comunicazione della Commissione europea (2010). Strategia europea sulla disabilità 2010-2020: un rinnova21 SCIENZE DELLA FORMAZIONE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 to impegno per un’Europa senza barriere, Bruxelles, 16 dicembre 2010 6. Daita, N. (2009). La dignità di un lavoro per le persone disabili, La Macchia, C. (a cura di), Disabilità e Lavoro, Roma, Ediesse. 7. Dipartimento di Psicologia di Milano-Bicocca, Il concetto di disabilità, (www.psicologia.unimib.it/getFile. php/12610/ consultato il 29 gennaio 2015) 8. Geisen, T. (2015). Workplace Integration Through Disability Management. In Handbook of Vocational Rehabilitation and Disability Evaluation (pp. 55-71). Springer International Publishing. 9. Giancaterina, F. (2010). Come sono cresciute le persone con disabilità in Italia dal dopoguerra, fra buone leggi e pratiche a macchia di leopardo, Impresa sociale, n. 2 (44). 10. Griffo, G. (2012). Persone con disabilità e diritti umani, in Casadei, T. (a cura di), Diritti umani e soggetti vulnerabili. Violazioni, trasformazioni, aporie, Torino, Giappichelli Editore. 11. ICF (2002). International Classification of Functioning, Disability and Health - trad. it. Trento, Erikson, pp. 14 - 22 12. Istat (2010). La disabilità in Italia. Il quadro della statistica ufficiale. Health and Social Security. Roma. 13. Lazazzara, A. (2015). Le influenze culturali e istituzionali nel diversity management. Un confronto tra Italia, Francia, Svezia, Germania e Regno Unito. STUDI ORGANIZZATIVI. 14. Migliaccio, G. (2016). ICT for disability management in the net economy. International Journal of Globalisation and Small Business, 8(1), 51-72. 15. Oecd. 2007. Trends in severe disability among elderly people: assessing the evidence in 12 Oecd countries and the future application. Parigi: Oecd Health Working Papers 26. 16. Perenboom, R. J., & Chorus, A. M. (2003). Measuring 22 participation according to the International Classification of Functioning, Disability and Health (ICF). Disability and rehabilitation, 25(11-12), 577-587. 17. Perrino, A.M. (2009). I disabili e l’accesso al lavoro, in La Macchia, C. (a cura di), Disabilità e lavoro, Roma, Ediesse, 18. Roncallo, C., Sbolci, M. (2011). Disability manager. Gestire la disabilità sul luogo di lavoro, Edizioni FerrariSinibaldi. 19. Shrey, D.E. (1996). Disability management in industry: the new paradigm in injured worker rehabilitation. Disability and Rehabilitation, 18(8), 408-414. 20. Shrey, D.E. (2011). Disability Management at the Workplace: Overview and Future Trends, in Encyclopedia of Occupational Health and Safety, International Labor Organization, Geneva. 21. Torre, T. (2007). Diversity Management and Disability: Indications from a Research on Ligurian Enterprises. Impresa Progetto-Electronic Journal of Management, (2). 22. White, M.I., Wagner, S.L., Williams-Whitt, K., Koehn, C.V., Kube, D., Cornacchia, M., & Wärje, O. (2016). Workplace intervention research: Disability prevention, disability management, and work productivity. In Handbook of Return to Work (pp. 255-269). Springer US. 23. Winter, J., Issa, M.H., Quaigrain, R.A., Dick, K., & Regehr, J.D. (2015). Evaluating Disability Management in the Manitoban Construction Industry for Injured Workers Returning to the Workplace with a Disability. Canadian Journal of Civil Engineering, (ja). 24. World Health Organization. (2001). International classification of functioning, disability and health: ICF. World Health Organization. 25. Yukon Public Service Commission (2015). Disability Management and Accommodating Employees with Disabilities. Framework. SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | LETTERATURE Il mondo come rappresentazione: note a margine per un ritratto di Lucio Mastronardi MARIA LUCIA ZITO Il bosco è una metafora per il testo narrativo; non solo per testi fiabeschi, ma per ogni testo narrativo. Vi sono boschi come Dublino, dove invece di Cappuccetto Rosso si può incontrare Molly Bloom, o come Casablanca, dove si incontrano Ilsa Lund o Rick Blaine. U. Eco, Sei passeggiate nei boschi narrativi 1. LO SCRITTORE E IL CONTESTO CULTURALE DEL S SUO TEMPO intetizzare in un percorso tematico, biografico e critico la figura e le opere dello scrittore contemporaneo morto suicida e troppo a lungo dimenticato, la cui opera più famosa, Il maestro di Vigevano (1962), fu portata con successo sullo schermo cinematografico da Alberto Sordi nelle vesti del protagonista nel 1963, appare un compito arduo e ambizioso, perché ciò si scontra in primis con l’idea di canone, entro il quale l’autore in questione non appare comunque inserito (ma si deve per forza?), di genere e soprattutto di adesione al format letterario conformistico allora in voga e, forse, in qualche tempo e luogo non lontani da noi ancora in auge (ci riferiamo alla mania dei Premi Letterari e degli Eventi culturali a tutti i costi). Tuttavia molti furono i films che negli anni Sessanta, con la nascita della commedia italiana, fecero seguito ai temi trattati nell’Italia di Mastronardi: si pensi solo a La vita agra di C. Lizzani (1964), a Il boom di Vittorio De Sica (1963), o a La bella di Lodi di M. Missiroli, con sceneggiatura di Alberto Arbasino (1963), che meriterebbero di essere più attentamente indagati al fine di ripercorrere la parabola scrittoria e dialogica dello scrittore lombardo di origine abruzzese, a nostro avviso quanto mai attuale. Ci prefiggiamo per ciò stesso, in seconda analisi e in altro luogo, d’indagare gli aspetti legati alla tematica della scuola e della figura del maestro, oltre che di fornire un compendio critico e biografico sull’autore, limitandoci in questa sede ad esaminare quelli connessi, in generale, ai romanzi Lucio Mastronardi e racconti dello scrittore, per lo più legati al tema della fabbrica ed alla dimensione consumistica e capitalistica della rivoluzione industriale in Italia, la quale tende a dissolvere gradualmente i valori tradizionali, sostituendoli con quelli della carriera, del becero arrivismo, dell’adulterio di provincia e della rincorsa al denaro, con forti influenze negative sul menàge familiare, guadagnando a Mastronardi la fama di «moralista insocievole tra demoni e clown»1. Lo stesso Elio Petri, regista della versione cinematografica del ‘63, tratta dal più noto romanzo dello scrittore, affermava: Del romanzo di Mastronardi sto portando sullo schermo non tanto l’ambiente scolastico (che mi pare un elemento complementare della stesura del racconto) quanto il clima greve del miracolo economico 1 G. TESIO, Introduzione a L. Mastronardi, Il maestro di Vigevano, Il calzolaio di Vigevano, Il meridionale di Vigevano, Einaudi, Torino 1994, p. V. 23 LETTERATURE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 sostituito talvolta […] da uno sfrenato e avventuroso affarismo e da incerte situazioni economiche.2 Più o meno con gli stessi toni, corroborati da un più accentuato senso critico non scevro da un certo scetticismo che lo scrittore ligure nutrì comunque sempre nei confronti del suo più fragile amico, Italo Calvino commentava così la Trilogia dei Romanzi vigevanesi: L’universo di Mastronardi ha un nome, dichiarato fin dall’inizio dai titoli in copertina: Vigevano. Non so quanti e quali nessi si possono trovare tra questa Vigevano romanzesca e la Vigevano reale: ma so che come immagine dell’Italia, di trent’anni di storia della società italiana, la Vigevano mastronardiana funziona egregiamente. Che un risultato di tanta forza sia stato ottenuto da un’esistenza in fragile equilibrio col mondo come quella di Lucio Mastronardi, dalla sua sensibilità di scorticato vivo, dà a quest’opera un carattere ancor più raro, perché pagine così sapienti nel costruire e nel giudicare le storie umane sono state come strappate dal gorgo di sofferenza che Lucio si portò dentro per tutta la vita […].3 Più recentemente Goffredo Fofi, saldando l’individuale nevrosi dello scrittore all’isteria collettiva, da cui quel disagio scaturisce, restituisce giustizia all’immagine paranoica di Mastronardi, chiosando così la sua vicenda biografica ed intellettuale: Ed è, a ben guardare, Mastronardi ad aver narrato meglio di ogni scrittore, nel Maestro di Vigevano, nel Calzolaio e nel Meridionale, gli sconvolgimenti del boom, la frenesia e la furia della corsa al denaro che travolsero quasi tutta la nostra società. Egli lo ha fatto re-inventando una lingua, negli anni di Meneghello, e parlando della provincia, di quella vasta e importante provincia padana, che fu forse – e lo è ancora – la zona più fragile, succube e ricettiva della frenesia collettiva: dove tuttto si fa moneta, e la nuova ricchezza non elimina la grettezza preesistente, per esempio nel mondo della scuola, nei modi della convivenza, ma ve ne aggiunge di nuova nell’idolatria dell’arricchimento.4 La «storia è quella del dopoguerra e dei primi anni Sessanta del cosiddetto boom economico; la geografia quella di un paese d’acque e di terre (Vigevano come terra di frontiera tra la grassa Lomellina e il Milanese), in preda ad un convulso processo di aggiornamento industriale. Non a caso il promeneur solitaire che c’è sempre nelle pagine di Mastronardi tende alla campagna di cascine e canali oppure alla nostalgia delle mura cittadine che trasudano voci e rumori di lavori artigianali»5. L’humus politico-culturale e letteraria da cui scaturisce l’opera mastronardiana è, dal nostro punto 2 E. PETRI, Tredici scolaretti di Vigevano giocano al cinema con Sordi, in «Stampa Sera», n. 273, anno 95, 21 novembre 1963. Il romanzo di Mastronardi era uscito invece per Einaudi, Torino, 1962 e poi in edizione economica per Mondadori, Milano, 1969. 3 In AA.VV., «Per Mastronardi», Atti del Convegno, a cura di M.A. Grignani, La Nuova Italia, Firenze 1983. 4 G. FOFI, Prefazione a R. DE GENNARO, La rivolta impossibile. Vita di Lucio Mastronardi, Ediesse, Roma 2012, p. 10. 5 TESIO, cit. p. VI. 24 di vista, anche la crisi della letteratura realista del dopoguerra, la quale ha visto fallire gli ideali di sogno e populismo contenuti nelle istanze comuniste e mira, ormai, alla nascita del neocapitalismo e di una società industrializzata e consumistica. Proprio da questo fallimento, ossia dalla mancata coniugazione della dialettica storico-economica marxista con i contenuti oggettivi della realtà che il Neorealismo si proponeva di operare, anche attraverso precise scelte linguistiche di adesione al reale (si veda per esempio Pasolini), scaturisce una sorta d’impaziente sperimentazione che condurrà alla nascita delle nuove Avanguardie ed in particolare del Gruppo ‘63. Mentre lo storicismo tradizionale della cultura italiana si modernizzava grazie al sociologismo e allo stesso marxismo (il vecchio Natalino Sapegno, Cesare Luporini, Carlo Muscetta, Giuseppe Petronio, Asor Rosa, fino a Giulio Ferroni), negli anni ‘60 e ‘70 si affermano altre metodologie d’indagine critico-letteraria, soprattutto quella strutturalista e semiologica: con Umberto Eco, Cesare Segre, Maria Corti, Ezio Raimondi ed altri. Ruolo di stimolo ha il gruppo di critici, scrittori e poeti riuniti appunto attorno al Gruppo ‘63: Luciano Anceschi e lo stesso Umberto Eco, Angelo e Guido Guglielmi, Renato Barilli, Enrico Filippini, Sebastiano Vassalli, Luigi Malerba, Alberto Arbasino, Nanni Balestrini, Alfredo Giuliani ed Edoardo Sanguineti, solo per citarne alcuni. L’entusiasmo sperimentato dai componenti del costituendo Gruppo ‘63 rifletteva la genuina ricerca che stava prendendo corpo in tutto il mondo, di un nuovo stile di vita e di pensiero, in opposizione alle resistenze di coloro che si sentivano impegnati nella conservazione dei valori di un’Italia contadina e paesana e nella difesa degli interessi di gruppi radicati nel tessuto socio-economico. Le istanze del movimento si contrapponevano a una ‘conservazione culturale’ che ruotava intorno alla classe intellettuale uscita dalla guerra: Calvino, Bassani, Cassola, Fortini, Morante, Moravia, Pasolini, Vittorini, che occupavano comunque posti di controllo all’interno dell’industria culturale, nelle case editrici e nelle università. Le loro posizioni, sviluppate e discusse prevalentemente sulle riviste «Officina» e «La Voce», risentivano dell’influsso dei principi estetici del comunismo sovietico. 2. MASTRONARDI E LA «RIVOLTA IMPOSSIBILE» Cultura dominante, in Italia, espressione della linea degli intellettuali chiamati a collaborarvi, era però anche la giovane Televisione di Stato, con il «Festival di San Remo», vinto nel ‘63 da Tony Renis e l’anno prima da Domenico Modugno e Claudio Villa, espressioni canore di un sistema valoriale saldo e ancorato al prototipo nazional-popolare; era la trasmissione televisiva «Canzonissima», regia nel 196263 di Vito Molinari, condotta da Dario Fo e Franca Rame, sostituiti per incompatibilità con la dirigenza RAI, dopo sole sette puntate, da Tino Buazzelli e Sandra Mondaini. Era questa l’ ‘egemonia culturale’ che i neoavanguardisti tentavano di scardinare. E cultura dominante era l’istituto della censura, inventato SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | LETTERATURE soltanto trent’anni prima da Mussolini, suffragato dall’approvazione della legge del 21 aprile 1962 n. 161, che imperversava soprattutto nel mondo dello spettacolo, protagonista, grazie al cinema italiano, di un momento di grande successo sulla scena internazionale. Il 1963 segnò l’uscita delle produzioni cinematografiche de Il Gattopardo di Luchino Visconti, tratto dall’omonimo romanzo di Tomasi di Lampedusa, e di 8 e 1/2 di Federico Fellini (con dialoghi di Ennio Flaiano). Venezia Cinema premiava Francesco Rosi per Le mani sulla città e Marco Ferreri dirigeva L’ape Regina, tratto dalla sceneggiatura teatrale di Goffredo Parise La moglie a cavallo. Trasposto dal romanzo omonimo di Lucio Mastronardi, usciva anche, tra le polemiche ed i boicottaggi, appunto Il maestro di Vigevano, reso famoso grazie soprattutto all’interpretazione dell’attore principale nelle vesti del maestro Mombelli. Ambientato nella provincia settentrionale travolta dalle trasformazioni sociali dello sviluppo economico e di un’inattesa, debordante immigrazione, contrappone due mondi completamente diversi ma entrambi in crisi profonda: quello della scuola, abitato da maestri frustrati e presidi mediocri, e quello della fabbrica, duro, cinico, orientato esclusivamente verso il denaro. Contemporaneamente si era verificata una frattura anche sul crinale delle riviste: mentre l’esperienza ‘officinesca’ di Pasolini si concludeva sul finire degli anni ‘50 a causa dell’impreparazione di fronte alle nuove istanze culturali provenienti dall’estero come lo Strutturalismo, in Italia sorgevano due nuove riviste, «Il Verri» di Luciano Anceschi (1956) e «Il Menabò» di Elio Vittorini (1959), sull’ultima delle quali non a caso apparirà, nel 1959, il primo dei romanzi di Mastronardi, Il calzolaio di Vigevano, esperienze che sanciranno la frattura, già avvenuta in precedenza, fra letteratura e politica, engagement ideologico dello scrittore e ruolo dello scrittore stesso. Entrato in crisi il sistema politico-culturale comunista era andato in tilt anche l’apparato teorico del realismo, sostanziato per sua natura delle idee nazional-popolari gramsciane e della dialettica materialistica di Lukàcs. Anche in Mastronardi la dialettica storia-individuo appare, per molti versi, frantumata ed è evidente, per fare qualche esempio, nello spaesamento che, costantemente, il protagonista dei romanzi e racconti sperimenta rispetto al proprio ambiente e al momento storico in cui vive, oltre che nella tecnica della deformazione grottesca, presente soprattutto nel primo romanzo. Notevoli dunque i contatti dell’opera mastronardiana con la civiltà moderna e contemporanea, nonché i rapporti tematici ed intertestuali con Pirandello, Moravia, e, dall’angolazione soprattutto linguistico-espressiva e tematica, con Gadda e Verga, anche perché, alla fine, la società che l’autore mette in scena è composta di piccoli vincitori (gli industrialotti di provincia, i presidi, i rappresentanti dell’apparato burocratico), ma anche di una nutrita schiera di ‘vinti’(il maestro Mombelli, il calzolaio ed il meridionale di Vigevano, i diversi protagonisti dei racconti, dall’Assicuratore a Casa tua ridono). Presenti alcune assonanze, a nostro avviso, anche con il genere post-moderno, a causa dei continui colle- gamenti con la tematica del consumo e delle trasformazioni che, inevitabilmente, il mondo evoluto e civilizzato apporta alle strutture sociali, economiche e psicologiche del passato, spesso creando nuovi disvalori. La dimensione straniata della provincia vigevanese, definita da Angelo Iacomuzzi nel suo saggio Il maestro di Vigevano6, «una provincia apocalittica, sottratta a ogni ipoteca di riforma e salvezza», ben traduce il quadro che Mastronardi vuol rappresentare. La piazza di Vigevano diventa dunque «la metafora del caos e gli abitanti della città le larve di un mondo infero, sgangherato, che dismisure e asimmetrie strutturali e stilistiche registrano ben fuori da ogni realismo»7. 3. CANONE O NON CANONE? Per tornare alla temperie che inaugura questo rinnovato atteggiamento dello scrittore nei confronti della politica, basterà citare la rottura di Mastronardi con la casa editrice Einaudi, comunicata peraltro in una lettera allo stesso Calvino, suo unico, vero promoter letterario dopo Vittorini, che proprio in quegli anni, sul «Menabò di letteratura», andava pubblicando Il mare dell’oggettività (1960). Un gesto che ricorda molto da vicino quello di un autore a noi più prossimo e purtroppo di recente scomparso, appunto Umberto Eco, il quale aveva da tempo interrotto i rapporti con la Mondadori (si suppone per motivi diversi da quelli di Mastronardi), per affidarsi a nuove case editrici e fondarne una propria, La nave di Teseo (a cui auguriamo la massima fortuna). Allo stesso modo, sebbene in maniera più consapevole, a parte la significativa e innovatrice produzione critico-letteraria a tutti nota, Eco è stato fra i “corsari” dello svecchiamento della RAI, insieme ad alcuni rappresentanti del Gruppo ‘63, nonché il primo fra gli esperti del genere a studiare, certo con intento dissacratorio, le correlazioni fra dittatura e cultura di massa, culto della tradizione e populismo dei media, in particolare di TV e Internet, iniziando così a dar voce in Italia, accanto a pochi altri studiosi, anche ai Cultural Studies.8 Rotto il rapporto, dunque, fra oggetto e soggetto, individuo e cose, non resta, per dirla con parole di Calvino, che «la fondazione di uno stile»9. Ed è quello che, per tornare al nostro 6 In AA.VV., «Per Mastronardi», Atti del Convegno, a cura di M.A. Grignani, cit., p. 68. 7 TESIO, Introduzione…, cit., p. X. 8 I Cultural Studies, che raccolgono molte categorie e sottocategorie al loro interno, come i gender studies, gli studi post-coloniali, i woman studies, i gay/lesbyan studies, i black studies, i queer studies e recentemente anche i men studies, studiate variamente fin dagli anni ‘50 all’interno di scuole critiche come il New Historicism statunitense, la filosofia del francese Michel Foucault, la Yale Critics, la CCCS (Centre for Contemporary Cultural Studies) di Birmingham e la stessa Scuola di Francoforte, sono in Italia in recente, problematica acquisizione, a causa dell’incerto statuto che li connota. Ci basti ricordare che negli anni Sessanta, dopo la fase degli studi etnologici e dedicati alla cultura materiale, caratterizzazione peculiare degli studi culturali nel nostro Paese, Umberto Eco ed Ivano Cipriani furono i primi ad analizzare la comunicazione di massa e il loro rapporto con le scienze sociali sulla Rivista «Ikon». 9 I. CALVINO, Una pietra sopra, Einaudi, Torino 1980, p. 89. 25 LETTERATURE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 autore, cerca di fare a questo punto Mastronardi, interpretando più o meno consapevolmente i Novissimi, riproducendo nei suoi romanzi e racconti una modalità espressiva plurilinguistica, frantumata, schizofrenica, che si avvicina, dunque, proprio agli assiomi del Gruppo ‘63 e alla nuova grammatica neoavanguardistica. Dal punto di vista contenutistico lo scrittore abolisce o comunque tende a sopprimere, nel trascorrere da un romanzo all’altro, la sua vocazione comica, per effettuare un’indagine del profondo, e qui sovvengono, in vario modo, Kafka (soprattutto quello di Lettera al padre), Pirandello e, per l’implicita denuncia sociale e l’aperto anticonformismo, come già indicato, anche Moravia. Dunque in questa sede non interessa più dimostrare se Lucio Mastronardi abbia o meno realizzato uno stile, perché di questo siamo certi, ma ricostruire più doviziosamente il processo di come tale tentativo avvenne e se ottenne i risultati voluti. Analizzando tutti i dati, consultando eventualmente i carteggi e ricostruendo il procedimento creativo, psicologico ed ideologico sotteso al progetto dello scrittore, si potrebbe tentare di portar fuori, quasi inventio, dal dimenticatoio degli studi critici degli ultimi anni, opere che sicuramente meritano di essere più attentamente e doviziosamente investigate, restituendo loro quella letterarietà che sembra essere stata, per motivi diversi, in tutto questo tempo, misconosciuta, disattesa, relegandole al ruolo di classici ‘sommersi’.10 Opere che, certamente a causa della loro intrinseca trasgressione, cifra di una critica sociale ai nuovi valori dell’ossessione economica e del consumo, sono state trascurate dall’editoria post mortem, e, in un certo senso, ‘rimosse’, da tempo in attesa di essere incluse almeno nel canone antologico e scolastico. E’ necessario un più esaustivo lavoro di analisi critica e linguistica dell’intero ‘corpus’ mastronardiano, anche alla luce dell’interessante ed implicito rapporto fra storia del tempo (il Boom economico degli anni ’50-’60) ed ambito geografico in cui la scena si svolge: una Lombardia ed una Vigevano congestionate dall’immigrazione e da una troppo veloce industrializzazione, quasi pubertà improvvisa ma indesiderata, e dunque avvertita dagli animi più sensibili come ‘invasione’ e corruzione delle coscienze. «Quest’immagine ci va di concludere con Calvino, che scrive questo saggio due anni dopo la scomparsa dello scrittore fra le acque del Ticino - resta ancora e più che mai vera negli anni della crisi, dell’economia sommersa e del lavoro nero, delle piccole città non più solo settentrionali dove si moltiplicano le piccole industrie e le non piccole fortune»11 della civiltà del consumo, obbligandoci ad accettare l’ambiente ed il momento storico in cui viviamo come estrema forma di adesione al reale, non slegata, dunque, da un passato prossimo i cui effetti durano 10 La distinzione fra ‘letteratura’ e ‘paraletteratura’ è stata esaurientemente indagata da A. CATALFAMO, Letteratura e cultura dei ceti subalterni in Italia, Solfanelli, Chieti 2012, pp. 111-144, chiarendo come il destino di ‘classico sommerso’ abbia travolto non solo Lucio Mastronardi, ma anche scrittori come Emilio Salgari e Edmondo De Amicis. 11 CALVINO, Ricordo di Lucio Mastronardi, in AA.VV., «Per Lucio Mastronardi»…, cit., p. 14. 26 nel presente. Possibili collegamenti con la letteratura europea, in fatto di tentativi di sperimentalismo linguistico-espressivo, sono rinvenibili nelle soluzioni narrative e poetiche delle Generaciones spagnole (’98, ’14, ’27), in particolare nella tecnica dell’esperpento di Valle-Inclàn e nella ricerca di uno stile da parte di Dàmaso Alonso, il maggiore esponente della critica stilistica europea. Il termine esperpento, che serve ad indicare la deformazione grottesca della realtà, è infatti la traduzione stilistica di una visione molto critica della società, che si palesa nella degradazione psicologica dei personaggi e degli ambienti nei quali essi vivono, per certi versi molto simile a quella operata, nei suoi romanzi e racconti, da Pirandello prima e da Mastronardi poi. Connessioni con la narrativa postmoderna in generale sono soprattutto quella spettacolarizzazione delle merci e del consumo tipici dei romanzi di Mastronardi, come l’ambientazione spesso ‘surreale’ dei suoi racconti, quasi intenzionale rappresentazione di un’iperealtà, in cui i personaggi principali, per esempio nel Calzolaio di Vigevano, non riescono a svincolarsi dall’idea della fabbrica e della lavorazione delle scarpe nemmeno nei momenti intimi, o tentano il suicidio quando si dibattono nelle loro crisi d’identità, pur dopo aver raggiunto l’agognato, ma freddo e spersonalizzante successo economico. E’ il caso del protagonista di A casa tua ridono (1971) che, paradossalmente, finisce per tentare un suicidio nelle acque del Ticino, le stesse che ingoieranno, ma per sempre, il nostro autore quella mattina di aprile nel 1979. Prossimità tematiche certamente non trascurabili sono inoltre ravvisabili con le opere della fase non combinatoria dello stesso Calvino, in particolare Marcovaldo e Le città invisibili. In conclusione, che la definizione di ‘classico sommerso’ indichi un autore a lungo o a torto dimenticato (e la tradizione letteraria italiana ne è piena, da Emilio Salgari, troppo tardivamente rivalutato, a De Amicis, di cui soltanto di recente riemergono dal dimenticatoio i numerosi reportages12), che la medesima stia a significare una singola opera sottovalutata o del tutto caduta in oblio di uno scrittore noto al grande pubblico per altri lavori od uno solo, riteniamo che la comunità scientifica debba sentire la necessità di restituire giustizia all’uomo, oltre che al letterato impegnato a lasciare un messaggio profondamente legato al momento storico-economico vissuto (e per molti versi attuale), in special modo quando non ne sia stato finora riconosciuto quale originale e sfortunato interprete. Ci piace chiudere queste annotazioni sullo scrittore vigevanese proprio con una riflessione di quel Calvino, a cui tante volte il disperato Mastronardi si rivolse nel tentativo (a volte confuso, come l’ultima delle sue visite in treno) di ottenere un riconoscimento ufficiale non tanto della 12 Ci sia consentito rimandare al saggio in rivista M.L. ZITO, Edmondo De Amicis viaggiatore in Francia. I Ricordi di Parigi, in «Carte di Viaggio», 5, 2012, pp. 91-101 e al nostro E. DE AMICIS, Ricordi di Parigi , a cura di Maria Lucia Zito, Solfanelli, Chieti 2012, come a ID., La carrozza di tutti, a c. di Elvio Guagnini, Genova, De Ferrari 2008 e a ID., Ricordi di Londra, a c. di L. PASQUINI, Carabba, Lanciano 2007. SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | LETTERATURE sua opera, quanto dei contenuti da essa veicolati: Forse stiamo avvicinandoci a un momento di crisi della vita urbana, e Le città invisibili sono un sogno che nasce dal cuore delle città invivibili. Oggi si parla con eguale insistenza della distruzione dell’ambiente naturale quanto della fragilità dei grandi sistemi tecnologici che può produrre guasti a catena, paralizzando metropoli intere. La crisi della città troppo grande è l’altra faccia della crisi della natura. […] Quello che sta a cuore al mio Marco Polo è scoprire le ragioni segrete che hanno portato gli uomini a vivere nelle città, ragioni che potranno valere al di là di tutte le crisi. Le città sono un insieme di tante cose: di memoria, di desideri, di segni d’un linguaggio; le città sono luoghi di scambio, come spiegano tutti i libri di storia dell’economia, ma questi scambi non sono soltanto scambi di merci, sono scambi di parole, di desideri, di ricordi. Il mio libro s’apre e si chiude su immagini di città felici che continuamente prendono forma e svaniscono, nascoste nelle città infelici.13 BIBLIOGRAFIA RAGIONATA Opere di Mastronardi Il calzolaio di Vigevano, Torino, Einaudi, 1962 (già in «Il menabò», I, 1959, pp. 9-101); Il maestro di Vigevano, ivi, 1962 (ed. economica, Mondadori, Milano 1969); Il meridionale di Vigevano, ivi, 1964; A casa tua ridono, Rizzoli, Milano 1971; L’assicuratore, ivi, 1975. L’ultima raccolta comprende diversi racconti già comparsi in rivista: è il caso e non solo di Posteggiatore, 22 dicembre 1955; Serata indimenticabile, 29 dicembre 1955; Dalla santa, 5 gennaio e 12 gennaio 1956; Ricordi di tempi andati, 1 marzo, 8 marzo, 12 marzo 1956, tutti comparsi sul «Corriere di Vigevano», per poi essere rimaneggiati variamente o stemperati in altre opere, tranne l’ultimo. Posteggiatore trovò una sua collocazione fra le prime sessanta pagine del Maestro di Vigevano, il secondo in un’espansione dell’Assicuratore, il terzo nei Nuovi racconti italiani II, Presentazione di L. Silori, Milano, Nuova Accademia 1964. Gente di Vigevano (che comprende Il calzolaio di Vigevano, Il maestro di Vigevano, Il meridionale di Vigevano, Gli uomini sandwich, La ballata dell’imprenditore) con Prefazione di S. Pautasso, ivi, 1977. Altri racconti, sparsi in rivista, ed alcuni stralci del Calzolaio di Vigevano risultano antologizzati in A. GUGLIELMI, Vent’anni d’impazienza. Antologia della narrativa italiana dal ’46 ad oggi, Feltrinelli, Milano 1965, pp. 189-198 e in G. CONTINI, Letteratura dell’Italia Unita. 1861-1968, Sansoni, Firenze 1968, pp. 1034-1035. Le ultime edizioni dell’opera e la relativa curatela si devono a G. TESIO: L. Mastronardi, Il maestro di Vigevano. Il calzolaio di Vigevano. Il meridionale di Vigevano, Einaudi, Torino 1994 e Id., A casa tua ridono e altri racconti, ivi, 2002, corredati da abbastanza ampie introduzioni ed esaustiva bibliografia. In particolare, la Trilogia di Vigevano contiene in appendice due scritti di Calvino e di Gian Carlo Ferretti. Studi critici Si citano alcune fra le recensioni più importanti e gli scritti comparsi in rivista, che sono i più numerosi: E. VITTORINI, in «Il menabò», I, 1959, pp. 101-103; E. MONTALE, in «Corriere della sera», 31 luglio 1959; G. MARIANI, in «Cultura e scuola», gennaio 1962 (poi in La giovane narrativa italiana tra documento e poesia, Firenze, Le Monnier 1962); C. Salinari, in «Vie Nuove», 28 giugno, 1962; A. ASOR ROSA, in «Quaderni piacentini», gennaio-febbraio 1964; E. SICILIANO, in «L’Europa letteraria», febbraio 1964; G. PAMPALONI, in «Corriere della Sera», 24 giugno 1971; G. SPAGNOLETTI, in «Il Giorno», 7 maggio 1975. Per i volumi si ricordano G. AMICI, Il realismo nella narrativa da Verga a Mastronardi, Ponte Nuovo, Bologna 1963; G. BARBERI SQUAROTTI, Narrativa italiana del dopoguerra, Cappelli, Bologna 1965; A. GUGLIELMI, Vent’anni d’impazienza, cit.; G. MANACORDA, Storia della letteratura italiana contemporanea, Editori Riuniti, Roma 1967; G. CONTINI, Letteratura dell’Italia Unita, cit., G. PULLINI, Volti e risvolti del romanzo italiano contemporaneo, Mursia, Milano 1971; G. MANACORDA, Vent’anni di pazienza. Saggi sulla letteratura italiana contemporanea, La Nuova Italia, Firenze 1972; U. FRAGAPANE, in Letteratura italiana. Novecento. I contemporanei. Gli scrittori e la cultura letteraria nella società italiana, Marzorati, Milano 1979. Si ricordano inoltre le due interviste allo scrittore a cura di G. C. FERRETTI, in «Rinascita», 21 marzo 1964 e di G. BOCCA, in «Il Giorno», 11 agosto 1971, nonché l’unico Convegno di cui si posseggano e siano stati pubblicati gli Atti, sebbene, oramai, il volume risulti introvabile: AA.VV, «Per Mastronardi». Atti del Convegno di Studi su Lucio Mastronardi, Vigevano, 6-7 giugno 1981, a c. di M.A. GRIGNANI, La Nuova Italia, Firenze 1983. In occasione del suddetto Convegno, per iniziativa del Comune di Vigevano, sono stati ripubblicati gli originali di Posteggiatore, Serata indimenticabile, Dalla santa e Ricordi di tempi andati, in L. MASTRONARDI, Quattro racconti (1955-56), a c. di R. MARCHI, Aurora Edizioni, Pavia 1981. Per ciò che concerne i carteggi, alcune lettere Mastronardi-Calvino sono state pubblicate, a cura di G. TESIO in I. CALVINO, I libri degli altri, Einaudi, Torino 1991. Il nucleo maggiore che compone i carteggi e i manoscritti è custodito presso la famiglia Mastronardi. Allo scrittore è stata dedicata a Vigevano, nell’aprile del 2009, una Tavola Rotonda con interventi di Maria Antonietta Grignani, Mauro Novelli, Bianca Garavelli e alcuni scrittori, intitolata proprio «Lucio Mastronardi». A parte alcune tesi di laurea e articoli sparsi, e mancando tuttora un ritratto letterario ancorato ai testi, si deve a un non addetto ai lavori una lodevole monografia: R. DE GENNARO, La rivolta impossibile. Vita di Lucio Mastronardi, Ediesse, Roma 2012, che comincia a colmare in ogni caso una grossa lacuna scientifica. 13 I. CALVINO, Presentazione a Le città invisibili, Mondadori, Torino 2002, pp. X-XI. 27 SCIENZE DELLA VITA E DELLA SALUTE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 Protonterapia e Radioterapia a confronto nel trattamento di neoplasie primarie e radio-indotte. Un’analisi costi-utilità per il progetto TOP-IMPLART MARCO RAO, MONIA VADRUCCI ENEA FSN-TECFIS-APAM Development of Particle Accelerators and Medical Applications Physical Technologies for Safety and Health Division Fusion and Technologies for Nuclear Safety Department Il lavoro effettuato riguarda un’analisi costi-utilità tra diversi trattamenti terapici per la cura di patologie oncologiche, considerando i rischi di una seconda neoplasia indotta dal trattamento della primaria: gli organi interessati sono rispettivamente la prostata e la vescica, le tecniche di cura 5, 3 radioterapie e 2 metodi basati sull’uso di protoni. I dati sono forniti dalla letteratura e da attività sperimentali e prodotti sulla base di ipotesi di lavoro in chiave deterministica e probabilistica, utilizzando come criterio di scelta l’ICER (Incremental Cost Effectiveness Ratio) e il WTP (Willingness to Pay). I risultati dimostrano, sulla base dei dati disponibili e dei riferimenti di letteratura, la sostanziale superiorità delle tecniche basate su protoni nella cura delle patologie considerate. L’ INTRODUZIONE adroterapia rappresenta una prospettiva tecnologica di estremo interesse nelle terapie oncologiche (Amaldi & Kraft, 2005): i vantaggi che essa offre rispetto alle terapie convenzionali consistono essenzialmente nella capacità di colpire in modo selettivo ed efficace le sole cellule tumorali; nella capacità di mantenere la collimazione nel fascio di protoni nel suo passaggio nel materiale biologico, minimizzando il danno ai tessuti sani; nella superiore capacità di distruggere i tumori radio-resistenti alla terapia tradizionale. Gli elementi tecnologici necessari consistono nell’acceleratore di protoni e/o di ioni che produce più fasci di particelle (es. sincrotrone); nel sistema di trasporto dei fasci nelle sale di trattamento; nel sistema di posizionamento del paziente; nel sistema di controllo del rilascio di energia (dose); nel piano tridimensionale di trattamento personalizzato sul paziente ottenuto integrando le immagini diagnostiche (Computed Tomography - CT, Magnetic Resonance - MR, Positron Emission Tomography 28 - PET). La più diffusa applicazione dell’adroterapia è rappresentata dai tumori solidi1, non infiltranti e fissi e dai tumori rari scarsamente responsivi alle tecniche di radioterapia convenzionale (RT)2. Nell’ambito delle terapie basate su protoni, si presentano i risultati di un’attività di ricerca sviluppata dall’Unità Centrale Studi e Strategie (UCS-Studi) e dal laboratorio di Acceleratori di Particelle per Applicazioni Medicali (APAM) di ENEA: nello specifico, le analisi condotte hanno utilizzato i dati economici e di efficacia medica riferibili al progetto TOP-IMPLART (Terapia Oncologica con Protoni – Intensity Modulated Proton Linear Accelerator for Radiotherapy) (Ronsivalle, 2011), sviluppato da ENEA-TECFIS3-APAM, Istituto Superiore di Sanità (ISS) e Istituto per la cura dei Tumori (IFO). Obiettivo della suddetta attività è la messa a punto di metodologie generali, applicabili ad un insieme diversificato di patologie, in grado di fornire valutazioni quantitative sulle possibilità tecnico-economiche di applicazione dei trattamenti adroterapici nel contesto del sistema sanitario nazionale (S.S.N.) Nel lavoro in esame è stata effettuata una valutazione delle conseguenze del trattamento radioterapico di tumori alla prostata e di tumori secondari da questo indotti (l’organo considerato è la vescica). L’ANALISI COSTI-EFFICACIA E COSTI-UTILITÀ Il trattamento e la cura di diverse patologie cliniche mediante protonterapia offre maggiori vantaggi per la salute (minore tossicità) del paziente rispetto ai trattamenti basati 1 Massa compatta di tessuto che cresce e che si differenzia dal tumore liquido costituito da cellule in sospensione (Treccani, 2014). 2 Tra questi: i melanomi dell’uvea, i tumori della base del cranio e della colonna (cordomi, condrosarcomi a basso grado, meningiomi) e alcuni tumori solidi pediatrici (Vu, 2009). 3 Tecnologie fisiche per la salute. SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE sulle radiazioni convenzionali. Tuttavia, uno dei principali ostacoli connessi alla diffusione di tale tecnologia è rappresentato dai costi per la realizzazione dei centri dedicati, in media ampiamente superiori rispetto a quelli di un centro tradizionale. In generale, la valutazione economica ed il confronto tra percorsi di cura alternativi in ambito sanitario non possono basarsi esclusivamente su variabili di prezzo/costo. La valutazione economica in sanità dovrebbe essere definita come un’analisi comparativa sia dei costi (risorse utilizzate) che dei benefici (miglioramento dello stato di salute) derivanti dai programmi alternativi, finalizzata ad identificare quello più conveniente dal punto di vista del benessere sociale (Rebba, 2013). Tra le varie metodologie di analisi economica esistenti in ambito sanitario, l’approccio più opportuno, in grado di tenere conto, da un lato delle diverse ricadute positive e/o negative sulla salute del paziente derivanti dalle tipologie di trattamento e, dall’altro del valore economico associato ai diversi stati di salute sia nel periodo di trattamento che di quello successivo, risulta essere l’Analisi Costo-Utilità (CUA). Secondo tale approccio i risultati sono i benefici del trattamento prescelto, misurati attraverso indicatori che esprimono gli anni di vita guadagnati dal paziente che riceve lo specifico trattamento ponderati per lo stato di salute o qualità della vita, Quality Adjusted Life Years (QALY) (Whitehead & Ali, 2010) (Weinstein, 2009). La rappresentazione dello spazio degli eventi associato ai percorsi clinici dei pazienti tipicamente l’uso di sistemi dinamici stocastici, in particolare modelli di Markov (Briggs, 1998) e tecniche di simulazione di tipo Monte Carlo: i dettagli tecnici sui metodi possono essere reperiti in molte pubblicazioni, come (Wai-KiChing, 2006) in particolare nell’economia sanitaria (Briggs, 1998). I processi di Markov sono comunemente impiegati nella descrizione del percorso clinico del paziente in numerosi diversi tipi di patologie: quelli qui utilizzati sono alimentati dai dati forniti dai SSN e da attività sperimentali (PT) (Vu, 2009). DATI ED IPOTESI DI BASE DELL’ANALISI I dati utilizzati provengono sia da letteratura consolidata (Konski & Speier, 2007) sia legati ad attività di carattere sperimentale (la stima del rischio di seconda neoplasia) con le simulazioni effettuate da ENEA, IFO e APSS. Tali dati sono stati impiegati nell’elaborazione di una struttura decisionale di tipo Markov formulando una serie di assunzioni sul percorso clinico del paziente: il primo “circuito” di tale percorso segue uno standard costituito da trattamento/terapia ormonale/chemioterapia riguardo all’azione di cura, in conformità allo studio di riferimento sulla patologia principale (Konski & Speier, 2007). Il secondo circuito attiene alla possibilità di insorgenza di una seconda neoplasia indotta dalle radiazioni del trattamento della malattia primaria. Tale seconda neoplasia è stata considerata, formulando una ipotesi arbitraria, come evento generato a distanza di almeno un anno dalla fine del trattamento primario e/o dell’eventuale prosecuzione del controllo mediante terapia ormonale. Una ulteriore scelta arbitraria è stata compiuta generando l’occorrenza della medesima al di fuori del pattern di cura ormonale della prima: ciò equivale a considerare la seconda neoplasia come evento separato dal modello di risposta standard del paziente per la prima patologia. Le tecniche considerate sono 5, di seguito elencate e brevemente descritte: - RT Conformazionale Tridimensionale (3D-conformal radiotherapy, 3D-CRT): essa utilizza fasci di radiazioni adattati alla forma del volume bersaglio; - RT a intensità modulata (intensity modulated radiotherapy, IMRT): permette di irradiare con assoluta precisione e con dosi di radiazioni più elevate anche volumi bersaglio di forma complessa e/o localizzati in stretta prossimità di strutture critiche in grado di tollerare dosi inferiori a quelle richieste per il controllo della neoplasia; - Volumetric Modulated Arc Therapy (VMAT), diretta evoluzione delle tecniche di IMRT classica: possibilità di erogare al paziente dosi anche molto elevate con un grado di precisione molto alto e talora con un singolo arco di rotazione di 360°del Gantry. A differenza della IMRT che prevede una interruzione della erogazione del fascio per riprogrammare campi o archi successivi, la VMAT permette di somministrare al paziente la dose prescritta in maniera continuativa consentendo in tal modo l’esecuzione del trattamento in tempi minimi (90-120 s); - Intensity-Modulated Particle Therapy (IMPT):radioterapia con particelle il cui piano di trattamento è ottimizzato in modo che la somma di tutti i fasci di particelle coprano uniformemente in dose il bersaglio (T. Lomax 1999, PSI: “...a number of individually inhomogeneous (in dose) fields are calculated in such a way that, when combined, these fields deliver a homogeneous and conformal dose to the PTV, while reducing dose to selected OARs”); - Single Field, Uniform Dose (SFUD, T. Lomax AJ (2007), radioterapia con particelle il cui piano di trattamento è ottimizzato ottimizzando ogni singolo fascio di particelle erogato sul volume bersaglio per coprirlo uniformemente in dose. ENEA, in collaborazione con IFO e APSS, ha sviluppato dei piani di trattamento rispettivamente per fotoni e protoni, allo scopo di stimare il cosiddetto Radiation Induced Second Primary Risk (RISPC), caratterizzandolo con i dati del progetto TOP IMPLART (figura 1). Il risultato di tali attività è stata una stima della Dose Equivalente per Organo (OED) per le 5 tecnologie e del conseguente Excess of Absolute Risk (EAR) usato per stimare l’aumento di rischio di seconda neoplasia e caratterizzabile su specifici organi). Per quanto concerne i costi è stato preso a riferimento il tariffario della Regione Lazio fornito per le differenti alternative di trattamento considerate, in particolare per la radio29 SCIENZE DELLA VITA E DELLA SALUTE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 Figura 1 - Parametri chiave dell’analisi (costo medio, efficienza, rischio di seconda neoplasia indotta da radiazione) RISULTATI La figura 2 illustra i risultati della simulazione del modello di Markov costruito, evidenziando per una ipotetica coorte di 1000 pazienti iniziali, le probabilità di trovarsi in due stati distinti: lo stato di “buona salute”, il miglior stato possibile post-intervento alla prostata, e lo stato di “morte”, l’evento negativo estremo. Per ogni anno è riportata la percentuale di persone che si trova negli stati indicati. Ciò sta a dire che, ad esempio, al 10 anno abbiamo una percentuale di persone in buona salute pari al 64% circa per Elaborazione ENEA su: Konski, Kulkarni, sperimentazioni laboratorio IFO, ISS, APAM le due protonterapie considerate, e del 49% circa per le terapie fotoniche. Osservando il grafico emerge Figura 2–Risultati della Markov cohort simulation per adroni e fotoni a confronto in modo immediato come la protonterapia ottenga risultati migliori in termini di salute del paziente. La figura riporta due tipi di trattamento, Protoni e Fotoni: si è operata questa semplificazione in quanto i due diversi gruppi di terapie presentano risultati molto simili all’interno dei rispettivi gruppi ed invece molto diversi tra i due gruppi stessi. Per comodità di visualizzazione, dunque, allo scopo di evidenziare le differenze tra protoni e fotoni si sono utilizzati i risultati relativi, in particolare, ai casi SFUD (per gli adroni) e 3D-CRT (per i fotoni). La figura 3 illustra il risultato della analisi costi-utilità, sulla base del costo totale dei trattamenti nell’orizzonte temporale considerato e dell’efficacia sulla salute espressa per mezzo dei QALY. Anche questi risultati mostrano Elaborazione ENEA su: Konski, Kulkarni, sperimentazioni laboratorio IFO, APAM il forte divario in termini di efficacia fra la protonterapia e le altre terapia con tecniche ad intensità modulata con archi multipli opzioni terapeutiche considerate. Il confronto tra terapie ale la protonterapia a ciclo intero: per l’efficacia, si è tenuto ternative può essere effettuato in termini del rapporto tra la conto dei dati di letteratura relativi al trattamento radiotera- differenza di costo e la differenza di efficacia considerando pico e adroterapico di base. le terapie prese per coppie. Questo è il metodo del IncreI rischi di tumori secondari da radiazione per ogni tecnica mental Cost Effectiveness Ratio (ICER): questo indicatore sono stati dedotti con una procedura basata su uno degli studi considera, prendendo le terapie a due a due, il rapporto tra di riferimento utilizzati (Murray, Henry, Hoskin, Siebert, & la differenza di costo e la differenza di utilità che si ha nel Venselaar, 2013) calcolando gli istogrammi Dose-Volume passare dall’una all’altra. Il grafico in figura 3 illustra che dei diversi piani di trattamento costruiti e tenendo conto del- le performance delle due metodiche con protoni risultano la diversa efficacia radiobiologica dei fotoni e dei protoni. sostanzialmente uguali fra loro, così come le performance delle tre metodiche a base di fotoni. Quando una terapia è 30 SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE Figura 3 – Analisi costo efficacia per le terapie considerate (costi in kEUR, efficacia in QALY) Elaborazione ENEA su: Konski et al. 2007, Kulkarni et al., 2013, sperimentazioni laboratorio IFO, APAM Figura 4 – Analisi di sensitività probabilistica per adroni e fotoni (SFUD e 3D-CRT) (costi in kEUR, efficacia in QALY) Elaborazione ENEA su: Konski et al. 2007, Kulkarni et al., 2013, sperimentazioni laboratorio IFO, APAM più efficace ma anche più costosa di una concorrente, per poter effettuare una decisione occorre aggiungere ulteriori criteri: uno dei possibili, pur discutibile, è rappresentato dalla disponibilità a pagare (Willingness To Pay) (Gafni, 1998)4. 4 Occorre notare che i costi reali del trattamento delle patologie consi- La valutazione è stata completata impiegando il criterio della disponibilità a pagare insieme ai risultati di figura 3, nel contesto di un’analisi di sensitività probabilistica sui parametri di costo ed efficacia delle terapie considerate, con i risultati riportati in figura 4. La figura illustra il risultato di 1000 simulazioni effettuate sui parametri di costo e di rischio di seconda neoplasia per i due gruppi di terapie (rappresentati, ancora, dai trattamenti SFUD e 3D-CRT). Come visibile, la soglia rilevata dal calcolo effettuato è circa 5.500 €/QALY. Questo risultato è stato confrontato con il valore benchmark di 50.000 $/QALY dello studio di riferimento (Konski & Speier, 2007), mettendo in evidenza la superiorità della protonterapia rispetto alle terapie a base di fotoni per il caso analizzato con i dati disponibili. CONCLUSIONI Il lavoro effettuato rappresenta un primo esperimento di valutazione del rischio di neoplasie secondarie radio-indotte, inserito nel contesto della analisi costi-utilità di terapie protoniche confrontate con terapie alternative di tipo convenzionale. Il confronto, effettuato per il trattamento di una patologia primaria (prostata) e secondaria (vescica) ha evidenziato la superiorità della terapia a base di protoni. Fra le tecniche considerate per l’analisi comparativa vi è un forte divario di costo che non fa emergere dall’analisi una strategia dominante in modo immediato: l’applicazione del criterio della disponibilità a pagare conduce a risultati particolarmente positivi tenendo conto dei valori di riferimento medi presenti in letteratura riguardo al costo accettabile per guadagnare un QALY. derate possano risultare ben superiori a quelli relativi ai soli trattamenti sanitari operati, ove includano, ad esempio ulteriori misure di costo sociale quali gli oneri finanziari indiretti sopportati dalle famiglie dei pazienti in un lungo arco di cura 31 SCIENZE DELLA VITA E DELLA SALUTE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 La valutazione effettuata non si limita al solo costo degli interventi e delle terapie e suggerisce inoltre che le alternative tradizionali siano da considerarsi strettamente dominate dalla concorrente (maggiori costi reali – minore utilità). Un’analisi più dettagliata delle tecnologie esaminate (anche con riferimento ai diversi tipi di impianti radiativi) è necessaria per una migliore valutazione dei reali costi delle opzioni di trattamento (specie protoniche), in modo particolare per comprendere meglio l’impatto delle medesime sul sistema sanitario nazionale e migliorare il supporto al policy making. BIBLIOGRAFIA Amaldi, U., & Kraft, G. (2005). Radiotherapy with beam of carbon ions. Reports of Progress in Physics , 1861-1882. Briggs, A. (1998). An Introduction to Markov Modeling for Economic Evaluation. Pharmaeconomics , 397-409. ENEA-ISS-IFO. (2009). Realizzazione di un acceleratore a 150 MeV. Roma. Gafni, A. (1998). Willingness To Pay - What’s in a name? Pharmaeconomics , 455-470. Konski, A., & Speier, W. (2007). Is Proton Beam Therapy 32 Cost Effective in the Treatment of Adenocarcinoma of the Prostate? Journal of Clinical Oncology , 3603-3608. Murray, L., Henry, A., Hoskin, P., Siebert, F., & Venselaar, J. (2013). Second primary cancers after radiation for prostate cancer: a review of data from planning studies. Radiation Oncology , 1-12. Rebba, V. (2013). Lezioni di economia sanitaria. Padova: Università degli Studi di Padova. Ronsivalle. (2011). EPJ. Treccani. (2014). Tratto il giorno 2014 da Treccani: http:// www.treccani.it/enciclopedia/tumore-solido_(Enciclopedia_ della_Scienza_e_della_Tecnica)/ Vu, A. (2009). Radiation Therapy of Pediatric Brain Tumors: Comparison of Long Term health Effects and Costs Between Proton Therapy and IMRT. Boston: Massachuttes Institute of Technology. Wai-KiChing. (2006). Markov Chains: Models, Algorithms and Applications. New York: Springer. Weinstein, M. (2009). QALYs: The Basics. Value in Health - Supplement I , 55-59. Whitehead, S., & Ali, S. (2010). Health outcomes in economic evaluation: the QALY and utilities. British Medical Bulletin , 5-21. SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE La neuromodulazione tramite Brain Computer Interface: basi teoriche e dati empirici OLIMPIA PINO1 E FRANCESCO LA RAGIONE2 1 Dipartimento di Neuroscienze, Università di Parma 2 Microengineering, Caserta I modelli a network neurocognitivi rappresentano un utile framework teorico per comprendere la regolazione cerebrale neuropatologica in quanto le connessioni o le collezioni disfunzionali tra network innescano segnalazioni aberranti che possono propagarsi ad interi network. Le ricerche nell’ambito delle Brain-Computer Interface (BCI) sono in continua crescita. L’articolo presenta le BCI, i pattern cerebrali comunemente utilizzati e l’impiego di questi sistemi per il neurofeedback insieme al principio di entrainment audio-visivo. Contestualmente è descritto un prototipo e un primo studio condotto per verificare se la stimolazione ripetitiva audiovisivo induce sincronizzazione delle oscillazioni cerebrali regolando gli stati emozionali di individui affetti da disturbi ansiosi e depressivi. La remissione significativa dei sintomi depressivi e il miglioramento nel funzionamento cognitivo correlato alla predominanza dei ritmi theta pone nuove sfide che le ricerche future dovranno affrontare. L INTRODUZIONE ’attività cerebrale è “spontanea” e può essere utilizzata per comprendere gli stati del cervello. I neuroni attivi generano attività elettrica rappresentata in termini di onde. Il benessere psicofisico di un individuo può essere dedotto dalla sincronia delle sue onde cerebrali che può essere turbata da stress ambientali. Si potrebbe pensare che sia necessario “regolare” queste onde facendole coincidere con valori normativi (mostrati da chi sta bene). In realtà, il principio dell’allòstasi (Sterling, 2012) suggerisce il concetto della “stabilità attraverso il cambiamento” che definisce il benessere come la capacità degli organismi di adeguarsi alle mutazioni dell’ambiente giungendo a un personale equilibrio nello specifico ambiente (inteso secondo moltissime sfumature) di vita: non esisterebbero, allora, parametri di riferimento validi per ognuno. 1. NEURO-PLASTICITÀ E ONDE CEREBRALI Da molto tempo si è provato ad associare differenti espressioni dei complessi fenomeni dei segnali cerebrali (come la frequenza e l’ampiezza) a peculiarità osservabili del comportamento per ottenere una maggiore comprensione delle funzioni cerebrali. L’importanza dei ritmi oscillatori per il normale funzionamento del cervello è stata rinsaldata dalle scoperte sulle loro alterazioni in condizioni patologiche come l’epilessia o il Parkinson. I ritmi del cervello sono di solito classificati in quattro gruppi noti come bande di frequenza delta, theta, alfa e beta e in 8 sottogruppi. Una prospettiva evolutiva suggerisce che il cervello sia formato da vari network o reti filogeneticamente distinti con una frequenza naturale. Un network è definito in base alla connettività strutturale o funzionale. Il cervello umano adulto è una piccola architettura non casuale caratterizzata da raggruppamenti locali densi di connessioni tra i nodi vicini e relativamente poche connessioni a largo raggio. È stato anche proposto che i network più complessi operino con le gamme di frequenza maggiori. In linea con questa idea, l’attività ad onde lente corrispondente alle frequenze delta (1-3 Hz) e theta (4-7 Hz) deriva dalle strutture sottocorticali evolutivamente più antiche (tronco cerebrale e complesso setto-ippocampale). La stimolazione elettrica del sistema reticolare attivatore ascendente del tronco cerebrale (ARAS) provoca risposte corticali nella banda 1-4 Hz (delta) mentre la stimolazione del sistema limbico evoca una distinta attività a 7 Hz (theta). L’attività delle onde più veloci, alfa (8-12 Hz) e beta (13-30 Hz), sembra avere origine rispettivamente nei circuiti talamo-corticale e cortico-corticale e sembra indotta dagli interneuroni inibitori. Una modulazione dell’attività theta è implicata in compiti cognitivi (attenzione sostenuta, mantenimento nella memoria di lavoro, processi di codifica e recupero e potenziamento a lungo termine). Crescenti evidenze indicano un’organizzazione gerarchica delle oscillazioni neurali col ritmo più veloce accoppiato alla fase di quello più lento in 33 SCIENZE DELLA VITA E DELLA SALUTE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 uno schema di codifica efficiente del flusso di informazioni. spaziale dell’attivazione, considerati indicatori di accresciuLa sincronizzazione di fase è un meccanismo fondamentale, ta efficienza neurale; b) un’espansione spaziale o aumento supporta la comunicazione neurale - consentendo a più input nella forza di attivazione che indicano il reclutamento di alsinaptici di arrivare ad un neurone postsinaptico contempo- tre unità corticali; c) una ristrutturazione o redistribuzione raneamente - e la plasticità neurale ed è, probabilmente, rile- dell’attivazione neurale, cioè un cambiamento nel contributo relativo di specifiche aree mentre i pattern globali di attività vante per molti processi cognitivi. Le onde delta e theta sono di solito legate a stati di an- sostanzialmente non si modificano) o come modifica nella sia e tensione, le alfa indicano rilassamento mentre le beta localizzazione dell’attivazione. L’integrità neuropsichica contraddistinguono l’attività cognitiva. Un individuo sotto sembra produrre maggiore coerenza all’EEG e rispecchiare stress mostra iperattività delle bande d’onda del lobo fronta- i cambiamenti degli stati di coscienza in chi pratica abitualle dell’emisfero sinistro con una flessione delle alfa nel lobo mente la meditazione (LeDoux, 2015). destro (la coerenza EEG tra i due lobi frontali probabilmente sarebbe prossima a zero). Chi soffre di depressione mostra 2. LE BRAIN COMPUTER INTERFACE una ridotta coerenza cerebrale tra le onde alfa, beta, delta E IL NEURO-FEEDBACK e theta nelle aree frontali (Davidson, 1992). Le oscillazioUna Brain Computer Interface (BCI) è un sistema di coni delta sono caratteristiche del sonno e sembrano coinvolte nell’attività cerebrale con funzione autonomica, nei processi municazione che permette di indirizzare l’intenzione dell’umotivazionali associati a meccanismi di gratificazione e dife- tente verso l’esterno superando le abituali vie neuromuscosa atavici e nei processi cognitivi correlati all’attenzione ver- lari periferiche per favorire, accrescere o ripristinare alcune so stimoli salienti dal punto di vista motivazionale (Knyazev, funzioni cognitive e/o senso-motorie in presenza di gravi 2012). Un gruppo di meditatori Zen mostrava un’accresciu- disturbi motori rappresentando l’unica via per relazionarsi ta attività delta durante il riposo soprattutto nella corteccia con l’ambiente: grazie all’interfaccia con il computer, si rilemediale prefrontale rispetto ai controlli (Faber et al., 2008). va l’attività elettrica cerebrale generata in compiti cognitivi L’aumento dell’attivazione delta è considerato effetto dell’i- “traducendola” in azioni come far funzionare dispositivi in nibizione della corteccia prefrontale mediale che produce un una casa domotica o azionare una carrozzina elettrica (Fig. calo del coinvolgimento emotivo e cognitivo, definito dai 1). Neuro-Upper (NU) è un prototipo di BCI del nostro labosoggetti “distacco”. Anche Tei e colleghi (Tei et al., 2009) hanno rilevato discrepanze tra meditatori abituali di Qi gong ratorio che sfrutta l’entrainment audio-visivo e un sistema rispetto ai principianti per la banda delta durante il riposo di retroazione (neuro-feedback, NFB). Il neuro-feedback è ad occhi chiusi. Lehmann e colleghi (Lehmann et al., 2012) efficace persino con i neonati, agendo in modo involontahanno studiato anche la connettività tra differenti regioni rio. Il biofeedback, di cui il NFB fa parte, è definito dalla corticali in meditatori di diverse tradizioni rilevando sempre International Society for Neurofeedback Research (ISNR) topografie differenti nella frequenza delta per i praticanti abi- e dall’Association for Applied Psychophysiology and Biotuali. Un altro dato è la riduzione dell’interdipendenza fun- feedback (AAPB) come un “processo che rende l’individuo zionale fra varie regioni cerebrali che, a livello soggettivo, capace di imparare a modificare la propria attività fisiologica produce l’esperienza di non coinvolgimento, la sensazione per migliorare la propria salute e le proprie prestazioni”. Sedi unità col tutto e la dissoluzione dei confini dell’Io. L’ana- condo la definizione, qualsiasi congegno che misuri un’attilisi delle interazioni fra le oscillazioni fornisce interessanti vità fisiologica “restituendone” l’informazione in modo rapiintuizioni sui meccanismi cerebrali di elaborazione. Knya- do e accurato è un dispositivo di biofeedback. La risposta ad uno stimolo esterno induce cambiamenzev (2012), valutando le relazioni tra le onde delta e beta, ti nell’attività delle ha notato un aumento popolazioni neuronadella loro correlazione li definiti potenziali in situazioni ansiogene evento-correlato (ERP) nelle cortecce orbito(Mehta, Hameed & frontale e cingolata anJackson, 2011). I potenteriore. Le pratiche di ziali evocati sensoriali meditazione mostrano (SEPs) sono potenziali come, entro certi limielettrici registrati (di ti, è possibile usare il solito con l’EEG) sotto potenziale del cervello stimolazione degli orumano. La plasticità gani di senso e si distinneurale permette camguono da quelli spontabiamenti reattivi di tipo nei che emergono senza strutturale come: a) un stimoli. Diversamente calo dell’attivazione o dagli ERP, i SEP sono una ridotta estensione Figura 1. Organizzazione essenziale di una BCI (Fonte: Hortiz-Rosario & Adeli, 2013). 34 SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE connessi alla fase dello stimolo e, per questo motivo, possono essere migliorati in prove successive. Tale potenziamento può essere considerato una riorganizzazione spontanea delle oscillazioni cerebrali in risposta ad uno stimolo. Con la ripetizione di questo, la risposta si ripete e può diventare organizzata: il lampeggiare ripetitivo di una luce, ad esempio, fa sì che il contenuto spettrale del segnale rimanga pressoché uguale (ossia con gli stessi picchi armonici e in relazione di fase con lo stimolo). La presentazione del feedback visivo all’utente è una caratteristica tipica dei sistemi SSVEP-BCI perché stimola l’attenzione e la motivazione necessarie per migliorare prestazioni (Maggi, Parini, Piccini, Panfili & Andreoni, 2006). NU è un sistema neurofeedback in quanto: Ø misura l’attività fisiologica per riproporla all’utente e indurre specifiche modifiche; Ø la sua funzione è facilitare cambiamenti durevoli; Ø è un sistema che cerca di migliorare l’auto-regolazione, considerata potenziabile col supporto di tecnologie non invasive; Ø si basa sull’assunto che le dinamiche oscillatorie neurali siano i processi basilari. Una differenza con gli abituali dispositivi di NFB è non presupporre pattern oscillatori dati come valori normativi. Essendo ogni organismo è diverso, si usano frequenze di stimolazione visiva dipendenti dalle risposte individuali. Il controllo consapevole per NU, a differenza dei classici dispositivi di NFB, non è importante quanto la potenza di elaborazione neurale. (MTL e nel giro angolare). I nodi del PCC, ippocampo e giro angolare sono tipicamente associati al recupero episodico, autobiografico e alla memoria semantica mentre nodi specifici nella mPFC sono differentemente associati a processi cognitivi legati al sé o sociali e alla regolazione emozionale. Il SN è un sistema congiunto alla corteccia cingolata anteriore dorsale (dACC) e a quella frontoinsulare (FIC), e serve a individuare, integrare e filtrare le informazioni interocettive, autonomiche ed emotive rilevanti. Disfunzioni in questo circuito sono peculiari in ansia, dolore e abuso di sostanze. Una prova indiretta dell’interrelazione di questi network è la frequente comorbidità dei disturbi. I modelli a network propongono che il cervello opera con connettività locale ad alta densità e minore connettività gerarchica. La psicopatologia può essere legata a disfunzioni in alcuni network o nella loro integrazione funzionale, in particolare nei raggruppamenti di regioni cerebrali o nelle loro connessioni. Implicita negli studi sui network cerebrali psicopatologi è la nozione che connessioni o collezioni disfunzionali diano luogo a segnalazioni aberranti che possono propagarsi a interi network o subnetwork, solo di recente osservati in studi clinici (Menon, 2011). A sostenere queste ipotesi contribuisce l’osservazione che il neurofeedback, che regola la connettività all’interno e tra diversi network, provoca la scomparsa di diversi sintomi simultaneamente. La teoria Polivagale (Porges, 2011), collegando le componenti corticali e le risposte periferiche nell’ansia contribuisce a creare un modello comprensivo e a suggerire trattamenti più efficaci. 4. LA NEUROMODULAZIONE DELLE FUNZIONI 3. NETWORK COINVOLTI NELLE NEUROPATOLOGIE CEREBRALI CON LA STIMOLAZIONE AUDIO-VISIVA I principali trattamenti per i disturbi d’ansia e la depressione sono quello farmacologico e la psicoterapia, con enormi limiti in termini di efficacia, effetti secondari, costi e tempi. L’adozione delle BCI può tagliare i costi riducendo la presenza del terapista (Shangkai, Yijun, Xiaorong, & Bo, 2014). È meglio, inoltre, concettualizzare i disturbi psicologici alla luce delle alterazioni nei circuiti delle regioni limbiche, frontostriate e preventrali e non in base ai cambiamenti neurochimici (Menon, 2011). Questo approccio sta fornendo nuovi spunti sull’organizzazione cerebrale aberrante nei disturbi psichiatrici e neurologici e spinge ad una maggiore sintesi e integrazione entro una prospettiva neuroscientifica finora assente. I network neurocognitivi di connettività intrinseca implicati nell’autoregolazione cerebrale di interesse per la neuropatologia sono tre e si influenzano a vicenda: il CEN (Central Executive Network), ossia il sistema frontoparietale ancorato alla dllPFC e il laterale PPC; i suoi nodi mostrano forti accoppiamenti funzionali intrinseci e una forte coattivazione in un’ampia gamma di attività cognitive ad alto carico. Il CEN serve per la memoria di lavoro, il problem-solving e la presa di decisioni. Molti disturbi psichiatrici presentano deficit in questi processi. Il DNM è connesso alla PCC e alla mPFC con nodi principali nel lobo temporale mediale Le onde cerebrali, oltre a desincronizzarsi in funzione di un’eccessiva stimolazione esterna, hanno la capacità di sintonizzarsi su stimoli periodici uditivi, visivi o tattili, in base al meccanismo di “entrainment”, innescando processi di organizzazione, comunicazione, sinergia, ordine cognitivo, consapevolezza e benessere. Il fenomeno fu rilevato e definito da Huygens nel 1666 in base all’osservazione che due orologi a pendolo posti accostati assumevano lo stesso ritmo oscillatorio. In ambito neuroscientifico si parla di entrainment quando le onde cerebrali mostrano un’oscillazione sovrapponibile a uno stimolo esterno. È, comunque possibile valutare quantitativamente l’abilità di una cellula di sincronizzarsi con dinamiche oscillatorie esterne esaminando la risonanza della membrana della cellula. La risonanza di membrana è un fenomeno dipendente dalla frequenza che si rivela in presenza di un input verso il neurone. La sincronizzazione può avvenire con la stimolazione cerebrale non invasiva per mezzo di forme pulsate - che ripetono brevi eventi di stimolo a intervalli regolari - o moduli continui che generano modelli oscillanti di stimolazione. La stimolazione può essere sensoriale (di solito visiva e uditiva) o transcranica, come accade per la fMRI con cui è possibile un feedback in tempo reale regolando l’attivazione in determinate aree cerebrali (Enriquez-Geppert, Huster & Herr35 SCIENZE DELLA VITA E DELLA SALUTE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 mann, 2013). L’entrainment spiega la sensibilità del cervello per la musica e il suo ritmo. I brani musicali hanno sequenze temporali (ritmi) e frequenze di eventi (picchi) organizzati in serie (melodie) e in parallelo (armonia) (Mauro, 2005). Il meccanismo di codifica neurale si sincronizza rapidamente con le strutture musicali. Quando uno specifico stimolo musicale attiva determinati meccanismi cerebrali, si genera una risposta globale EMR correlata a specifici elementi strutturali della musica. Il cervello e la musica, oltre ad avere gli stessi principi temporali, si sintonizzano diversamente a seconda della regione cerebrale attivata o della tipologia di brano. In altre parole, la musica lascia una specifica traccia nei neuroni e questa traccia corrisponde allo stile di quella musica: la “Sonata in Re maggiore per pianoforte” di Mozart, ad es., attiva strutture cerebrali ampie (in questo caso le aree temporali, prefrontali, occipitali e cervelletto), mentre il “Per Elisa” di Beethoven innesca più processi uditivi e musicali (Hughes, Daboul & Fino, 2000). L’entraiment tra musica e cervello si spiega, matematicamente, in base ai principi di risonanza non-lineare (Large & Almonte, 2012). Le aree implicate sono direttamente correlate al parametro musicale indagato: nella breve sequenza delle note in un accordo musicale la dissonanza tra i suoni attiva il paraippocampo e il precuneo (Blood, Zatorre, Bermudez & Evans, 1999) mentre la consonanza attiva le cortecce orbitofrontale, frontopolare (ossia l’area 10 di Brodmann nel cervello umano) e cingolata subcallosale, regioni coinvolte nell’elaborazione emotiva (Schmithorst & Wilke, 2002). La musica, infatti, innesca anche il circuito dopaminergico della gratificazione. Stimoli musicali piacevoli e spiacevoli attivano aree diverse: i primi l’insula, il giro frontale inferiore (inclusa l’area di Broca 44) e lo striato ventrale, punto di arrivo della via nigro-striatale del circuito del piacere (reward) mentre i secondi il giro paraippocampale, l’amigdala e le aree temporali (Juslin, Liljeström, Västfjäll & Lundqvist, 2010). Per identificare stimoli davvero piacevoli si è chiesto agli stessi soggetti di scegliere i brani gradevoli (Salimpoor, Benovoy, Larcher, Dagher & Zatorre, 2011) e, per avvalorare la piacevolezza dello stimolo, si sono usati i “brividi” (chills o musical frisson) provati quando si sperimenta qualcosa di piacevole. Tale misura, comunque, non è risultata necessaria per la piacevolezza, mentre si ha sempre un aumento dell’attivazione nel nucleo accumbens destro anche senza brividi (Loui, Bachorik, Li & Schlaug, 2013). La presentazione di stimoli visivi permette di rilevare i potenziali evocati visivi (PEV). Gli stimoli che provocano i VEPs più comunemente sono i flash e i pattern. Questi VEPs transitori si presentano come una successione di forme d’onda. Il sistema visivo completo ha tre principali vie parallele che partono dalla retina (MC, PC e KC), passano dal nucleo genicolato laterale (LGN) e giungono nell’area visiva V1. Queste vie originano dai coni sensibili alle diverse lunghezze d’onda, hanno specifiche funzioni e giocano un ruolo chiave nella formazione dei VEPs a livello corticale. In base agli attributi degli stimoli, le risposte sono differenti: la via MC risponde preferenzialmente a stimoli neutri dal punto di vista 36 del colore ma a luminanza diffusa, basso contrasto e larga ampiezza, le vie PC e KC rispondono meglio a stimoli con colori differenti, alto contrasto, dimensione ridotta, con variazione spaziale significativa nella luminanza e contrasto invertito lentamente (Vialatte, Maurice, Dauwles & Cichocki, 2010). Gli effetti della luce sono anche non visivi e sono mediati, in parte, dalle cellule retiniche dei gangli. La lunghezza d’onda, la durata e l’intensità dell’esposizione alla luce modulano le risposte cerebrali dapprima osservate nelle strutture sottocorticali correlate alla vigilanza (ipotalamo, tronco encefalico, talamo) e limbiche (amigdala e ippocampo), seguite da modulazione dell’attività corticale. Dopo la scoperta delle opsine non-visive si è compreso che alcune patologie possono essere dovute a carenza di vitamina D: individui con disturbo affettivo stagionale (Stagional Affective Disorder - SAD), per es., presentano quantità inferiori alla media di vitamina D e, se trattati con speciali lampade, migliorano. La light therapy ha confermato che la luce, consentendo la produzione di vitamina D, riduce i sintomi psicopatologici e il decadimento cognitivo. Le aree cerebrali con recettori per la vitamina D sono molte, come la corteccia cingolata, il talamo, il cervelletto, l’amigdala e l’ippocampo (Pino & La Ragione, 2014). Gli approcci applicativi sono sempre diversificati, Lim (2013) ha usato la stimolazione intranasale con una luce vicina all’infrarosso (near-infrared - NIR), altri una combinazione di luce pulsata a ritmi binaurali e, di recente, le BCI (Shangkai, Yijun, Xiaorong & Bo, 2014). 5. NEURO-UPPER: PROTOTIPO E PRIMI DATI SPERIMENTALI In base alle alterazioni nelle sub-bande alfa, al fatto che diverse forme di musica attivano regioni cerebrali distribuite (Loui et al., 2013) con effetti legati a struttura armonica o metrica, timbro, integrazione del contesto verbale (Salimpoor, van den Bosch, Kovacevic, McIntosh, Dagher & Zatorre, 2013) e ai dati sull’entrainment selettivo neuronale (Nozaradan, Peretz & Mouraux, 2012), la possibilità di modificare le oscillazioni cerebrali con la stimolazione ritmica è diventata popolare (Thut, Schyns & Gross, 2011). Vari studi, infatti, hanno indicato che le misure psicometriche di ansia e depressione correlano positivamente con le onde alfa e negativamente con le beta, a prescindere dalla zona corticale (Knyazev, Savostyanov & Levin, 2004). NU è un sistema multi-intent che rileva 8 diversi segnali EEG online con la cuffia NeuroSky MindWave®, li invia al software-hardware proprietario trasmettendoli come feedback dinamico all’utente tramite un effettore di otto lampade colorate relative alle otto bande e sub-bande rilevate (Alfa 1, Alfa 2, Beta 1, Beta 2, Delta, Gamma 1, Gamma 2 e Theta) che con flash di luce riflette continuativamente lo spettro di frequenza di ogni segnale (Fig. 2). Nello stesso tempo, una serie di istogrammi sul monitor del computer indica all’utente il cambiamento di tali pattern in funzione della stimolazione acustica. SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE La cuffia MindWave® è usata per il basso costo, l’usabilità data dalla connessione wireless, la velocità del setup e l’efficacia nell’individuare gli stati mentali (Katie, Aidan, Ian & Dave, 2010) nonostante la precisione necessaria per le applicazioni di classificazione online e controllo sia stata Figura 2. Neuro-Upper: hardware a led ed effettore a luci lampeggianti messa in discussione (Lim & Chia, 2015). Il sistema è dotato di un algoritmo che filtra il rumore, tipico delle interferenze elettromagnetiche ambientali, permettendo di avere un segnale limpido e privo di errori. L’elettrodo ricava le onde cerebrali a livello frontale inviandolo, tramite Bluetooth®, a un programma apposito. Con un singolo elettrodo, la ricezione consiste nella media delle onde prevalenti in un dato momento. Dato che il rosso ha riportato un maggiore vantaggio attentivo, la luce blue sembra accrescere le risposte di allerta e la prestazione, mentre il blue, insieme al verde e al giallo sembrano i migliori candidati per le BCI basate sui SSVEP in quanto associati a contenuti positivi (Elliot, 2015; Godinez Tello, Torres Muller, Ferreira & Freire Bastos, 2015) sono state adoperate lampade con sfumature di queste tonalità (Fig. 3). Al primo studio hanno preso parte sette soggetti selezionati in base ad alcuni criteri di inclusione/esclusione e ai punteggi di depressione (HAMS, Hamilton, 1960) e ansia (STAI, Spielberger, Gorsuch, Lushene, Vagg & Jacobs, 1983). I criteri diagnostici relativi ai disturbi psicopatologici sono stati Figura 3. Cuffia MindWave® e feedback online stabiliti seguendo la classificazione del Manuale Diagnostico e Statistico dei disturbi mentali (DSM 5; APA, 2013). I partecipanti, che avevano un’età media di 47 anni, presentavano uno o più disturbi di personalità, ed erano sottoposti ad una batteria di valutazione per misurare l’effetto del trattamento, hanno partecipato in media a 53 sedute individuali di 30 minuti ognuna. In base a studi precedenti sono state predisposte apposite play-list musicali diversificate in base al disturbo. Le clip, senza restrizioni di genere, comprendevano classica, folk, jazz, elettronica, rock, punk, techno e tango (vedi http://www.zlab.mcgill.ca/supplements/supplements_in- tro.html) sono state cambiate solo due volte durante il training. I partecipanti sedevano su una comoda poltrona posta in una camera buia a circa 2 m. di distanza dall’effettore collocato a 1.60 di altezza da terra indossando la Mindwave® e gli auricolari per ascoltare la musica. I risultati hanno indicato una differenza significativa nel punteggio della depressione, passato da 19.71 a 7.71 (W=28, P=0.022). Un dato inatteso è il miglioramento rilevante della prestazione cognitiva, evidenziato già in altrove (Chen, Chen, & Dai, 2015), con un netto aumento dei punteggi alla Scala WAIS-R (Wechsler, 1981): il QIV medio è salito da 104.14 a 130.57 (W=0, P=0.016). L’analisi delle serie temporali sulle mediane degli spettri per ogni banda di frequenza ha mostrato che la maggior parte di queste mostrava una tendenza a decrescere, ad eccezione delle delta e theta, mantenutesi pressoché stazionarie. Applicando i modelli di regressione multipla alle differenze nelle mediane di ciascuna banda tra la prima e l’ultima seduta e ai punteggi ai test tra la prima e la seconda misurazione, si è notato che le variazioni ai punteggi della STAI Y-1 correlano significativamente con i predittori “differenze in alfa 2” e “differenze in beta 2” (F [2,4] =10.07, P=0.027). Gli aumenti dei QIV e QIP alla WAIS-R sembrano influenzati, rispettivamente, dalle variazioni della banda theta con un effetto significativo della variabile indipendente sui cambiamenti del QIP (F [1,5] =11.76, P=0.018). CONCLUSIONI Lo studio, riportato estesamente altrove (Pino & La Ragione, 2016), ha diversi limiti ma apre alcuni interrogativi che meritano altri approfondimenti. Un primo limite è la mancanza di un gruppo di controllo sottoposto ad altro o nessun trattamento. Un secondo limite è la ridotta consistenza del campione. Un terzo limite è la mancata valutazione sia del mantenimento degli effetti sia della modulazione neuro-biologica (cortisolo e acido idrossindolacetico valutati in fase di baseline). La remissione dei sintomi depressivi, passati dal range di gravità a quello di normalità, e l’aumento del quoziente intellettive suggerisce un’efficacia preliminare del sistema. Bisognerà indagare ancora se l’autoregolazione persiste nel tempo e se l’entrainment ha luogo anche in persone senza disturbi. Un’osservazione interessante che merita approfondimento è il recupero spontaneo di ricordi remoti che quasi tutti i soggetti riferivano dopo il primo mese di training. Infine, anche se è noto che NU si basa sul condizionamento operante, tale meccanismo va studiato più a fondo anche per spiegare come mai riaffiorino alla coscienza questa tipologia di ricordi. La possibilità di ottimizzare l’efficacia della riabilitazione di alcuni disturbi psichiatrici in termini di intensità, rapidità e durata degli effetti, ha comunque grande interesse per la pratica clinica. RIFERIMENTI BIBLIOGRAFICI American Psychiatric Association. (2000). Diagnostic and statistical manual of mental disorders (4th ed., text rev.). 37 SCIENZE DELLA VITA E DELLA SALUTE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 doi:10.1176/appi.books.9780890423349. American Psychiatric Association (2013). Diagnostical and Statistical Manual of Mental Disorders, 5th edition (DSM-5). Washington, DC: American Psychiatric Publishing. Blood, A.J., Zatorre, R.J., Bermudez, P., & Evans, A.C. (1999). Emotional responses to pleasant and unpleasant music correlate with activity in paralimbic brain regions. Nature Neuroscience, 2, 382-287. Davidson, R.J. (1992). Anterior cerebral asymmetry and the nature of emotion. Brain and Cognition factors. Psychophysiology, 35, 389-404. Elliot, A.J. (2015). Color and psychological functioning: A review of theoretical and empirical work. Frontiers in Psychology, 6 (368), 368. doi: http://dx.doi.org/10.3389/ fpsyg.2015.00368. PMid:25883578. Enriquez-Geppert, S., Huster, R.J. & Herrmann, C.S. (2013). Boosting brain functions: Improving executive functions with behavioral training, neurostimulation, and neurofeedback. International Journal of Psychophysiology, 88, 1-16. http://dx.doi.org/10.1016/j.ijpsycho.2013.02.001. Faber, P.L., Steiner, M.E., Lehmann, D., Pascual-Marqui, R.D., Jäncke, L., Esslen, M., et al. (2008). Deactivation of the medial prefrontal cortex in experienced Zen meditators. Abstract Brain Topography, 20, 172-173. Falzon, O., & Camilleri, K.P. (2013). Multi-colour stimuli to improve information transfer rates in SSVEP-based Brain-Computer Interfaces. Communication presented at the IEEE EMBS Conference on Neural Engineering, San Diego, California. Godinez Tello, R.M. Jr, Torres Muller, S.M., Ferreira, A. & Freire Bastos, T. (2015). Comparison of the influence of stimuli color on Steady-State Visual Evoked Potentials. Research on Biomedical Engineering, 31, 218-231. doi: http:// dx.doi.org/10.1590/2446-4740.0739. Hamilton, M. (1960). A rating scale for depression. Journal of Neurology, Neurosurgery and Psychiatry, 23, 56-62. Hughes, J.R., Daboul, Y., & Fino, J.J. (2000). The Mozart effect: Distinctive aspects of the music – A clue to brain coding? Clinical Electroencephalography, 31, 94-103. Juslin, P.N., Liljeström, S., Västfjäll, D., & Lundqvist, L. (2010). How does music evoke emotions? Exploring the underlying mechanisms. In Handbook of music and emotion: Theory, research, applications, Series in Affective Science. New York: Oxford University Press. Katie, C., Aidan, S., Ian, P. & Dave, M. (2010). Evaluating a brain-computer interface to categorise human emotional response. Proc. 10th IEEE International Conference on Advanced Learning Technologies, pp. 276-278. Kirsh, D.L., & Nichols, N. (2013). Cranial electrotherapy stimulation for treatment of anxiety, depression, and insomnia. Psychiatric Clinical of North America, 36, 169-176. doi: http://dx.doi.org/10.1016/j.psc.2013.01.006. Knyazev, G. (2012). EEG delta oscillations as a correlate of basic homeostatic and motivational processes. Neurosci. Bio behav. Rev. 36, 677-695. doi:10.1016/j. neubio38 rev.2011.10.002 Knyazev, G.G., Savostyanov, A.N., & Levin, E.A., (2004). Alpha oscillations as a correlate of trait anxiety. International Journal of Psychophysiology, 53, 147-160. Large, E.W., & Almonte, F.V. (2012). Neurodynamics, tonality, and the auditory brainstem response. New York Academy of Science, New York, 1252, E1-E7. Large, E.W., & Kolen, J.F. (1994). Resonance and the perception of musical meter. Connection Science: Journal of Neural Computing, Artificial Intelligence and Cognitive Research, 6, 177-208. LeDoux J. (2015). Anxious. Using the brain to understand and treat fear and anxiety. Viking, New York. Lehmann, D., Faber, P.L., Tei, S., Pascual-Marqui, R.D., Milz, P., & Kochi, K. (2012). Reduced functional connectivity between cortical sources in five meditation traditions detected with lagged coherence using EEG tomography. Neuroimage 60, 1574-1586. doi:10.1016/j.neuroimage.2012. 01.042 Lim, C.A. & Chia, W.C. (2015). Analysis of single-electrode EEG rhythms using MATLAB to elicit correlation with cognitive stress. International Journal of Computer Theory and Engineering, 7, 149-155. doi:10.7763/IJCTE.2015. V7.947. Lim, L. (2013). The potential of intranasal light therapy for brain stimulation. In: NAALT Conference. Palm Beach Gardens: Florida. Loui, P., Bachorik, J.P., Li, H.C. & Schlaug, G. (2013). Effects of voice on emotional arousal. Frontiers in Psychology. 4, 675. doi: 10.3389/fpsyg.2013.00675. Maggi, L., Parini, S., Piccini, L., Panfili, G., & Andreoni, G., (2006). A four command BCI system based on the SSVEP protocol. Proc. 28th IEEE EMBS Annual International Conference, New York City, USA, Aug 30-Sept 3, pp. 1264-1267. Mauro, D.G. (2005). Using music to tap into a universal neural grammar. XXVII Annual conference of the Cognitive Science Society, 132, 21-23. Menon, V. (2011). Large-scale brain networks and psychopathology: A unifying triple network model. Trends in Cognitive Neuroscience, 15, 483-506. Mehta, N.A., Hameed, S.H.S., & Jackson, M.M. (2010). Optimal control strategies for an SSVEP-based brain computer interface. International Journal of Human-Computer Interaction, Volume 27, Issue 1, Special Issue: Current Trends in Brain Computer Interface (BCI) Research and Development. Moratti, S., Rubio, G., Campo, P., Keil, A. & Ortiz, T., (2008). Hypofunction of right temporoparietal cortex during emotional arousal in depression. Archives of General Psychiatry, 65, 532-541. Nozaradan, S., Peretz, I., & Mouraux, A. (2012). Selective neuronal entrainment to the beat and meter embedded in a musical rhythm. The Journal of Neuroscience, 32, 1757217581. Ortiz-Rosario, A. & Adeli, H. (2013). Brain-computer in- SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE terface technologies: from signal to action. Review of Neuroscience, 24, 537-552. doi: 10.1515/revneuro-2013-0032. Pino, O., & La Ragione, F. (2016). A Brain Computer Interface for audio-visual entrainment in emotional regulation: Preliminary evidence of its effects. Online International Interdisciplinary Research Journal, VI (II), 1-12. Pino, O., & La Ragione, F. (2014). The secret in the air. The effect of negative air ions: Empirical evidence and erroneous beliefs. Lambert Academy Publishing, Saarbruken, Germany. Porges S.W. (2011). The polyvagal theory: Neurophysiological foundations of emotions, attachment, communication, and self-regulation. New York, NY: W. W. Norton & Company. Raven, J., Raven, J. C., & Court, J. H. (2003). Manual for Raven’s Progressive Matrices and vocabulary scales. San Antonio, TX: Harcourt Assessment. Salimpoor, V.N., Benovoy, M., Larcher, K., Dagher, A., & Zatorre, R.J. (2011). Anatomically distinct dopamine release during anticipation and experience of peak emotion to music. Nature Neuroscience, 1, 257-264. doi:10.1038/nn.272. Salimpoor, V.N., van den Bosch, I., Kovacevic, N., McIntosh, A.R., Dagher, A., & Zatorre, R.J. (2013). Interactions between the nucleus accumbens and auditory cortices predict music reward value. Science, 340, 216-219. Shangkai G., Yijun W., Xiaorong G., & Bo, H. (2014). Visual and auditory Brain-Computer Interfaces. IEEE Tran- sactions on Biomedical Engineering, 61, 5, 1436-1447. Spielberger, C.D., Gorsuch, R.L., Lushene, R., Vagg, P.R., & Jacobs, G.A. (1983). Manual for the State-Trait Anxiety Inventory. Palo Alto, CA: Consulting Psychologists Press. Sterling, P. (2012). Allostasis: A model of predictive regulation. Physiology and Behaviour, 106, 5-15. Tei, S., Pascal, A.E., Faber, P.L., Lehmann, D., Tsujiuchi, T., Kumano, H., et al. (2009). Meditators and non-meditators: EEG source imaging during resting. Brain Topography, 22, 158-165. doi:10.1007/s10548-009-0107-4. Thut, G., Schyns, P.G. & Gross, J. (2011). Entrainment of perceptually relevant brain oscillations by non-invasive rhythmic stimulation of the human brain. Frontiers of Psychology, 2, 170. doi: 10.3389/ fpsyg.2011.00170. Vialatte, F.B., Maurice, M., Dauwles, J., & Cichocki, A. (2010). Steady-state visually evoked potentials: Focus on essential paradigms and future perspectives. Progress in Neurobiology, 90, 418-438. doi:10.1016/j.pneurobio.2009.11.005. Waldhauser, G.T., Bäum, K.H.T., & Hanslmayr, S. (2015). Brain oscillations mediate successful suppression of unwanted memories. Cerebral Cortex, 25, 4180-4190. doi:10.1093/cercor/bhu138 Wechsler, D. (1981). Manual for the Wechsler Adult Intelligence Scale-Revised (WAIS-R). New York: The Psychological Corporation. Zatorre, R.J. (2003). Music and the brain. Annals of the New York Academy of Sciences, 999, 4-14. 39 MATEMATICA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 A description of the paradox of unexpected examination in the language of probability BRUNO CARBONARO, FEDERICA VITALE Dipartimento di Matematica, Seconda Università degli Studi di Napoli, Caserta A description of the paradox of unexpected examination in the language of probability Bruno Carbonaro∗and Federica Vitale† Abstract: The present paper deals with a well-known paradox of prediction, envisaged as one of the most important aspects of scientific activity, the so-called “paradox of unexpected hanging”, or — in a slightly different, less cruel form — “paradox of surprise class examination”. This paradox has been recently discussed by Shira Kritchman and Ran Raz [9] by a logical analysis based on Gödel’s second incompleteness theorem. In the present paper, it is shown that the self-reference upon which this paradox and the solution offered in [9] are based can be also described and managed by means of the tools delivered by the mathematical probability theory. 1 The paradox The Paradox of Surprise Class examination, also known in a more cruel form as the Paradox of Unexpected Hanging, dates back to a paper D. J. O’Connor [1], where it was presented as a “paradox of Class A Blackout” and classified as a “pragmatic paradox”, subsequently renamed by Weiss [5] as a “prediction paradox”. It was given a number of different forms and different solutions by the Authors who have examined and discussed it from 1951 to 2010 (see [7] for sufficiently complete references). Looking at the wide literature on prediction paradoxes, one cannot help remarking on one hand the surprisingly little attention paid to these by mathematicians [8], on the other hand the fact that, in spite of occasional mentions to probability, the formal language of probability has — at least as far as we are aware — never been used, neither to express the predictions involved in any formulation of the paradox nor to describe the arguments to establish whether they are contradictory and the reason why they actually describe a real situation. The point of the present paper is just to show how this language could suggest a perspective to “exhorcise” (as D. J. O’Connor [4] writes about the solution offered by Alexander in [3]) the paradox and to exclude contradictions. To explain the point, let us first report the anecdote giving rise to the problems that define the paradox. A school teacher τ decides to examinate one of his pupils, identified here as σ , on a day of ∗ Dipartimento 40 † Dipartimento di Matematica, Seconda Università degli Studi di Napoli, Caserta - [email protected]. di Matematica, Seconda Università degli Studi di Napoli, Caserta - [email protected]. 1 SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | MATEMATICA 2 the next week (from monday to friday). He announces to σ his decision, adding a prediction: whenever the examination will take place, it will be a surprise to σ 1 . We can express the announcement of τ as the logical product p ∧ q of the following two statements: (p) “τ will examine σ once and only once in the next week” , (q) “whenever the examination will take place, it will be a surprise for σ ” . The pupil reflects upon the announcement and notices that p ∧ q cannot be a true proposition. In fact, σ sees at once that τ cannot wait until the next friday to examine him. In fact, should he wait, then σ , having seen the first four days of the week to pass with no examination, could know in advance, going back home on thursday, that he will be examined the day after (and condition q would be infringed). Accordingly, the latest day for the examination should be thursday. But the same reasoning as above shows that τ cannot wait until thursday, because in this case σ could know in advance (going back home on wednesday) the time of examination (since friday has been previously ruled out). So, τ can postpone the examination at most to wednesday. But, in the same way as above, σ is led to conclude that — in order to satisfy the “surprise condition” for every day — the examination cannot be postponed to wednesday nor to tuesday, and that it cannot take place even monday. As a final consequence, σ then finds that q → ¬p, i. e. p ∧ q → p ∧ ¬p, and teacher’s announcement is a contradiction. Since he knows his teacher very well, σ can exclude that τ had the purpose to deceive him and — though surprised — feels compelled to deduce that the teacher must be mistaken and, as a consequence, when noticing his oversight, he will cancel the examination. Thus, he arrives at excluding examination for every day. At this point, as repeatedly remarked [7], there is no paradox at all: the teacher has simply stated a contradiction which, in virtue of its nature of a logically false proposition, will turn out to be also empirically false. But, the next week, σ goes to his school quite confident to be not examined: and one day (no matter which one) the teacher calls him to the chair to examine him! Going to the chair, σ bitterly thinks that the teacher, after all, was not mistaken, as he actually performs a quite unexpected examination in the planned time interval. Now, this is a paradox. It can be described and analyzed in several ways, but the best way to express it seems to be by means of the question: how is it possible that a contradiction describes so precisely an actual state of empirical world? And, on the other hand, how is it possible that the result of a correct logical reasoning turns out instead to be false? Once it has been envisaged by these questions, it seems to be, rather than a logical paradox, a paradox about the behaviour of the world or, maybe more precisely, about our perception of the world. But, before analyzing the logical problem, we must acknowledge that there are several aspects in this short tale that are ambiguous or unconvincing. First of all, as pointed out by Chow [8], there is no precise definition of a “surprise examination” or, what is the same, of 1 In most reports of the paradox, rather than a prediction, “surprise” is presented as a prescribed property of the examination: “the examination must, and will, be a ‘surprise examination’ ” (whenever it will be performed in the week). But this makes no difference for the terms of the problem. 41 MATEMATICA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 3 what we mean by the word “surprise”. This word may have indeed at least two different meanings: (a) that σ excludes to be examined; (b) that σ does not know for certain that he is going to be examined. Some attention should be paid to make a distinction between these two meanings. In all the discussions about the paradox, the statement q is given interpretation (b), but the story seems to suggest that, once p is assumed to be true, requiring condition (b) to be satisfied for every day of the week entails condition (a) to hold for every day of the week. Second, the behavior of the schoolboy, as described in the usual formulation of the paradox, is rather unnatural. Any other pupil would object to the teacher that his statements are in mutual contradiction and would ask which one should he take as true. And the teacher would have at his disposal three answers: 1. To admit the contradiction, and to give up the “surprise” condition (or at least to exclude friday from it), thus asserting that p is true and q is false; 2. To admit the contradiction, and to give up the certainty of examination, thus asserting that p is false and q is true; 3. To deny any contradiction. In all cases but the second one, the pupil is not allowed to conclude that the examination will be canceled (to overcome the fact that such a conclusion is obviously strained, Wright [6] presents cancelation as a result of an agreement between the teacher and his pupils). But special attention must be paid to the third answer. What should then the schoolboy think in this last case? He would probably waste almost all his time trying to find a reason to teacher’s answer and asking himself whether something has escaped his attention. So, he would spend in the doubt all the time of the week before the examination, thus realizing q and leaving the teacher free to realize p. The doubt is itself sufficient to guarantee a certain amount of surprise. The original version of the story excludes any interaction between pupil and teacher, so leaving space to a doubt among the above three answers (what would the teacher answer, if the schoolboy should question about the contradiction?). But, at its very end, “forces” an unjustified, undoubted conclusion: the answer must be the second one. What all the usual formulations of the paradox invariably hide is that q does not describe any event, either independent or depending on human decisions and actions, but a “state of knowledge” of the pupil and, as such, is itself able to modify this state. The self-reference appealed to by almost all the authors who have discussed the paradox and suggested solutions to it is expressed by the (implicit) statement “your mind will be in the state produced by this statement”. By uttering proposition q (see, e. g., [3, 4, 6]), the teacher produces the condition described by q. Any analysis in terms of “truth tables”, i. e. in terms of propositions that can only be true or false unavoidably hides this circumstance, so requiring arguments of a 42 SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | MATEMATICA 4 psychologic (or semantic) rather than strictly logical (or syntactic) character, that leave a flavour of unsatisfaction. We shall present here a different formalization of the story and of the subsequent paradox, in terms of probability measures. The interpretation of statements p and q as prescribing particular values to suitable probability measures can enlighten some previous solutions proposed in the literature (see the papers by Quine, Nerlich, Meltzer, Chapman and Butler, Kiefer and Ellison, Ayer, quoted in [7]), that — more or less explicitly — underline the relevance of what the schoolboy may believe or not. But, as far as we are aware, not one of the authors who have tackled the problem of solving the paradox has made an explicit use of the formal notion of probability, nor of the techniques of mathematical probability theory. This is rather surprising, for a description of the paradox in terms of probabilties seems to be the most appropriate one under at least three respects: • first, it may suggest — as we shall see in the sequel — a possible explicit interpretation of the word “surprise”, which is undefined and rather ambiguous (cf. [8]): as a matter of fact, the word “surprise” labels any event that contradicts an expectation, and the notion of “expectation” can be in turn defined b • next, it may outline a possible rôle of probability in the very formulation of empirical statements, either referred to past events or to future ones; • finally, it may show a way to bypass the notion of “contradiction” in cases similar to the one depicted in the paradox. We hope to be able to show that the techniques of mathematical probability theory, based on the notion of conditional probabilityand on the distinction between probability measures defined by different individuals on the same set of possible events, are a powerful tool to define unambiguously all the terms of the problem (the notion of “surprise”, the difference between teacher’s planning and its realization), and to replace the crude notion of “contradiction” with the less restrictive one of “incompatibility”, allowing to ascribe a positive degree of belief to each of two propositions that cannot be simultaneously true. This also produces a kind of formalization of the notion of “doubt”, which seems to be central in any solution of the paradox, as q seems to be uttered to the explicit aim of raising a doubt on the initially undoubted announcement p; and also leads to understand that the usual, forced conclusion that the examination will be canceled is nothing more than a “limiting case” of doubt2 . 2 Another interesting feature of the description presented here is that it can be envisaged as a probabilistic counterpart of the purely logical solution proposed by Shira Kritchman and Ran Raz [9] , based on Gödel’s second incompleteness theorem 43 MATEMATICA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 5 2 The notion of “surprise” As previously observed, a complete formalization of the paradox in terms of probability requires a suitable formal definition of “surprise”, for at least two reasons. First, if all the statements, the pupil’s reasonings and his psychologic states are to be described in terms of probability, our notion of “surprise” must be described in the same terms; second, as already pointed out, the statement that an event E is “surprising” for an individual σ can be interpreted as meaning either that σ excludes the event E from the class of possible events, or that σ does not know for certain that E will take place. And the word “surprise” may be suitably defined in terms of probability in such a way as to unify these interpretations. To this aim, we propose the following Definition 2.1. Let σ be any individual and let (Ωσ , Fσ ) be the sample space of all possible experiences of σ 3 . Moreover, let Pσ a probability measure defined by σ on Fσ . An event E ∈ Fσ will be said a surprise for σ with respect to Pσ if and only if Pσ (E) < 1 . 2 Though essentially trivial, this definition will be undoubtedly disputed as arbitrary. Still, it is based on the simple observation that one cannot speak of “surprise” without any further specification. There are many degrees of surprise. If one reads a “whodunit” mistery, in which a murderer must be identified, then one can be led to form the opinion that this is a given character A; with less confidence, one could accept that the murderer is another character B; and with still less confidence, one could be even prepared to find that it is C; but there will be a number of characters D1 , D2 , . . . , Dn which will be excluded from the list of possible murderers. If, at the end of the novel, one reads that the guilty is Dh for some h, then one is strongly surprised. If the murderer turns out to be C, then one is just surprised, if it is B, then the reader is surprised a little. The definition then expresses the almost obvious assumption that an event E starts to be a surprise when the confidence that E will take place is less than the confidence that E will not take place. 3 The sample space of the pupil The basic idea of the present paper is that the teacher says what he says exactly with the explicit aim to produce in his pupil the state of expectation implying the truth of proposition q. In other words, q seems to be a self-fulfilling profecy similar to the ones so often proposed in so many fantasy movies and novels. So, the analysis of the paradox is simply a particular case of a more general logical analysis of self-fulfilling profecies. In such analysis, the information 3 For the definition of a “sample space” , as well as for all technical definitions concerning the basic language of probability, the reader is referred to any good undergraduate textbook on probability. 44 SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | MATEMATICA 6 implicitly carried by the fact itself that a profecy exists is a relevant element to give a semantic definition of the truth of the profecy, and probability, with special reference to conditional probability, seems to be the most effective tool to achieve a formal definition. To describe the meaning (hence, the truth) of q in proper mathematical terms involving probability, we need to introduce and describe the “sample space” Ωσ of the pupil, i. e. the space of all his (possible) experiences. To this aim, we need: • the set T = {1, 2, 3, 4, 5}, which is to represent “the next week”; • the “examination space” Ω = {0, 1} containing only two outcomes: here, the outcome 0 means “σ is not examined” and the outcome 1 means “σ is examined”; • the “teacher’s communication space”, a set Γ of (equivalence classes of) english propositions uttered by the teacher during the lessons before the week in which the examination should be performed; in order to avoid useless mathematical technicalities, we do not analyze in details the contents of Γ, and confine ourselves to introduce (and use) the σ -algebra (T , ¬, ∨, ∧) associated to Γ (with the usual meaning of “negation”, “logical sum”, “logical product” for ¬, ∨ and ∧ respectively). Accordingly, any outcome p ∈ T means the event “the teacher utters p”. An order (“inclusion”) relation “<” is defined on T by setting p < q when the proposition ¬p ∨ q is a tautology. For convenience, we also set Π= p, p∈T the logical sum of all propositions in T . The explicit introduction of T is of the greatest relevance to describe as clearly and completely as possible the influence of teacher’s profecy on the conclusions of σ . Now the space Ωσ of all possible experiences of σ 4 must contain not only all what could happen but also all what the teacher could say or have said in the classroom during the lessons. Denoting by P(Ω5 ) the class of all subsets of Ω5 , for any event E ∈ P(Ω5 ) and any p ∈ T , we denote by the symbol E × Π or simply by the symbol E the event “E happens whatever the teacher says” and by the symbol Ω5 × p or simply by the symbol p the event “the teacher states p whatever will happen in the week”. We use either the symbol E × p or the symbol (E × Π) ∩ (Ω5 × p to denote the event “τ states p and the event E will take place in the week”. So, we can set Ωσ ≡ Ω5 × Π, and the event E ≡ {(1, 0, 0, 0, 0), (0, 1, 0, 0, 0), (0, 0, 1, 0, 0), (0, 0, 0, 1, 0), (0, 0, 0, 0, 1)} ⊂ Ω5 , (1) (or, more precisely, the event E ×Π ⊂ Ωσ , disregarding any communication from the teacher) means “σ is examined once and only once in the time interval T , whatever the teacher says”. For future purposes, in order to simplify the notation, we also introduce, 4 Restricted to the lessons, of course. 45 MATEMATICA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 7 • for any h ∈ T , the event Ah ≡ {(δh1 , δh2 , δh3 , δh4 , δh5 )} , where, for any i ∈ T , δhi = 0 if i = h , 1 if i = h , which therefore means “σ is examined at time h (whatever the teacher says)”; we also set A0 = {(0, 0, 0, 0, 0)}, which is the event “σ is not examined at all in the week”; • for any k ∈ T , the event Hk ≡ A0 ∪ 5 Ah h=k , which, for k ≥ 2, obviously means “σ is not examined at any time t ∈ {1, . . . , k − 1}”; H1 ≡ A0 ∪ E is instead the event “σ is examined at most once in the week”: according to the usual formulation of the paradox, it is assumed through the whole discussion that Pσ (H1 ) = 1 . (2) Of course, on Ωσ the pupil assigns a probability distribution Pσ , which will be influenced and modified not only by each experience of σ but also by all what his teacher τ says. More precisely, the “outcomes” considered by σ are couples (x, p), with x ∈ Ω5 (a sequence of five numbers x1 , x2 , . . . ,x5 , where xh is either 0 or 1 for any h ∈ T ) and p a proposition stated by τ, that the pupil can decide to take or not in consideration, i. e. to believe or not. So, the probability Pσ ({(x, p)}) ≡ Pσ ({x} × p) assigned by σ to the outcome (x, p) is the “degree of belief” of σ that the event x will happen and teacher’s proposition p is true (“joint probability of x and p”). The probability of an event E ⊆ Ω5 assigned by σ disregarding any communication by the teacher, i. e. without any decision about the truth of the propositions stated by τ is Pσ (E × Π), which can be also denoted by the symbol Pσ (E) and is said the “absolute probability” of E. The conditional probability of an event A ⊆ Ω5 under an hypothesis B ⊆ Ω5 , assigned (or calculated) regardless of teacher’s statements is Pσ (A | B) ≡ Pσ (A × Π | B × Π). The conditional probability of an event A ⊆ Ω5 under an hypothesis B × p ∈ P(Ω5 ) × T , i. e. under the assumption that the event B happened and teacher’s statement p is true, is Pσ (A | B, p) ≡ Pσ (A | B × p) ≡ Pσ (A × Π | B × p). On the other hand, the probability of a proposition p ∈ T assigned by σ without any assumption on whether and when and how many times he will be examined in the week, is Pσ (Ω5 × {p}), which can be also denoted by the symbol Pσ (p) and is said the “absolute probability” of p. It can be meant as the “degree of belief” of σ that p is true before formulating any prediction about the examination. 46 SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | MATEMATICA 8 4 Teacher’s announcement in terms of probabilities Let us now turn our attention to teacher’s announcement. We start with remarking that τ in turn assigns a probability distribution Pτ on the sample space Ω5 . Of course, as Ω5 contains all possible sequences of examinations of τ to σ , such probability distribution is simply a necessary consequence of the decision of τ to examine σ once and only once in the week. But we can also assume that τ knows his pupils (in particular, σ ) so well as to be in a position not only to know Ωσ (which contains only possible class examinations involving τ and possible communications of τ to his pupils, and in particular those communications that σ will be forced to take into account in order to decide his own behaviour) but also to make predictions about at least some values of Pσ . Accordingly, we acknowledge at once that propositions p and q can be rephrased as two statements concerning respectively Pτ and Pσ . More precisely, proposition p can be expressed by the relation (p) Pτ (E) = 1 (3) (where E is defined by (1)) while proposition q, which is instead a prediction of τ about Pσ , can be rephrased as the condition (q) Pσ (Ak | Hk ) ≡ Pσ (Ak × T | Hk × T ) < 1 , 2 ∀k ∈ T . (4) Notice that there can be no contradiction between conditions (3) and (4), as the former expresses a decision of τ, while the latter is neither the expression of a decision nor a prescription, as σ seems to believe, but simply a prediction on the probability distribution assigned by σ on Ωσ . In this connection, it should be carefully noted that relation (4) is a statement about absolute probability defined by σ on his sample space, which is by definition assigned disregarding all the elements of T , i. e. without taking any one of them as true. It can be objected that giving to q the form (4) is a quite arbitrary interpretation. Of course, it is so. But the pupil’s assumption that q is a prescription and that accordingly the examination will be canceled also is (as we shall see in more details) quite arbitrary, and evidently wrong. Here, our aim is mainly to suggest a possible interpretation of teacher’s statements that could exclude that a contradiction may describe actual events, as well as point out why and where pupil’s reasonings are wrong, showing however that “surprise” is unavoidable, unless σ decides to disregard completely statement q. Accordingly, Definition 2.1 and relations (3)–(4) seem to provide a sufficiently plausible ground to an analysis of pupil’s reasoning in terms of probability, which should be helpful to recognize those aspects under which it is correct (and leads to an uncertainty status) and those under which it is uncorrect (leading to the wrong conclusion that examination must and will be canceled). 47 MATEMATICA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 9 5 Pupil’s reasoning in terms of probability After the teacher has stated p, the pupil constructs his “sample space” Ωσ and defines a conditional probability measure Pσ (· | p) on its subspace Ω5 × {p}. Since σ believes that p is true, Pσ (p) = Pσ (Ω5 × {p}) = 1 and so that A0 ⊂ E c 5 entails Pσ (E | p) = 1 , (5) Pσ (A0 | p) = 0 . (6) Moreover, assuming as usual that the absence of any additional information is expressed by the uniformity of the probability measure, Pσ (Ah | p) = 1 , 5 ∀h ∈ T (7) and, since Pσ (Ak | Hk , p) = Pσ (Ak | p) = Pσ (A0 | p) + ∑5h=k Pσ (Ah | p) 1 5 (8) = Pσ (A0 | p) + 5−k+1 5 1 , = 5Pσ (A0 | p) + 5 − k + 1 = ∀k ∈ T , relation (6) implies Pσ (A1 | H1 , p) = Pσ (A1 , p) = 1 5 Pσ (A2 | H2 , p) = Pσ (A4 | H4 , p) = 1 2 1 4 Pσ (A3 | H3 , p) = 1 3 (9) Pσ (A5 | H5 , p) = 1 . All these relations are quite obvious, and seem to give a very realistic picture of the actual way of arguing of every schoolboy or schoolgirl in the world. According to them, σ is moderately sure to be not examined on monday, tuesday and wednesday, starts to fear to be examined on thursday and is quite afraid on friday morning, because he now knows that he will be examined. But now the teacher adds his statement (q), which has the natural effect to induce σ to revise his probability distribution on Ωσ (in particular, on Ω5 ). And, if we carefully analyse the whole sequence of facts as it is reported in the usual formulation of the paradox, then we see that σ seems to make his first, heavy mistake. He seems to believe that statement (q) 5 As 48 usual, the symbol E c denotes the complement of E with respect to Ω5 , i. e. E ∪ E c = Ω5 . SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | MATEMATICA 10 does not describe his absolute probability, but the above probability Pσ (· | p), so that he must add condition q to condition p. To this aim, condition (4) must be replaced by condition Pσ (Ak | Hk , p ∧ q) < 1 , 2 ∀k ∈ T , (10) in order to define a conditional probability measure Pσ (· | p ∧ q) satifying both relation Pσ (A0 | p ∧ q) = 0 . (11) and relation (10). But these two relations, taken simultaneously, lead at once to the contradiction 1 = Pσ (A5 | H5 , p ∧ q) < 1/2, so that Pσ needs to be modified in such a way that Pσ (A5 , p ∧ q) = 0. But all what can be obtained is that relations (7), (21) and (9) are replaced by relations 1 ∀ h ∈ T \ {5} , (12) Pσ (Ah | p ∧ q) = , 4 Pσ (Ak | p ∧ q) = Pσ (Ak | Hk , p ∧ q) = Pσ (A0 | p ∧ q) + ∑4h=k Pσ (Ah | p ∧ q) 1 4 = and = Pσ (A0 | p ∧ q) + 4−k+1 4 1 = , 4Pσ (A0 | p ∧ q) + 4 − k + 1 Pσ (A1 | H1 , p ∧ q) = Pσ (A1 | p ∧ q) = 1 4 (13) ∀ k ∈ T \ {5} , Pσ (A2 | H2 , p ∧ q) = 1 3 (14) 1 Pσ (A3 | H3 , p ∧ q) = Pσ (A4 | H4 , p ∧ q) = 1 , 2 respectively. The contradiction is reproduced unchanged for A4 . Looking for a probability distribution Pσ (· | p ∧ q) such that Pσ (A4 | p ∧ q)) = Pσ (A5 | p ∧ q) = 0, the result is that relations (12), (13) and (14) are now replaced by relations Pσ (Ah | p ∧ q) = Pσ (Ak | Hk , p ∧ q) = ∀ h ∈ T \ {4, 5} , (15) Pσ (Ak | p ∧ q) = Pσ (A0 | p ∧ q) + ∑3h=k Pσ (Ah | p ∧ q) 1 3 = Pσ (A0 | p ∧ q) + 3−k+1 3 1 , = 3Pσ (A0 | p ∧ q) + 3 − k + 1 = and 1 , 3 (16) ∀ k ∈ T \ {4, 5} , 1 1 Pσ (A2 | H2 , p ∧ q) = 3 2 Pσ (A3 | H3 , p ∧ q) = 1 . Pσ (A1 | H1 , p ∧ q) = Pσ (A1 | p ∧ q) = (17) 49 MATEMATICA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 11 Going on with this search for a conditional probability satisfying both the conditions assigned by the teacher, one simply finds Pσ (A1 | p ∧ q) = Pσ (A2 | p ∧ q) = Pσ (A3 | p ∧ q) = = Pσ (A4 | p ∧ q) = Pσ (A5 | p ∧ q) = 0 , (18) which, joined with condition (11) and condition (2), shows that Pσ (p ∧ q) = 0 . (19) Indeed, H1 is the smallest subset of Ω5 such that Pσ (H1 × Π) = 1 and {Ah }0≤h≤5 is a partition [Ω5 × p ∧ q]) = Pσ (Ah | p ∧ q)Pσ(p ∧ q) = 0 for any h ∈ of H1 . Accordingly, Pσ ([Ah × Π] ∩ 5 5 5 {0, 1, 2, 3, 4, 5} and Pσ (p ∧ q) = Pσ h=0 (Ah × Π) ∩ [Ω × p ∧ q] = ∑h=0 Pσ ([Ah × Π] ∩ [Ω5 × p ∧ q]) = 0. Notice that condition (19) does not mean that proposition p ∧ q is a contradiction, but simply that σ cannot believe that the events described by p and q respectively will happen together. At the same time, as we have seen, τ may be quite convinced that the events described by p and q can happen together. As a matter of fact, his statements refer to two different subjects and — as we shall see later — cannot be compared and do not interfere with each other unless their subjects (i. e. the probability distributions Pτ and Pσ ) are assumed to be the same. 6 What the pupil can actually conclude As a consequence of his reasoning starting from relation (11) and arriving at relations (18) and (19), σ makes a serious mistake he will pay hard in the week, when he will be unespectedly examined: he perceives relation (19) as witnessing a contradiction between p and q, from which he deduces that τ cannot but cancel the planned examination. In our language, this means that now Pτ (A0 ) = 1 and, as a consequence, Pσ (A0 ) = 1. In view of what happens in the next week, σ should feel compelled to find the mistake in his reasoning, and to look for a correct “solution”, avoiding a quite unexpected examination. To this aim, he can argue in two ways. 1. F IRST “ SOLUTION ”: σ takes relation (19) as the very startpoint for the construction of an absolute probability distribution on Ω5 . According to this relation, p and q are incompatible (though not necessarily in mutual contradiction) statements. So, taking p ∨ q as the space of leading teacher’s propositions, the set {p, q} is a partition (or a family of alternatives) for p ∨ q, and — according to the law of total probabilities — Pσ is constructed by means of the relation Pσ (S) = Pσ (S | p)Pσ (p) + Pσ (S | q)Pσ (q) , 50 SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | MATEMATICA 12 for any event S ⊆ Ω5 . In particular, Pσ (A0 ) = Pσ (A0 | p)Pσ (p) + Pσ (A0 | q)Pσ (q) , where Pσ (A0 | p) = 0 and Pσ (A0 | q) > 1/4, as we may easily deduce replacing relations (7)–(21) by the relations Pσ (Ah | q) = Pσ (Ak | Hk , q) = = = 1 − Pσ (A0 | q) , 5 ∀h ∈ T (20) Pσ (Ak | q) = Pσ (A0 | q) + ∑5h=k Pσ (Ah | q) 1−Pσ (A0 | q) 5 (5−k+1)(1−Pσ (A0 | q)) Pσ (A0 | q) + 5 (21) = 1 − Pσ (A0 | q) , 5Pσ (A0 | q) + (5 − k + 1)(1 − Pσ (A0 | q) ∀k ∈ T , with Pσ (A0 | q) unknown. As a consequence, Pσ (A0 ) = Pσ (q) > 0, 4 and σ cannot be sure that he will be certainly examined in the week, as he believed on the only ground of teacher’s statement p. This is sufficient to guarantee a certain amount of surprise. On the other hand, this result does not allow the pupil to predict that the teacher will cancel the examination, that is to exclude that he will be examined. 2. S ECOND “ SOLUTION ”: σ may choose to reject conclusion (19). Then, he should reject both relations (18) and (11). But now, assuming Pσ (A0 | p ∧ q) = α > 0 , (22) and again all the days of the week to have the same probability to be chosen for the examination, i. e. 1−α , ∀h ∈ T , Pσ (Ah | p ∧ q) = 5 one easily obtains Pσ (A5 | H5 , p ∧ q) < 1 2 if and only if Pσ (A0 | p ∧ q) > 1 , 6 so that q is satisfied, but at the price of a logical contradiction, as (22) really contradicts (6): since p ∧ q < p, from (22) and (6) we have 0 < Pσ (A0 × [p ∧ q]) ≤ Pσ (A0 × p) = 0. To avoid this inconsistency, σ is forced to review and correct his earlier probability distribution, allowing Pσ (A0 | p) > 0 . 51 MATEMATICA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 13 The last relation is not so surprising as it could seem at a first, superficial glance. We should acknowledge indeed that the very reason why σ perceives p ∧ q as a contradiction is that he takes for granted that his own probability distribution Pσ (· | p) on Ω5 must coincide with teacher’s probability distribution Pτ , i. e. in particular Pτ (A0 ) = 0 ⇐⇒ Pσ (A0 ) = 0 , whence Pτ (A0 ) = 0 =⇒ Pσ (A0 | p) = 0 . But we have seen that neither the above equivalence nor the last implication are logically necessary. Even though the latter can be somehow forced by the pupil’s absolute trust in his teacher’s sincerity, the former does not follow. In this connection, rejecting relation (19), we may use the partition {p ∧ ¬q, p ∧ q, ¬p ∧ q} to obtain Pσ (A0 ) = Pσ (A0 | p ∧ ¬q)Pσ (p ∧ ¬q) + Pσ (A0 | p ∧ q)Pσ (p ∧ q) + + Pσ (A0 | ¬p ∧ q)Pσ (¬p ∧ q) = Pσ (A0 | p ∧ q)Pσ (p ∧ q) + + Pσ (A0 | ¬p ∧ q)Pσ (¬p ∧ q) > 0 . It could be worthy to be remarked that σ cannot avoid to be more or less “surprised” by the examination, as he cannot be sure that he will be examined in the week, so that — at the time of examination — he will cannot help exclaiming “So, I am really examined!”. There is no reasoning capable to show that the teacher was wrong. The pupil would not have been surprised only if the teacher had not declared that he would. Finally, just in order to conclude our discussion, it may also be worthy to be observed that the above formal description ascribes a precise rôle to remarks, interpretations and solutions proposed by several Authors in the literature about the paradox: both the conclusions we have arrived at seem to confirm Quine’s remark that the pupil cannot exclude from the very beginning that the examination will not take place (see [7] for the reference), while the form (3) points out that announcement p should be envisaged — according to Alexander — as expressing an intention rather than a prescription on what the pupil should believe (since a complete prescription on this matter should be derived from the above analysis of the join of announcements p and q) , while our conclusions show that the last day the pupil still finds himself in front of the choice between “being necessarily examined today” and “not being examined at all”, as observed by Chapman and Butler, and our construction of Ωσ and Pσ stresses the relevance of the notion of “utterance” [2]. Finally, the present description also gives a complete expression to some informal appeals to probability proposed in [5, 6] and in other papers. 52 SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | MATEMATICA 14 References [1] D. J. O’Connor , Pragmatic Paradoxes, Mind 57 (1948), 358–359. [2] J. Cohen, Mr. O’Connor’s Pragmatic Paradoxes, Mind 59 (1950), 85–87. [3] P. Alexander, Pragmatic Paradoxes, Mind 59 (1950), 536–538. [4] D. J. O’Connor, Pragmatic Paradoxes and Fugitive Propositions, Mind 60 (1951), 358– 359. [5] P. Weiss, The Prediction Paradox, Mind 61 (1952), 265–269. [6] J. A. Wright, The Surprise Exam: Prediction on Last Day Uncertain, Mind 76 (1967), 115–117. [7] M. Gardner, The Unexpected Hanging and Other Mathematical Diversions, The University of Chicago Press, Chicago and London, 19912 . [8] T. Y. Chow, The Surprise Examination or Unexpected Hanging Paradox, Amer. Math. Monthly 105 (1998), 41–51 [9] S. Kritchman and R. Raz, The Surprise Examination Paradox and the Second Incompleteness Theorem, Notices of the AMS 57(11) (2010), 1454–1458. 53 DESIGN | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 Sperimentazione su biocomposito autoprodotto dagli scarti delle vongole per possibile utilizzo di design MARIA FRANCESCA ZERANI, CARLO SANTULLI Università degli Studi di Camerino, Scuola di Architettura e Design (SAAD) Il presente lavoro propone una possibile utilizzazione dei materiali ceramici ottenuti dagli scarti delle vongole per la fabbricazione di un biocomposito adatto alla produzione di piccoli oggetti di design. In particolare, si discute lo sviluppo di alcuni piccoli oggetti di design, inquadrati sotto il termine generico di Bioclams. La sperimentazione effettuata s’inserisce nell’ambito della recente tendenza all’autoproduzione (DIY new materials) dei materiali, che consente di rivalorizzare gli scarti nell’ambito di un’idea di sostenibilità basata sulla creazione di un legame affettivo con l’oggetto e quindi un maggior valore intrinseco. N 1. INTRODUZIONE ello scenario attuale, il fatto che esista un notevole problema di smaltimento dei cosiddetti “rifiuti”, specialmente se non adatti all’utilizzo nel compost né tanto meno alla termovalorizzazione, riporta l’attenzione sul loro riutilizzo nell’ambito dei materiali. Si possono citare scarti a base di polisaccaridi, come per esempio la chitina ottenuta dal carapace dei gamberi (Yen et al., 2009), oppure legnosi, come accade per diversi tipi di gusci, per esempio con quelli dei pistacchi, che sono stati utilizzati per la produzione di carboni attivi (Foo & Hamed 2011), o anche ceramici, nel caso ad esempio dell’utilizzo del guscio d’uovo come riempitivo di polimeri a base di amido (Bootklad & Kaewtatip 2013). E’ evidente tuttavia che oltre all’approccio ingegneristico, che vede nel rifiuto polverizzato il sostituto di altri materiali di nuova produzione od estrazione, e quindi in termini di riduzione di impatto ambientale, altre strade possono essere investigate. Una strada è stata definita in termini di “upcycling” cioè utilizzo espressivo degli scarti, che si può tradurre come rivalorizzazione del materiale. In questo contesto, il materiale non viene necessariamente ridotto in polvere, ma ci si sofferma piuttosto a sfruttare le sue caratteristiche intrinseche, 54 per esempio in termini di irregolarità superficiali o particolari effetti di contatto con la luce: questo porta ad un utilizzo per un periodo più lungo, connessa al maggior gradimento da parte dell’utente ed alla susseguente formazione di un legame affettivo con l’oggetto (Santulli & Langella 2013). Tale problematica è particolarmente sentita nel caso dello sviluppo delle bioplastiche: l’interesse del design per le plastiche, almeno quelle di origine petrolchimica, è stato relativamente tardivo, vedendole piuttosto come materiali economici e leggeri, ma non desiderando conferire loro un particolare valore espressivo (Sparke 1990). Questo discorso vale anche per le bioplastiche di origine industriale, tipicamente a base di biopoliesteri, come l’acido polilattico, o di polisaccaridi. Anche qui, l’accento posto sulla questione della biodegradabilità e della compostabilità ha portato ad una scarsa cura per l’aspetto estetico e formale della bioplastica, con la conseguenza del limitarne l’utilizzo ad un contesto “usa e getta” in vista di una non sempre efficace raccolta del rifiuto allo scopo di produzione di compost e rigenerazione della materia prima vegetale (Karana 2012). D’altro canto, è anche chiaro come nel contesto attuale sia necessario uscire per quanto possibile dalla concezione di una società dell’”usa e getta” e, per quanto lodevole, quest’approccio alle bioplastiche non vada nella direzione giusta (Cooper 2012). In realtà, precedenti studi hanno evidenziato come per la generazione precedente di materiali plastici, ottenuti dal riprocessamento di materiali naturali, si poneva molto chiaramente, benché ovviamente nei limiti di quanto disponibile all’epoca, il problema estetico. Questo vale per esempio per i prodotti a base di caseina, come la galalite o Erinoid, che è stata di recente oggetto di uno studio specifico per la sua autoproduzione, anche senza utilizzo di formaldeide, e valorizzazione (Colotto et al., 2016). Alcune esperienze imprenditoriali italiane possono leggersi attraverso quest’attenzione a queste proto-plastiche, cui è stato progressivamente offerto un contenuto di design, com’è il caso di Mazzucchelli (Cecchini 2014) o di Guzzini (Rognoli & Santulli 2014) per materiali come la celluloide ed il corno. SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | DESIGN Una possibilità più specifica per l’utilizzo “espressivo” di scarti accade se questi formano strutture naturali complesse ed efficaci, come nel caso di gusci legnosi o conchiglie. In questo caso, una particolare attenzione al mondo della natura porta ad individuare la loro “personalità” in termini anche espressivi, e quindi tesi a riportare a delle emozioni, che ne producono un elevato gradimento, ovviamente assente nel caso dei “rifiuti”. La possibilità investigata in questo lavoro è la produzione di oggettistica attraverso l’integrazione di scarti da gusci di vongole (Ruditapes semidecussatus) all’interno d’una bioplastica autoprodotta e con una composizione determinata in seguito ad un’attività di sperimentazione. L’idea è che tale materiale sia costituito al 100% da scarti locali e consenta il loro utilizzo espressivo nell’ambito di oggetti di qualche pregio. 2. ANTECEDENTI NELL’USO DI SCARTI CERAMICI Il recupero degli scarti ceramici ha in definitiva ricevuto un’attenzione minore, in parte dovuta al fatto che siano inerti e quindi scaricabili nel terreno senza impatto ambientale. Un’eccezione a questa situazione è rappresentata per esempio dal recupero degli scarti dal dragaggio dei fiumi, che possono contenere percentuali non irrilevanti di vetro e ceramici di maggior pregio e che è stata proposta per la produzione di piastrelle o simili (Brusatin et al., 2005). Nel caso specifico dell’applicazione di gusci ceramici polverizzati, si rilevano proposte come l’uso di polvere da gusci di ostriche come cementante per agglomerati di terra e “ceneri volanti” (Liang & Wang 2013). Vi sono stati anche tentativi di introduzione all’interno di matrici polimeriche, come il polietilene a bassa densità (LDPE), mescolando quantità variabili, 10 o 20% in peso, di polvere di gusci di ostriche setacciate a 75 micron (Shnawa et al., 2011). Questo viene proposto allo scopo di sostituire i tipici filler ceramici delle termoplastiche, come talco, silice, idrossiapatite o nitruro di boro che assicurano migliori prestazioni meccaniche e permettono utilizzi più efficaci, per esempio in ambito di accessori elettrici (Wang et al., 1998). Come si intuisce dagli esempi fatti, l’introduzione del materiale ceramico di scarto in forma polverizzata all’interno di una matrice polimerica industriale permette senza particolari problemi la produzione dell’oggetto in plastica coi metodi più diffusi, per esempio lo stampaggio ad iniezione. Dal punto di vista dell’upcycling, o rivalorizzazione dello scarto, questo però ha due conseguenze negative: che di fatto il ceramico sparisce all’interno della matrice polimerica al punto da essere indistinguibile, e che non è possibile nessuna personalizzazione, legata al mantenimento per quanto possibile, della struttura naturale, per cui tutti i pezzi della stessa serie risultano praticamente uguali tra loro. Come già sperimentato in altre occasioni, una soluzione per quest’impasse può essere il ricorso all’autoproduzione, inglobando quindi i frammenti ceramici in una bioplastica appositamente sviluppata in modo da offrire una sufficiente interfaccia col filler, allo stesso tempo mantenendolo visibile. In pratica svilup- pando ed ottenendo una bioplastica con processi artigianali piuttosto che industriali, anche se moderatamente industrializzabili, e per questo totalmente controllabili dal designer ed anche dall’utente finale. Questo tipo di esperienza rientra nei cosiddetti “Do-It-Yourself (DIY) Materials” (Bianchini et al., 2015). Questo concetto riguarda un nuovo approccio al design emerso recentemente che porta nuove relazioni tra designer, tecnologie, processi di produzione e materiali. E’ un sistema che, come la stampa 3D ad esempio, riporta alla luce l’artigianalità evoluta dei prodotti. In questo caso, si è scelta una bioplastica DIY a base di gelatina di ossa sulla quale si erano separatamente effettuate prove sperimentali allo scopo di stabilire la composizione più adatta della matrice per usi semi-strutturali e non completamente effimeri (nel senso di essere in grado di supportare almeno il proprio peso ed una certa durata di servizio in oggetti non “usa e getta”). (Capitani et al., 2016). 3. SVILUPPO DEL MATERIALE Questo studio presenta un materiale naturale che nasce dalla reazione chimica tra gelatina, acqua e glicerina e dall’aggiunta di gusci di vongole. Ogni ingrediente ha la sua funzionalità, donando al materiale finale qualità differenti. I gusci delle vongole, come quelle di tutti i molluschi, non sono biodegradabili e, quindi, non possono concorrere alla produzione in breve tempo di compost, creando un grave problema per lo smaltimento. La bioplastica qui presentata cerca di risolvere tale problema tramite un processo di upcycling, cioè convertendo creativamente un materiale di scarto in oggetti nuovi e di migliore qualità. La gelatina è fondamentale per la riuscita del materiale. Questa sostanza naturale una volta era conosciuta in Italia come “colla di pesce”, in quanto era utilizzata come collante, e veniva ricavata dalle vesciche natatorie dei pesci, in particolare di storione. Oggi sul mercato è presente principalmente gelatina alimentare che deriva per l’80% dalla cotenna del maiale, per il 15% dal bifido bovino (strato intermedio tra pelle e ipoderma), e per il 5% da ossa di maiali e bovini. Chimicamente, la gelatina è composta di collagene, la più comune proteina strutturale del regno animale, formata da tre catene di amminoacidi che si avvolgono a formare una struttura a tripla elica, ed il contenuto di collagene ha un notevole effetto nel determinare le prestazioni meccaniche dei film ottenuti (Bigi et al., 2004). Il districamento di questa struttura fibrosa con riduzione dei legami di reticolazione avviene con la necessaria aggiunta di acqua e di glicerina, mettendo poi a scaldare la miscela fino al raggiungimento di una temperatura di circa 70°C: tale temperatura non va superata e si deve considerare come il limite massimo per il processamento. Prove effettuate, esposte nella Sezione 4, hanno dimostrato come già ad 80°C si abbia una consistente degradazione, dovuta al proseguire della rottura dei legami di reticolazione. La glicerina ha la funzione di lubrificante molecolare, ovvero si va a inserire tra le catene polimeriche della gelatina, mantenendole distanti e non rigide in una 55 DESIGN | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 struttura cristallina. Le conchiglie delle vongole, come in tutti i molluschi, risultano formate in massima parte di carbonato di calcio (90-95%), oltre che di fosfato di calcio (idrossiapatite) e di un’altra sostanza proteica, la conchiolina. Quest’ultima è causa di cattivo odore, per cui le conchiglie devono essere accuratamente lavate per eliminare questo strato proteico, prima di essere frantumate ed aggiunte agli altri componenti. Queste conchiglie hanno varie funzioni, infatti, oltre al già citato upcycling, impediscono in maniera considerevole il ritiro della bioplastica nella fase di asciugatura. Altro fattore è di natura estetica, le vongole danno personalità al materiale creando un’interessante texture, donando anche caratteristiche di lucentezza, grazie gli effetti di birifrangenza dell’idrossiapatite (Meyers et al., 2008). Uno dei problemi maggiori nella produzione di bioplastiche è il ritiro nella fase di essiccazione. Nel nostro caso, le varie sperimentazioni ci hanno suggerito che l’aggiunta di gusci di vongole (ma anche di altri molluschi) influenza positivamente, in maniera molto evidente, il ritiro, come pure la giusta quantità di gelatina. La temperatura ha poi un ruolo importante nel processo di essiccazione. Il graduale abbassamento della temperatura permette la formazione dei legami tra l’acqua ed il collagene, in quanto l’energia termica delle molecole diminuisce: la reticolazione così ottenuta permette di trattenere le molecole di acqua. Facendo asciugare la bioplastica a 4°C, il tempo di asciugatura è di circa 5 giorni. 4. CARATTERIZZAZIONE DEL MATERIALE Le varie prove sperimentali sulla quantità di ogni ingrediente e sul tipo di asciugatura hanno portato ad una ricetta finale nella quale per ogni 100 ml d’acqua si utilizzavano 23 ± 1 g di gelatina in polvere, 3.3 ± 0.1 g di glicerina ed un massimo di 50 g di gusci di vongole, il che forniva un’interfaccia sufficientemente efficace, come osservabile in Figura 1, e consentiva di stendere il biocomposito sullo stampo senza poi avere un ritiro troppo pronunciato. Per assicurarne l’inserimento all’interno della bioplastica, i gusci di vongole venivano tritati in pezzi con dimensione massima di pochi millimetri, com’è visibile in Figura 2. Va notato come la densità misurata della bioplastica era dell’ordine di 1.08±0.02 g/cm³, mentre con l’introduzione dei gusci di vongole, prevalentemente costituiti da aragonite, che ha densità di circa 2.9 g/cm³, la densità misurata saliva a circa 1.61 ± 0.03 g/cm³. Questo in effetti comportava, nella lavorazione manuale con la quale la bioplastica veniva prodotta, una tendenza del filler ceramico a scendere per gravità. Prelevando un campione di bioplastica sono state effettuate delle prove per testare la resistenza al calore del materiale. Il frammento di bioplastica è stato immesso in una termobilancia. La temperatura è stata selezionata secondo il criterio di simulare una condizione di stress alla quale la bioplastica potrebbe essere sottoposta se impiegata in oggetti reali. Il ciclo ha previsto quindi un periodo di cinque minuti a 40°C, seguito da altri cinque minuti a 60°C ed infine altri Figura 1 Vista laterale stratigrafica del composito con l’interfaccia tra i frammenti di guscio e la matrice bioplastica Figura 2 Vista superiore stratigrafica 56 SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | DESIGN Figura 3 Biocomposito con frammenti di gusci di vongole (a sinistra) e sola matrice bioplastica (a destra) otto minuti ad 80°C. Lo scopo è stato quello di individuare, in seguito all’applicazione del calore, la perdita di massa nel campione e la presenza di modificazioni a livello macroscopico. Al termine della prova si è osservata una perdita di massa nel campione dell’ordine del 4.5 ± 0.5%. I campioni, una volta assoggettati al trattamento, si presentavano molli e non più in grado di ritornare neanche dopo raffreddamento al grado di solidità originario. Come già detto in precedenza, si può ipotizzare in linea generale che il limite di possibile applicazione sia non superiore ai 70°C, il che va connesso con la degradazione delle catene alfa e beta del collagene. Una vista d’insieme di un campione di biocomposito ottenuto in confronto con la bioplastica a base di gelatina è riportata in Figura 3. Va notato al riguardo che l’utilizzo di gelatina in polvere nel materiale porta alla formazione di bolle d’aria sulla superficie, come osservabile in Figura 4, problema non riscontrato con l’utilizzo di gelatina in fogli. 5. PRODUZIONE DI OGGETTI: IL PROGETTO BIOCLAMS Figura 4 Biocomposito ottenuto con gelatina in polvere (a sinistra)ed in fogli (a destra) Figura 5 Primo prototipo di braccialetto Il materiale sviluppato è stato utilizzato nella produzione di oggetti progettati per durare nel tempo, con lo scopo di riutilizzare materiali di scarto quali i gusci dei molluschi, rifiuti molto difficili da smaltire: un esempio di primo prototipo è fornito dal braccialetto in Figura 5. Il biocomposito è molto adatto alla costruzione di questo genere di prodotti, non subendo modifiche strutturali dopo la fase di essiccazione. Questo processo di upcycling dona un valore aggiunto al materiale estendendone la vita. A questa serie di oggetti autoprodotti, è stato associato il marchio Bioclams, nome scelto per esaltare l’utilizzo delle vongole stesse. Nel dare forma al materiale sono stati utilizzati diversi stampi in materiale plastico, risultati molto efficienti nel conferire senza imperfezioni la forma desiderata alla bioplastica. Risulta molto semplice anche la fase di estrazione dallo stampo, dovuta al ritiro del materiale già osservabile dopo i primi 30 minuti. Grazie a questo suo comportamento non è necessario l’utilizzo di sostanze distaccanti. Bioclams prevede la realizzazione di due serie di oggetti: dei porta tende magnetici (Figura 6) e degli attaccapanni a ventosa (Figura 7). Oggetti scelti per enfatizzare due possibili funzioni di Bioclams, la funzione strutturale 57 DESIGN | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 Figura 6 Differenti attaccapanni realizzati con Bioclams nel primo caso e la funzione decorativa nel secondo. I portatende sono stati realizzati secondo un procedimento atto a evitare l’utilizzo di colle artificiali: all’interno dello stampo, un contenitore in PET dalla forma particolare, vengono inseriti una calamita al neodimio e il nastro che andrà a sollevare le tende, sui quali viene colato il materiale poi lasciato ad asciugare. I vari componenti vengono così ancorati all’oggetto stesso, conferendo unità strutturale senza l’utilizzo di colle. Nel caso degli attaccapanni si è partiti da un oggetto già funzionale, un comune attaccapanni, a cui Bioclams ha donato un valore estetico aggiunto. Si è raggiunto questo obiettivo immergendo l’attaccapanni all’interno di un comune stampo per dolci in silicone colmo di bioplastica, dove è stato poi lasciato ad asciugare. Per la realizzazione di questi prodotti si è deciso di sperimentare con diverse colorazioni, illustrate in Figura 8. Il colore di base è dato dalla gelatina stessa e tende al giallo pallido, mentre altri colori possono essere facilmente ottenuti aggiungendo altri ingredienti, i quali in alcuni casi donano anche un gradevole odore all’oggetto stesso. Per il colore blu è stato utilizzato il colorante alimentare, per il giallo è stato utilizzato lo zafferano in polvere, per il rosso l’alchermes, per il verde il liquore alla menta, mentre per il colore marro58 ne la cannella. L’arancione è stato ottenuto mescolando l’alchermes allo zafferano in polvere, ottenendo inizialmente un colore opaco di tonalità arancione, che poi asciugandosi va a tendere al marroncino. L’utilizzo del colorante va ad influire sui tempi di asciugatura della bioplastica, prolungandoli da 5 a 7 giorni. L’aspetto di Bioclam dipende anche dal tipo di gelatina utilizzata: la gelatina in polvere, seppur meno costosa, tende a rendere il prodotto finale meno lucido e più schiumoso rispetto alla gelatina in fogli, anche se in certo senso più “personalizzabile”. Bioclams nelle sue infinite combinazioni di colore e forme diventa quindi un mezzo molto adatto per la realizzazione di oggetti personalizzabili fin nei minimi dettagli, permettendone la creazione utilizzando materiali di scarto facilmente reperibili. Una raccolta dei primi oggetti creati col materiale è esposta in Figura 9, mentre in Figura 10 è illustrata la brochure, che riporta anche alcuni dei dati esposti nella caratterizzazione del materiale. Il logo individua la provenienza dello scarto utilizzato per la produzione. Il limite più evidente del materiale è rappresentato dalla non uniformità del ritiro ed in alcuni casi anche dalla formazione di bolle d’aria, il che può essere ridotto da un’adeguata SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | DESIGN Figura 7 Portatende ottenuti con l’uso di Bioclams formatura sotto moderata pressione. Inoltre si presta ad un utilizzo a temperature non eccedenti i 70°C, il che esclude ovviamente alcune applicazioni. Tuttavia, rappresenta un tentativo di rivalorizzazione di un materiale di scarto che si presta ad ulteriori sviluppi, nel rispetto della “personalità” del materiale stesso. 6. CONCLUSIONI Il lavoro sviluppato è volto al riutilizzo creativo ed a scopo di valorizzazione di uno scarto dalla filiera alimentare di origine locale (gusci di vongole), integrato all’uopo in una matrice bioplastica autoprodotta a base di gelatina animale. Il materiale prodotto rientra nel filone dei materiali “fai da te” (DIY materials) ed è suscettibile di sviluppi nell’ambito del design e più in particolare degli oggetti per uso domestico. Questo riporta l’attenzione sulla “personalità” dello scarto, in particolare se valorizzato attraverso l’integrazione in un contesto adatto e per esempio attraverso l’applicazione di colori naturali e propone utilizzi alternativi degli inerti che ne esaltino per quanto possibile le caratteristiche espressive e strutturali. BIBLIOGRAFIA M. Bianchini, E. Karana, S. Maffei, V. Rognoli, DIY materials, Materials Design Volume 86, 2015, 692–702. A. Bigi, S. Panzavolta, K. Rubini, Relationship between triple-helix content and mechanical properties of gelatin films, Biomaterials 25 (25), 2004, 5675-5680. M. Bootklad, K. Kaewtatip, Biodegradation of thermoplastic starch/eggshell powder composites, Carbohydrate Polymers 97 (2), 2013, 315-320. G. Brusatin, E. Bernardo, F. Andreola, L. Barbieri, I. Lancellotti, S. Hreglich, Reutilization of waste inert glass from the disposal of polluted dredging spoils by the obtainment of ceramic products for tiles applications, Journal of Materials Science 40 (19), 2005, 5259-5264. C. Cecchini, Dalla celluloide alla plastica bio: 150 anni di sperimentazioni materiche lette attraverso l’azienda Mazzucchelli 1849, AIS Design n.4, 2014, ID 0403. G. Colotto, C. Santulli, R. Giacomucci, Produzione di oggetti di design per il catering da plastiche a base di latte autoprodotte, Scienze e Ricerche n. 25, 15 marzo 2016, 79-88. D. Capitani, V. Corradetti, G. Di Girolami, N. Proietti, Roselli G., Santulli C., Valente F., Development and analysis of gelatin-based bioplastics coloured with natural extracts, 5th Scientific Day of The School of Science and Technology, Camerino, June 2016. T. Cooper (a cura di), Longer lasting products: alternatives to the throwaway society, Gower, 2012. K.Y. Foo, B.H. Hameed, Preparation and characterization of activated carbon from pistachio nut shells via microwaveinduced chemical activation, Biomass and Bioenergy 35 (7), 2011, 3257–3261. E. Karana, Characterization of ‘natural’ and ‘high-quality’ materials to improve perception of bio-plastics, Journal of Cleaner Production 37, 2012, 316-325. C.F. Liang and H.Y. Wang, Feasibility of Pulverized Oyster Shell as a Cementing Material, Advances in Materials Science and Engineering 2013, Articolo ID 809247. M.A Meyers, P.Y. Chen, A. Yu-Min Lin, Y. Seki, Biological materials: Structure and mechanical properties, Progress in Materials Science 53, 2008, 1-206. 59 DESIGN | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 Figura 8 Differenti colorazioni di Bioclams Figura 9 Vista d’insieme degli oggetti ottenuti 60 SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | DESIGN properties of low density polyethylene with oyster shell composite: DSC Study, World Applied Sciences Journal 14 (11), 2011, 1730-1733. P. Sparke, The Plastics Age: From Modernity to Post-Modernity, B.A.S Printers, England, 1990. M. Wang, C. Berry, M. Braden, W. Bonfield, Young’s and shear moduli of ceramic particle filled polyethylene, Journal of Materials Science: Materials in Medicine 9 (11), 1998, 621-624. M.T. Yen, Yang JH, Mau JL, Physicochemical characterization of chitin and chitosan from crab shells, Carbohydrate Polymers 75 (1), 2009, 15-21. SITOGRAFIA Plastiquarian (articolo sull’Erinoid) http://plastiquarian. com/? page_id=14228 (Accesso 16/6/2016) Cook 2 Design (di Giada Lagorio), approccio giocoso che invita a cuocere i propri materiali http://giadalagorio.com/portfolio/cook2design/ (Accesso 17/6/2016) Cooking material (e-book) di L. Humier e A. Tardieu (https://itunes. apple.com/us/book/cooking-material/id569508821?l=it&ls=1) (accesso 17/6/2016) Figura 10 Proposta di brochure di presentazione del prodotto V. Rognoli, C. Santulli, L’approccio della fratelli Guzzini ai materiali, AIS Design Storia e Ricerche 4, 2014, ID:0405. C. Santulli, C. Langella, + Design - Waste: a project for upcycling refuse using design tools, International Journal of Sustainable Design 2 (2), 2013, 105-127. H. A. Shnawa, N. A. Abdulah, F. J. Mohamad, Thermal RINGRAZIAMENTI La caratterizzazione del materiale è stata effettuata presso il laboratorio di Tecnologie e Diagnostica per la Conservazione ed il Restauro della scuola di Scienze e Tecnologie dell’università degli studi di Camerino, in Ascoli Piceno: si ringrazia per la collaborazione la prof.ssa Graziella Roselli ed il dott. Giuseppe Di Girolami. 61 OPINIONI | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 Con rispetto parlando PIETRO RAMELLINI Ateneo Pontificio Regina Apostolorum, Roma N on ricordo più da quanto tempo sbatto contro un piccolo ma spinoso problema, però sono sicuramente diversi anni: la questione cioè dell’uso di un linguaggio rispettoso della differenza sessuale. La lista delle soluzioni già prospettate è ormai lunga, anche perché si è intrecciata con l’affermarsi della distinzione sesso/genere e l’affacciarsi di scelte di vita che superano la dicotomia maschio/femmina. Anch’io ho provato varie soluzioni: non avendo a disposizione il comodo pronome inglese s/he, ho cominciato a indirizzare le e-mail a cari/e colleghi/e, cercando di alternare sapientemente cari/e a care/i; ho tentato di usare il doppio pronome, impastoiandomi in laboriose ripetizioni di egli ed ella oppure lei e lui (chiedendomi tra l’altro se qualcuno usi ancora ella); non è andata meglio con la duplicazione dei nomi, che porta a chiedersi se 62 rendere il femminile di inventore con inventora o inventrice, imponendo lunghe e spesso inconcludenti ricerche sui vocabolari; e così via. Per me e per altri/e amici/e (cioè amici e amicie?) che hanno tentato queste vie, la tentazione di passare ad un metalivello è presto diventata irresistibile. Qualcuno l’ha buttata in psicologia spicciola, finendola con questo stress e rilassandosi nelle vecchie e care tradizioni grammaticali; il che è perfettamente accettabile in termini di italiano standard, ma poco appetibile per chi ha la volontà di consolidare la parità uomo-donna anche nel linguaggio quotidiano. Altri si sono trincerati dietro all’idea che i linguaggi naturali non si cambiano ope legis né forzando i tempi, perché occorre rispettare la loro dinamica - per l’appunto - naturale e la loro longue durée; è una concezione profonda della storia della lingua, che ricorda alla lontana le discussioni talmudiche sull’opportunità di accelerare la venuta del Messia o i vecchi dibattiti post-marxiani per stabilire se si dovesse attendere o stimolare l’ascesa del proletariato. Ora, se è vero che solo l’evoluzione spontanea di una lingua è vincente sul lungo periodo, è però caratteristico dell’uomo influenzare la sua propria evoluzione, e dunque anche il proprio linguaggio. I più sensibili ai risvolti sociopolitici della questione fanno spesso professione di benaltrismo, affermando che la parità sessuale e di genere ha problemi più urgenti da risolvere; tuttavia, anche se non si accettasse del tutto la tesi Sapir-Whorf, è evidente che il linguaggio in senso lato (langue, parole, lessico famigliare, idioletto e via dicendo) ha un profondo legame con le strutture di pensiero e la cultura; quanto poi all’idea che le donne non abbiano alcun bisogno di paternalismi grammaticali, anche questa non è risolutiva, data l’ampia varietà di convinzioni all’interno della galassia femminista. Non andrò avanti a elencare altre posizioni concettuali, valutandone i pro e i contro; piuttosto, presenterò due possibilità che ho sperimentato negli ultimi tempi. La prima è quella di inserire nel discorso, con una certa nonchalance, sostantivi di genere grammaticale inaspettato; nel caso dell’italiano, dove il genere grammaticale non marcato è solitamente il maschile, si tratta di usare sostantivi femminili. Supponiamo ad SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | OPINIONI esempio che io stia scrivendo un pezzo sulla valutazione dell’apprendimento (che per inciso è stato un mio recente contributo a Scienze e Ricerche); poniamo che a un certo punto io intenda sostenere che i docenti devono essere liberi da pregiudizi; potrei allora scrivere che “da un professore ci si aspetta libertà dai pregiudizi sullo studente”, con il sottinteso che questa frase comprende (semanticamente) anche professoresse e studentesse, in tutte le loro possibili combinazioni, anche se (grammaticalmente) ho citato solo persone di sesso maschile. Ma se io scrivo invece che “da una professoressa ci si aspetta libertà dai pregiudizi sullo studente, e da un’alunna fiducia verso il professore”, allora si crea una situazione grammaticalmente inaspettata, in cui la violazione delle auree massime conversazionali di Paul Grice può indurre la lettrice a riflettere su come viene sessuata la lingua italiana. So per certo che l’effetto di ostranenie grammaticale si verifica, perché vari lettori non solo lo hanno notato, ma mi hanno chiesto chiarimenti in merito; del resto, lo studio degli spoonerismi ci ha reso coscienti di quanto il sistema psicolinguistico lavori su aspettative e anticipazioni. D’altro canto, questa tattica - più pragmatica e quasi performativa che sintattica - presenta il rischio che la lettrice venga sviata, finendo per pensare più al sessismo che all’argomento dello scritto; finché si tratta di un mio pezzo, pazienza, vuol dire che non era così interessante da monopolizzare l’attenzione, ma il problema del depistaggio comunque si pone. Utilizzo con profitto anche una seconda tattica. Quando parlo, poniamo, del metodo scientifico, me ne esco con frasi di questo tipo: “Oggi parleremo del metodo scientifico. Dunque, quando una scienziata deve affrontare un certo problema, agisce così”, passando quindi ad illustrare il suo modo di lavorare. Posso assicurare che parlare di ricerca riferendosi sempre e solo a biologhe o meteorologhe, e citando come esempi Barbara McClintock o Marie Skłodowska, produce una dissonanza tra le aspettative degli uditori e lo svol- gersi del discorso che provoca salutari prese di coscienza, o almeno interessanti discussioni sulla reverse discrimination e il conformismo del nonconformismo. In alcuni campi, poi, l’effetto è particolarmente avvertito e quasi dirompente; si provi ad esempio a tenere un seminario di filosofia usando caparbiamente frasi come “Quando una filosofa vuole costruire un sillogismo, procede così e cosà”, per esemplificarlo poi con un bel “Tutte le donne sono mortali; Santippe è una donna; dunque Santippe è mortale”. Ovviamente, anche in questo caso si corrono dei rischi: se qualcuno avanzerà subito l’ipotesi che Socrate recitasse tutti i giorni quel sillogismo, in certi ambienti la reazione quasi pavloviana sarà di osservare quanto le donne siano assenti dal canone filosofico mondiale, suggerendo di trarne le debite conseguenze. Ora, da quando le filosofe dispongono di stanze tutte per loro quest’ultima osservazione ha perso gran parte del suo nerbo, ma tutto fa brodo se si tratta di innescare una riflessione sulla filosofia delle filosofe, che la si intenda come amore per la sapienza oppure - à la Irigaray - come saggezza dell’amore. Un ultimo caveat: ogni discorso su sesso e genere è suscettibile di essere male interpretato e strumentalizzato, ed è in ogni caso destinato ad infiammare gli animi. Ma questo va avanti dai tempi dei tempi, e bene fa il teologo Enzo Bianchi a ricordarci che un famoso versetto del/della Genesi può anche essere tradotto così: “Il Signore Dio disse: “Non è cosa buona che il terrestre sia solo. Farò per lui un aiuto contro di lui” (Gen 2, 18, corsivo mio). Anche queste opinioni non sfuggiranno probabilmente al loro destino di logomachia, ma se vi avessimo fatto arrabbiare, credete che non s’è fatto apposta. 63 OPINIONI | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 Gli Hooligans e la metropoli. Il conflitto che emerge dalla Francia LUCA BENVENGA Università del Salento L’ analisi di un fenomeno aggregativo multispaziale come quello degli hooligans europei (dai contemporanei contenuti inglesi, polacchi, russi, croati), radicali nei comportamenti e nelle mutazioni tecno-scientifiche del corpo, è ricca di spunti critici, di bozze di pensiero configuranti una razionalizzazione tecnica del conflitto sociale nel XXI secolo che è bene indagare nella sua complessità (di seguito, per l’economia del testo, proposto in modo sommario, tale da considerare come un invito alla ricerca). Accettando il rovesciamento della categoria roversiana della “sindrome del beduino” come presupposto di una alleanza tra ultras rivali, manifesta nell’attuale scontro di civiltà enfatizzato nella co-azione, nei paesi occidentali, di organizzazioni spazialmente e politicamente lontane in contrapposizione ad un comune nemico, i Salafiti, Euro 2016 ci ha consegnato degli scenari e delle pratiche sociali solide, capaci di produrre una stabilità cognitiva e delle certezze affettive nelle soggettività che hanno contribuito a sviluppare delle forme di opposizione (opinabili ed esasperate certo, ma tuttavia da cogliere come interessanti indicatori di regolarità comportamentali organizza- 64 te in uno spazio sociale, senza entrare nel merito degli strali ideologici su cui appuntare queste entità), che restituiscono le cornici normative della postmodernità, in cui complessi aggregativi urbani vivono correlati a questioni pratiche, ad orizzonti post-ideologici ed extrapartitici, ed ecco spiegata la denigrazione dei mendicanti rom da parte dei tifosi inglesi o la caccia ai musulmani a Marsiglia e a Lione, il tutto in contrapposizione al dilagante processo di islamizzazione del diritto europeo e alla massiccia immigrazione (più o meno regolamentata) verso i paesi capitalistici occidentali principale minaccia della dissoluzione della dimensione omogenea della società e dell’erosione dell’integrità culturale dello Stato-Nazione (in questa direzione convergono le spinte comunitariste che definiscono i confini dell’in-group – l’Occidente cristiano - e l’esclusione dell’out-group – l’Oriente musulmano e tutte quelle etnie che non hanno assorbito le regole elaborate dai processi di civilizzazione). La Francia, fino ad oggi, ci ha restituito una realtà già vista, certo, ma occorre riflettere dapprima sulla identità biologica dell’area sociale (gli individui responsabili della violenza urbana sono nella stragrande percentuale tutti ventenni o trentenni), e contestualmente decodificare l’hooliganesimo quale aggregato che funziona come valvola di scarico delle pulsioni collettive dei giovani in preda ad una segmentazione del mercato occupazionale, articolazione di una società a capitalismo consumistico e dai rigurgiti xenofobo-culturali, in cui il lavoro è sempre meno regolamentato e discontinuo, cui si va a sommare un flusso transmigratorio costante in una economia digitale che, nel medio e lungo periodo, ha generato una “guerra tra poveri”, tra proletari e proletarizzati non coinvolti nella gestione delle teconologie, ovvero tra i moderni operai legati al tempo-macchina, e il cui prezzo della forza-lavoro è in costante ribasso. Questo incipit avalla una posizione teorica secondo la quale per cogliere le declinazioni del fenomeno è opportuno soffermarsi e dibattere sulle questioni legate all’indeterminatezza esistenziale che incarna l’attuale modello di accumulazione, produttore di pluralizzate contingenze dalle reversibili e delle volte radicali e autoorganizzate risposte. Gli hooligans ci hanno mostrato come l’antagonismo oggi confligga in superfici aperte, vuote, spazi fisici che rifuggono una “prevenzione situazionale”, per dirla con le parole del sociologo urbano Jean Pierre Garnier, restituendo un panorama in cui il conflitto oggi è proteiforme e massificato, e che, almeno nell’Occidente industrializzato, non si risolve nella produzione (causa processi di distinzione della classe operaia e la trasformazione dei sistemi produttivi) ma tracima negli spazi urbani indifendibili (quartieri popolari ermetici e non accessibili, spazi liberi non securizzati e disciplinati come lo sono state le piazze francesi), interpretabile sempre più come variabile dipendente dagli indirizzi politici ed economici internazionali, centralizzato non esclusivamente sulla composizione della classe sociale ma sulla aleatorietà dei destini di una intera generazione che ha revocato il credito di fiducia assegnato ai sistemi istituzionali, ma si presenta al pubblico nella sua autoreferenzialità e nel preliminare riconoscimento della propria autonomia e “giustizia fai da te”. SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | LETTERARURE Letteratura è formazione DANIELA TONOLINI L a “Letteratura” altro non è se non ciò che un autore sceglie di raccontarci attraverso la sua speciale sensibilità, e la sua particolare capacità di scegliere determinate parole e di inserirle in specifiche costruzioni sintattiche. Di conseguenza, l’accostamento a opere letterarie si svela in quanto lettura, ascolto, comprensione dell’altro e degli infiniti mondi nei quali ci troviamo proiettati; diviene, in sostanza, la chiave per cogliere ciò che l’altro vede, prova, percepisce, e ci racconta. Di qui l’importanza di riuscire ad afferrare non solo ciò che l’altro ci narra ma anche come ce lo trasmette. Tale forma di ascolto, tale attenzione alla parola letteraria è in grado di compiere cambiamenti così profondi in noi da “trasformarci”, da donarci una nuova forma mentale, e di conseguenza comportamentale, rivelandosi quale vero e proprio momento di formazione. Ogni volta che ci avviciniamo alla lettura di un testo stiamo formando un aspetto di noi stessi. A questo proposito, esiste un particolare metodo di lettura che ci consente di allenarci alla comprensione e all’ascolto dell’altro, proprio perché ci abitua a cogliere in un testo quegli elementi essenziali, responsabili di determinate emozioni e di determinate sensazioni che l’autore, più o meno consapevolmente provoca nel lettore. Sono elementi che si nascondono dentro par- ticolari strutture del testo e non sempre rilevabili a prima vista. Allenarsi a questo genere di lettura ci permette di vedere con gli occhi di una infinità di autori. E proprio grazie a questo esercizio volto a cogliere, nella loro ricchezza, le parole chiave di un testo - sia che questo sia frutto di una comunicazione, oppure espressione di uno scritto autobiografico non necessariamente letterario, o ancor più di un’opera della grande letteratura -, ci permette di conoscere e riconoscere ciò che l’altro vuole comunicarci. Il processo di “Formazione” è la capacità di assolvere a un compito difficilissimo, ma al tempo stesso meraviglioso: tracciare, per ogni singolo allievo, un percorso speciale. Un percorso che lo conduca verso la conoscenza, dunque verso l’acquisizione di una solida base teorica; verso l’autonomia, cioè verso l’apprendimento di un metodo che gli permetta un’autonoma attività di ricerca; verso lo sviluppo della sua creatività tale da costituirsi come premessa all’elaborazione e rielaborazione personale di nuovi metodi di ricerca. Da qui scaturiscono competenze e abilità proprie a chi si assuma un ruolo educativo così inteso, tali da presupporre alcune fondamentali capacità: quella di stimolare la disponibilità ad apprendere delle persone coinvolte nella relazione, situazione 65 LETTERATURE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 che deve sempre precedere l’apprendimento; quella di arricchire il bagaglio culturale, attraverso il possesso e la gestione di precise e approfondite conoscenze nella materia di sua competenza; una preparazione che gli permetta di sostenere l’educando nelle sue aspirazioni così come nell’accettazione dei suoi limiti; la capacità di individuare e coltivare le potenzialità dell’allievo affinché possa poi metterle al servizio della comunità; il tutto sempre nel rispetto e nella tutela dell’ integrità e della personalità di chi si trova di fronte. Se formare significa tutto questo, tale compito implica uno sforzo non indifferente da parte di entrambe le componenti, in quanto l’educatore si trova a dover acquisire alcune competenze professionali attraverso un proprio percorso formativo; così come l’altro, a sua volta, grazie alle competenze dell’educatore, si deve far artefice della propria crescita «integrale»1. il «culto della parola come luogo di verifica dei problemi e delle idee»3; che, proprio per questo, si svela qualcosa di ben diverso dallo strumento teso a convincere a tutti i costi. Si impara così, attraverso la letteratura, a leggere le persone che ogni giorno chiedono - spesso silenziosamente - di essere lette e interpretate. Perché c’è soprattutto la parola al centro del rapporto che l’educatore e il formatore hanno con l’altro, e viceversa. La parola in cui si depositano emozioni, desideri, resistenze, ma soprattutto “storie”. Storie da decifrare, là ove la parola è offerta con un balbettio o circonlocuzioni, da chi al tempo stesso si vuol aprire, ma ha timore di aprirsi. Questo genere di comunicazione dipende dalla nostra capacità di saper osservare l’altro e di saper cogliere attraverso l’ascolto della sua storia la sua richiesta (che non per forza è una richiesta di aiuto). TESTIMONIANZE CONFRONTO E COMUNICAZIONE Ecco perché il personale e diretto contatto con il testo letterario è un imprescindibile momento formativo per ognuno di noi ma, soprattutto, per chi si occupa di educazione e formazione. Da qui il titolo Letteratura è Formazione: che vuole rappresentare, più che un legame, un rapporto di identità: nel preciso momento in cui entriamo in contatto con un testo letterario, stiamo formando noi stessi, una formazione che si nutre di confronto e di comunicazione. Confronto: Attraverso la letteratura ci poniamo a confronto con altre situazioni (storie, modi di sentire, visioni del mondo): ciò che ci permette di costruire, di modificare, di formare il nostro pensiero critico, e che ci consente di formulare domande analitiche. Essere in altre storie significa non appiattirsi sulla propria storia. E qui preme sottolineare che non è sufficiente limitarsi alla lettura di autori moderni; è anche importante leggere gli antichi, sentire “i classici nostri contemporanei”. Imparare a essere fuori tempo significa essere al passo con i tempi perché ci permette di non appiattirci sul nostro presente, come ben ricorda Mario Pomilio: «Il contatto col grande è stata tutta la mia pedagogia, l’unico criterio, anche morale, da me seguito nel mio piccolo e segreto magistero. [...] E non era inoltre, il contatto col grande, un modo di farti libera? Di consentirti di disporre di punti di riferimento forte dei quali ti saresti sicuramente più orientata nelle tue scelte anche di vita?»2. Comunicazione: Attraverso la letteratura si incrementano i nostri strumenti cognitivi e dunque migliora la comunicazione. Perché più strumenti cognitivi si hanno più si può leggere il mondo e interpretarlo. Più si può riuscire a esprimere fino in fondo la propria verità, i propri concetti; a comunicare pienamente la propria idea all’interlocutore, identificando 1 luiGi Pati, Pedagogia della comunicazione educativa, Brescia, La Scuola, 1984, p. 75 e segg. 2 Mario PoMilio, Scritti cristiani, Milano, Vita e Pensiero, 2015, p. 17. 66 Jonathan Gottschall illustra non solo la relazione tra quanto leggiamo - e come lo leggiamo - e la nostra vita reale, ma addirittura il rapporto osmotico tra letteratura e vita reale: «I personaggi dei romanzi sono soltanto ghirigori di inchiostro sulla carta (o macchie chimiche sulla celluloide). Sono persone di inchiostro. Vivono in case di inchiostro all’interno di città di inchiostro. Svolgono mestieri di inchiostro. Hanno problemi di inchiostro. Sudano inchiostro e piangono inchiostro e, quando li tagliamo, sanguinano inchiostro. Tuttavia le persone di inchiostro riescono senza troppa fatica a filtrare dalla membrana porosa che separa il loro mondo d’inchiostro dal nostro. Si muovono nel nostro mondo fatto di carne e ossa e vi esercitano un potere reale. I personaggi di inchiostro dei romanzi sono una presenza viva e reale nel nostro mondo. Modellano le nostre credenze e le nostre abitudini, e così facendo, trasformano le società e la storia»4. Si intende cioè che i personaggi e le parole dei libri e le situazioni che troviamo nella prosa letteraria – specie se si tratta di uno scritto di qualità - esercitano su di noi un potere reale, capace di cambiarci. Beninteso, purché si utilizzi una lettura partecipe e non distratta, ossia quel particolare metodo di lettura che consente a quella parola di entrare nella nostra anima «effortlessly», senza troppa fatica, ossia con naturalezza, armonia ed eleganza. E allora è vero anche il contrario: solo se sappiamo esprimerci attraverso la parola giusta sapremo toccare l’anima del nostro interlocutore. Il che, rapportato al legame tra la 3 Ibidem. 4 The characters in fiction are just wiggles of ink on paper (or chemical stain on celluloid). They are ink people. They live in ink houses inside ink towns. They work at ink jobs. They have ink problems. They sweat ink and cry ink, and when they are cut, they bleed ink. And yet ink people press effortlessly through the porous membrane separating their inky world from ours. They move through our flesh-and-blood world and wield real power in it. […] The ink people of scripture have a real, live presence in our world. They shape our behaviors and our customs, and in so doing, they transform societies and histories. Jonathan Gottschall, Ink people in The Storytellig Animal. How Stories Make Us Human, Boston, New York, Houghton Mifflin Harcourt, 2012, p. 144. SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | LETTERATURE professione di educatore e la letteratura, ribadisce la forza della letteratura come indispensabile strumento formativo per questa professione. Ove la grande risorsa è costituita dalla letteratura e dalla lettura di testi narrativi quali strumenti tra i più efficaci per la formazione degli educatori: non solo, consiste nella apertura a nuove prospettive e nella possibilità di utilizzare risorse proprie che pensavamo di non avere, proprio perché si passa dalla realtà di “lettore” a quella di “co-autore”. Romanzi, racconti e novelle costituiscono una delle vie più rapide e più efficaci alla conoscenza di molteplici realtà. Perché, grazie alla letteratura, si affina lo sguardo e si arricchisce il giudizio di nuove prospettive, talvolta mostrando situazioni consuete ma da altri punti di vista. Dunque grazie a essa, si entra in contatto con situazioni nuove, anche calate in epoche lontane, ma comunque con persone ora simili a noi, ora diverse da noi. Racconta come siamo; e, raccontando una storia, racconta il mondo. Per tale via la letteratura aiuta dunque l’educatore a sviluppare la sua dimensione cognitiva, talvolta anche esercitandolo al ragionamento; amplifica i suoi orizzonti esperienziali, aiutandolo a orientarsi tra i molteplici modi di intendere la vita. E, soprattutto, pur mettendolo in sintonia con l’altro, ha la capacità di esaltare la sua individualità. Una individualità che chiede di saper conoscere le capacità proprie da mettere al servizio degli altri. La letteratura, dunque, si dà quale possibilità di un viaggio alla conoscenza di noi stessi. Una conoscenza però anche dei nostri limiti, dei quali bisogna sempre tenere conto nel mo- mento in cui ci mettiamo in relazione con l’altro. Ma c’è pure un altro aspetto della letteratura quanto mai importante nella prospettiva del lavoro dell’educatore. Lo ricorda Claudio Magris in una conversazione con Mario Vargas Llosa. Ed è che la letteratura aiuta a mettere in ordine gli avvenimenti. Il romanzo, il racconto, la narrazione, nascono dal desiderio di trovare un ordine, una coerenza. Non per nulla, «il romanzo è stato il genere più censurato, perseguitato e proibito […]. C’è un rischio nel lasciare che una società produca letteratura e s’impregni di letteratura. Una società impregnata di letteratura è più difficile da manipolare da parte del potere […] crea cittadini critici, indipendenti e più liberi». E ancora: «Scrittori che ci fanno capire come sia costantemente necessario cercare di comprendere le cose e fare i conti con la difficoltà, e talora con l’incapacità, di comprendere. Scrittori, dunque, che diventano parte di noi»5. Dunque ci sono letture che ci fanno capire che è necessario avere una chiara visione di ciò che ci circonda e che, nello stesso tempo, mettono alla prova il nostro impegno e la nostra capacità di comprendere. Sono letture che allenano la nostra capacità di dare un senso a ciò che vediamo. In tal modo la narrativa consente al lettore di imbattersi in pochissimo tempo nelle più svariate situazioni, di incontrare uomini e donne in luoghi e tempi distanti da noi, grazie a un autore, un uomo come tutti noi che funge da tramite interpretando ciò che vede e 5 Claudio Magris, Mario Vargas llosa, La letteratura è la mia vendetta, Milano, Mondadori, 2012, p. 9 e segg. 67 LETTERATURE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 che percepisce, leggendo la realtà con il suo sentire, con la sua sensibilità. Ma per tornare alla capacità della narrativa di migliorare il livello della comunicazione educativa nel suo proporsi come via e magistero alla acquisizione della espressione efficace, chiara, esatta, ovvero a quella “pienezza” della parola, una ulteriore testimonianza viene da Luigi Barzini. A proposito del quale narra il figlio Luigi Barzini junior: «Era bravo, bravissimo, il migliore dei giornalisti del suo tempo, eppure era convito di essere un mediocre […]. Anzi, si riteneva, come diceva lui stesso, un cretino. Mio padre mi ha sempre raccontato che tutte le volte che lo mandavano a fare un servizio era preso da una grande angoscia. Si diceva: “Finora ce l’ho fatta, ancora non hanno capito che sono un cretino. Ma questa volta, no. Non mi sarà possibile nasconderlo. Se ne accorgeranno tutti” […] Scrivere era un tormento per lui […]. Quasi una tortura. Tutte le volte, sempre, era come se si fosse al suo esordio. Procedeva lentamente sulla pagina, pieno di dubbi, di ripensamenti. Cancellando, correggendo, riscrivendo continuamente e rimanendo sempre insoddisfatto. Ma alla fine, ne uscivano articoli di così scorrevole lettura da far pensare che fosse facile ottenere quelle pagine. Erano invece il risultato di un lungo lavoro. Diceva “La semplicità […] è un punto di arrivo”. E si irritava tutte le volte che s’imbatteva in qualche esempio di prosa ampollosa, infarcita di parole difficili. “Io non capisco” proseguiva “perché debbono scrivere così complicato che non si comprende che cosa vogliono dire”»6. Una semplicità che non va però confusa con la banalità, perché qui semplicità è sinonimo di capacità di utilizzo di termini pienamente comunicativi di quanto si vuol raccontare; una semplicità densa di significato. LA PAROLA letteratura, ossia capacità critica nel decifrare il valore e la profondità della “parola”. Che è il percorso sin qui prospettato, con andamento capovolto: che parte dalla acquisizione di una metodologia di lettura fondata sul ricco mondo letterario, per passare alla decifrazione di espressioni emozionali “non letterarie”; giungendo infine a verificare il possibile reimpiego di testi letterari nella prassi educativa. Come ricorda infatti l’allora cardinal Montini richiamando Bernanos: «ogni nostra parola è come una sfinge che siede sul significato della parola stessa. Se noi penetriamo in questa c’è un abisso»9. Per questo la parola dell’altro chiede di essere ”trattata con profondità”. E per questo allora la letteratura, che sulla densità della parola si fonda, può ben costituire uno strumento di percorso a sua volta formativo, sia in ottica di decifrazioni, come in quella di appropriata comunicazione. E la parola letteraria, tanto più se di grandi Autori, risuona così forte, profonda, ricca e pertinente che, se ben compresa dal futuro formatore (ma non certo da lui solo), può dare corpo a una vera e concreta azione rappresentativa. Tale azione, se scientemente pensata, orchestrata e strutturata, può sollecitare un senso di appartenenza in coloro che vi si trovano coinvolti, in quanto il formatore, operando su quei più profondi significati, può trasferire queste azioni agli altri, così creando un senso e un clima di piena appartenenza al gruppo: di “essere gruppo”. Di essere tutti quanti “azione rappresentativa”. Ma questo soprattutto se si possiede la capacità di comprensione della pienezza della parola, perché allora diviene possibile il suo riutilizzo creativo nelle più varie e ampie direzioni. In tal senso la letteratura, intesa qui come lettura di testi narrativi, costituisce una grande risorsa, uno tra gli strumenti più efficaci per la formazione degli educatori. È dunque la parola, il suo più profondo significato, la chiave che consente appieno quel tipo di rapporto definibile come «comunicazione educativa»7, la cui caratteristica fondamentale è il darsi come «empatica»8, ossia quale atto intenzionale di chi intende, e sa, calarsi nei panni dell’altro pur rimanendo se stesso, in modo da saperne percepire paure, confusione, incertezze, ira, frustrazione, ma pure gioia, senza che però tale percezione divenga il suo proprio sentire. È, dunque, la disponibilità a volere, e la capacità di sapere, “leggere” l’altro, e nell’altro: nelle sue parole, espresse o inespresse. Ciò che significa: capacità di osservazione; capacità di decodifica delle emozioni; ma anche capacità espressiva, verbale e scrittoria, personale, poiché solo se la si possiede si è in grado di leggerla negli altri; capacità e volontà di acquisire metodologie di decifrazione grazie al ricco mondo della 6 luCiano siMonelli, Dieci giornalisti e un editore, Milano, Simonelli, 2009, pp. 72-3. 7 l. Pati, Pedagogia della comunicazione educativa, cit., p.75. 8 Ibidem, p. 215. 68 9 La citazione, tratta dal discorso rivolto nel 1956 al Congresso degli Scrittori Cattolici a Varese, si legge in AA.VV., Il Ragguaglio dell’attività culturale e artistica dei cattolici in Italia, 1957, Milano, Istituto di Propaganda Libraria, 1957, p. 48. N. 36 - 1° SETTEMBRE 2016 RICERCHE Le ricerche e gli articoli scientifici sono sottoposti prima della pubblicazione alle procedure di peer review adottate dalla rivista, che prevedono il giudizio in forma anonima di almeno due “blind referees”. 70 SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | INGEGNERIA ELETTRONICA Elettronica sostenibile AGOSTINO GIORGIO, ANDREA CUPERTINO, MARCELLO CASTELLANO Laboratorio di Elettronica dei Sistemi Digitali, Dipartimento di Ingegneria Elettrica e dell’Informazione, Politecnico di Bari Il presente articolo si prefigge di analizzare l’impatto ambientale dell’elettronica, con particolare attenzione alla fase di smaltimento dei dispositivi elettronici, e di indicare due approcci progettuali finalizzati ad una ottimizzazione dei tempi e dei modi di smaltimento dei dispositivi, per una riduzione dell’impatto ambientale. Infatti, da quando l’elettronica di consumo è entrata massivamente nella vita di milioni di persone si è assistito ad un graduale incremento della quantità di dispositivi prodotti e dei rifiuti derivati, molto spesso non trattati adeguatamente e destinati alla discarica. A questo si aggiunge il rapido incremento delle prestazioni dei sistemi elettronici di ampio consumo che conduce ad una massiva dismissione degli stessi a causa di una rapida obsolescenza. Per ridurre l’impatto ambientale in fase di smaltimento, risulta di importanza cruciale l’impiego di dispositivi completamente biodegradabili, che richiedono tecnologie (processi e materiali) innovative. Per prolungare, poi, il tempo di vita e di utilizzo di dispositivi obsoleti si è analizzata la possibilità di creare con essi griglie computazionali, al fine di rendere fruibile ciò che sarebbe altrimenti un rifiuto. I 1. INTRODUZIONE l costante sviluppo della tecnologia offre continuamente nuove opportunità per l’economia, per l’ambiente e per le società di tutto il mondo. Questa evoluzione ha tuttavia determinato un aumento di volume delle apparecchiature elettroniche di ampio consumo in uso ed obsolete, e comporta continue sfide in relazione al fragile equilibrio dell’ecosistema sulla Terra. E’ quindi necessario attuare delle scelte responsabili per proteggere l’ambiente, così come la salute degli esseri umani, attraverso l’integrazione della sostenibilità in ogni fase del ciclo di vita dei dispositivi elettronici. Cercare di perseguire un modello di sviluppo sostenibile, significa attuare l’insieme di pratiche e scelte che “consentano alle generazioni presenti di soddisfare i loro bisogni senza compromettere il diritto delle generazioni future di soddisfare i loro”, definizione ormai di senso ed accezione comune, apparsa per la prima volta nel Rapporto Brundtland (da meglio citarsi con il titolo Our Common Future)[1] commissariato dalle Nazioni Unite nel 1987. Quindici anni prima di tale documento, un altro rapporto, il MIT Report[2] commissariato dal Club di Roma, ha avuto il pregio di creare una consapevolezza diffusa sulla gravità della crisi ambientale sulla Terra e portare conseguentemente la relazione tra ambiente e sviluppo all’interno del dibattito globale. Entrambi gli studi si interrogano sul futuro del pianeta in previsione di una crisi ambientale, il primo ipotizzando una trasformazione qualitativa insostenibile dei processi del pianeta Terra, il secondo una trasformazione quantitativa insostenibile delle risorse (esaurimento delle risorse), segnando profondamente la nascita della teoria dello sviluppo sostenibile, che troverà piena realizzazione nella conferenza su Ambiente e Sviluppo del 1992 delle Nazioni Unite (Earth Summit di Rio de Janeiro) tramite la creazione dell’Agenda 21. Lo sviluppo sostenibile appare anche tra gli otto obiettivi della Dichiarazione del Millennio[3], firmata da tutti gli Stati membri dell’ONU. L’applicazione delle sostenibilità nell’ambito dell’elettronica richiede un approccio olistico che consideri tutti gli aspetti dell’intero ciclo di vita di un prodotto e dei processi tecnologici connessi. Operazione oggi possibile grazie a metodi quali il Life Cycle Assessment (LCA) che permette di valutare l’interazione di un prodotto con l’ambiente in tutte le sue fasi: pre-produzione, produzione, uso (comprendente riuso e manutenzione), riciclaggio e dismissione finale, e le conseguenze di natura economica, sociale ed ambientale. Per semplicità di analisi, nel seguito queste verranno ricondotte alle sole tre fasi di creazione, utilizzo e smaltimento del dispositivo elettronico, ciascuna delle quali ha significative ricadute sull’ambiente. In relazione alla fase di creazione e progettazione, gli impatti ambientali più significativi sono l’inquinamento del suolo, del mare e dell’aria e il consumo di risorse naturali, 71 INGEGNERIA ELETTRONICA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 e volta a minimizzare gli impatti da cui segue che per integrare la ambientali del prodotto, sia fonsostenibilità è necessaria un’atdamentale per prevenire le enortenta scelta delle materie prime mi conseguenze derivanti dallo ed un utilizzo responsabile delle smaltimento. risorse e delle tecnologie per il Purtroppo la situazione reale si loro sfruttamento. In relazione discosta molto dalle buone praalla fase di utilizzo le conseguentiche previste per legge: seconze più significative si hanno sul do quanto emerso dal Coutering deterioramento dello strato di WEEE Illegal Trade [6] finanozono e sull’aumento dell’effetziato dall’UE, in Europa il 65% to serra, fenomeni che è possidei RAEE (pari a 6,2 milioni di bile mitigare operando una ridutonnellate sui 9,5 milioni di tonzione delle sostanze tossiche, in nellate totali) sono stati trattati in particolare i cloroflurocarboni maniera non adeguata nel corso (CFCs), sottoposti a pesanti limidel 2012, in termini economici tazioni con il Protocollo di Monuna perdita stimata tra 800 mitreal. All’interno dell’Unione lioni e 1,7 miliardi di euro. Dati Europea la riduzione di sostanze Figura 1: Percentuale di RAEE riciclati nell’Unione Europea che, riferiti alla realtà Italiana, dannose negli apparecchi elettro- nel 2012 diventano ancora più preoccunici è altresì regolamentata dalla panti: come si può notare dalla Direttiva RoSH 2 (Restriction of Use of Certain Hazardous Substances) (2011/65/UE). E’ Figura 1, la percentuale di RAEE correttamente riciclati è inoltre necessario operare una riduzione dei consumi ener- ben al di sotto della media europea. Questo rende chiaro getici, tramite l’utilizzo di risorse rinnovabili e tecnologie quanto sia urgente e necessario ricercare ed attuare delle socon alti livelli di efficienza energetica; processo ancora in luzioni che rendano sostenibile, sotto l’aspetto ambientale atto, fortemente incentivato dalla nascita di due standard in- ed economico, i dispositivi elettronici ed i processi ad essi ternazionali, lo statunitense Energy Star e lo svedese TCO connessi, esigenza a cui si cercherà di dare una risposta nel Certification, ampiamente diffusi su tutta la gamma di ap- seguito con la proposizione di due soluzioni progettuali per parecchiature elettroniche odierne. La fase di “fine vita” del due classi di problemi: la creazione di nuovi dispositivi eletprodotto oggi rappresenta quella più delicata, con conse- tronici maggiormente sostenibili ovvero biodegradabili, e il guenze spesso irreversibili e molto gravi sull’inquinamento riutilizzo in configurazioni a “griglia” computazionale dei del suolo, dell’acqua e dell’aria; le norme più importanti in dispositivi obsoleti per capacità e risorse e quindi divenuti materia sono la Direttiva RAEE (Rifiuti da apparecchiature troppo poco performanti per continuare ad essere utilizzati elettriche ed elettroniche) (2012/19/UE) per quanto riguarda singolarmente. l’Unione Europea e il trattato di Basilea che regolamenta il traffico transfrontaliero di sostanza dannose[4]. 2. ELETTRONICA BIODEGRADABILE La necessità di eliminare gli effetti ambientali appena analizzati ha delle ripercussioni significative sui metodi di proUn generico dispositivo elettronico di consumo è costigettazione dei nuovi dispositivi, tanto da dar vita al recente tuito dall’assemblaggio di componenti elettronici, aventi paradigma del Design for Environment (DfE) [5], che posvariate funzioni, da strutture metalliche e da materiale in tremmo rendere in italiano come Progettazione Sostenibile. plastica. I componenti elettronici più diffusi possono essere Questo raggruppa l’insieme di tecniche e scelte per la creaschematicamente divisi in circuiti stampati (PCB), circuiti zione di un nuovo prodotto che tengano in considerazione integrati, elementi passivi e attivi, saldature e cavi di connesl’impatto ambientale come requisito imprescindibile. Il prisione. I materiali costituenti includono tipicamente metalli mo obiettivo che tale metodologia di progettazione si prefigpesanti, substrati e strati dielettrici, semiconduttori inorgage di raggiungere è la riduzione delle risorse e dei materiali nici, conduttori metallici e rivestimenti plastici o ceramici. utilizzati (Design for Reduction), il secondo è quello del riMateriali solitamente scelti per la loro stabilità chimica e utilizzo del prodotto (Desing for Reuse), il terzo è il riciclo la capacità di non degradarsi per lunghi periodi di tempo. dello stesso alla fine del ciclo di vita (Design for Recycling). Tuttavia, come già detto, l’aumento della domanda di tecQuesti 3 punti sono anche quelli che compongono il conologie elettroniche, unita all’accelerazione del tasso di obsiddetto “approccio delle 3R: Riduci, Riusa, Ricicla” per la solescenza sta generando un aumento del volume di rifiuti corretta gestione dei rifiuti, derivante dalla Direttiva Quaelettronici, con conseguenze rilevanti soprattutto in relaziodro sui Rifiuti (2008/98/UE), la quale definisce una gerarne allo smaltimento in discarica a causa della lenta capacità chia di azioni (la riduzione, il riuso e il riciclo) da mettedi degradazione che presentano. Ciò implica che il rilascio di re in atto prima dello smaltimento del rifiuto in discarica. metalli pesanti e sostanze tossiche può inquinare in maniera Per tanto, è evidente come una progettazione responsabile consistente il suolo, l’aria e l’acqua. Allo stesso modo il re72 SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | INGEGNERIA ELETTRONICA Figura 2: chip costituito da transistor, diodi, induttori, capacitori e resistori tutti realizzati su un substrato di seta. B: vista eplosa del chip, con una vista dall’alto in basso a destra. C: processo di degradazione del chip immerso in acqua cupero dei materiali riciclabili, plastica e metalli, comporta processi chimici e meccanici che immettono nell’atmosfera sostanze tossiche. Una potenziale strada da intraprendere per arginare questo fenomeno è la creazione di dispositivi che coinvolgano solo materiali biodegradabili, che possano degradarsi in un tempo prestabilito con un tasso di degradazione controllato, paradigma definito “elettronica transitoria”, in contrapposizione alla caratteristica di invarianza fisica e funzionale che ha da sempre contraddistinto il mondo dell’elettronica. Quindi, materiali per i quali esista in natura un microorganismo capace di produrre degli enzimi in grado di catalizzare le reazioni di degradazione del materiale e decomporlo. 2.1 Circuiti integrati I circuiti integrati (IC) consistono di una matrice di materiale semiconduttore incapsulata in un involucro che può essere di materiale ceramico o plastico e conduttori metallici per il collegamento con gli altri componenti. I circuiti elettronici attualmente in produzione sono realizzati da un substrato cristallino di silicio o di un altro semiconduttore, che si stima rappresenti il 99% dell’intera massa, e possono contenere più di un miliardo di componenti elettronici in piastrine (chip) di area 2cm x 2cm [7]. Dunque la regione attiva rappresenta una parte molto limitata di materia e per minimizzare l’uso dei semiconduttori nel substrato sono state sviluppate tecnologie per realizzare l’intero dispositivo su un materiale sacrificale e trasferirlo stampato su qualsiasi tipo di substrato, inclusi substrati biodegradabili e non tossici. La possibilità di traferire un’intera gamma di componenti elettronici su un substrato biodegradabile presuppone però un’attenta scelta dei materiali e dei processi tecnologici con cui essi vengono realizzati. Infatti se per i componenti passivi (resistori, induttori, capacitori) è sufficiente adottare materiali biodegradabili o che siano in quantità trascurabili nel processo di degradazione dell’intero IC, per i dispositivi attivi ed in particolare per i transistor, è necessario associare alla scelta dei materiali quella della tecnologia di funzionamento dei componenti. Di particolare rilevanza in tal senso sono i transistor a film sottile (Thin Film Transistor), dei dispositivi a tre terminali (gate, drain, source) che permettono di trasportare cariche tra due elettrodi, sotto l’imposizione di un effetto di campo originato da un terzo elettrodo; basati sul medesimo fenomeno che è alla base dei MOSFET, ma con la possibilità di poter depositare i componenti su un substrato isolante. Nel seguito verranno presentate anche soluzioni che utilizzino transistor a giunzione bipolare (BJT), dispositivi formati da tre strati di materiale semiconduttore drogato in modo da formare una doppia giunzione p-n, dove ad ogni strato è associato un terminale (base, collettore, emettitore). Qualora i materiali che costituiscono le due regioni di base e di emettitore siano costituite da materiali differenti, il dispositivo prende il nome di transitori ad eterogiunzione bipolare (HBT). 2.1.1 Substrato in seta Una recente ricerca [8] ha dimostrato come sia possibile creare un circuito completo a partire dagli induttori, i condensatori, i resistori, i diodi, i transistor, le interconnessioni fino al substrato e l’incapsulamento completamente disgregabile in acqua deionizzata. Nell’esempio mostrato in Figura 2 è stato utilizzato del magnesio (Mg) come materiale conduttore, dell’ossido di magnesio (MgO) come dielettrico (ma è anche possibile utilizzare del diossido di silicio, SiO2), delle nanomembrane di silicio monocristallino (SiNMs) come semiconduttore, e della seta (che è sia idrosolubile che degradabile dagli enzimi) come base costitutiva del substrato e del packaging. Un transistor del tipo qui descritto coinvolge meno di 1µg di Si che può essere dissolto come Si(OH)4 in non più di 30µL 73 INGEGNERIA ELETTRONICA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 Figura 3: OFET top-gate con substrato e dielettrico di gate realizzati in carta Figura 4. OFET bottom-gate con substrato realizzato in carta e dielettrico di gate in pentacene di acqua (o bio-fluido), fenomeno osservabile nella parte C della Figura 2. I pregi di questo dispositivo sono la totale biodegradabilità dei chip ottenibili, combinata alle ottime prestazioni del silicio. La vulnerabilità ad acqua e solventi, se da un lato gioca un ruolo chiave nella degradabilità del dispositivo, dall’altro ne limita gli utilizzi. Oltre che per il substrato, vi è una vasta gamma di composti organici che possono essere utilizzati come parti funzionali nei transistor per le loro proprietà dielettriche o da semiconduttore, che vengono per questo chiamati trasistor organici (OFET, OLED). Si può far risalire la loro invenzione al 1983 [9], quando è stato osservato il primo effetto di campo in un transistor nel quale il canale di connessione tra drain e source era stato realizzato con del poliacetilene. 2.1.2 Substrato in carta Un recente studio condotto dall’università di Perugia e dal Georgia Tech [10] ha dimostrato come sia possibile utilizzare sia come substrato che come dielettrico di gate per un OFET ”il materiale sintetico più economico realizzato dall’umanità: la carta’’. Gli elettrodi sono stati realizzati in oro per la compatibilità con l’energy gap del pentacene, (C22H14) una molecola planare formata da 5 anelli di benzene utilizzata per realizzare il canale che connette gli elettrodi di drain e source. Per il dielettrico di gate sono state proposte due soluzioni. Infatti, oltre a rispettare la proprietà di biodegradabilità, il materiale scelto deve anche presentare una struttura che permetta la crescita del polimero regolare e in forma cristallina, così da aumentare la mobilità e le prestazioni del dispositivo. Nella Figura 3 è stata utilizzata la carta, col risultato di un minor utilizzo di materiale ed un inferiore spessore totale del dispositivo. Per migliorare la mobilità è possibile utilizzare la carta solo come substrato e uno strato di pentacene come dielettrico di gate, come nel dispositivo rappresentato in Figura 4. Questo è stato il primo dispositivo completamente 74 stampabile su carta, presentato nel 2010, e rappresenta certamente un passo significativo per l’elettronica più sostenibile con processi di fabbricazioni a basso costo. In alternativa al pentacene, il materiale più studiato tra la classe dei semiconduttori organici è la melanina, una classe di pigmenti naturali conduttivi con proprietà fisiche ed elettriche uniche. I maggiori vantaggi di questo materiale sono la semplicità del processo di fabbricazione di film sottili e la sua biodegradabilità. 2.1.3 Substrato polimerico Uno studio condotto da Christopher J. Bettinger [11]”container-title”:”Life Science Systems and Applications Workshop (LiSSA ha ricercato la possibilità di fabbricare transistor biodegradabili e biocompatibili tramite dei polimeri con l’aggiunta di oro e argento per realizzare gli elettrodi, rappresentato in figura 5 “container-title”:”Life Science Systems and Applications Workshop (LiSSA. Per lo strato dielettrico è stato selezionato l’alcol polivinilico (PVA) e il PLGA per il substrato. stata, invece, . Lo studio ha dimostrato come questi dispositivi siano stabili in acqua e si degradino completamente in un tampone salino fosfato nell’arco di 10 settimane. La biodegradabilità del DDFTTF non è stata esplicitamente studiata tuttavia si è ipotizzato possa subire lo stesso processo che decompone le molecole di melanina. Per quanto riguarda l’oro e l’argento utilizzati per il drain, il source ed il gate, sono in quantità sufficientemente piccole da poter essere trascurate. 2.1.4 Substrato in CNF Una ricerca condotta nel 2015 [12]such as cell phones, tablets and other portable electronic devices, are typically made of non-renewable, non-biodegradable, and sometimes potentially toxic (for example, gallium arsenide ha verificato la possibilità di creare interi chip su un substrato di nanofibre di cellulosa, materiale ecocompatibile completa- SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | INGEGNERIA ELETTRONICA mente derivato dal legno, con ottime proprietà elettriche per utilizzi alle frequenza delle microonde. Il substrato in CNF è stato ricoperto con uno strato di resina epossidica formata da biosfenolo A, per conferirgli una maggior protezione all’acqua, vulnerabilità tipica del materiale. Questa particolare resina riesce inoltre, a migliorarne le caratteristiche meccaniche in termini di trasparenza e trasmittanza. Alle frequenze delle microonde il materiale ampiamente più utilizzato è l’arseniuro di gallio, per le sue ottime prestazioni in questo intervallo di frequenza, rispetto al silicio o ad altri semiconduttori, motivo per il quale le parti attive sono in GaAs. Figura 5: a: rappresentazione delle molecole scelte per la realiazzazione di un TFT organico. b: TFT organico con sustrato polimerico Per realizzare un transistor ad eterogiunzione in GaInP/ GaAs si è fatta crescere l’eterogiunzione su un ”sacrificial layer” in (Al0.96Ga0.04As) su un wafer di GaAs per poi essere stampato sul substrato di CNF. I passaggi del processo di fabbricazione sono rappresentati nella Figura 6. Con un processo analogo si è riusciti a realizzare un diodo Schottky e componenti passivi, capacitori e induttori, rappresentati nella Figura 7. Tramite questi componenti è stato possibile realizzare circuiti integrati, come il full bridge rectifier in Figura 7. E’ stata anche studiata la possibilità di realizzare circuiti logici, un inverter e le porte logiche NAND e NOR, Figura 6: processo di fabbricazione di un HBT con substrato in nanofibre di carbonio Figura 7: A sinistra array di induttori e capacitori su substrato in CNF su una foglia. Nel riquadro giallo un’immagine ottica di un induttore, nel riguardo rosso di un capacitore. A destra Immagine ottica di un full bridge costruito in CNF 75 INGEGNERIA ELETTRONICA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 Figura 8: Immagine ottica di un INVERTER (a sinistra), di una porta NAND (al centro), di una porta NOR (a destra), realizzati su substrato in CNF rappresentati nella Figura 8 e un full adder nella Figura 9 a partire da un CMOS su substrato di CNF. Dal punto di vista dell’impatto ambientale, lo strato di nanofibre di cellulose si degrada completamente tramite dei funghi. Nello specifico è stata analizzata l’azione di due differenti tipi, il Postia placenta e il Phanerochaete chrysosporium, con ottimi risultati. Lo strato di arseniuro di gallio non degradabile, si è calcolato essere in quantità sufficientemente modeste da poter essere trascurate. 2.1.5 Substrato in CNC Dai nanomateriali in cellulosa possono essere estratti, oltre alle nanofibre, anche dei nanocristalli (CNC), caratterizzati da una dimensione più contenuta ed un una minor rugosità della superficie. Quest’ultima caratteristica risulta fondamentale in alcune applicazioni, come lo sviluppo di celle solari con un substrato a CNC [13]. In Figura 10 è rappresentata una cella solare con substrato in CNC. L’elettrodo inferiore è realizzato in argento con l’aggiunta di uno strato di etossilati ”polyethylenimine” (PEIE) per migliorarne l’efficienza; quello superiore invece in MoO3/Ag evaporato su uno strato fotoattivo di PBD−TTT −C :PCBM. Questa configurazione permette di creare celle solari organiche con prestazioni confrontabili con quelle con substrati in vetro o materiali plastici. Il dispositivo così creato è, inoltre, possibile riciclarlo a temperature contenute utilizzando dei solventi. Immergendolo in acqua distillata per un massimo di 30 minuti si disintegra il substrato in nanocristalli di cellulosa; quindi si possono filtrare i residui solidi con un filtro di carta. Lo strato di materiale fotoattivo presente sul filtro, può essere separato dagli elettrodi sciacquando i residui con del clorobenzene. Figura 9: immagine ottica di un full adder realizzato su substrato in CNF Ciò che rimane quindi sul filtro di carta sono parti Ag e Mg che possono venire riciclati. Alternativamente è possibile utilizzare una fiamma a bassa temperatura per bruciare lo strato di CNC e le parti polimeriche, in maniera tale da riciclare le parti metalliche. 2.2 Circuiti stampati Un circuito stampato (Printed Circuit Board, PCB) è una parte essenziale della stragrande maggioranza dei dispositivi elettronici in commercio, costituendo il supporto meccanico e le interconnessioni elettriche per i componenti montati. E’ costituito da uno strato dielettrico in fibra di vetro o vetronite ed uno metallico, tenuti assieme da una resina epossidica. Come per i circuiti integrati, la crescente attenzione allo Figura 10: a: struttura di una cella solare con substrato in CNC. b: struttura chimica dei polimeri utilizzati. c: foto di una cella solare fabbricata 76 SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | INGEGNERIA ELETTRONICA smaltimento dei rifiuti elettronici e agli impatti ambientali della tecnologia, ha portato alla realizzazione di numerosi studi volti ad individuare materiali biodegradabili per la loro realizzazione. Un recente studio congiunto dell’University of Illinois ad Urbana-Champaign e del Missouri University of Science Technology [14] ha indagato circa la possibilità di utilizzare uno strato di carbossimetilsellulosa (Na-CMC), un derivato della cellulosa, per il substrato, un metallo transitorio, quali magnesio (Mg), tungsteno (W) e Zinco (Zn) per le interconnessioni e un sottile strato di ossido di Polietilene (PEO) per migliorare le capacità conduttive del circuito stampato e offrire maggiore aderenza ai componenti che vengono montati. L’intero sistema così creato si degrada completamente se immerso in acqua per 10 minuti, lasciando solo i componenti saldati sul PCB e i metalli transitori Una maggior protezione all’acqua può essere ottenuta tramite l’utilizzo di un incapsulamento in materiali inorganici come MgO, SiO2, Si3N4, caratterizzati da un lento tasso di degradazione. Altri esperimenti si sono concentrati sull’utilizzo di biopolimeri al posto del tradizionale substrato in fibra di vetro. La Bupadest University of Technology and Economics [15] ha indagato l’utilizzo di poli-acido-lattico (PLA) o di cellulose-acetate (CA) con uno strato di rame per realizzare le interconnessioni elettriche. Per migliorare l’adesività tra i due materiali è tuttavia risultato necessario aggiungere uno strato di pre-preg, un materiale composito costituito da fibre “pre-impregnata” con resine a base epossidica. 3. GRID COMPUTING E RIUSO DEI DISPOSITIVI OBSOLETI Nel 1998 Carl Kesselman e Ian Foster pubblicarono ”The Grid: Blueprint for a New Computing Infrastructure” [16], pietra miliare dei sistemi distribuiti, in cui definirono il Grid Computing come ”un’infrastruttura hardware e software che offra un accesso affidabile, consistente, pervasivo e poco costoso a grandi capacità computazionali.” Al momento attuale è utilizzato maggiormente per calcoli ad alte prestazioni, dove sono richieste capacità di calcolo di cui sarebbe impensabile poter disporre solo in locale; tuttavia, il grid computing, può rappresentare una valida soluzioni progettuali per il riutilizzo di tutti i dispositivi elettronici obsoleti e poco performanti, riuscendo quindi a trasformare quello che viene considerato un rifiuto in una preziosa risorsa. Infatti, la corsa al materiale informatico più nuovo e dalle prestazioni più elevate, alimentata da precise strategie di mercato di produttori di hardware e software che impongono un’obsolescenza programmata ai dispositivi e ai programmi informatici, determina un ciclo di vita dei prodotti elettronici molto breve ed un tasso di smaltimento, anche di dispositivi funzionanti, in continuo aumento. Esiste cioè, allo stato attuale, una consistente quantità di dispositivi elettronici obsoleti, i quali vengono dismessi e molto spesso smaltiti in discarica, anche se funzionanti. Per contrastare questo fenomeno è necessario e doveroso applicare un modello circola- re alla produzione e alla progettazione dei nuovi dispositivi, che consenta di rivalorizzare ciascun prodotto al termine del proprio ciclo di vita. Pertanto, se da un lato si impone lo studio di tecnologie innovative ed in fase di progetto un’attenta scelta di materiali biodegradabili e processi con bassi consumi energetici, dall’altro lato è possibile avvalersi delle moderne tecnologie di calcolo distribuito. Infatti, tramite la creazione di griglie computazionali (Grid Computing) si possono assemblare e sincronizzare risorse sottodimensionate e dalle ridotte capacità computazionali (se considerate singolarmente) per costituire una risorsa adeguata alle attuali esigenze. 3.1 Sistemi distribuiti Un sistema distribuito è definito come un insieme di componenti indipendenti che appare all’utente come un singolo sistema coerente. Questa definizione evidenzia due aspetti importanti: il primo, che un sistema distribuito è costituito da componenti autonomi, il secondo, che gli utenti, intesi come persone o programmi, pensano di avere a che fare con un unico sistema. Questo vuole dire che i vari componenti devono collaborare tra loro. Le modalità con cui questa comunicazione avviene rappresenta il fulcro dei sistemi distribuiti. I principali obiettivi da raggiungere per cui valga la pena avvalersi di tali sistemi sono l’accessibilità delle risorse, la trasparenza e l’apertura e scalabilità [17]. Infatti, caratteristica essenziale di un sistema distribuito è rendere facile per gli utenti l’accesso alle risorse remote e condividerle in maniera efficiente e controllata, per ragioni di natura economica, di sicurezza e di semplicità di collaborazione. Un’altra caratteristica, la cosiddetta trasparenza, è quella di nascondere che i propri processi e le proprie risorse siano fisicamente distribuite. Infine, un sistema distribuito si avvale di standard di comunicazione per garantire l’apertura e la scalabilità e determinare la possibilità di cambiare componenti e comportamenti in base alla politica scelta. Un sistema si definisce aperto se offre servizi secondo regole standard per descriverne la sintassi e la semantica e questo garantisce l’interoperabilità e la portabilità dello stesso. La scalabilità definisce la capacità del sistema di crescere o diminuire di scala in base alle necessità e può essere misurata almeno su tre grandezze: rispetto alle proprie dimensioni, dal punto di vista geografico e dal punto di vista dell’amministrazione. 3.1.1 Sistemi distribuiti per calcoli alle alte prestazioni Un’importante classe di sistemi distribuiti è quella usata per calcoli ad alte prestazioni, in cui si possono distinguere due sottogruppi, i sistemi di calcolo a cluster e la tecnologia a griglia. Nei cluster l’hardware è costituito da risorse omogenee connesse da una rete locale ad alta velocità. Nel caso della tecnologia grid, la connessione è operata tra sistemi distribuiti, ciascuno dei quali può risiedere in un dominio di amministrazione diverso e può distinguersi in termini di hardware, software e tecnologia di rete. 77 INGEGNERIA ELETTRONICA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 la risorsa più appropriata Lo scopo principale di sulla quale eseguire un job un cluster è quello di diin attesa, ottimizzando l’ustribuire un’elaborazione tilizzo delle risorse [19]. (parallelizzabile) sulle varie risorse omogenee 3.3 Virtual che lo compongono; nella Organizations tecnologia grid l’obiettivo Le virtual organizations principale è la collabora(VO) sono gli enti zione delle varie risorse che partecipano alla che lo compongono. costituzione della Grid E’ importante sottolinee sottostanno a politiche are come le due tecnologie di autorizzazione a si pongano in un rapporto autenticazione concordate di successione, in cui il insieme agli organi di grid computing rappresenFigura 11: Rappresentazione di una Virtual Organization coordinamento [20]. ta la più recente evoluzioHanno il compito di ne dei sistemi di calcolo definire chiaramente le distribuito. Solo con l’avvento del nuovo millennio, quando il numero di calcolatori risorse condivise, i soggetti e le entità che partecipano alla presenti in rete ha raggiunto un numero considerevole e le condivisione e le condizioni della condivisione. Una VO capacità di elaborazione dei singoli processori sono diventa- comprende utenti (users), risorse e servizi ad essi associati, te adeguate, è stato possibile sviluppare sistemi composti da uniti da un obbiettivo comune ma non localizzati all’interno nodi eterogeni, definiti inizialmente di metacomputing[18]. di un singolo dominio amministrativo (Figura 11), motivo Quando Ian Foster e Kesselmann, nel 1999, pubblicarono che impone una struttura dinamica. Per poter coordinare e far cooperare tutti i componenti della visionaria metafora di una “Griglia di distribuzione della potenza computazionale in cui, come i watt nella griglia di la griglia è necessaria la presenza di uno “strato”, ovvero di distribuzione dell’elettricità, la potenza computazionale può un software intermedio tra l’utente e la griglia stessa, che essere distribuita a chi ne fa richiesta senza badare alla sua mascheri l’eterogeneità delle risorse, tale cioè da porsi (“nel provenienza”, entrò nel linguaggio comune il termine Grid mezzo”) sotto le applicazioni per far funzionare la struttura Computing. L’idea alla base è ripartire il carico su tutte le ri- desiderata: il middleware. Per utilizzare l’approccio del grid computing come strasorse disponibili sfruttando le capacità inutilizzate su ciascuna di esse, superando qualsiasi barriera fisica di elaborazione tegia progettuale utile a prolungare il tempo di vita dei dispositivi obsoloescenti, è fondamentale poter utilizzare un dati di un qualunque server oggi disponibile. middleware che sia portabile, caratteristica dettata dalla forte eterogeneità delle risorse, e facilmente scalabile. Inoltre, 3.2 Struttura del grid computing Anche se le risorse possono essere condivise ed utilizzate l’infrastruttura deve tenere in considerazione l’esigua potenda tutti i componenti della griglia, usualmente vi si accede za computazionale che ciascuna risorsa può condividere. Al giorno d’oggi il Globus Toolkit (GT), un software svitramite un’applicazione o un job in esecuzione. Il termine job identifica una sequenza di controllo che compone una luppato dalla Globus Alliance, rappresenta lo standard indusingola unità di lavoro; i jobs possono quindi calcolare qual- striale per il Grid Computing e lo sviluppo del middleware siasi cosa, eseguire uno o più comandi di sistema, muovere o connesso. La Globus Alliance è un organismo che conduce ricerche collezionare dati o operare sulle macchine. Un’applicazione invece, identifica di solito un compito a più alto livello e può per lo sviluppo della tecnologia, degli standard e dei sisteessere costituita da più jobs. Questi, a loro volta, possono es- mi connessi alla Grid nato nel 1996. Come il WEB ha rivosere ulteriormente suddivisi in subjob. Se un’applicazione è luzionato l’accesso alle informazioni, l’obiettivo di questo organizzata come collezione di job, è progettata per eseguir- organismo è quello di raggiungere un simile risultato nella li in parallelo su differenti macchine della griglia. Quanto computazione. La Globus Alliance ha ideato e fornito una tecnologia meno i jobs (o i subjobs) interagiscono tra loro, tanto più l’applicazione diventa scalabile e può essere eseguita su più fondamentale per la creazione di una Grid, il Globus Toolkit (GT) appunto, che è un pacchetto software che include risorse, con notevole guadagno in termini di tempo. La gestione delle applicazioni e dei jobs viene eseguita da servizi software, librerie per il monitoraggio e la gestione un software definito job scheduler. Uno scheduler general- delle risorse, della sicurezza e dei file. E’ stato concepito per mente stabilisce l’ordine temporale con cui i processi che ri- rimuovere ostacoli derivanti dall’incompatibilità delle risorchiedono l’accesso alle risorse (di solito alla CPU) vengono se (le interfacce, i servizi) e i protocolli adottati permettono eseguiti, in base a delle politiche di scheduling. Nel caso del all’utente di accedere alle risorse in remoto come se fossero sistema a Grid, questo si occupa di gestire automaticamente in locale e di controllare chi e quando utilizza le proprie ri78 SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | INGEGNERIA ELETTRONICA sorse in locale. E’ importante segnalare che il GT si è evoluto attraverso una strategia open-source, la quale ha permesso un’adozione più vasta e rapida, guidata dalle grandi innovazioni tecniche e dalla comunità che offre costanti miglioramenti. Agli inizi del 2000 il New York Times ha definito questa tecnologia come il “de facto standard” per il Grid Computing e poco dopo, nel 2002, è stato insignito del prestigioso R&D 100 Awards come ’Most Promising New Technology” tra le 100 migliori innovazioni di quell’anno Include inoltre componenti per la creazione di sistemi che seguano l’Open Grid Services Architecture (OGSA), un framework definito dall’Open Grid Forum (OGF). L’OGF è una comunità di utenti, sviluppatori e realizzatori che promuovono lo sviluppo di sistemi distribuiti di calcolo, in particolare nel campo del Grid Computing e del Cloud Computing. E’ stato fondato nel 2006 dalla fusione del Global Grid Forum e dell’Enterprise Grid Alliance, con l’obiettivo di sviluppare standards per il Cloud ed il Grid Computing e la Globus Alliance e uno dei membri leaders. L’OGSA si occupa soprattutto della definizione di servizi basilari che la grid deve offrire e propone un’architettura a clessidra per la gestione delle grid composta da 5 livelli gerarchici, a partire dal livello applicativo che fornisce l’interfaccia con la quale l’utente può interagire con il sistema, fino al livello di rete fornisce le risorse alle quali l’accesso è mediato dai protocolli di grid. 3.4 Il Volunteer Computing e le sue potenzialità Un’interessante applicazione dei sistemi di calcolo distribuiti, nata a metà degli anni ’90, è il Volunteer Computing. Questo si basa sull’idea che la maggior parte dei computer privati dispongono di risorse sottoutilizzate per la maggior parte del tempo che invece potrebbero essere utilizzate per risolvere problemi scientifici o ingegneristici che richiedono grandi potenze di calcolo. Da queste breve descrizione si può notare una differenza sostanziale con la tecnologia Grid: la condivisione delle risorse non rappresenta l’obiettivo per cui realizzare l’infrastruttura, come succede nel Grid Computing, ma un mezzo per poter risolvere problemi scientifici. Il termine Volunteer non è casuale, gli utenti mettono a disposizione parte delle risorse computazionali del proprio computer in maniera volontaria, le quali vengono utilizzate per archiviazione o computazione distribuita. Ciascun volontario deve disporre di una connessione ad internet, e mantiene l’anonimato. Per via del loro anonimato, gli utenti non possono utilizzare le risorse degli altri membri, possono solo condividere le proprie risorse per effettuare i calcoli richiesti dal progetto a cui si è deciso di aderire. Il progetto è solitamente sviluppato e gestito da un gruppo scientifico e gli utenti devono solo scaricare un software che, sfruttando i tempi morti e le risorse inutilizzate dei computer, esegue il calcolo richiesto. Il progetto che, per primo, ha dimostrato le potenzialità del Volunteer Computing è stato Seti@HOME, permettendo di risolvere problemi di calcolo intensivo in modo efficiente e a costo zero attraverso cicli di CPU dei desktop pc degli utenti. SETI è l’acronimo di Search for Extra-Terrestrial Intelligence. Infatti, il progetto nasce per analizzare segnali radio in cerca di segni di intelligenze extraterrestri, sfruttando appunto calcolo distribuito volontario. Nel 2003, il team che lo aveva sviluppato ha lanciato BOINC (Berkeley Open Infrastructure for Network Computing), una piattaforma open source universale che permette agli scienziati di adattare applicazioni al volunteer computing. In poco tempo questa piattaforma è diventata il middleware di riferimento per il Volunteer Compunting, venendo adottata da più di 50 progetti fino ad ora. 4. CONCLUSIONI In questo articolo si è voluto delineare l’impatto ambientale dell’elettronica e alcune soluzioni progettuali che possano contrastarlo. A partire da un’analisi dei più rilevanti effetti sull’ecosistema che i dispositivi elettronici, in tutto il loro ciclo di vita, provocano, è stato evidenziato come sia urgente la necessità di ricercare metodi progettuali più sostenibili, tanto per i nuovi dispositivi quanto per la consistente quantità di dispositivi ormai obsoleti. Le ricerche condotte finora sulla possibilità di creare dispositivi completamente biodegradabili hanno portato ad ottimi risultati, ma in campi applicativi spesso molto ristretti. Questo rallenta e complica la transizione verso una progettazione incentrata completamente alla biodegradabilità ma ne stimola anche la ricerca. Infatti, una sensibilità sempre maggiore da parte della comunità scientifica sta portando a continue invenzioni in questo settore, che fanno presagire un cambiamento di obiettivi nel medio-lungo periodo. Si è visto, infatti, come sia possibile realizzare le parti funzionali degli attuali dispositivi elettronici tramite materiali biodegradabili, con prestazioni spesso confrontabili con le tecnologie attualmente consolidate e diffuse. I materiali analizzati esibiscono inoltre innovative caratteristiche, quali la trasparenza e la flessibilità, oltre alla degradabilità nell’ambiente, che conferiscono ai dispositivi elettronici derivanti proprietà uniche che li rendono adatti a nuove ed imprevedibili applicazioni, come biosensori per il monitoraggio ambientale o l’elettronica biointegrata per applicazioni mediche E’ quindi importante un continuo sforzo della ricerca verso soluzioni tecnologiche che rendano le apparecchiature elettroniche completamente biodegradabili, senza conciò inficiare sui costi e sulle prestazioni. La scelta del Grid come infrastruttura per realizzare sistemi di calcolo distribuiti con dispositivi obsoleti e altrimenti destinati allo smaltimento, si presta ad essere una soluzione progettuale ottimale per via della sua natura altamente decentralizzata e con domini amministrativi differenti. La possibilità di creare una tale infrastruttura non è, naturalmente, priva di insidie, le più delle quali di natura tecnica, che la rendono una tecnologia prematura allo stato attuale. Così come è avvenuto per il Volunteer Computing negli ultimi dieci anni, riuscire a sviluppare un middleware semplice 79 INGEGNERIA ELETTRONICA | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 e portabile riveste un ruolo fondamentale nell’adozione di questa tipologia di tecnologia nell’ambito di studio. Le notevoli capacità di memoria che posseggono le attuali apparecchiature al termine del loro ciclo di vita suggeriscono anche la possibilità di estendere lo studio a tecnologie distribuite per l’elaborazione dei big data, basate su approcci di tipo map-reduce. L’analisi delle valutazioni quantitative e dei modelli di riferimento per il calcolo della riduzione dell’impatto ambientale possono rappresentare ulteriori sviluppi del presente studio nell’ottica di rendere le soluzioni presentate realmente applicabili e accrescere la conoscenza della loro efficacia. Affinché la problematica degli impatti ambientali in relazione ai dispositivi elettronici possa considerarsi risolta è tuttavia fondamentale anche mirare a sensibilizzare la società che impari a bilanciare le rapide evoluzioni tecnologiche con una gestione responsabile di prodotti e materiali. BIBLIOGRAFIA [1] G. Brundtland, M. Khalid, S. Agnelli, S. Al-Athel, B. Chidzero, L. Fadika, V. Hauff, I. Lang, M. Shijun, M. Morino de Botero, M. Singh, S. Okita, e A. Others, Our Common Future (’Brundtland report’). Oxford University Press, USA, 1987. [2] The Limits to Growth. Earthscan, 2004. [3] U. G. Assembly, «United Nations millennium declaration», Resolut. Adopt., vol. 18, 2000. [4] N. Sinnadurai e J. H.K. Charles, «Electronics and its impact on energy and the environment», in 32nd International Spring Seminar on Electronics Technology, 2009. ISSE 2009, 2009, pagg. 1–10. [5] «The four Rs of electronics waste recycling», Recycling Product News, 11-ott-2013. [In linea]. Available at: http:// www.recyclingproductnews.com/article/3711/the-four-rsof-electronics-waste-recycling. [Consultato: 19-apr-2016]. [6] J. Huisman, I. Botezatu, L. Herreras, M. Liddane, J. Hintsa, V. Luda di Cortemiglia, P. Leroy, E. Vermeersch, S. Mohanty, S. van den Brink, B. Ghenciu, D. Dimitrova, E. Nash, T. Shryane, M. Wieting, J. Kehoe, K. Baldé, F. Magalini, A. Zanasi, F. Ruini, e A. Bonzio, Countering WEEE Illegal Trade (CWIT) Summary Report, Market Assessment, Legal Analysis, Crime Analysis and Recommendations Roadmap. 2012. [7] R. C. Jaeger, T. N. Blalock, G. Meneghesso, e A. Neviani, Microelettronica, 4 edizione. Milano: McGraw-Hill Education, 2013. [8] S.-W. Hwang, H. Tao, D.-H. Kim, H. Cheng, J.-K. Song, E. Rill, M. A. Brenckle, B. Panilaitis, S. M. Won, Y.-S. Kim, K. J. Yu, A. Ameen, R. Li, Y. Su, M. Yang, D. L. Kaplan, M. R. Zakin, M. J. Slepian, Y. Huang, F. G. Omenetto, e J. A. Rogers, «A Physically Transient Form of Silicon Electronics, With Integrated Sensors, Actuators and Power Supply», Science, vol. 337, n. 6102, pagg. 1640–1644, set. 2012. [9] S. Forrest, «The dawn of organic electronics», 01ago-2000. [In linea]. Available at: http://spectrum.ieee.org/ 80 semiconductors/materials/the-dawn-of-organic-electronics. [Consultato: 12-nov-2015]. [10] Y.-H. Kim, D.-G. Moon, e J.-I. Han, «Organic TFT array on a paper substrate», IEEE Electron Device Lett., vol. 25, n. 10, pagg. 702–704, ott. 2004. [11] C. J. Bettinger, «Biodegradable materials and systems for electronically active device-based tissue regeneration», in Life Science Systems and Applications Workshop (LiSSA), 2011 IEEE/NIH, 2011, pagg. 135–138. [12] Y. H. Jung, T.-H. Chang, H. Zhang, C. Yao, Q. Zheng, V. W. Yang, H. Mi, M. Kim, S. J. Cho, D.-W. Park, H. Jiang, J. Lee, Y. Qiu, W. Zhou, Z. Cai, S. Gong, e Z. Ma, «Highperformance green flexible electronics based on biodegradable cellulose nanofibril paper», Nat. Commun., vol. 6, pag. 7170, mag. 2015. [13] Y. Zhou, C. Fuentes-Hernandez, T. M. Khan, J.-C. Liu, J. Hsu, J. W. Shim, A. Dindar, J. P. Youngblood, R. J. Moon, e B. Kippelen, «Recyclable organic solar cells on cellulose nanocrystal substrates», Sci. Rep., vol. 3, mar. 2013. [14] X. Huang, Y. Liu, S.-W. Hwang, S.-K. Kang, D. Patnaik, J. F. Cortes, e J. A. Rogers, «Biodegradable Materials for Multilayer Transient Printed Circuit Boards», Adv. Mater., vol. 26, n. 43, pagg. 7371–7377, nov. 2014. [15] A. Géczy, M. Kovács, e I. Hajdu, «Conductive layer deposition and peel tests on biodegradable printed circuit boards», in Design and Technology in Electronic Packaging (SIITME), 2012 IEEE 18th International Symposium for, 2012, pagg. 139–142. [16] I. Foster e C. Kesselman, A c. di, The Grid: Blueprint for a New Computing Infrastructure. San Francisco, CA, USA: Morgan Kaufmann Publishers Inc., 1999. [17] A. S. Tanenbaum e M. V. Steen, Sistemi distribuiti. Principi e paradigmi. Pearson Italia S.p.a., 2007. [18] M. Migliardi, «Grid Computing: da dove viene e che cosa manca perche’ diventi una realta’?», MONDO Digit., vol. 2, pagg. 21–31, 2004. [19] B. Jacob, M. Brown, K. Fukui, e N. Trivedi, Introduction to Grid Computing. 2005. [20] M. Castellano, Grid based collaborative distributed system for e-learning design and production. Wip Edizioni, 2015. [21] I. Foster, C. Kesselman, e S. Tuecke, «The Anatomy of the Grid: Enabling Scalable Virtual Organizations», Int J High Perform Comput Appl, vol. 15, n. 3, pagg. 200–222, ago. 2001. SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE Dalla terapia genica al doping genetico ROSA ADA VOLPE & FILOMENA MAZZEO Dipartimento di Scienze e Tecnologie, Università degli Studi di Napoli “Parthenope” La terapia genica ha lo scopo di utilizzare i fondamenti dell’ingegneria genetica per uso terapeutico attraverso la correzione o la manipolazione di geni difettosi, ed è fondamentale per la cura di molte patologie degenerative. Il doping genetico sfrutta lo stesso concetto della terapia genica ma non a scopo terapeutico, bensì per migliorare le prestazioni degli atleti modificando alcuni geni che portano ad aumentare la resistenza e la massa muscolare. Dopo aver fatto cenno alle differenti tecniche di inserimento, tramite vettori, di geni ricombinanti, verranno descritti i principali transgeni responsabili del miglioramento delle prestazioni atletiche: in particolare quelli che aumentano l’emoglobina, l’ematocrito e il flusso emodinamico, e quelli che aumentano selettivamente la crescita della massa muscolare. Tale metodica sicuramente non è scevra di effetti avversi, e talora fatali, che ognuna di queste tecniche comporta sull’atleta. L’utilizzo del passaporto biologico-molecolare dell’atleta rappresenta una possibile strategia preventiva e cautelativa antidoping. INTRODUZIONE: CONCETTO DI TERAPIA GENICA E U DOPING GENETICO n gene è un’unità biologica di ereditarietà a codici semplificati, finalizzata alla realizzazione di una proteina. In alcuni casi il gene può contenere informazioni errate, che determinano una mancanza di sintesi o la produzione di una proteina difettosa. La terapia genica, pertanto, ha lo scopo di correggere il difetto genetico introducendo geni funzionanti o manipolando geni esistenti per ottenere benefici terapeutici [1] [2] Gli studi di terapia genica hanno consentito il trattamento di patologie degenerative che agiscono a livello neuromuscolare o, più in generale, che interessano l’apparato locomotore come la distrofia muscolare di Duchenne [3] [4]. Se questa terapia consente di aumentare le proteine dell’organismo, comprese quelle dei muscoli, di conseguenza è stata perciò anche ipotizzata la sua possibilità di essere utilizzata e sfruttata nello sport a scopo dopante. Questo tipo di tecnologia prende il nome di doping genetico che sfrutta dunque lo stesso concetto della terapia genica, ma non a scopo terapeutico, bensì per migliorare le prestazioni degli atleti portando all’interno delle cellule, con “vettori virali”, geni che sviluppano capacità, resistenza, forza del cuore, dei polmoni, dei muscoli. Sono circa 250 i geni che si stanno investigando, collegati in qualche modo al miglioramento delle performance sportive in particolare attraverso l’aumento della resistenza e della massa muscolare [5]. Sia che si tratti di sport, lavoro o della vita quotidiana, ogni abuso di farmaci è una forma di doping ed è perciò sempre scorretto, ma poiché l’abuso di sostanze o metodi per potenziare le prestazioni risale a tempi molto antichi, ben presto la comunità medica e sportiva è stata costretta a dare una risposta al problema [6]. Il doping infatti coinvolge atleti e tutto ciò che ruota intorno ad essi: amici, parenti, medici, farmacisti, biologi, chimici, case farmaceutiche e talvolta organizzazioni criminali [6] [7]. Lo studio sul doping genetico, dunque, è cominciato nel 2001, quando la commissione medica del Comitato Olimpico Internazionale si riunì per discutere le possibili implicazioni della terapia genica ossia l’impiego di terapie geniche in via di sviluppo per il trattamento di patologie degenerative, a scopo dopante. Tale lavoro è stato proseguito dalla WADA (World Anti Doping Agency), che ha promosso diverse iniziative in questo senso, tra cui la predisposizione di una lista di sostanze proibite, il finanziamento di specifici progetti di ricerca per rilevare nell’individuo la presenza di famaci dopanti e che ha dato la seguente definizione del doping genetico: “uso non terapeutico di cellule, geni ed elementi genetici o della modulazione dell’espressione genetica, con capacità di aumentare le prestazioni atletiche” (AMA-WADA, 2008). 81 SCIENZE DELLA VITA E DELLA SALUTE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 Per meglio comprendere come si possano sfruttare le terapie geniche per il doping occorre approfondire il concetto stesso di terapia genica. STRATEGIE DI TERAPIA GENICA E SOMMINISTRAZIONE DI GENI TERAPEUTICI Nell’approccio alla terapia genica occorre anzitutto comprendere i meccanismi patologici e fisiologici della malattia da curare, individuare il giusto bersaglio cellulare e l’appropriato metodo di trasferimento, ed infine, quando è possibile, creare un modello animale della patologia da curare per effettuare studi preclinici in vivo [2]. Tra le varie strategie di possibile utilizzo possiamo annoverare [2,3,5,7]. · la compensazione genica, ossia l’introduzione di copie funzionali del gene difettivo o assente; · il riparo genico o correzione del gene difettivo; · l’inattivazione cioè introduzione di DNA e RNA antisenso per inibire l’espressione genica; · la terapia anti-angiogenica di interruzione del nutrimento ai tumori; · la terapia anticorpale ossia l’ introduzione di geni che producono anticorpi intracellulari; · la terapia anti-infiammatoria o prevenzione del riconoscimento dei tessuti da parte dell’organismo; · la vaccinazione o introduzione di geni che inattivano agenti infettivi; · le terapie cellulari: trapianto di cellule geneticamente modificate. La terapia genica può essere utilizzata sia su cellule somatiche, modificando in tal modo il genoma di specifici tessuti come i muscoli, sia su cellule della riproduzione o germinali. Con il trasferimento genico su linee cellulari somatiche, si modifica il genoma di tessuti (muscoli, polmoni, cervello, ossa, reni, cuore etc.), senza che questa modificazione venga trasmessa alla generazione successiva; l’alterazione genetica riguarda esclusivamente il paziente su cui è stata realizzata. Ciò non significa che tale terapia sia priva di rischi. Ora si sta studiando quali possano essere le complicazioni derivanti dell’inserzione casuale di un gene estraneo nel genoma; secondo il vettore che si utilizza, i rischi possono essere più o meno elevati, determinando così le indicazioni e le controindicazioni di un dato trattamento [7]. L’applicazione di queste tecniche al doping genetico è proibita ed in particolare sono proibiti i seguenti metodi che hanno la potenziale capacità di migliorare la performance atletica attraverso: · il trasferimento di polimeri di acidi nucleici o di analoghi di acido nucleico · l’utilizzo di cellule geneticamente modificate Se si trasferisce un gene ad una linea cellulare germinale, la modifica che si apporta al genoma verrà trasmessa alle generazioni successive attraverso le stesse cellule germinali (spermatozoi e ovuli). Attualmente è impossibile controllare completamente le alterazioni genetiche che vengono apportate da un trasferimento genico, di conseguenza si rischia di provocare delle anomalie fisiologiche che verrebbero trasmesse alle generazioni successive; inoltre, l’alterazione di materiale genetico ereditabile pone una serie di interrogativi dal punto di vista etico e morale. Per queste ragioni, la modificazione genetica di linee cellulari germinali non viene considerata una strategia adottabile, e la sua sperimentazione clinica è vietata legalmente in quasi tutti i paesi del mondo [2]. MECCANISMO DI AZIONE DELLA TERAPIA GENICA Il meccanismo di azione della terapia genica si esplica attraverso tecniche di trasferimento di geni modificati nel genoma umano con l’utilizzo di speciali vettori [8]. Metodi di trasferimento I metodi di trasferimento del materiale genetico possono essere (Figura 1): Ex vivo o in vitro Figura 1 82 SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE Le cellule bersaglio sono prelevate dal paziente, coltivate e modificate geneticamente in laboratorio e quindi reintrodotte nello stesso individuo. Questa tecnica è molto efficiente, non crea problemi di tipo immunologico ma può essere utilizzata solo per alcune malattie immunologiche, ematologiche e metaboliche. Un possibile utilizzo ipotizzabile nella tecnica ex vivo del doping genetico consiste nel modificare l’emopoiesi agendo direttamente sul tessuto emopoietico. In vivo locale o in situ o in vivo topico Il materiale genetico, prodotto con l’introduzione di vettori, rilascia un fattore terapeutico in una specifica parte del corpo attraverso una somministrazione intra-tissutale. Questa tecnica è efficace solo per la cura dei tumori localizzati, per le patologie del cervello, dell’apparato scheletrico e muscolare e del tessuto cutaneo. Un possibile utilizzo del doping genetico nella tecnica in vivo locale, consiste nell’agire direttamente sul muscolo (in particolare sui fattori di crescita o sui modificatori di fibre o sui cardio modulatori) oppure sulle articolazioni (in particolare sugli inibitori dell’infiammazione, sui fattori di riparo o sui recettori del dolore). In vivo sistemico La proteina prodotta dal transgene ottenuta con l’introduzione di vettori contenenti materiale genetico viene somministrato direttamente per via sistemica endovena o intra arteriosa o per inalazione nel corpo del paziente. Questa tecnica si utilizza per arrivare a cellule e tessuti poco accessibili ma è meno efficiente per l’attraversamento di svariate barriere organiche. Un possibile utilizzo ipotizzabile nella tecnica sistemica del doping genetico, consiste nell’ impiegare a livello vascolare, fattori ormonali, anabolizzanti e killer del dolore. Mezzi di trasferimento Per trasferire i geni modificati nel genoma umano si utilizzano diversi trasportatori, i cosiddetti “vettori”. Il materiale genetico può essere trasportato da appositi vettori che possono essere virus o vettori non mediati da virus: Vettori Virali Il materiale genetico può essere trasferito a cellule in coltura o in vivo agli esseri viventi usando i virus che, durante l’evoluzione, hanno sviluppato sistemi molto efficienti per introdurre il loro genoma (patrimonio genetico) in cellule per completare il loro ciclo vitale e generare altri virus. I virus utilizzati a questo scopo vengono modificati in modo da avere difetti di replicazione che gli consentano di introdurre contemporaneamente il gene di scelta ed elementi di regolazione che ne controllino l’espressione e ne assicurino l’inserimento nel tessuto corretto. L’utilizzo dei vettori virali risulta altamente efficiente nel trasferimento genico, ma può anche portare a reazioni immunitarie, tossicità ed eventuale mutagenesi. [9]. I virus più comunemente impiegati sono adenovirus, retrovirus e lentivirus. Gli adenovirus, virus a DNA, sono i vettori migliori da usare quando le cellule che si vogliono raggiungere sono quelle del tessuto muscolare scheletrico, in particolare quelli di generazione avanzata che evitano rischi pro-infiammatori [9]. I retrovirus, virus ad RNA, hanno la particolare proprietà di inserire il loro genoma portando una modificazione permanente nel genoma dell’ospite, a differenza di altri virus che non integrano il loro genoma nel nucleo delle cellule ospiti e il gene scelto si perde nelle successive divisioni [10]. I lentivirus appartengono alla famiglia dei retrovirus di cui condividono la morfologia e il ciclo replicativo ma a differenza dei precedenti, possono infettare anche cellule non proliferanti come le cellule differenziate. Un possibile limite è dato dalla risposta immunitaria dell’ospite che può bloccare gli effetti di una ripetuta “somministrazione” di virus contente il materiale genetico da trasferire [11]. Vettori non virali I sistemi non virali di inserzione di materiale genico prevedono l’iniezione diretta del DNA nel nucleo della cellula ospite oppure di liposomi che trasportano il DNA; i liposomi hanno bassa immunogenicità ma sono poco efficienti nel rilascio genico in vivo ed hanno difficoltà a rilasciare il DNA nel nucleo. Tutti i vettori non virali sono relativamente facili da preparare, meno costosi, presentano una tossicità inferiore, ma minore efficienza rispetto a quelli virali, in quanto sono instabili nella maggior parte dei tessuti e possono essere utilizzati in vivo solo per tessuti superficiali [12]. Queste sono in sintesi le caratteristiche che deve avere un vettore ideale: · di facile produzione e in elevate quantità · sicuro, cioè inerte dal punto di vista immunologico · selettivo per determinati tipi cellulari · capace di trasportare geni piccoli e grandi · capace di infettare sia cellule in divisione che quiescenti DALLA TERAPIA GENICA AL DOPING GENETICO Il doping genetico sfrutta la terapia genica per migliorare le performance degli atleti e per farlo può modificare selettivamente una cellula o un gene, oppure rimodulare un recettore alla regolazione specifica dell’espressione di un gene dopo il trasferimento genico, oppure utilizzare specifici ormoni o anticorpi per stimolare o inibire l’espressione di un gene [1,7]. Potremmo schematicamente individuare tre livelli di doping genetico (Figura 2) poiché la manipolazione genetica può avvenire: · prima della competizione: in tal caso l’effetto è di tipo anabolizzante · durante la competizione: si somministrano sostanze che migliorano la performance · dopo la competizione attraverso l’uso di sostanze di riparo Gli studi effettuati negli ultimi vent’anni evidenziano le varie tipologie di geni le cui modifiche hanno indotto un aumento della resistenza alla fatica oppure un aumento della 83 SCIENZE DELLA VITA E DELLA SALUTE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 Figura 2 massa muscolare [8]. Ecco alcuni esempi di geni modificati attraverso il doping genetico per l’aumento della resistenza e della massa muscolare. I geni coinvolti nell’aumento della resistenza allo sforzo fisico o al dolore sono i seguenti: 1) L’ EPO (Eritropoietina), è un regolatore fisiologico della produzione di globuli rossi che dunque stimola l’eritropoiesi. Viene prodotta soprattutto nel rene in risposta all’ipossia e al cloruro di cobalto. In alta montagna a partire dai 3000 metri di altitudine si instaura la cosiddetta “acclimatazione ventilatoria”, caratterizzata da evidente aumento della ventilazione polmonare a riposo. L’esercizio fisico, sia in ipossia acuta che cronica, determina iperventilazione molto più elevata. L’iperventilazione oltre ad avere l’effetto di aumentare la quantità di ossigeno disponibile per i tessuti, provoca un aumento dell’eliminazione di anidride carbonica con l’espirazione. Dopo circa 15 giorni di permanenza in quota si verifica un aumento progressivo della concentrazione dei globuli rossi nel sangue circolante (poliglobulia), tanto più marcato quanto più elevata è la quota, raggiungendo i massimi valori dopo circa 6 settimane. Tale fenomeno rappresenta un ulteriore tentativo da parte dell’organismo di compensare gli effetti negativi dell’ipossia. Infatti, la ridotta pressione parziale d’ossigeno nel sangue arterioso provoca un’aumentata secrezione dell’ormone eritropoietina che stimola il midollo osseo ad incrementare il numero di globuli rossi, così da permettere all’emoglobina in essi contenuta, di trasportare una maggiore quantità di O2 ai tessuti. Inoltre insieme ai globuli rossi aumentano anche la concentrazione di emoglobina [Hb] ed il valore dell’ematocrito (Hct), cioè del volume percentuale di cellule del sangue in rapporto alla sua parte liquida (plasma). Sotto lo stimolo dell’ipossia acuta la frequenza cardiaca aumenta, per compensare con un maggior numero di battiti al minuto, la minore disponibilità di ossigeno, mentre cala la gittata sistolica (diminuisce cioè la quantità di sangue che il cuore pompa ad ogni battito). Nell’ipossia cronica la fre84 quenza cardiaca ritorna ai valori normali. Nel complesso, gli studi indicano quindi che, dopo l’acclimatazione, si verifica un significativo aumento dell’emoglobina (Hb) e dell’ematocrito (Hct). Lo stimolo ipossico (naturale o artificiale) di durata adeguata produce, quindi, un reale incremento della massa eritrocitaria, seppure con una certa variabilità individuale. Ai fini del miglioramento della performance, tuttavia, è probabile che intervengano altri adattamenti periferici, come una maggiore capacità da parte del tessuto muscolare di estrarre ed utilizzare ossigeno. Questa affermazione è vera sia in soggetti sedentari che in atleti. I livelli di EPO in condizioni di ipossia stimolata geneticamente aumentano in maniera significativa e continuano a salire per circa tre ore anche dopo che è terminato lo stimolo ipossico per poi ridursi con una emivita di circa 5.2 h. [13] [14] L’Eritropoietina ricombinante è abusata in alcuni sport di resistenza, come ad esempio il ciclismo [15] in quanto stimola la poliglobulia, ovvero un maggior numero di globuli rossi con conseguente aumento della capacità di trasportare ossigeno ai tessuti. Tale alterazione può senz’altro migliorare le prestazioni atletiche. Studi preclinici hanno dimostrato che tale gene può essere introdotto con successo negli animali come scimmie e roditori [16] [17] ove la terapia genica con EPO incrementa il valore dell’ematocrito fino all’80% anche se sono stati descritti diversi effetti avversi tra i quali, paradossalmente, l’anemia [18]. 2) La HIF (Hypoxia Inducible Factor) proteina che attiva i fattori indotti dall’ipossia modifica l’assunzione dell’ossigeno disponibile. L’HIF è una proteina contenuta nel nucleo cellulare che svolge un ruolo fondamentale nella trascrizione genica in risposta all’ipossia. E’ infatti un fattore di trascrizione che codifica per le proteine coinvolte nella risposta ipossica ed è fondamentale per la sintesi dell’eritropoietina. In condizioni di ipossia la via del sensore di ossigeno (per molte cellule è rappresentato dal citocromo C-Ossidasi) è bloccata, quindi l’HIF aumenta. Con l’utilizzo di questa proteina ricombinante sono stati riscontrati disturbi cardiocircolatori anche fatali. [19]. SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE 3) Il PPARdelta, (Peroxisome Proliferator-Activated Receptor delta) recettore attivante la proliferazione dei perossisomi -, codifica gli enzimi di ossidazione degli acidi grassi. Tale fattore è coinvolto in alcune modificazioni del metabolismo energetico ed è associato alla formazione delle fibre muscolari di tipo I (fibre lente, che determinano la resistenza) e può indurre anche la conversione da fibre di tipo II (fibre veloci, che determinano la velocità) a fibre di tipo I. Gli atleti in genere hanno alti livelli di fibre di tipo I. L’inserimento del gene PPAR-delta migliora significativamente la resistenza degli animali e contrasta lo sviluppo di obesità migliorando il metabolismo anche in assenza di esercizio. Gli effetti fisiologici di PPAR-delta sono da attribuire alla aumentata capacità da parte del tessuto muscolare di ossidare gli acidi grassi per soddisfare le richieste energetiche dell’organismo [20-21]. Effetti avversi con l’utilizzo di questo recettore ricombinante sono soprattutto le abnormi risposte immunitarie dell’organismo [22]. 4) Il recettore VEGF (Vascular Endothelial Growth Factor) è un fattore di crescita che agisce sull’endotelio vascolare con conseguente miglioramento emodinamico [1]. Esso si lega a recettori specifici presenti sulla membrana delle cellule endoteliali che a seguito di una sequenza di reazioni enzimatiche che prevede la fosforilazione di substrati specifici (trasduzione del segnale) dà come risultato finale la variazione della struttura del citoscheletro delle cellule endoteliali, con la conseguente modificazione della motilità cellulare e miglioramento della circolazione sanguigna. Sono stati segnalati effetti avversi a carico del sistema renale [23]. 5) Le endorfine sono un gruppo di sostanze prodotte dal cervello nel lobo anteriore dell’ipofisi, classificabili come neurotrasmettitori, a struttura peptidica, dotate di proprietà analgesiche e fisiologiche simili a quelle della morfina e dell’oppio, ma con portata più ampia e possono essere prodotte attraverso manipolazione genica per aumentare la “resistenza” al dolore dovuto a sforzo o a lesione. Per favorire l’aumento della massa muscolare: 1) L’ormone della crescita (HGH) regola il controllo della massa muscolare; l’ormone della crescita o growth hormone ha un ruolo fondamentale nella crescita prima della pubertà essendo responsabile della promozione dello sviluppo longitudinale di ossa e muscoli. Oltre che per la sua attività anabolizzante e di stimolo nell’aumentare la massa muscolare, il GH è implicato anche nella riduzione della massa grassa per i suoi effetti di lipolisi o catabolismo lipidico, un processo metabolico che comporta la scissione di trigliceridi e il rilascio di acidi grassi nel sangue. Questo processo permette la liberazione di calorie dal tessuto adiposo, che sono utilizzate come fonte di energia metabolica dai muscoli, e causa una perdita di peso. Il GH è sintetizzato dall’ipofisi sotto il controllo di altri ormoni prodotti dall’ipotalamo, uno che ne stimola la secrezione e uno, la somatostatina, che ne inibisce la liberazione. Il GH viene rilasciato in maniera intermittente e generalmente la maggiore produzione si ha la notte durante le fasi del sonno profondo. I picchi di secrezione si hanno durante l’adolescenza, e diminuiscono con l’età. Gli stimoli fisiologici per stimolare la produzione di GH, oltre al sonno, sono l’esercizio, lo stress e il digiuno. Solo una piccolissima frazione di ormone della crescita è eliminato dai reni con le urine (1/10,000). Il GH viene metabolizzato nel fegato (cioè trasformato in altre molecole o metaboliti) e in altri tessuti; ha una vita media nel plasma molto breve di circa 15 minuti. Lo stesso avviene quando il GH viene somministrato ed è, quindi, molto difficile rintracciarlo nel nostro organismo, per questo è molto utilizzato nel doping. Oggi il GH viene prodotto in laboratori specializzati utilizzando la tecnica del DNA ricombinante (rhGH). Nonostante i costi particolarmente elevati ed i fattori di rischio tumorale la popolarità del GH è cresciuta molto in questi ultimi anni; il suo utilizzo è stato infatti esteso non solo nell’ambito sportivo ma anche alle terapie anti-invecchiamento (soprattutto negli Stati Uniti) [24]. 2) Il fattore di crescita IGF-1 (Insulin-like Growth Factor-1) è un peptide la cui sintesi è stimolata nel fegato dall’ormone della crescita (GH) ed è coinvolto nella crescita e nel riparo muscolare. Gli studi sui roditori hanno chiaramente dimostrato che l’IGF-1 introdotto negli animali da laboratorio, mediante un vettore virale, controlla lo sviluppo muscolare producendo una ipertrofia muscolare, con aumento della forza del 15% e della capacità di riparo muscolare. Il gene in questo caso è stato introdotto solo localmente nel tessuto muscolare scheletrico evitando gli effetti tossici sistemici. Questa stessa efficienza e assenza di tossicità non è stata però riprodotta in altre specie animali. La ricerca dunque in questo caso si propone di raggiungere effetti GH/IGF1-simili, con lo scopo di promuovere, se possibile selettivamente, la crescita della massa muscolare [25]. Effetti avversi sono gli stessi riscontrati nell’utilizzo del GH ricombinante ossia l’insorgenza di tumori [26]. L’ipertrofia muscolare può essere stimolata anche dalla proteina legante il fattore di crescitainsulino simile (IGFBP) che esercita il controllo della crescita muscolare. 3) La miostatina, conosciuta come una proteina enzimatica che limita la crescita muscolare negli esseri viventi inibendo lo sviluppo muscolare, è un altro candidato al doping genetico. Sostanze che bloccano la miostatina o geni che producono una miostatina funzionalmente difettosa consentono una crescita soprafisiologica della muscolatura provocando sia un aumento del numero sia delle dimensioni delle fibre muscolari striate, come si osserva in alcuni bovini portatori di una mutazione congenita della miostatina che ne inibisce l’attività. La manipolazione di questa proteina regolatrice potrebbe portare ovvi vantaggi agli atleti. Una terapia genica con l’introduzione del un gene mutato per aumentare la massa muscolare si è rivelata finora efficace in modelli animali affetti da distrofia muscolare, ma non ancora soddisfacenti nell’uomo [27-28]. Al momento si sono verificate spesso rotture tendinee o muscolari con l’utilizzo di queste tecniche ricombinanti [29]. 4) L’ACTN3 è un gene che attiva la proteina legante l’actinina, aumentando le fibre muscolari a contrazione veloce e 85 SCIENZE DELLA VITA E DELLA SALUTE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 dunque la massa dei muscoli scheletrici. In sintesi i principali obiettivi potenziali della terapia genica a fini dopanti appaiono attualmente principalmente i seguenti (tabella 1): 1) ricerca di effetti simili a quelli ottenuti somministrando EPO in quanto negli animali l’EPO incrementa il valore dell’ematocrito fino all’80 % 2) promuovere e migliorare il livello emodinamico andando ad agire sull’endotelio vascolare utilizzando il VEGF. 3) ricerca di effetti IG/IGF1 simili allo scopo di promuovere selettivamente la crescita della massa muscolare 4) aumentare la massa muscolare attraverso il blocco selettivo della miostatina, in quanto negli animali tale percorso è risultato efficace nella cura alla distrofia muscolare. rapia genica alcuni di questi pazienti hanno sviluppato gravi risposte immunitarie ed altri hanno sviluppato disturbi di tipo leucemico [30]. Un ulteriore effetto dannoso può essere quello a cui sono sottoposti pazienti cui viene somministrata EPO ricombinante; infatti un abuso di EPO attraverso i farmaci è regolarmente reversibile non appena si interrompe l’assunzione, ma se avviene mediante l’integrazione di geni EPO aggiuntivi, i livelli di eritrociti saranno eccessivi per tutta la vita e di conseguenza, ciò aumenterebbe l’insorgenza di disturbi tromboembolitici ed altri danni permanenti di tipo cardiovascolare [14]. FATTORI DI RISCHIO DEL DOPING GENETICO La nuova minaccia del doping genetico ha cominciato a essere discussa dalla World Anti-Doping Agency (WADA) nel 2002 molto prima che potesse diventare un pericolo reale [31]. Le implicazioni di questi interventi sul patrimonio genetico per modificare i parametri biologici correlati forza, potenza e resistenza interessano non solo i medici e i ricercatori ma anche gli allenatori e gli atleti stessi che cercano in tutti i modi possibili di migliorare le proprie prestazioni fisiche. Per il momento la manipolazione genetica per migliorare le prestazioni sportive è più teorica che verificata da studi sperimentali nell’uomo. La WADA ha però già posto tra i metodi proibiti il trasferimento di acidi nucleici o di sequenze di acido nucleico e l’utilizzo di cellule normali o geneticamente modificate. Il doping genetico è di difficile individuazione durante i controlli anti-doping. Infatti, le proteine prodotte dal trasferimento genico sarebbero indistinguibili da quelle endogene normali. In molti casi i geni e i loro prodotti rimarrebbero all’interno di un tessuto (ad esempio il tessuto muscolare) I potenziali rischi per la salute associati al doping, in generale, riguardano molteplici organi: il cuore, i reni, il fegato con conseguente sviluppo di tumori[7]. Per quanto riguarda il doping genetico come per qualsiasi intervento di terapia genica il rischio comprende lo sviluppo di una risposta immunitaria violenta ai vettori virali, riposte autoimmuni verso le proteine codificate dal gene introdotto, e la possibilità di patologie derivanti da mutazioni che possono insorgere in seguito all’inserimento del gene con effetti avversi anche gravi. I pazienti sottoposti all’IGF-1, dopo il trasferimento del gene, aumentano il rischio di sviluppare il cancro e di esso ne incrementano la crescita [25-26]. Nel caso di aumento di massa muscolare dovuto ad un’elevata espressione dell’IGF-1 o derivante da un blocco della miostatina si possono generare rotture muscolari e/o tendinee da sovraccarico [27-28-29]. Un altro effetto avverso inaspettato è stato descritto in alcuni pazienti affetti da grave immunodeficienza. Dopo late- CONTROLLI ANTI DOPING GENETICO Tabella 1: Obiettivi potenziali della terapia genica a fini dopanti Gene modificato per doping genetico Organo bersaglio Prodotto del gene Risposta fisiologica ACTN3 Muscoli scheletrici Proteine leganti l’actina Coinvolto nelle fibre muscolari a contrazione veloce Endorfine Sistema nervoso centrale e periferico peptidi ampiamente attivi Modulazione del dolore EPO Sistema emopoietico Ormone glicoproteico Aumenta la massa RBC e la resa di ossigeno HGH Sistema endocrino aminoacido 191 Accelera il sistema endocrino HIF Sistema ematologico ed immunologico Multisubunità proteica Regola la trascrizione per l’ipossia - elemento di risposta IGF-1 Muscoli scheletrici/Sistema endocrino aminoacido 70 Aumenta la dimensione del muscolo scheletrico e accelera il sistema endocrino Miostatina Muscoli scheletrici 2-subunità proteica Aumenta le dimensioni e la resistenza del muscolo scheletrico PPAR-delta Muscoli scheletrici e tessuto adiposo proteina recettore dell'ormone Favorisce il metabolismo dei grassi e aumenta Il numero di contrazione delle fibre VEGF Endotelio vascolare Omodimeri leganti disulfide glicosilati Induce sviluppo di nuovi vasi sanguigni Abbreviazioni: ACTN3, actinin binding protein 3; EPO, erythropoetin; HGH, human growth factor; HIF, hypoxia inducible factor; IGF-I, insulin-like growth factor; PPAR-delta, peroxisome proliferators-activated receptor (delta); VEGF, vascular endothelial growth factor. (Gaffney, Parisotto, 2007) 86 SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 | SCIENZE DELLA VITA E DELLA SALUTE rendendo difficile l’individuazione nel sangue e nelle urine. Per questi motivi il doping genetico rappresenta un richiamo irresistibile per gli atleti che assumono sostanze per migliorare le prestazioni sportive, rischiando di andare incontro a effetti avversi e che possono talora rivelarsi letali [32] [33]. I problemi dell’individuazione di nuovi metodi di doping genetico dunque sono tanti e principalmente etici ed economici: infatti i test di indagine stanno diventando molto dispendiosi e troppo invasivi. Ad esempio spesso occorre una biopsia o comunque l’estrazione di un campione di tessuto per individuarli, tecnica comunque troppo invasiva da sottoporre all’atleta che difficilmente presterebbe il consenso ad attivarla [7] [34]. Per poter arginare l’avvento del doping genetico recentemente è stato introdotto il concetto di passaporto biologicomolecolare al fine di individuare i geni, introdotti nell’organismo, codificanti le proteine necessarie per migliorare le prestazioni sportive [35]. Si tratta di un documento elettronico individuale in cui sono inseriti i dati biologici e cioè ematologici, steroidei ed endocrinologici dell’atleta sospettato di aver assunto sostanze dopanti. La determinazione periodica dei livelli di espressione di questi geni potrebbe consentire di definire un pattern di espressione specifico per ciascun atleta che si sottopone ad analisi riscontrando DNA estraneo nel sangue periferico, ma tale indagine vale solo entro circa 60 gg dalla eventuale somministrazione della sostanza dopante. In questo modo il riscontro di alterazioni del pattern di espressione di questi geni può essere considerato sospetto di doping genetico. CONCLUSIONI Occorre naturalmente agire anche in ambito preventivo per evitare la pratica del doping, sia esso farmacologico o genetico [36]. Il primo passo da percorrere verso la strada della prevenzione è sicuramente la diffusione della conoscenza del fenomeno, in particolar modo sui suoi effetti negativi sulla salute [37].. E’necessario che le comunità mediche e sportive e tutti gli stakeholders utilizzino le proprie risorse economiche per favorire la ricerca su nuovi metodi dopanti per incrementare i test antidoping e adottino comuni strategie per prevenirne l’utilizzo, sia esso genetico che non, promuovendo in ogni modo possibile i valori dello sport come strumento di crescita sana e leale dell’individuo, in particolare attraverso campagne di informazione e di sensibilizzazione partendo soprattutto dalle più giovani fasce di età e utilizzando tutti gli strumenti di comunicazione di massa come i social network, per la tutela della salute nelle attività sportive. BIBLIOGRAFIA Jafarlou M, Baradaran B, Saedi TA, Jafarlou V, Shanehbandi D, Maralani M, Othman F (2016) An overview of the history, applications, advantages, disadvantages and prospects of gene therapy. J Biol Regul Homeost Agents 30(2):315-21. Kumar SR , Markusic DM, Biswas M, High KA, Herzog RW (2016) Clinical development of gene therapy: results and lessons from recent successes. Mol Ther Methods Clin Dev May 25;3:16034. Beytia, M. D. L. A., Vry, J., & Kirschner, J (2012) Drug treatment of Duchenne muscular dystrophy: available evidence and perspectives. Acta Myologica 31(1): 4 Fakhfakh, R., Michaud, A., & Tremblay, J. P (2011) Blocking the myostatin signal with a dominant negative receptor improves the success of human myoblast transplantation in dystrophic mice. Molecular Therapy 19(1): 204-210 Azzazy et al (2005) Doping in the recombinant era: strategies and counterstrategies. Clin Biochem 38 (11): 959-65 Santamaria S (2015) Sport: dai valori al Doping - Scienze e Ricerche - 4819-8 Santamaria, S., Ascione, A., Tafuri, D., & Mazzeo, F (2013). Gene doping: biomedical and law aspects of genetic modification of athletes. Med Sport 17(4):193-99 Roland W. Herzog, Ou Cao, and Arun Srivastava (2010) Two Decades of Clinical Gene Therapy – Success Is Finally Mounting. Discov. Med (45): 105-111 Zhou S, Murphy JE, Escobedo JA (1998) Adeno-associated virus-mediated delivery of erythropoietin leads to sustained elevation of hematocrit in nonhuman primates. Gene Therapy 5(5):665-70 Bushman FD1 (2007) Retroviral integration and human gene therapy - J Clin Invest 117(8):2083-6 Rothe M, Modlich U, Schambach A (2013) Biosafety challenges for use of lentiviral vectors in gene therapy. Curr Gene Ther 13(6):453-68 Murali Ramamoorth and Aparna Narvekar (2015) Non Viral Vectors in Gene Therapy- An Overview . J Clin Diagn. Res Jan 9 (1): GE01–GE06 Neuberger, E. W., Perez, I., Le Guiner, C., Moser, D., Ehlert, T., Allais, M., & Snyder, R. O (2016) Establishment of two quantitative nested qPCR assays targeting the human EPO transgene. Gene therapy 23(4):330-9 John MJ, et al. Erythropoietin use and abuse (2012) Ind J End Met 16(2):220-7 Svensson EC, et al. (1997) Long-term erythropoietin expression in rodents and non-human primates following intramuscular injection of replication-defective adenoviral vector. Hum Gene Ther 8(15):1797-806 Chenuaud P, et al. (2004) Autoimmune anemia in macaques following erythropoietin gene therapy. Blood 103(9):3303-4 Gao G, et al. (2004) Erythropoietin gene therapy leads to autoimmune anemia in macaques. Blood 103(9):3300-2 Lasne F, et al. Genetic doping with erythropoietin cDNA in primate muscle is detectable (2004) Mol Ther 10(3):40910 Pugh CW, Ratcliffe P.J. (2003) Regulation of angiogenesis by hypoxia: role of the HIF system. Nat Med Jun 9 (6): 87 SCIENZE DELLA VITA E DELLA SALUTE | SCIENZE E RICERCHE • N. 36 • 1° SETTEMBRE 2016 677-84 Grimaldi PA. (2005) Regulatory role of peroxisome proliferator-activated receptor delta (PPAR delta) in muscle metabolism. A new target for metabolic syndrome treatment? Biochimie 87(1):5-8 Wang YX, et al. (2004) Regulation of muscle fiber type and running endurance by PPARdelta. PLoS Biol 2(10): 294 Takahashi S, et al (2006) Peroxisome proliferator-activated receptor delta (PPARdelta), a novel target site for drug discovery in metabolic syndrome. Pharmacol Res 53(6):501-7 Schrijvers BF1, Flyvbjerg A, De Vriese AS (2004) The role of vascular endothelial growth factor (VEGF) in renal pathophysiology - Kidney Int 65(6):2003-17 Wideman L1, Weltman JY, Hartman ML, Veldhuis JD, Weltman A (2002) Growth hormone release during acute and chronic aerobic and resistance exercise: recent findings - Sports Med 32(15):987-1004 Lee S, et al. (2004)Viral expression of insulin-like growth factor-I enhances muscle hypertrophy in resistance-trained rats. J Appl Physiol 96(3):1097-104 Barton-Davis ER, et al. (1998) Viral mediated expression of insulin-like growth factor I blocks the aging-related loss of skeletal muscle function. Proc Natl Acad Sci U S A 95(26):15603-7 McPherron AC, Lee SJ (1997) Double muscling in cattle due to mutations in the myostatin gene. Proc Natl Acad Sci U S A 94(23):12457-61 88 Schuelke M, et al. (2004) Myostatin mutation associated with gross muscle hypertrophy in a child. N Engl J Med 350(26):2682-8 Bogdanovich S, et al. (2002) Functional improvement of dystrophic muscle by myostatin blockade. Nature 420(6914):418-21 Woods NB, et al (2006) Gene therapy: therapeutic gene causing lymphoma. Nature 440(7088):1123. Van der Gronde, T., de Hon, O., Haisma, H. J., & Pieters, T (2013) Gene doping: an overview and current implications for athletes. British journal of sports medicine 47(11): 670678 Callaway E. Sports doping: Racing just to keep up (2011) Nature 475(7356):283-5 Körner, S., & Symanzik, T. Gene doping–challenge for sport and society (2016). Pharmakon 4(1):36-42. Gould, D. Gene doping: gene delivery for olympic victory (2013). British journal of clinical pharmacology 76(2): 292-298 Sottas PE1, Vernec A (2012) Current implementation and future of the Athlete Biological Passport - Bioanalysis. (2012) Jul;4(13):1645-52. doi: 10.4155/bio.12.130 Fischetto, G., & Bermon, S (2013) From gene engineering to gene modulation and manipulation: can we prevent or detect gene doping in sports? Sport Med 43(10): 965-977 Gaffney, Parisotto, (2007) Gene Doping: A Review of Performance-Enhancing Genetics Pediatric Clinics of North America 54(4):807-22