marzo 2015 - Scienze e Ricerche
Transcript
marzo 2015 - Scienze e Ricerche
ISSN 2283-5873 Scienze e Ricerche SR MENSILE - N. 5 - MARZO 2015 5. www.ferroantoninomaria.com i libri di Antonino Maria Ferro Antonino Maria Ferro (Mazara del Vallo 1967) è diplomato in Elettrotecnica presso l’istituto tecnico industriale di Mazara del Vallo, ha lavorato in diversi campi dell’industria e ha frequentato corsi di informatica e sicurezza. Attualmente si dedica allo studio di nuove fonti energetiche e lavora presso l’istituto scolastico “San Gaspare Bertoni” di Udine. 5. Sommario COPERTINA ELISABETTA STRICKLAND Essere donna e fare scienza in Italia: un’impresa difficile LUCIANO CELI L’orologio del cambiamento climatico ROBERTO FIESCHI 5 2015. L’anno della luce DAVIDE SCHIFFER Memoria e oblio 69 GIORGIO BIANCIARDI Fisica del caos: un’introduzione storica ERMINIO GIAVINI Teratologia: la tossicologia dello sviluppo embrionale TULLIO SCRIMALI Neuroscienze applicate e terapia integrata del disagio psichico I fattori di crescita del maxillo facciale MICHELE MOSSA Processi di mescolamento e trasporto di inquinanti in acqua GAETANO OLIVA Le arti espressive come pedagogia della creatività GRAZIELLA TONFONI La divulgazione in aree scientifiche di temi interdisciplinari ALESSANDRA JACOMUZZI Errori, illusioni o incantesimi? La gestione dei risparmi ROSSANO PAZZAGLI Gli alberi lungo le strade. Una questione storica e ambientale PAOLO FRASCAROLO E STEFANO PROTTI Gianfranco Mattei. Chimico, partigiano, cittadino FRANCO RIVA Una libertà fragile. Gabriel Marcel e Jean-Paul Sartre DECIO COCOLICCHIO Sul Premio Nobel ad Einstein ALDO ZANCA Economia e/o etica ANNAMARIA MUOIO E GIUSEPPE ANTONIO PABLO CIRRONE Il Centro di AdroTerapia e Applicazioni Nucleari Avanzate di Catania BARBARA MISSANA Le nuove frontiere della scienza applicata all’arte: la Neuroestetica CLAUDIO PALUMBO L’importanza delle competenze trasversali 112 ANGELO ARIEMMA I migliori anni della nostra vita pag. 7 pag. 9 pag. 11 pag. 15 pag. 19 pag. 25 pag. 30 pag. 33 pag. 45 pag. 52 pag. 56 pag. 59 pag. 66 pag. 69 pag. 78 pag. 81 pag. 87 pag. 88 pag. 91 pag. 93 pag. 97 RICERCHE LINO MIRAMONTI Il sole studiato in tempo reale col rivelatore di neutrini borexino SILVIA AROSSA L’inquinamento dell’ambiente marino: la plastica e i suoi effetti ELISA CECCONI Una medicina per l’uomo. La riflessione di Viktor von Weizsäcker DONATELLA DI CORRADO n. 5 marzo 2015 5 CONTRIBUTI E INTERVENTI BARTOLOMEO VALENTINO 81 pag. pag. 101 pag. 106 Come si allena l’attenzione nel gioco del calcio? pag. 112 IL COMITATO SCIENTIFICO 3 N. 5 - MARZO 2015 ISSN 2283-5873 Scienze e Ricerche n. 5, marzo 2015 Coordinamento • Scienze matematiche, fisiche e naturali: Vincenzo Brandolini, Claudio Cassardo, Alessandra Celletti, Alberto Facchini, Savino Longo, Paola Magnaghi Delfino, Giuseppe Morello, Annamaria Muoio, Andrea Natali, Marcello Pelillo, Marco Rigoli, Carmela Saturnino, Roberto Scandone, Franco Taggi, Benedetto Tirozzi, Pietro Ursino • Scienze biologiche e della salute: Riccardo N. Barbagallo, Cesario Bellantuono, Antonio Brunetti, Davide Festi, Maurizio Giuliani, Caterina La Porta, Alessandra Mazzeo, Antonio Miceli, Letizia Polito, Marco Zaffanello, Nicola Zambrano • Scienze dell’ingegneria e dell’architettura: Orazio Carpenzano, Federico Cheli, Massimo Guarnieri, Giuliana Guazzaroni, Giovanna La Fianza, Angela Giovanna Leuzzi, Luciano Mescia, Maria Ines Pascariello, Vincenzo Sapienza, Maria Grazia Turco, Silvano Vergura • Scienze dell’uomo, filosofiche, storiche e letterarie: Enrico Acquaro, Angelo Ariemma, Carlo Beltrame, Marta Bertolaso, Sergio Bonetti, Emanuele Ferrari, Antonio Lucio Giannone, Domenico Ienna, Rosa Lombardi, Gianna Marrone, Stefania Giulia Mazzone, Antonella Nuzzaci, Claudio Palumbo, Francesco Randazzo, Luca Refrigeri, Franco Riva, Mariagrazia Russo, Domenico Russo, Domenico Tafuri, Alessandro Teatini, Patrizia Torricelli, Agnese Visconti • Scienze giuridiche, economiche e sociali: Giovanni Borriello, Marco Cilento, Luigi Colaianni, Agostina Latino, Elisa Pintus, Erica Varese, Alberto Virgilio, Maria Rosaria Viviano Un numero in formato elettronico: 6,00 euro Un numero in formato cartaceo: 9,00 euro Abbonamenti in formato elettronico: • annuale (12 numeri): 37,00 euro • semestrale (6 numeri): 19,00 euro Abbonamenti in formato cartaceo (comprensivo del formato elettronico): • annuale (12 numeri): 72,00 euro • semestrale (6 numeri): 39,00 euro L’acquisto di estratti in formato cartaceo (min. 10 copie) va concordato con la segreteria Il versamento può essere effettuato: • con carta di credito, utilizzando il servizio PayPal accessibile dai siti www.associazioneitalianadellibro.it www.scienze-ricerche.it • versamento con collettino di contto crrente postale sul conto corrente postale n. 1012061907 intestato all’Associazione Italiana del Libro, Via Giuseppe Rosso 1/a, 00136 Roma (specificare la causale) • bonifico sul conto corrente postale n. 1012061907 intestato all’Associazione Italiana del Libro, Via Giuseppe Rosso 1/a, 00136 Roma IBAN: IT39I0760103200001012061907 4 La pubblicazione di articoli su Scienze e Ricerche è aperta a tutti. Tutti i contributi, a meno che l’autore non ritenga di inibire tale possibilità, vengono pubblicati anche online sul sito www.scienze-ricerche.it, in modalità open access, cioè a libera lettura. La rivista ospita essenzialmente due tipologie di contributi: • interventi, analisi e articoli di divulgazione scientifica (solitamente in italiano). • ricerche e articoli scientifici (in italiano, in inglese o in altre lingue). Gli articoli scientifici seguono le regole della peer review. La direzione editoriale non è obbligata a motivare l’eventuale rifiuto opposto alla pubblicazione di articoli, ricerche, contributi o interventi. Non è previsto l’invio di copie omaggio agli autori. Scienze e Ricerche è anche una pubblicazione peer reviewed. Le ricerche e gli articoli scientifici inviati per la pubblicazione sono sottoposti a una procedura di revisione paritaria che prevede il giudizio in forma anonima di almeno due “blind referees”. I referees non conoscono l’identità dell’autore e l’autore non conosce l’identità dei colleghi chiamati a giudicare il suo contributo. Gli articoli scientifici inviati per la pubblicazione vengono resi anonimi, protetti e linkati in un’apposita sezione del sito. Ciascuno dei referees chiamati a valutarli potrà accedervi esclusivamente mediante password, fornendo alla direzione il suo parere e suggerendo eventuali modifiche o integrazioni. Il raccordo con gli autori sarà garantito dalla redazione. Il parere dei referees non è vincolante per la direzione editoriale, cui spetta da ultimo - in raccordo con il coordinamento e il comitato scientifico - ogni decisione in caso di divergenza di opinioni tra i vari referees. L’elenco dei referees impegnati nella valutazione degli articoli scientifici viene pubblicato con cadenza annuale. Chiunque può richiedere di far parte del collegio dei referees di Scienze e Ricerche allegando alla richiesta il proprio curriculum, comprensivo della data di nascita, e l’indicazione del settore scientifico-disciplinare di propria particolare competenza. Scienze e Ricerche sede legale: Via Giuseppe Rosso 1/a, 00136 Roma Registrazione presso il Tribunale di Roma n. 19/2015 del 2/2/2015 Gestione editoriale: Agra Editrice Srl, Roma Tipografia: Andersen Spa, Boca Direttore responsabile: Giancarlo Dosi www.scienze-ricerche.it [email protected] SCIENZE E RICERCHE • N. 5 • MARZO 2015 | COPERTINA Essere donna e fare scienza in Italia: un’impresa difficile ELISABETTA STRICKLAND Università degli Studi di Roma Tor Vergata S i discute tanto sull’eguaglianza di genere in tutti gli ambiti della vita sociale e professionale, quindi non meraviglia che anche nella ricerca scientifica si cerchi di analizzare cosa è stato fatto e cosa si può fare ancora per superare la barriera costituita dagli stereotipi ed i pregiudizi ereditati da una storia difficile per le donne nella cultura e nella vita civile del nostro paese. E’ necessario infatti ricordare che le scuole pubbliche sono state aperte alle donne solo nel 1874, tanto che intorno al 1900 sono aumentate vistosamente le iscrizioni femminili alle scuole di ogni grado e quindi anche alle università. Ma prima di questo importante giro di boa, l’educazione nelle famiglie era affidata ad insegnanti pagati privatamente, dando sempre la precedenza o addirittura l’esclusiva ai maschi. Oggi le donne rappresentano circa la metà dei laureati in area scientifica nel nostro paese, ma solo un terzo dei ricercatori effettivi e un quinto dei professori di prima fascia nelle università. Sono inoltre in numero esiguo nelle posizioni apicali, sia nelle università che negli enti di ricerca. Il fatto che in passato si sia cercato di tenerle lontano da un centro di potere così importante come il mondo della scienza ha fatto leva su una presunta inferiorità intellettuale della donna, postulata ma ovviamente mai dimostrata. Assodato quindi che le donne già da tempo mostrano di essere in grado di ottenere risultati rilevanti in campo scientifico, sarebbe ora necessario intervenire sulla formazione dei futuri scienziati, occupandosi non solo degli aspetti tecnici, ma anche dei fattori psicologici; con un atteggiamento più positivo nei confronti di sè stesse e dei loro programmi di realizzazione è fatale che le donne possano sostenere più facilmente la competizione maschile. Quindi le politiche di genere non dovrebbero essere imperniate solo sulle seppur utili misure necessarie per conciliare lavoro ed impegni familiari, ma devono anche permettere di lasciare alle spalle alcune visioni tradizionali della carriera; questo è quanto si è rilevato in modo preciso nel corso di un ciclo di seminari organizzati dal Comitato Unico di Garanzia di Ateneo all’inizio di quest’anno all’Università ‘Tor Vergata” a Roma, dedicati al “Work-life balance”, il termine attuale per il problema della conciliazione. Come è noto, le donne tendono a partecipare più attivamente alla ricerca nei primi anni della carriera, mentre con l’avanzare dell’età le ambizioni professionali lasciano spesso il posto a priorità di tipo familiare. E’ proprio la difficoltà nel conciliare l’attività lavorativa con gli impegni familiari ad 5 COPERTINA | SCIENZE E RICERCHE • N. 5 • MARZO 2015 essere percepita dalla maggior parte dei ricercatori come uno dei principali ostacoli alla parità di genere nel settore scientifico. Un secondo ostacolo riguarda invece il già citato atteggiamento autodiscriminatorio delle donne nei confronti del loro ruolo professionale. Più della metà infatti sembra ritenere di non essere in grado di raggiungere le posizioni di maggiore responsabilità, in quanto meno disposte degli uomini a combattere per la propria carriera. E’ quindi vitale superare alcune visioni tradizionali della carriera e della suddivisione dei ruoli. Per fare un esempio concreto, i criteri di reclutamento e incentivazione della carriera dovrebbero riconoscere anche caratteristiche come l’attitudine ad interagire con i propri colleghi, a contribuire alla crescita dei propri collaboratori e a condividere conoscenze ed informazioni, nonchè a premiare un approccio alla ricerca aperto e interdisciplinare, incoraggiando un atteggiamento collaborativo piuttosto che competitivo. E’ fondamentale inoltre combattere la convinzione diffusa che le carriere scientifiche non abbiano la ricaduta sociale che offrono altre tipologie di studi, convinzione smentita dalle indagini statistiche sulla condizione occupazionale dei laureati, secondo le quali il loro grado di occupazione nelle scienze di base a cinque anni dalla laurea risulta essere molto alta, salendo ulteriormente per chi è in possesso di un dottorato di ricerca. Naturalmente questi dati vanno visti in modo globale, cioè il mercato del lavoro va esteso oltre i confini del proprio paese. E’ pertanto falso che questi titoli di studio non siano adeguatamente spendibili sul mercato del lavoro. Anche dal punto di vista della remunerazione, risulta che il salario medio dei laureati in chimica, fisica, biologia e matematica è inferiore solo a quello dei laureati nell’area medica e di ingegneria, mentre è confrontabile con quelli dell’area economica-statistica e politico-sociale. Per avere un’idea di come le cose stiano comunque cambiando, basta guardare a quanto è successo nel 2014. Tre eminenti signore hanno sfatato ogni leggenda volta a screditare il potenziale femminile nella ricerca scientifica, precisamente Mariam Mirzakhani, matematica, vincitrice della 6 prima Fields Medal attribuita ad una donna, Samantha Critoforetti, ingegnera, prima donna italiana lanciata nello spazio ed attualmente a bordo della stazione spaziale internazionale e Fabiola Gianotti, fisica, prima donna nominata Direttore Generale del CERN di Ginevra. Si tratta ovviamente di tre figure femminili notevolissime. Maryam, di origine iraniana, ha una cattedra all’Università di Stanford, guadagnata a soli 29 anni per importanti contributi in geometria iperbolica, teoria ergodica e geometria simplettica. Samantha è aviatrice e astronauta, prima donna italiana negli equipaggi dell’ Agenzia Spaziale Europea, coetanea di Maryam e laureata in ingegneria meccanica all’ Università Tecnica di Monaco, successivamente ammessa all’Accademia Aeronautica di Pozzuoli con conseguente laurea in scienze areonautiche presso la Università Federico II di Napoli ed infine specializzata negli Stati Uniti presso l’Euro-Nato Joint Jet Pilot Training di Wichita Falls in Texas. Infine la fisica Fabiola Gianotti, che dopo la scoperta della prima particella compatibile con il bosone di Higgs nel luglio 2012, si è guadagnata vari titoli accademici ed una copertina su Time Magazine. L’anno appena trascorso è quindi stato semplicemente straordinario per le scienziate italiane e non, un anno in cui per la prima volta si è avvertita in modo palpabile un’aria nuova nel mondo delle scienze che fino ad ora sembrava impossibile respirare. In conclusione bisogna insistere e combattere, l’assenza delle donne dai luoghi di potere è estremamente importante come dato negativo: incidere sui meccanismi decisionali, individuare nella trasparenza delle procedure il criterio principale per sottoporre alla verifica della collettività scientifica le tante nomine che disegnano il panorama delle massime istituzioni scientifiche è uno dei principali punti critici del sistema di ricerca italiano. La certezza di una valutazione oggettiva delle proprie qualità e dell’esistenza di una effettiva parità nella scienza è senza dubbio il modo per superare questo ostacolo. SCIENZE E RICERCHE • N. 5 • MARZO 2015 | COPERTINA L’orologio del cambiamento climatico LUCIANO CELI Consiglio Nazionale delle Ricerche, Istituto per i Processi Chimico-Fisici, Pisa C hi è appassionato di fumetti non potrà aver dimenticato – complice la recente trasposizione in film – la graphic novel Watchmen, uscita, ormai diversi lustri fa, dalla geniale penna di Alan Moore. Per sommi capi: la storia è ambientata nel 1985, in piena guerra fredda e l’Unione Sovietica è ancora una superpotenza. A causa di un incidente nucleare in laboratorio, il fisico Jon Osterman diviene il Dr. Manhattan, con evidente riferimento al reale progetto Manhattan che, durante la seconda guerra mondiale, vide le migliori menti della fisica (e non solo), cooperare per la costruzione della bomba atomica. La storia, densissima di significati, di analogie, con camei culturali pregevoli, come quello a William Blake nel capitolo Agghiacciante simmetria, si snoda, pur con una trama originale, nella contrapposizione classica tra bene e male: ancora una volta il genere umano si salverà grazie all’intelligenza e al sacrificio del Dr . Manhattan, divenuto nel frattempo, grazie all’incidente, una sorta di divinità capace di conoscere e comprendere nel profondo molte delle leggi della Fisica a noi sconosciute. Questo ne muterà il carattere fino a condurlo verso una sostanziale atarassia nei confronti dell’umanità cui lui stesso è appartenuto. Nel fumetto i riferimenti agli orologi non mancano: dall’antica analogia di Dio come il “grande orologiaio”, alla vicenda dello stesso Osterman che sarebbe dovuto diventare un orologiaio, per arrivare a ciò che qui interessa: l’orologio dell’apocalisse (o del Giorno del Giudizio - Doomsday Clock in inglese). Ancora una volta si tratta di una metafora, che però trova il suo pieno riscontro nel mondo reale, trattandosi di un’iniziativa – inizialmente semiseria, ma poi sempre più “efficace” – messa in piedi da alcuni scienziati del Bulletin of the Atomic Scientists dell’Università di Chicago nel 1947. Iniziativa che, con la metafora dell’orologio, vuole fornire una misura del pericolo di una ipotetica fine del mondo a cui l’umanità è sottoposta: più le lancette sono vicine alla mezzanotte, più la fine del mondo può considerarsi prossima a causa di una qualche minaccia. L’orologio fu ovviamente immaginato per indicare in modo comprensibile e concreto il pericolo di una guerra nucleare: con la crisi dei missili a Cuba nel 1961 venne toccato il cul- 7 COPERTINA | SCIENZE E RICERCHE • N. 5 • MARZO 2015 mine e l’orologio sarebbe stato almeno idealmente – anche se per pochi giorni – sulle 23:59. Tuttavia all’epoca le lancette non vennero spostate, poiché la revisione della minaccia al genere umano aveva una cadenza annuale. Dal 2007 però, data la situazione socio-politica internazionale, il pericolo nucleare lascia il posto alla annosa questione del (definitivo) cambiamento climatico: sul sito degli scienziati atomici (http://thebulletin.org/) attualmente mancano tre minuti alla mezzanotte. Un pericolo che è oggettivo – i cambiamenti climatici sono ormai irreversibili e bisogna porvi rimedio – ma soprattutto trova il suo maggiore fattore di rischio in una cattiva, quando non del tutto assente, percezione del problema (http://www.pewinternet. org/2015/01/29/public-and-scientists-views-on-science-andsociety/). Un problema complesso perché “multifattoriale”: coinvolge l’umanità intera, scelte politiche anche drastiche sulle questioni energetiche (http://www.nature.com/nature/ journal/v517/n7533/abs/nature14016.html), migrazioni e 8 movimenti di popolazioni ancora sporadici se confrontati col numero di persone presenti sul pianeta, ma che potrebbe intensificarsi (http://www.nature.com/news/human-adaptation-manage-climate-induced-resettlement-1.16697). Sembra che la ricetta stia nel titolo del ponderoso volume di Naomi Klein fresco di traduzione per Rizzoli: Una rivoluzione ci salverà. Solo rivoluzionando il nostro modo di pensare e attuando politiche capaci di favorire modelli e stili di vita differenti potremo raggiungere insieme l’obiettivo proposto per il summit che si terrà a Parigi nel dicembre di quest’anno: quello di mantenere entro i due gradi celsius l’aumento della temperatura globale del pianeta. A differenza di quel che accade nelle graphic novel, però se falliremo non ci sarà nessun Dr. Manhattan a salvarci. SCIENZE E RICERCHE • N. 5 • MARZO 2015 | COPERTINA 2015. L’anno della luce ROBERTO FIESCHI Professore Emerito di Fisica, Università degli Studi di Parma I l 2015 è stato dichiarato lo Year of Light and Light-Based Technologies. Le Nazioni Unite hanno riconosciuto che la luce – e più in generale la radiazione elettromagnetica – gioca un ruolo importante anche nei campi di energia e agricoltura, che ha rivoluzionato la medicina e ha aperto la strada alle comunicazioni con fibre ottiche tramite Internet. Dalla Genesi: “fiat lux et lux fuit” Frase biblica, pronunciata al Creatore dell’Universo. Si tratta dell’adattamento latino dell’espressione in lingua greca, a sua volta tradotta dall‘ebraico. “Dio vide che la luce era cosa buona, separò la luce dalle tenebre e chiamò la luce giorno e le tenebre notte. E fu sera e fu mattina: primo giorno”. Secondo il modello di Universo oggi accettato, in seguito alla formazione degli atomi, 300.000 anni dopo il big bang, ossia circa 14 miliardi di anni fa, la radiazione primaria si propagò nell’Universo. Quanto oggi ne resta fu rivelato nel 1964 da Arno Penzias e Robert Wilson: la radiazione cosmica di fondo, a conferma della teoria sull’origine dell’Universo. “Dio disse: «Ci siano luci nel firmamento del cielo, per distinguere il giorno dalla notte;servano da segni per le stagioni, per i giorni e per gli anni e servano da luci nel firma- mento del cielo per illuminare la terra». E così avvenne [...] Dio fece le due luci grandi, la luce maggiore per regolare il giorno e la luce minore per regolare la notte, e le stelle. Dio le pose nel firmamento del cielo per illuminare la terra e per regolare giorno e notte e per separare la luce dalle tenebre. E Dio vide che era cosa buona. E fu sera e fu mattina: quarto giorno”. Le prime stelle e le galassie si formarono un miliardo di anni dal Big Bang. Il Sole e il sistema solare, incluso il nostro pianeta, si formarono circa 4,5 miliardi di anni fa. Ma il Padreterno, quando fu scritta la Genesi (la sua redazione definitiva, ad opera di autori ignoti, è collocata al VI-V secolo a.C.) non poteva sapere tutte queste cose. Ricordiamo qualche semplice nozione. Fotosintesi Questo processo, che forma ossigeno e carboidrati dall’anidride carbonica e dall’acqua, iniziò oltre due milioni di anni fa per azione dei cianobatteri. La fotosintesi, direttamente o indirettamente, è responsabile di tutte le forme di vita sulla Terra. Il controllo del fuoco da parte dell’Homo Erectus risale a 1,5 milioni di anni fa. Le più antiche prove di uso umano del fuoco provengono da vari siti archeologici nell’Africa La luce e le onde elettromagnetiche Il processo della fotosintesi 9 COPERTINA | SCIENZE E RICERCHE • N. 5 • MARZO 2015 Orientale. Oggi, grazie all’elettricità, le sorgenti artificiali di luce sono le lampade a incandescenza, inventate da Joseph Swan e da Thomas Edison, le lampade a fluorescenza e i LED. Rifrazione della luce Prima che fosse scoperta la legge della rifrazione a opera dello Snellius, legge che aprì la via allo studio dei sistemi ottici, sembra si conoscessero, fino dal sec. XIII, lenti convesse Radiotelescopio e concave, in uso per la correzione dei difetti di vista. Galileo fece sua l’idea di un ottico olandese accostando due lenti per occhiali. Un cannocchiale fabbricato in Olanda venne portato in Italia nel 1609 e ne giunse notizia a Galileo Galilei, allora a Padova, il quale riuscì a costruire dei modelli migliori di quelli stranieri. Si aprì così una nuova via allo studio del cielo: pianeti medicei, fasi di Venere, macchie solari, sostegno al modello copernicano del sistema solare, ma anche processo davanti al Tribunale dell’Inquisizione. A partire dall’Ottocento nuove finestre si sono via via aperte nello studio del cielo. All’esame della porzione visibile dello spettro si aggiunsero via via l’esame dell’ultravioletto e dell’infrarosso, quindi dei raggi X e gamma, delle microonde e delle radioonde, rivelando fenomeni inattesi. Riflessione totale Grazie ad essa e alla capacità di realizzare vetri estremamente trasparenti oggi abbiamo le telecomunicazioni tramite le fibre ottiche, che guidano la luce e i segnali che essa trasporta su grandi distanze. Le fibre ottiche hanno anche altri impieghi importanti, come endoscopi in medicina. Charles K. Kao è considerate il padre delle fibre ottiche. Nel 2009 gli fu assegnato il Premio Nobel per la fisica. Dispersione Isaac Newton (Woolsthorpe-by-Colsterworth, 1642 – Londra, 1727) studiò la dispersione di un raggio di luce bianca che attraversa un prisma di vetro e si scompone nei Il fenomeno della dispersione 10 vari colori e divenne un convinto sostenitore della teoria corpuscolare della luce. Teoria ondulatoria Christiaan Huygens (L’Aia, 1629 –1695) la sostenne, contro quella corpuscolare. La dimostrazione fu data da ThomasYoung (Milverton, 1773-Londra,1829) con l’esperimento della interferenza. L’effetto fotoelettrico (1905) Albert Einstein (Ulm, 1879 - Princeton, 1955), con l’interpretazione di questo fenomeno, rilanciò il modello corpuscolare: la radiazione elettromagnetica consta di un flusso di particelle, i fotoni. Oggi sappiamo che il modello ondulatorio e quello corpuscolare coesistono: dualismo onda-corpuscolo. Tutti gli esperimenti hanno confermato questo dualismo, che in seguito è stato esteso anche alle particelle di materia L’effetto fotovoltaico e le celle solari Può essere considerato un effetto fotoelettrico interno al materiale semiconduttore. E’ sfruttato anche per convertire (parzialmente) l’energia della luce in energia elettrica. Lo sfruttamento dell’energia solare è cresciuto rapidamente nell’ultimo decennio, riducendo lo sfruttamento dei combustibili fossili. Il Nobel per la Fisica è stato assegnato nel 2014, proprio sul tema della luce, ai ricercatori giapponesi Isamu Akasaki, Hiroshi Amano e Shuji Nakamura, per l’invenzione dei LED a luce blu. Il laser Il laser è un dispositivo in grado di emettere un fascio di luce coerente, monocromatica, e concentrata in un raggio rettilineo estremamente collimato, attraverso il processo di emissione stimolata. Inoltre la luminosità (brillanza) delle sorgenti laser è elevatissima a paragone di quella delle sorgenti luminose tradizionali. Fu inventato nel 1960 da Theodore Harold Maiman (Los Angeles, 1927 - Vancouver, 2007). Ha infinite applicazioni: nelle telecomunicazioni, in medicina, nell’industria. La fotonica Il termine fu coniato intorno al 1960, quando fu inventato il laser. Riguarda generazione, rivelazione e controllo della luce e, più in generale, della radiazione elettromagnetica, dai raggi gamma alle radioonde. Telecomunicazioni, cellulari, Internet, strumenti medicali e per l’industria manifatturiera e militare (visione notturna), eccetera, rientrano nella fotonica. Il 21esimo secolo dipenderà dalla fotonica così come il 20esimo dipese dall’elettronica. SCIENZE E RICERCHE • N. 5 • MARZO 2015 | COPERTINA Memoria e oblio DAVIDE SCHIFFER Professore Emerito di Neurologia, Università degli Studi di Torino È da poco trascorso il Giorno della Memoria, che ancora per pochi rappresenta l’occasione di tristi ricordi, ma non per tutti. E’ passato molto tempo da allora e l’aforisma, spesso ripetuto in quei giorni, “per non dimenticare” riferito alla Shoah e ai suoi correlati, sta correndo il rischio di diventare banalmente l’icona di un qualcosa che non si conosce più e di essere strumentalizzato. In chi voglia mantenere un atteggiamento critico di fronte ai continui neoideologismi del tempo attuale i quesiti che questo aforisma suscita sono: chi lancia questo messaggio e a chi è rivolto? Che cosa non bisogna dimenticare? Ho scritto un libro su questo argomento, senza la pretesa di fare la storia degli anni bui del secolo breve, ma per affrontare il tema della memoria di quel periodo con un approccio fenomenologico (1). Il tempo scorre e la memoria degli accadimenti con esso si affievolisce e scompare nell’oblio, fatta salva la conservazione delle sue punte più alte nella storiografia che, però, ha il difetto, comune a tutte le scienze, di essere storica e cioè di fornire verità relative all’epoca in cui viene scritta. Già Benedetto Croce aveva detto che “ogni storia passata è una storia contemporanea”. Vorrei affrontare il problema della memoria nell’uomo dal punto di vista neuro scientifico, ma so che l’approccio biologico, in confronto agli animali da esperimento, compresa la lumachina di mare Aplysia californica su cui si erano concentrati gli studi di Kandel (2), è ancora agli albori; quello neuro-cognitivo e di neuro-imaging comincia a produrre risultati, ma per lo più limitati alle sedi cerebrali coinvolte (3, 4). Per la comprensione degli altrimenti impenetrabili meccanismi della memoria e delle sue categorizzazioni non rimane che l’approccio fenomenologico (5, 6) con la distinzione della memoria in tre classi, individuale, collettiva e storico-culturale. La memoria individuale contiene le esperienze associate alla loro componente emotiva, i famosi qualia di Edelman (7), la cui integrazione nel vissuto avviene secondo un “pregiudizio” (8) in senso ermeneutico che condiziona l’esistenza di un polimorfismo di vissuti pari alle individualità umane esistenti. Le memorie individuali pertanto potranno essere “dilacerate” e cioè non concordanti su singoli accadimenti, perché costruite con diversi “pregiudizi.” La dilacerazione può continuare nella memoria collettiva e poi si ricuce nella memoria culturale-storica con l’eccezione dei revisionismi o negazionismi. La costruzione di un vissuto avviene con l’integrazione in esso di quanto entra nella nostra mente, percezioni, pensieri etc, dopo il suo confronto con le nostre immagini mentali o patterns, che non sono altro che un sistema di segnalazione interno, frutto di un previo scambio semiologico segnale/ recettore, sulla cui base operiamo i riconoscimenti e l’interpretazione del mondo esterno (9). Il sistema è validato dall’intersoggettività così come il dato scientifico è validato dall’intersoggettività scientifica. Al polimorfismo dei vissuti concorrono anche errori nella loro costruzione, legati alla malafede (nel senso di Sartre), al difetto di critica o comunque all’attività di meccanismi iponoici e ipobulici (termini presi da Kretschmer per indicare ciò che sta sotto il livello 11 COPERTINA | SCIENZE E RICERCHE • N. 5 • MARZO 2015 di coscienza e della volontà) per cui nascono convinzioni devianti o “errate” e cioè non validate dall’intersoggettività. Il delirio in senso psichiatrico e cioè “la convinzione errata che non si lascia correggere né dalla scienza né dall’esperienza” e gli ideologismi (esempio, quello nazi-fascista) si sviluppano su questa base (10). L’oblio si sviluppa di pari passo con la formazione della memoria storica e culturale che salverà le punte emergenti nel ricordo del passato, di altezza varia a seconda dell’approfondimento. Questa memoria implica comunque che qualcuno se ne appropri attraverso la lettura e lo studio e cioè la cultura. Con queste premesse la Shoah e la Resistenza, accomunate dalla stessa genesi e cioè le dittature nazi-fasciste, sono analizzate alla luce dell’aforisma sopra menzionato. Anzitutto bisogna chiarire a chi questo è rivolto. Secondo Kandel agli ebrei perché il ricordo della Shoah rientra nei precetti della religione ebraica, così come è entrato il “ricordati cosa ti ha fatto Amalek” (11). La Shoah è stata l’emblema del male che si è prodotto negli anni bui del secolo scorso, ma nel tempo si va associando sempre di più con lo sterminio di milioni di persone di religioni diverse con cui condivide la genesi. L’invito pertanto sembra avere un riferimento universale. A chi è rivolto l’invito? Non certo ai superstiti o ai testimoni diretti dell’epoca del male, segnati da un’esperienza che non potrà essere dimenticata per l’enorme contenuto emotivo. Le generazioni successive che, tranne la prima fatta dai postmemory (12) e cioè i figli delle vittime o dei superstiti che possono avere albergato qualia assimilabili a quelli delle vittime, non hanno esperienza diretta e quindi sono tendenzialmente neutre dal punto di vista emotivo. Come possono queste ricordare o dimenticare qualcosa che non hanno esperito? Per loro si tratterà dapprima di memoria collettiva e poi soprattutto di memoria storica che praticamente corrisponde all’oblio, a meno che non venga ricercata. Un altro punto importante è il significato del “non dimenticare.” La dilacerazione delle memorie individuali si ripete, anche se in minor grado, nelle memorie collettive e tende a scomparire in quella storica. L’invito a non dimenticare come viene recepito da chi non ha condiviso le stesse esperienze delle vittime o ne ha avute di opposte su uguali accadimenti? Chi ha condiviso consciamente o inconsciamente la concezione nazi-fascista o l’ha sostenuta anche per sola convenienza e ha vissuto quelle esperienze con un altro “pregiudizio”, come si dice, non ha fatto “i conti con la storia” avrà una visione dell’epoca del male contrapposta. Alludo ai carnefici, agli autori delle deportazioni e dei massacri, a chi si è adeguato all’organizzazione di morte e ha contribuito, magari indirettamente a tutto ciò, agli attuali anti-semiti, ai loro discendenti che hanno conservato l’atteggiamento di famiglia. In buona o in malafede possono trovarsi d’accordo nel ricordare, ma non si riferiscono a quel contenuto che l’invito a non dimenticare intenderebbe alludere. Una larga fascia di popolazione poi vuole, per i motivi suddetti, dimenticare quello che è accaduto e addirittura molti usano inconsapevolmente nomi e insegne dell’epoca del male 12 come strumento di rivolta sociale, generazionale o semplice delinquenza solamente per ferire l’establishment colpendo ricchi, potenti, barboni, comunisti, ebrei, immigrati, gay, i muri delle case etc. Il relativismo non è oggi soltanto scientifico, ma anche storico e culturale e sappiamo che scrivere di storia bisogna emettere giudizi morali (13). Questi dipendono dall’ethos dell’epoca in cui si svolgono gli accadimenti o si scrive di essi. Per noi oggi valgono, a parte i credo religiosi, due principi antropologici fondamentali che sono l’empatia e la solidarietà, da cui derivano due corollari rappresentati da libertà e giustizia. Chi contravviene fa il male. La sofferenza altrui è sofferenza per noi. I nostri sentimenti e giudizi sono validati dall’intersoggettività e sono cioè una norma. Chi si sottrae ad essi si sottrae anche alla dialettica con il tempo, si ipostatizza o si dedialettizza nello stesso modo come è stato dello per il delirio e gli ideologismi. Oggi i negazionismi, i revisionismi ideologici, l’oblio per incultura che si aggiunge a quello fisiologico legato alle capacità limitate, per quanto enormi, del nostro cervello, ci suggeriscono cautele e precisazioni quando si rivolge l’invito a non dimenticare. Non serve tanto il mirare con l’invito e i suoi supporti visivi a suscitare semplicemente emozioni, il che può essere utile, ma anche sterile o strumentale ad altro, quanto soprattutto a favorire con esse l’acculturazione critica di quanto è successo, centrata sull’apprendimento della sua genesi. Questo è il solo meccanismo che può salvarci dal ripetere gli stessi errori del scolo scorso, anche se la historia magistra vitae si è dimostrata avere una portata più che limitata. (1) Schiffer D. Memoria e oblio: un’analisi fenomenologica degli anni bui del secolo breve. Golem Edizioni, Torino, 2015 (2) Kandel E. Alla ricerca della memoria, Codice, Torino, 2005; (3) Seung (3) Seung S. Connettona. La nuova geografia della mente. Codice, Torino, 2013 (4) Dahaene S. Coscienza e cervello.Come i neuroni codificano il pensiero. Raffaello Cortina Editore, Milano, 2014. (5) Husserl E. Idee per una fenomenologia pura e per una filosofia fenomenologica.Vol II, libro III, Einaudi, Torino, 2002. (6) Feyles M. Studi per la fenomenologia della memoria. Franco Angeli, Milano, 2012 (7) Edelman G. Darwinismo mentale. La teoria della selezione dei gruppi neuronali. Einaudi, Torino, 1995. (8) Gadamer H-G.Verità e metodo, tr. it. Di G. Vattimo, Bompiani, Milano, 1983 (9) Prodi G. Le basi materiali della significazione. Bompiani, Milano, 1977 (10) Schiffer D. Attraverso il microscopio. Neuroscienze e basi del ragionamento clinico. Springer, Milano, 2011 (11) Deuteronomio, 25, 17-19 (12) Hirsch M. The generation of postmemory. Poetics Today 29: 1, 2008 CONTRIBUTI&INTERVENTI N. 5 - MARZO 2015 14 SCIENZE E RICERCHE • N. 5 • MARZO 2015 | FISICA Fisica del caos: un’introduzione storica GIORGIO BIANCIARDI Dipartimento di biotecnologie mediche, Università degli Studi di Siena “Mon cher ami, ….. io avevo creduto che tutte le curve asintotiche, dopo essersi allontanate da una curva chiusa che rappresenta una soluzione periodica, si avvicinassero in seguito asintoticamente alla stessa curva chiusa. Quello che è vero, è che ce ne sono un’infinità che godono di questa proprietà. Non vi nascondo affatto il dispiacere che mi provoca questa scoperta…” Henri Poincaré, 1 dicembre 1889, dalla lettera a Mittag Leffler HENRI POINCARÉ: LA SCOPERTA DEL CAOS N DETERMINISTICO el luglio del 1885 la prestigiosa (già allora) rivista Nature pubblicava che il Re di Svezia e Norvegia, Oscar II, il giorno del suo sessantesimo compleanno, 21 gennaio 1889, avrebbe concesso un premio “a un’importante scoperta nel campo dell’analisi superiore”. Il Re, in effetti, era un cultore della materia, e quindi non sorprendeva che avesse bandito il premio per la promozione della cultura matematica: 2500 corone e una medaglia d’oro del valore di 1000 franchi al vincitore. Gösta Mittag Leffler, professore di matematica pura all’Università di Stoccolma, fu incaricato di organizzare il concorso. Lo sforzo di Leffler si concretizzò nella nomina di una Commissione giudicatrice e nella stesura dei quattro problemi da mettere a concorso. Il primo, quello che poi fu vinto da Poincaré, così recitava: Dato un sistema di un numero qualunque di particelle che si attraggono reciprocamente secondo la Legge di Newton, assumendo che non avvenga mai un impatto di due particelle, si propone di sviluppare le coordinate di ogni particella in una serie che procede secondo qualche funzione nota dal tempo che converge uniformemente in ogni intervallo di tempo Era il problema degli n corpi, classico problema di meccanica, concretizzato, ad esempio, nel moto dei pianeti intorno al Sole. DETERMINISMO In effetti la legge di gravitazione universale di Newton permette la completa descrizione di due corpi gravitanti, ma l’estensione a più di due corpi, ad esempio anche solo tre corpi gravitanti, alla fine del XIX secolo era fino ad allora limitata a casi del tutto particolari, se si cercava una soluzione “matematicamente esatta”. Giuseppe Luigi Lagrange nel 1772 aveva dimostrato l’esistenza di un sistema stabile, esaustivamente descrivibile, tra 3 corpi in mutua orbita quando questi siano disposti ai 3 vertici di un triangolo equilatero (ad esempio il pianeta Terra in orbita intorno al Sole con le sue lune di polvere che lo accompagnano, oppure Giove con alcuni gruppi di asteroidi). Una soluzione generale, anche per solo 3 corpi, fino ad allora invece non esisteva. Non era un mistero che lo stesso Newton ammetteva che la sua splendida legge, in grado di spiegare in modo semplice e elegante le 3 leggi di Keplero e stabilire la posizione dei pianeti intorno al Sole con grande precisione nell’arco di anni, era insufficiente per spiegare la stabilità dello stesso Sistema Solare quando si considerino tempi molto lunghi. Doveva essere necessario – disse il grande fisico -, evidentemente, che il buon Dio rimettesse ogni tanto le orbite planetarie al proprio posto.. Negli anni dello scritto di Lagrange, un altro eminente fisico, Pierre Simon de Laplace, pubblicava la sua opera “Recherches sur le principe de la gravitation universelle, et sur les inégalités séculaires des planètes” introducendo il calcolo delle perturbazioni che apparì fornire con grandissima precisione la previsione della posizione futura di tutti i corpi del Sistema Solare, riuscendo a gestire in modo completo le interazioni gravitazionali multiple presenti. La precisione sembrava diventare, almeno potenzialmente, illimitata. Tanto che Laplace potrà scrivere la famosa frase, emblema del determinismo che ha dominato dalla sua (ri)nascita con Galilei e Newton e fino ad oggi, la Fisica, e la Scienza tutta: “Un’intelligenza che, per un istante dato, potesse cono15 FISICA | SCIENZE E RICERCHE • N. 5 • MARZO 2015 scere tutte le forze da cui la Natura è animata, e la situazione rispettiva dei corpi che la compongono e che inoltre fosse abbastanza grande da sottomettere questi dati all’analisi … nulla le risulterebbe incerto, l’avvenire come il passato sarebbe presente ai suoi occhi”, Essai philosophique sur les probabilités (questa intelligenza con questa conoscenza e questa capacità di calcolo era senz’altro al di sopra delle capacità umane, come riconosceva lo stesso Laplace1, ma quello che contava era l’asserzione della possibilità in linea di principio, l’ Universo è una “macchina” prevedibile: una macchina deterministica. Come un orologio meccanico, per quanto meravigliosamente complesso. I grandi successi dell’astronomia, dalle previsioni del ritorno della Cometa di Halley, alla scoperta del pianeta Nettuno tramite il calcolo delle perturbazioni gravitazionali introdotte da Laplace, sembravano dimostrare al di là di ogni dubbio la veridicità dell’assunto. LA COMETA DI LEXELL Il glorioso ritorno della Halley aveva confermato la capacità previsionale della Legge di Gravitazione Universale di Newton, in distanze temporali che si misuravano in secoli, ma ecco che il 14 giugno 1770 giunse la scoperta di una cometa, la cometa di Lexell, dal nome dell’astronomo che ne studiò l’orbita. Orbita calcolata: dopo 5 anni sarebbe tornata. Nessuno la vide tornare. Lexell, ne approfondì lo studio dinamico. Tre anni prima della scoperta l’astro chiomato seguiva un’orbita al di là di quella di Marte, invisibile anche con i più potenti telescopi dell’epoca. Nel 1767, la cometa aveva incontrato gravitazionalmente il grande Giove, l’orbita risultò modificata e la cometa lanciata verso il Sole, facendo nascere l’orbita ellittica con periodo di 5 anni e mezzo, come era stata poi osservata nel 1770. Pochi anni dopo, un ulteriore passaggio ravvicinato con Giove, sbalzò la cometa al di là di Nettuno. Avevamo tutto per poter iniziare a realizzare quel che sarà definito “il fenomeno della dipendenza sensibile dalle condizioni iniziali nei sistemi dinamici”, punto di riferimento dei sistemi caotici. Ma il fatto non fu compreso, o almeno non considerato quanto avrebbe dovuto, fino al concorso bandito dal Re di Svezia e Norvegia e che era stato vinto dal più grande matematico della seconda metà del XIX secolo, Henri Poincaré. 1 Nella stessa opera Laplace scrive: “..ma l’ignoranza delle diverse cause che concorrono alla formazione degli eventi come pure la loro complessità, insieme con l’imperfezione dell’analisi, ci impediscono di conseguire la stessa certezza rispetto alla grande maggioranza dei fenomeni. Vi sono quindi cose che per noi sono incerte, cose più o meno probabili, e noi cerchiamo di rimediare all’impossibilità di conoscerle determinando i loro diversi gradi di verosimiglianza. Accade così che alla debolezza della mente umana si debba una delle più fini e ingegnose fra le teorie matematiche, la scienza del caso o della probabilità”. L’impossibilità di fare previsioni è meramente conoscitiva, lo è per la “debolezza della mente umana”, ma di per sé l’Universo sarebbe prevedibile, afferma Laplace. 16 RITORNO A POINCARÉ Alla commissione nominata da Leffler non apparvero dubbi. Il premio spettava alla risoluzione del primo quesito da parte di Poincaré. Ma la situazione si mostrò subito complicata. La memoria si intitolava Sur le problème des trois corps et les équations de la dynamique: dunque si limitava alla soluzione, precisa e generale, di 3 corpi in mutua orbita tra loro, pur dovendo precisare che si trattava di una soluzione ristretta a quando delle 3 masse, una è molto grande, l’altra piccola relativamente alla prima, e la terza risulti di massa trascurabile, e con orbite circolari e sullo stesso piano. Pur in un approccio così limitato, Poincaré introduceva nuovi metodi di calcolo e produceva una laboriosa monografia di 150 pagine. Così complessa che ai Commissari, grandi matematici europei, apparve di non facile comprensione e rimanevano punti oscuri. Allora, prima di rendere noto chi fosse il vincitore, furono chieste delucidazioni all’Autore, il quale sortì nove lunghe Notes, appendici da pubblicare insieme alla vasta monografia. Il premio fu assegnato al grande matematico. Il problema degli n corpi era stato limitato ad una soluzione particolare dei 3 corpi, ma comunque il problema era risolvibile e certo, il sistema era prevedibile e con “precisione matematica”, ovvero senza ricorrere a metodi numerici di approssimazione successive.. Tutto era ora pronto per la pubblicazione nella Rivista prescelta, Acta Mathematica di Stoccolma. Non fu così, o almeno non ancora. Un giovane matematico, a cui era stato affidato il compito di preparare il manoscritto per la stampa, si accorse (luglio 1989) che alcuni passaggi sembravano poco chiari, comunicandolo a Leffler. Quest’ultimo si rivolse ancora a Poincaré. Poincaré riguardò lo scritto, accorgendosi con orrore non solo che in altre parti del manoscritto aveva compiuto un errore, ma che le sue conseguenze “erano molto serie”2. Ed ecco lo scritto sconsolato che abbiamo introdotto nell’incipit iniziale di questo articolo. Poincaré, convinto determinista, realizzava che nell’evoluzione dinamica del sistema studiato venivano a crearsi situazioni in cui una minima variazione delle condizioni iniziali portava a divergenze così grandi nel moto da non consentire più di prevedere quale ne poteva essere l’evoluzione nel tempo: il suo comportamento apparirebbe del tutto casuale, “la previsione diventa impossibile, siamo di fronte al fenomeno fortuito”, scriverà anni dopo in successivi Lavori in cui ne ampliava e approfondiva lo studio. Era nato il concetto di Caos deterministico: un sistema pur governato da Leggi può assumere un comportamento del tutto imprevedibile. Ad analoghi risultati pervenne in quegli anni Jacques 2 Per il grande matematico furono “serie” anche le conseguenze economiche. Le copie stampate dovettero essere distrutte, Poincaré dovette rimborsare i costi della stampa, spendendo più di quanto aveva vinto con il premio. Nel novembre 1890 la Memoria fu pubblicata con le nuove ampie modifiche. Negli anni successivi Poincaré continuò a svilupparne lo studio con “Les méthodes nouvelles de la mécanique celeste” (1892-1899) e con le “Leçons de mécanique celeste” (1905-1911), evidenziando l’estrema difficoltà e complessità dei sistemi dinamici. SCIENZE E RICERCHE • N. 5 • MARZO 2015 | FISICA Hadamard, un altro matematico francese, che studiando le geodetiche (le linee più brevi che congiungono due punti) su una superficie a curvatura negativa, notò come queste evolveranno divergendo in modo assai grande per qualunque differenza per quanto minima delle posizioni iniziali. E’ la metafora del biliardo di Hadamard: in un biliardo con superfice curva (o comunque in qualunque biliardo reale che non sarà mai perfettamente piano), due palle che si trovino in una posizione iniziale (quasi) uguale , e a cui venga applicata la medesima forza, genereranno traiettorie che in breve tempo divergeranno, cioè raggiungeranno posizioni finali totalmente diverse. Essendo impossibile ricostruire le condizioni iniziali in modo assolutamente preciso, la posizione finale ne risulterà impredicibile3. I loro risultati furono considerati dalla maggior parte degli studiosi come stranezze della dinamica riguardanti casi particolari, senza reali applicazioni ai problemi reali. Nella prima metà del XX secolo un piccolo gruppo di fisici, pur di altissimo rilievo, come J. Von Neumann e G.D. Birkhoff, portarono avanti questi studi di dinamica, ma senz’altro il mainstream della Scienza andava verso direzioni diverse. EDWARD LORENZ: LA RISCOPERTA DEL CAOS “Does the Flap of a Butterfly’s Wings in Brazil Set off a Tornado in Texas?” Titolo della Lecture di E. N. Lorenz all’ ”American Association for the Advancement of Science”, 1972. Nella prima metà del XX secolo non c’è dubbio che la metafora dell’ “orologio meccanico” per spiegare il comportamento dell’Universo regnava sovrana, invadendo anche il campo della Vita. Se già il filosofo Thomas Hobbes nel XVII secolo definiva la vita come movimento e che quindi anche un automa poteva essere considerato vivo, nel XX secolo il filosofo-matematico Bertrand Russel affermava nella sua Storia della Filosofia Occidentale che si ottiene progresso nelle Scienze della Vita quando si riesce “a diminuire l’abisso tra l’essere vivente e la macchina”. La nascita della nuova branca della fisica, la Scienza del Caos e della sua sorella, la Geometria Frattale, si considera legata alla pubblicazione di Edward Lorenz, oscuro (allora) matematico applicato agli studi metereologici, “Deterministic Nonperiodic flow” sul Journal of Atmospheric Sciences, del 1963. Lui stesso racconta come in un giorno d’inverno dell’anno 1961, professore al Massachusetts Institute of Technology (il prestigioso MIT di Cambridge), stava sottoponendo a prove un modello matematico di dinamica dei fluidi (l’atmosfera è un fluido) che aveva sviluppato. Si serviva di un calcolato3 È stato calcolato che dopo 7 rimbalzi, anche in un biliardo ideale, applicando la stessa forza, la previsione del punto di arrivo della palla lanciata sarebbe possibile solo se la posizione fosse calcolata con la precisione di 10-8 cm, il diametro di un atomo di idrogeno. Stiamo entrando nel mondo della fisica quantistica, dove l’indeterminazione regna sovrana. Quindi la previsione ne risulta senz’altro impossibile. re, un Royal McBee, una macchina molto meno potente dei nostri odierni comuni PC portatili. Interruppe l’elaborazione, per una pausa caffè. Al ritorno immise i dati intermedi che aveva ottenuto dal suo modello di 12 equazioni. L’ output numerico in breve tempo divenne completamente diverso da quello di altre simulazioni numeriche precedenti. Il risultato era chiaro: un errore di troncamento numerico. Aveva immesso dati alla terza cifra decimale, mentre il calcolatore lavorava alla sesta cifra decimale. Questa divergenza faceva pensare da una parte “all’estrema sensibilità dalle condizioni iniziali dei sistemi dinamici” di Poincaré, dall’altra alla grande imprevedibilità dei sistemi metereologici reali. Volle andare a fondo. Riportando le soluzioni di un sistema ridotto a 3 variabili, per poterlo rappresentare in uno spazio tridimensionale (in un classico approccio dello “spazio delle fasi”), vide che i punti generati dal sistema di equazioni, per diversi input, non si distribuivano in modo “casuale”, ma risultavano delimitati in una regione finita di spazio, per quanto il sistema fosse notevolmente “imprevedibile”, la forma della figura che nasceva non mutava. Il risultato sembrava “interessante”, era nato “l’attrattore di Lorenz”: un sistema di equazioni differenziali a bassa dimensionalità in grado di generare un comportamento complesso. Imprevedibile la singola traiettoria, ma con un suo “ordine” nel suo comportamento globale. Il sistema di equazioni usate da Lorenz. La presenza di xz e xy determina la non linearità del sistema, da cui si origina il comportamento complesso e la singola traiettoria diventa scarsamente prevedibile. L’attrattore di Loren risultante dal sistema a 3 equazioni di cui sopra. Per quanto sia ardua la previsione della singola traiettoria del sistema dinamico, nel suo complesso il sistema mostra un comportamento “interessante”. 17 FISICA | SCIENZE E RICERCHE • N. 5 • MARZO 2015 Il decennio successivo l’interesse per i sistemi dinamici “scarsamente prevedibili” perché basati su “modelli non lineari”(ad es., espressi da equazioni che contengono un elevamento a potenza) iniziò a coinvolgere un numero sempre maggiore di studiosi, anche al di là del campo della Fisica. MITCHELL FEIGENBAUM Possiamo terminare questo breve excursus con la storia di Mitchell J. Feigenbaum e la sue pubblicazioni del 1978 “Quantitative Universality for a Class of Nonlinear Transformations”, in Journal of Statistical Physics e del 1980, “Universal Behavior in Nonlinear Systems”, in Los Alamos Science. Siamo nella prima metà degli anni ’70 dello scorso secolo e il giovane fisico faceva calcoli su calcoli con equazioni ricorsive (quindi lette in modo dinamico), usando una piccola calcolatrice tascabile. Chiese il permesso di lavorare con un computer dell’esercito (con un collegamento telefonico molto ma molto precario). Racconta che nel mese più “denso”, passava 23 ore al giorno a ottenere risultati dalle equazioni che immetteva, consumando un numero incalcolabile di sigarette per mantenersi eveglio e non perdere la concentrazione. L’andamento era sempre estremamente simile, indipendentemente dalle equazioni utilizzate (limitandosi alle equazioni con un solo massimo, e considerando la più semplice delle equazioni non lineari, esponente = 2). I valori all’inizio fissi ottenuti, quindi perfettamente prevedibili, all’aumentare di un parametro dell’equazione, si sdoppiavano (i valori rimbalzavano tra 2 valori fissi), ciascun nuovo livello tornava a sdoppiarsi, di sdoppiamento in sdoppiamento sempre più ravvicinato, si giungeva ad un comportamento altamente caotico (una variazione numerica estremamente piccola conseguiva ad un risultato estremamente diverso). Ma dentro le aree caotiche nuove finestre di ordine si generavano, creando un sistema autosomigliante al cambiamento di scala (un comportamento “frattale”). In questa struttura autosomigliante, comune alle più diverse equazioni, erano presenti dei rapporti numerici tra le biforcazioni che si generavano costanti e fissi. La via verso il caos era indicata da precisi numeri, dei nuovi pi greco o altre delle costanti famose nel mondo della matematica dal tempo dei suoi albori. Con l’approccio di Feingenbaum, i sistemi non lineari con la loro impredicibilità contengono un comportamento complesso “estremamente interessante”. Esistono delle costanti che sono comuni a modelli fisici completamente lontani tra loro. Si può ora stabilire quando il sistema diventerà turbolento e la previsione diventerà altamente limitata, da quando il sistema si comporterà in modo ordinato e la previsione sarà possibile con grande precisione. Ordine e caos sono profondamente interconnessi. Il “caos” può essere domato (anche se dobbiamo rinunciare a quella ingenua capacità di previsione che era stata supposta per tanti secoli, vedi qui di seguito). In effetti, tutti i fenomeni fisici, anche se in diversa misura, sono caratterizzati universalmente dalla non linearità. I sistemi non lineari godono di una varierà di comportamenti 18 rispetto a quelli lineari, in essi si osservano improvvisi passaggi da dinamiche regolari a regimi irregolari nonché una critica dipendenza da variazioni, anche piccole, delle condizioni iniziali, che rende tali manifestazioni totalmente imprevedibili. Nel mondo reale, alcuni sistemi dinamici hanno componenti di non linearità molto ridotta e trascurabile, ad esempio il moto dei pianeti del Sistema Solare intorno al Sole e la posizione nel cielo di questi prevedibile nei secoli4. Altri hanno componenti non lineari molto importanti, vedi le previsioni metereologiche, con la loro grande incertezza. ma anche il moto nel Sistema Solare dei piccoli asteroidi di massa di poche migliaia di tonnellate che quando vengono scoperti “sfiorando” (parliamo di centinaia di migliaia di km, comunque) il nostro pianeta appaiono in continua balìa di mutamento di traiettoria e la previsione è possibile solo per tempi dell’ordine delle ore. Nascono ora applicazioni che coinvolgono non solo i modelli fisici più disparati, ma entrano anche nella economia, in biologia e in medicina. Perché anche l’essere vivente, sistema altamente complesso, è mosso da logiche altamente non lineari, e se lo vogliamo “capire” dovremo utilizzare le nuove cognizioni che sono nate in questi ultimi decenni nel mondo della non linearità, nel mondo della dinamica caotica. Il battito cardiaco, dalle caratteristiche sorprendetemente ben poco prevedibili, può ora essere studiato con gli indici numerici che caratterizzano i sistemi dinamici non lineari, il parametro di “prevedibilità del sistema” o “tempo di Lyapunov”5, l’ indice di Hurst6, la dimensione di correlazione, l’entropia di Kolmogorov,.. , aiutandoci a discernere tra lo stato di salute e quello di malattia (non solo cardiaca). La fisica e la biologia tornano a dialogare. 4 Nei secoli si, ma non in un lasso di tempo molto più lungo. Nel 1989 l’astronomo Jacques Laskar calcolerà che anche il moto dei pianeti interni del Sistema Solare, compresa la Terra, in un lungo tempo temporale (100 milioni di anni) risulta essenzialmente impredicibile, o, se vogliamo, in senso generale, “ caotica”. 5 che definisce la scala al di là della quale la conoscenza iniziale del sistema perde la sua pertinenza. E’ possibile spostare questo orizzonte temporale, ma per moltiplicare per 10 il tempo per cui l’evoluzione del sistema divenga prevedibile a partire dalle sue condizioni iniziali, dovremo aumentare la precisione della definizione di queste condizioni di un fattore uguale a e10 (circa 1000). Presto la capacità di previsione viene perduta. 6 che stabilisce la “memoria” del sistema non lineare in esame. Le inondazioni periodiche del fiume Nilo, così come il battito cardiaco, sono sistemi dinamici altamente stocastici provvisti di “memoria”. Se il battito cardiaco aumenta di frequenza, che il battito successivo sia ancor più breve sarà statisticamente poco probabile (memoria “antipersistente”). In questi sistemi, ogni evento porta memoria degli eventi passati. Gli effetti di tali eventi continuano a farsi sentire, anche se in modo sempre più smorzato, sulle vicende future, anche se lontane nel tempo, e teoricamente all’infinito. SCIENZE E RICERCHE • N. 5 • MARZO 2015 | SCIENZE BIOLOGICHE Teratologia: la tossicologia dello sviluppo embrionale ERMINIO GIAVINI Dipartimento di Bioscienze, Università degli Studi di Milano L INTRODUZIONE STORICA a teratologia è la disciplina che si occupa delle malformazioni congenite (m.c.). Il termine deriva dal greco τήρασ dal significato originario di stella, astro celeste, degenerato in cosa meravigliosa, segno premonitore e, infine, nel significato di mostro (latino monstrum = prodigio, segno degli dei). La frequenza delle malformazioni congenite nei paesi occidentali è dell’ordine del 3% dei nati vivi. Ciò significa che in un paese come l’Italia, in cui nascono attualmente circa 500.000 bambini/anno, quasi 15.000 di loro possono essere portatori di m.c.. La gravità delle malformazioni è variabile: da vere e proprie mostruosità, spesso incompatibili con la vita, a gravi alterazioni morfologico-funzionali gravemente disabilitanti, a lesioni d’organo risolvibili con interventi chirurgici riabilitativi (alterazioni della settazione cardiaca, palatoschisi). In alcuni casi le malformazioni non sono di tipo morfologico ma funzionale. Rientrano tra queste le lesioni cerebrali di vario grado con deficit intellettuale e talvolta anche con impedimento motorio. Nel complesso è chiaro che le m.c. rappresentano un problema di enorme impatto sociale non solo per le gravi conseguenze emotive e umanitarie che si verificano nelle famiglie colpite da queste pesanti patologie, ma anche per il non irrilevante impatto economico che hanno nel bilancio del servizio sanitario nazionale dal momento che molti individui affetti da m.c. richiedono cure e supporti medici e paramedici per tutta la vita. Malformazioni congenite si sono verificate sempre nella storia dell’uomo, come documentato dalla mitologia greca e dalle osservazioni di Aristotele su queste alterazioni dello sviluppo. Molti scienziati dei secoli passati si sono occupati dell’argomento riportando casi di malformazioni reali e anche di pura fantasia (si veda, ad esempio, il mostro di Cracovia che si narra fosse nato nella città polacca nel 1543 con teste di cane a livello delle articolazioni del ginocchio e del gomito e teste di scimmia alle ascelle). Solo nel 1832 venne pubblicato il primo vero trattato di Teratologia ad opera dell’anatomico francese Isidore Geoffroy de Saint Hilaire, una mastodontica opera in tre volumi in cui l’autore descrive minuziosamente e classifica tutti i tipi di malformazioni (vere) fino ad allora conosciute (in pratica tutte le malformazioni note anche ai giorni nostri). La grande opera del Saint Hilaire è a tutt’oggi valida per la nomenclatura scientifica delle principali m.c.. Ma l’interrogativo che generazioni di scienziati si era posto era quello concernente le cause delle malformazioni. Tra il Medio Evo e la fine del XIX secolo le cause più accettate erano anche le più fantasiose: accoppiamento con animali o, ancor peggio per le conseguenze, con il demonio; immaginazione, influssi degli astri ed altro (Giavini, 2004). Solo alla fine del XIX secolo, anche sulla scorta delle nuove scoperte e tecniche nel campo dell’embriologia, Camille Dareste affronta il problema delle m.c. da un punto di vista sperimentale. Il modello sperimentale di cui disponeva era l’embrione di pollo in ovo, qualcosa su cui non era 19 SCIENZE BIOLOGICHE | SCIENZE E RICERCHE • N. 5 • MARZO 2015 semplice agire per ottenere alterazioni dello sviluppo. Ciononostante Dareste riuscì ad ottenere una vasta gamma di m.c., molte delle quali paragonabili a quelle osservate nell’uomo, attraverso semplici ma efficaci interventi come descrive dettagliatamente nel suo “Reserches sur la production artificielle des monstruosités” pubblicato nel 1871. Attraverso variazioni della temperatura d’incubazione, scuotimento delle uova, invecchiamento delle uova prima di incubarle fu in grado di ottenere una vastissima tipologia di malformazioni dimostrando per la prima volta che fattori esogeni di tipo fisico potevano alterare gravemente lo sviluppo embrionale. Parecchi anni più tardi F. Hale (1933) notò che maialini nati da madri mantenute con diete carenti in vitamina A erano privi di occhi. Si apriva in questo modo la ricerca teratologica impegnata a verificare se agenti chimici potessero interferire con lo sviluppo normale dell’embrione di mammifero. In una prima fase, sulla base dei risultati di Hale, si testarono su topi e ratti diete carenti di diversi tipi di vitamine. Warkany e Nelson (1942) dimostrarono l’attività teratogena di diete carenti in vitamina B2 nel ratto e Thiersch nel 1950 dimostrava che la somministrazione a ratte gravide di aminopterina, un potente antagonista dell’acido folico, determinava la morte di tutti gli embrioni. Sulla base di questo risultato pensò di utilizzare l’aminopterina come abortivo nelle donne. In un primo esperimento clinico dieci delle dodici donne cui fu amministrato il farmaco abortirono, ma due di loro, dopo parto cesareo, misero alla luce feti affetti da gravissime malformazioni. Dunque sostanze chimiche cui era esposta la madre nei primi mesi di gravidanza erano in grado di indurre malformazioni. Negli anni ’50 del secolo scorso la sperimentazione di numerose sostanze chimiche su animali da laboratorio aveva reso evidente che la teratogenesi chimica era un dato di fatto. Eppure, nonostante il grande numero di prove, questa evidenza rimase confinata nell’ambito accademico, quasi che quegli esperimenti fossero delle interessanti ma poco utili curiosità scientifiche prodotte da valenti ricercatori dotati di uno scarso senso della realtà. La maggior parte degli ostetrici e ginecologi dell’epoca non prese minimamente in considerazione questi dati. Il concetto dell’intangibilità dell’embrione umano da parte di agenti esogeni di qualsiasi tipo, grazie alla protezione della placenta, era dogma. Anche i ministeri della sanità di diversi paesi non consideravano importante alcun tipo di test su farmaci o sostanze chimiche per verificarne la sicurezza in gravidanza. La stessa Food and Drug Administration (FDA), la potente agenzia regolativa degli USA, in un documento del 1955 richiedeva alle industrie “appropriate toxicity tests. Recommended procedures fell into reasonably well definied categories, such as pharmacodynamics, acute toxicity, subacute toxicity, chronic toxicity. Reproduction studies are really part of chronic toxicity experiments and should yield information as to whether the substance in question will affect fertility, lactation, size of litter, and mortality of the young”. Nessun riferimento a malformazioni. Il problema principale era la fertilità e, eventualmente, la mortalità embrionale. La cosa più rilevante era che questo tipo di test era richiesto solo per gli additivi alimentari, non per 20 i farmaci o per altre sostanze chimiche. La preoccupazione della FDA era che gli additivi alimentari, introdotti con il cibo presumibilmente per lunghi periodi di tempo, potessero indurre effetti indesiderati a livello delle gonadi. Eppure altre importanti scoperte avrebbero dovuto aprire gli occhi a chi di dovere circa la permeabilità della placenta umana. Nel 1941 un giovane oftalmologo australiano, Norman McAlistair Gregg, aveva verificato una insolitamente elevata incidenza di bambini affetti da cataratta, spesso associata ad altre malformazioni, più frequentemente cardiache. Gregg fu in grado di scoprire che questi bimbi erano nati da donne che avevano contratto, durante la gravidanza, la rosolia di cui si era avuta un’epidemia alcuni mesi prima. L’associazione tra queste m.c. e la rosolia fu presto confermata e accettata. Dunque un virus poteva essere causa di m.c. nell’uomo. Inoltre, fin dal 1939, si sapeva che la toxoplasmosi in gravidanza poteva essere causa di malformazioni cerebrali. Nel 1957 l’industria chimico-farmaceutica tedesca Grunenthal immetteva sul mercato un sedativo di mediocre attività farmacologica che risultò essere molto attivo come antiemetico in gravidanza. Si chiamava Talidomide e fu un successo internazionale. Il 16 settembre 1961 H. R. Wiedemann riportava su Med. Welt che un’inusuale malformazione agli arti si era riscontrata nei neonati di donne che avevano utilizzato questo farmaco in gravidanza. Il 16 dicembre 1961 la rivista Lancet pubblicava una lettera di 15 righe inviata dal pediatra australiano W. G. McBride che scriveva: ”negli ultimi mesi ho notato che l’incidenza di anomalie multiple in bambini nati da donne che hanno utilizzato talidomide in gravidanza è molto elevata. Si tratta prevalentemente di malformazioni delle ossa. Qualcuno dei vostri lettori ha visto simili malformazioni in figli di donne che hanno fatto uso di questo farmaco in gravidanza?” Il 6 gennaio 1962 W. Lenz confermava in una lettera a Lancet di aver visto 52 bimbi affetti da malformazioni agli arti nati da donne che avevano utilizzato Contergan (Talidomide) in gravidanza e che, dopo aver discusso della possibile correlazione Contergan – malformazioni in una conferenza, aveva ricevuto lettere che riportavano altri 115 casi. Si trattava prevalentemente di malformazioni a livello degli arti che andavano, nei casi più gravi, dalla completa assenza degli arti (amelia), all’assenza delle porzioni intermedie con la mano articolata direttamente alla spalla (focomelia), fino a più modeste malformazioni delle dita. L’associazione talidomide-malformazioni degli arti era chiara, tanto più che dopo le pubblicazioni di Wiedeman, McBride e Lenz, molte altre segnalazioni arrivarono da quasi tutto il mondo. La Grunenthal ritirò il farmaco dal commercio. Si calcola, tuttavia, che nel breve periodo della sua commercializzazione oltre un milione di donne gravide nel mondo ne abbiano fatto uso e che più di 10.000 bambini siano nati con gravi malformazioni non solo agli arti ma anche al sistema cardiovascolare e all’orecchio. Fu una tragedia enorme che aprì gli occhi a tutti coloro che non avevano voluto credere ai risultati sperimentali: alcune sostanze chimiche possono danneggiare seriamente l’embrione indipendentemente dalla loro tossicità sugli organismi adulti. Il SCIENZE E RICERCHE • N. 5 • MARZO 2015 | SCIENZE BIOLOGICHE Talidomide era un farmaco praticamente atossico, privo di effetti collaterali e privo (almeno quando fu commercializzato) anche di una provata attività farmacologica. Da quel momento fu tutto un fiorire di studi sperimentali mirati a verificare l’attività teratogena del Talidomide su diversi modelli animali. Lo si somministrò a topi, ratti, criceti, conigli, gatti, cani, diverse specie di scimmie e persino a embrioni di pollo. Ma con risultati deludenti. Malformazioni come quelle osservate nell’uomo furono indotte solo in conigli (usando dosi molto elevate) e in alcune specie di scimmie. Ma anche e soprattutto le agenzie regolative di molti paesi erano in grande fermento per trovare un modo per prevenire quella che non era più considerata una cosa impossibile: l’induzione di m.c. nell’uomo da parte di sostanze chimiche. Si tennero convegni, congressi, riunioni di esperti che portarono nel 1966 la FDA ad emanare le nuove linee guida per gli studi sulla riproduzione e per la valutazione della sicurezza per l’embrione di farmaci per uso umano. Per la prima volta veniva stabilito per legge che prima dell’immissione in commercio di un farmaco questo doveva essere testato per i suoi effetti sulla fertilità ma anche sullo sviluppo embriofetale attraverso due studi ad hoc condotti su due specie animali diverse di cui una doveva essere un roditore (consigliati ratto o topo) ed una un non roditore (consigliato il coniglio). Ben presto molti altri paesi adottarono le linee guida proposte dalla FDA. CAUSE DI MALFORMAZIONI Gli anni che seguirono il tragico evento del Talidomide non si limitarono a produrre un numero enorme di ricerche sperimentali sugli effetti di sostanze chimiche somministrate durante la gravidanza. Videro anche una svolta nella ricerca epidemiologica sul rapporto tra m.c. e loro possibili cause, ricerche che continuano incessantemente anche ai giorni nostri. Ciò ha permesso di individuare le principali cause di m.c. nell’uomo. Secondo Nelson e Holmes (1989) circa il 28% delle malformazioni è di origine genetica (aberrazioni cromosomiche o alterazioni monogeniche); il 2% è dovuto ad infezioni materne in gravidanza (rosolia, toxoplasmosi, citomegalovirus); l’1,5% è dovuto a malattie dismetaboliche materne (diabete, fenilchetonuria); meno dell’1% a fattori fisici (raggi X, ipertermia), circa il 2% ad esposizione a sostanze chimiche, inclusi i farmaci. Il problema è che circa il 65% delle m.c. nell’uomo è ancora da eziologia sconosciuta, non si conosce, insomma, quale sia la loro causa. Per quanto riguarda le sostanze chimiche, quelle accertate per essere causa di malformazioni nell’uomo sono elencate nella tabella riportata nella pagina. Ma non siamo per niente certi che sia del tutto esauriente. Il problema, dal punto di vista epidemiologico, è che, per ottenere un risultato statisticamente significativo, è necessario che vi sia un incremento importante dell’incidenza di una o più malformazioni in relazione alla causa considerata, fenomeno che raramente si verifica (soprattutto se si studiano popolazioni poco numerose) a meno che si abbia a che fare con agenti teratogeni molto potenti. Il timore è che, più frequentemente, gli agenti teratogeni agiscano in maniera subdola provocando un basso numero di malformazioni che sfuggono alle ricerche epidemiologiche anche più sofisticate. D’altra parte il numero di sostanze chimiche che si sono dimostrate in grado di produrre m.c. in una o più specie animali da laboratorio è parecchio più alto. PRINCIPI GENERALI DI TERATOGENESI CHIMICA Le numerose ricerche condotte sia prima che dopo l’evento Talidomide su animali da laboratorio hanno permesso di individuare alcuni principi generali che governano la teratogenesi indotta da sostanze chimiche, formulati per la prima volta da Wilson nel 1973, ma ancora del tutto validi. 1. Come in altri campi della tossicologia anche nella teratogenesi vale il principio della relazione dose – effetto. La frequenza e la gravità delle malformazioni incrementano con l’incrementare della dose utilizzata, partendo da una dose priva di effetti per arrivare ad una dose che provoca il 100% di effetto. Spesso le dosi alte provocano la morte dell’embrione, probabilmente perché inducono malformazioni talmente gravi da essere incompatibili con la vita intrauterina. Questo principio è molto importante dal punto di vista tossicologico perché sottintende che la teratogenesi è un fenomeno a soglia e non un fenomeno stocastico; quindi, Agente Funzione Effetti Aminopterina, metotrexate Antitumorali, antagonisti folati Malformazioni multiple Androgeni Ormoni Mascolinizzazione genitali esterni Acido valproico Anticonvulsivo Spina bifida, malformazioni facciali Carbamazepina Anticonvulsivo Spina bifida, malformazioni multiple Cocaina Sostanza ricreativa Lesioni cerebrali e renali Cumarina, warfarina Anticoagulante Ipoplasia nasale, malformazioni cerebrali, aborto Dietilstibestrolo Estrogeno sintetico Alterazioni genitali esterni, neoplasie vaginali Etanolo Solvente, sostanza ricreativa Malformazioni facciali, cerebrali Fenitoina Anticonvulsivo Malformazioni facciali e multiple Mercurio Scarto industriale Paralisi cerebrale, ritardo mentale Piombo Scarto industriale Ritardo mentale PCBs (bifenili policlorurati) Contaminanti ambientali Ritardo mentale, pigmentazione cute Retinoidi Antiacne Sistema nervoso, orecchio, cuore, scheletro Talidomide Antiemetico, antitumorale Arti, cuore, orecchio, autismo(?) Tetracicline Antibiotici Pigmentazione denti 21 SCIENZE BIOLOGICHE | SCIENZE E RICERCHE • N. 5 • MARZO 2015 in esperimenti ben condotti, è possibile individuare sempre, per una determinata sostanza, una dose al di sotto della quale non è possibile indurre malformazioni. 2. La teratogenesi chimica è un fenomeno tipicamente specie-specifico. Non tutte le specie sono egualmente sensibili all’effetto teratogeno di un determinato agente. Gli esempi sono numerosi: il Talidomide provoca malformazioni nell’uomo, nel coniglio (a dosi 100 volte superiori alla dose terapeutica) e in alcune specie di scimmie, ma non nel topo o nel ratto; l’acido valproico provoca spina bifida nell’uomo ma non nel ratto in cui induce malformazioni allo scheletro assile mai osservate nell’uomo; all’opposto l’acido acetilsalicilico (aspirina) provoca malformazioni scheletriche nei roditori ma non nell’uomo. Le differenze nella risposta talvolta non si limitano alla specie, ma si riscontrano anche a livello di sottospecie o ceppi: il cortisone è in grado di indurre palatoschisi nei topi di ceppo C57Bl ma non nei topi di ceppo A, a parità di dose e giorno di trattamento. Le ragioni di queste differenti risposte non sono del tutto chiare. Si ritiene che siano multifattoriali e legate al genotipo materno e dell’embrione, a differenze nel metabolismo dello xenobiotico e a differenze nella tossicocinetica in specie o ceppi diversi. Comunque sia, questo principio pone dei seri limiti nell’interpretazione dei risultati sperimentali ai fini della prevenzione della m.c. da agenti chimici. E’ del tutto evidente che il principio di precauzione farà si che una sostanza che risulti teratogena in una specie animale non venga commercializzata o, se assolutamente necessaria, venga commercializzata adottando opportune misure di sicurezza, diverse a seconda che si tratti di un farmaco o di una sostanza presente nell’ambiente (pesticidi, sostanze chimiche nell’ambiente di lavoro). Nel primo caso è necessario segnalare che il farmaco non deve essere somministrato in donne in età fertile. Nel secondo caso è possibile utilizzare i “ fattori di sicurezza” (FS). Il FS è un valore del tutto empirico che si utilizza per individuare una dose che, ragionevolmente, non dovrebbe costituire un rischio per gli individui esposti: ADI = Admissible Daily Intake. Il fattore di sicurezza si applica alla dose priva di effetti ottenuta negli esperimenti sugli animali. As esempio, se la sostanza X ha una dose priva di effetti di 10mg/kg, applicando un FS di 1000 si ottiene un ADI di 10/1000 = 0,01mg/kg/giorno. Si accetta, insomma, che una dose mille volte inferiore a quella che non produce effetti nell’animale da esperimento possa essere sicura per l’esposizione umana. 3. Esiste un periodo sensibile per l’induzione di specifiche malformazioni. Prima di tutto è importante sottolineare che gli agenti teratogeni agiscono solo in un determinato periodo della gravidanza, il cosiddetto periodo morfogenetico/organogenetico, durante il quale si individua la struttura generale del corpo dell’embrione e si abbozzano i diversi organi e apparati. Questo periodo ha inizio al momento dell’impianto in utero e dura un periodo di tempo variabile a seconda delle specie. Circa 10 giorni nei roditori, circa due mesi nell’uomo. Nell’ambito del periodo di suscettibilità, inoltre, si ottengono malformazioni diverse a seconda del momento in 22 cui l’embrione è esposto all’agente teratogeno. Le malformazioni a livello dell’arto superiore nei bambini esposti in utero a Talidomide sono state prodotte quando il farmaco è stato somministrato nell’arco di tempo compreso tra il 20° ed il 30° giorno di età embrionale. Prima o dopo questo periodo la malformazione all’arto non è inducibile. Ciò spiegherebbe, in parte, la relativamente bassa frequenza di bambini malformati (circa 10.000) a fronte del gran numero di donne che hanno utilizzato il farmaco in gravidanza: solo quelle che l’hanno utilizzato in quell’arco temporale hanno avuto figli con malformazioni. 4. Esiste un quarto principio, relativo agli esiti dell’esposizione in utero ad agenti chimici che non sono soltanto malformazioni congenite, ma anche morte dell’embrione, ritardo di sviluppo e deficit funzionale di organi e sistemi( sistema nervoso, immunitario, endocrino, riproduttivo ecc.). Per questa ragione la vecchia terminologia di teratogenesi è stata sostituita con la più moderna e omnicomprensiva “tossicità dello sviluppo”. Con questa nuova visione del problema dell’esposizione in utero l’attenzione non è più focalizzata solo sul periodo organogenetico ma su tutta la gravidanza perché se il periodo organogenetico è quello più a rischio per le alterazioni morfologiche, tutto l’arco della gravidanza è a rischio per alterazioni di tipo funzionale, molto gravi e invalidanti anche se non morfologicamente visibili. Per questa ragione il termine agente teratogeno viene attribuito alle sole sostanze chimiche in grado di indurre m.c.. Per le sostanze che provocano altre patologie embriofetali si preferiscono i termini “agente embriotossico o fetotossico”. MECCANISMI DI TERATOGENESI Nonostante lunghi anni di ricerche, un punto ancora oscuro nella produzione di m.c. è proprio relativo ai meccanismi attraverso i quali gli agenti teratogeni inducono i loro effetti sull’embrione. In questi ultimi anni alcuni passi avanti sono stati fatti per chiarire questo aspetto, ma ancora molto rimane da fare. Le ragioni dell’insuccesso nella completa comprensione dei meccanismi di teratogenesi da agenti chimici sono almeno due: 1) prima di tutto la complessità dei meccanismi molecolari che controllano lo sviluppo embrionale. Durante gli ultimi anni sono stati fatti enormi progressi nella comprensione delle interazioni molecolari che controllano i diversi aspetti dello sviluppo (proliferazione cellulare, migrazione cellulare, differenziamento, apoptosi ecc.), ma ancora esistono molti punti oscuri che devono essere chiariti; 2) la seconda ragione è, in qualche modo, conseguenza della prima. E’ verosimile che gli agenti teratogeni agiscano interferendo con più meccanismi che controllano lo sviluppo embrionale. Sulla base delle attuali conoscenze il controllo dello sviluppo embrionale può essere, semplicisticamente, visto come un’espressione differenziale di specifici geni, in specifici siti ed in specifici momenti dello sviluppo. Questi geni codificano per fattori di trascrizione che attivano o reprimono l’espressione di altri geni. Il preciso coordinamento dei processi di sviluppo richiede interazioni tra cellule e tessuti embrionali SCIENZE E RICERCHE • N. 5 • MARZO 2015 | SCIENZE BIOLOGICHE attraverso segnali chimici (induzione embrionale) che controllano l’attività di specifici geni. L’espressione genica, inoltre, non è regolata solo da fattori di trascrizione ma anche da altre molecole, chiamate morfogeni, capaci di diffondere lungo le strutture embrionali e di modulare l’espressione genica interagendo con specifici recettori nucleari. L’attività di questi morfogeni è strettamente correlata alla loro concentrazione tissutale regolata da sistemi enzimatici intraembrionali che controllano la loro precisa concentrazione in specifici organi. Uno dei morfogeni più conosciuti è l’acido retinoico. Alterazioni della concentrazione di acido retinoico L’acido retinoico (AR), metabolita della vitamina A, è il più noto morfogeno in embrioni animali. Una stretta correlazione tra alterate concentrazioni embrionali di AR e malformazioni cardiache, facciali, del sistema nervoso, delle vertebre e degli arti è stata ampiamente documentata. La sintesi embrionale di AR è basata sulla ossidazione del retinolo attraverso alcool e aldeide deidrogenasi. Il suo catabolismo è controllato da enzimi appartenenti alla famiglia Cyp26 (Cyp26A1, B1, C1). Uno sbilanciamento tra sintesi e degradazione di AR può portare ad un eccesso o ad una carenza del morfogeno con effetti, in entrambi i casi, deleteri per lo sviluppo. Tra le sostanze che si sono dimostrate in grado di interferire con la sintesi di AR vi è l’etanolo, attraverso un’inibizione competitiva degli enzimi deputati alla sua sintesi. D’altra parte, sostanze che siano in grado di interferire con gli enzimi che degradano l’AR possono determinare un aumento, anche transitorio, della sua concentrazione. Tra queste sono stati individuati alcuni fungicidi triazolici in grado di indurre malformazioni facciali e dello scheletro assile in animali da laboratorio. Iperacetilazione istonica Il grado di acetilazione degli istoni gioca un ruolo fondamentale nel modulare la struttura della cromatina e la trascrizione genica. L’acetilazione degli istoni, a carico delle acetiltransferasi, favorisce la trascrizione, la loro deacitalazione, operata dalle deacetilasi, la inibisce. Sostanze in grado di inibire le deacetilasi (HDACi, Histone Deacetylase inhibitors) producono una iperacetilazione istonica con conseguente alterata trascrizione genica. In questi ultimi anni sono state individuate numerose sostanze con questa attività e sono state studiate con interesse come possibili antitumorali. Molte di esse, però, possiedono anche una notevole attività terato- gena negli animali da esperimento. Lo stesso acido valproico, farmaco antiepilettico d’elezione, si è dimostrato essere un potente HDACi tanto da essere considerato un possibile farmaco antineoplastico. Nei roditori induce malformazioni specifiche a livello dello scheletro assile ed iperacetilazione embrionale a carico dei somiti, gli organi embrionali precursori delle vertebre. Stress ossidativo Numerosi xenobiotici possono essere bioattivati enzimaticamente a elettrofili reattivi o a radicali liberi che possono produrre ROS (Reactive Oxigen Species). Questi, se non detossificati da sostanze o da enzimi antiossidativi, possono danneggiare macromolecole importanti quali proteine, RNA e DNA. In generale le cellule sono dotate di un buon macchinario per difendersi dai ROS, che vengono continuamente prodotti fisiologicamente, costituito da enzimi quali le superossidodismutasi e le catalasi e da molecole antiossidanti come il glutatione e le vitamine C ed E. Sfortunatamente l’attività antiossidante delle cellule embrionali è solo pari al 5% di quella delle cellule di organismi adulti sicché l’embrione può essere facilmente oggetto dell’effetto tossico provocato dai ROS. La difenilidantoina incrementa i livelli di ossidazione del glutatione e del DNA embrionali mentre alte concentrazioni di catalasi ne inibiscono l’attività teratogena. La somministrazione di antiossidanti quali la vitamina C o di catalasi riduce anche gli effetti teratogeni indotti da acido valproico in animali da laboratorio. Lo stesso etanolo può indurre stress ossidativo sia direttamente, attraverso la formazione di radicali liberi, che indirettamente riducendo la capacità antiossidante delle cellule (ad esempio riducendo i livelli di glutatione). Esperimenti sia in vitro sia in vivo hanno dimostrato che alte concentrazioni di antiossidanti riducono significativamente la tossicità cellulare indotta da etanolo. Alterata sintesi di colesterolo La sintesi intracellulare del colesterolo inizia dall’acetato e prosegue in una lunga serie di passaggi controllati da 23 SCIENZE BIOLOGICHE | SCIENZE E RICERCHE • N. 5 • MARZO 2015 specifici enzimi. Il knockout di alcuni di questi enzimi nel topo provoca la morte dell’embrione, dimostrando il ruolo fondamentale di questa molecola nello sviluppo embrionale. Nell’uomo esiste una sindrome nota come Smith-LemlyOptiz syndrome (SLOS) caratterizzata ad malformazioni facciali, palatoschisi, microcefalia, sindattilia e, nelle forme più gravi, ciclopia. Questa sindrome è dovuta ad una mutazione del gene DHCR7 che codifica per la 7-deidrocolesterolreduttasi, un enzima chiave per la sintesi del colesterolo. Topi ko per Dhcr7 presentano palatoschisi e dismorfie facciali. La somministrazione di AY9944, un inibitore sintetico della 7-deidrocolesterolreduttasi, in ratte gravide provoca una riduzione drastica dei livelli di colesterolo plasmatico e malformazioni facciali nei feti compatibili con la ciclopia. La somministrazione di colesterolo è in grado di prevenire le malformazioni indotte da questo inibitore. L’Antley-Bixler syndrome (ABS) è caratterizzata nell’uomo da brachicefalia, ipoplasia facciale, malformazioni cardiache e renali, curvatura anomala delle ossa lunghe. E’ associata ad alterazione del metabolismo degli steroli legata al malfunzionamento dell’enzima Cyp51, un altro enzima sulla via della sintesi del colesterolo. Embrioni di topo ko per il gene che codifica per questo enzima muoiono in utero al 15° giorno di gestazione, ma se vengono esaminati morfologicamente si può osservare che presentano gravi malformazioni cardiache (probabilmente responsabili della morte), ipoplasia facciale, malformazioni agli arti. L’attività dei fungicidi azolici (triazoli e imidazoli) si basa proprio sull’inibizione selettiva di Cyp51 al fine di alterare la sintesi della parete cellulare fungina. Il Fluconazolo ed altri fungicidi azolici impiegati in terapia umana ed in agricoltura si sono dimostrati teratogeni nei roditori provocando malformazioni facciali ed allo scheletro assile. Sono stati, inoltre, riportati alcuni case reports di bambini esposti in utero ad alte dosi di Fluconazolo che presentavano alla nascita malformazioni simili a quelle della ABS. Alterata espressione genica Come esposto prima, lo sviluppo embrionale è coordinato da uno stretto controllo genico, quindi alterazioni dell’espressione genica possono provocare alterazioni dello sviluppo. Negli ultimi anni molte ricerche sono state fatte al fine di individuare quali geni vengono modificati nella loro espressione a causa di esposizione dell’embrione a xenobiotici. Mediante la tecnica del microarray si è potuto costatare come uno xenobiotico sia in grado di provocare un grande turbamento nella genomica e proteomica embrionale sia per un effetto diretto dello xenobiotico sul DNA (raramente) sia attraverso altri meccanismi (ROS, iperacetilazione ecc.). In genere l’esposizione ad un singolo xenobiotico modifica l’espressione di decine di geni per molti dei quali non è neppure nota la funzione, per altri la funzione sembra non essere congrua con l’effetto teratogeno indotto, ma talvolta si individuano geni la cui alterata espressione può spiegare l’effetto teratogeno osservato. In realtà, nonostante i numerosi 24 studi condotti, non è ancora stato possibile individuare con sicurezza quali geni siano responsabili degli effetti teratogeni indotti da un particolare agente. CONCLUSIONI La teratologia sperimentale, o tossicologia dello sviluppo che dir si voglia, costituisce a tutt’oggi il mezzo più valido per l’individuazione di sostanze chimiche con potenziale teratogeno e, quindi, per prevenire tali effetti sull’uomo. Non è da sottovalutare che, dopo la tragedia del Talidomide, altri episodi del genere non si sono più verificati. Le sostanze teratogene per l’uomo sono sostanze la cui potenzialità di indurre malformazioni era nota, ma che sono state comunque permesse in base al rapporto rischio/beneficio. Molti farmaci teratogeni sul mercato non sono sostituibili (vedi antiepilettici, antitumorali, anticoagulanti). Viceversa, l’etanolo, che costituisce il più importante agente embriotossico per la specie umana, responsabile della maggior parte degli eventi tossici sull’embrione e sul feto, è una sostanza a prevalente uso ricreativo con rilevanti effetti tossici non solo sul prodotto del concepimento, ma anche sull’adulto con noti effetti neurotossici, epatotossici e cancerogeni: ciononostante è di libera vendita. L’intensa attività di ricerca nel settore condotta sia dall’industria chimico- farmaceutica che dall’accademia ha, dunque, validamente contribuito alla prevenzione delle m.c. nell’uomo, anche a scapito di qualche prodotto non immesso sul mercato a scopo precauzionale. Ma è estremamente importante non abbassare la guardia. Al contrario, sarebbe opportuno incentivare le ricerche di base sulla teratologia sperimentale allo scopo di individuare dei marcatori biologici di teratogenicità che, se utilizzati in test alternativi in vitro, permetterebbero una notevole riduzione dei costi della sperimentazione teratologica in vivo. BIBLIOGRAFIA ESSENZIALE Giavini E. Figli di Satana. Mostri umani tra realtà e leggenda. Costa & Nolan, Milano, 2004. Giavini E., Menegola E. Biomarkers of teratogenesis: suggestions from animal studies. Reprod. Toxicol., 34: 180-185, 2012. Nelson K., Holmes L.B. Malformations due to presumed spontaneous mutations in newborn infants. N. Eng. J. Med., 320: 19-23, 1989. Schaefer C., Peters P., Miller R. K. Drugs during pregnancy and lactation. Academic Press, NY, 2015. Stephens T., Brynner R. Dark remedy: the impact of thalidomide and its survival as a vital medicine. Basic Books, NY, 2009. Wilson J. G. Environment and birth defects. Academic Press, NY, 1973. SCIENZE E RICERCHE • N. 5 • MARZO 2015 | MEDICINA Neuroscienze applicate e terapia integrata del disagio psichico. Nuove frontiere per la comprensione e la cura della mente TULLIO SCRIMALI Professore Aggregato di Psicologia Clinica, Università degli Studi di Catania H INTRODUZIONE o avuto la fortuna, nel corso della mia carriera scientifica ed accademica, ma anche della mia storia personale, (sono nato all’inizio degli Anni Cinquanta) di assistere e, in una piccola misura, di partecipare in prima persona, come psichiatra, psicoterapeuta e neuroscienziato clinico, ad una vera e propria rivoluzione, iniziata tra la fine del secondo e l’inizio del terzo millennio e tuttora in pieno e tumultuoso svolgimento. Quando, ancora studente, nel corso degli anni Settanta, frequentavo la Facoltà di Medicina della Università di Catania, deciso a diventare Psichiatra e Psicoterapeuta, cominciai a patire un certo disagio per il fatto che tutte le Psicoterapie, allora in voga, da quelle di orientamento psicodinamico a quelle comportamentali e cognitive, ma anche quelle sistemiche e relazionali, ponessero il cervello “tra parentesi” e non se ne occupassero affatto, talvolta per espresso statuto epistemologico. Mi chiedevo come si potesse pensare di comprendere e curare la mente, se si sapeva così poco del funzionamento dell’organo, il cervello, che la produce e supporta, come un processo emergente, fatto, non di materia, ma di informazione. Decisi pertanto di abbracciare l’orientamento cognitivo, che, in Psicoterapia, mi sembrava quello più interessato alle evidenze sperimentali ed al laboratorio e di intraprendere lo studio della Neuroscienze applicate. Iniziai allora a coltivare una nuova disciplina, la Psicofisiologia che, nella metà degli Anni Settanta, stava creando un nuovo paradigma in Psicologia Clinica ed in Psichiatria, grazie alla applicazione di inedite metodologie strumentali. Tali nuove metodologie consentivano di monitorare parametri biologici connessi al funzionamento del sistema nervoso, centrale e periferico, e, soprattutto, di fare apprendere, al paziente stesso, dinamiche di autocontrollo ed autoregolazione, tramite una nuova me- todologia, sperimentale e clinica, denominata biofeedback (Scrimali e Grimaldi, 1982). Così, la mia tesi sperimentale di laurea, a cui lavorai per due anni, in un laboratorio artigianale che avevo allestito presso la Clinica Psichiatrica della Università di Catania, fu basata su Psicofisiologia applicata e Biofeedback, allora considerate ancora topiche quasi esoteriche. Le mie ricerche, dunque, furono piuttosto avversate dall’establishment Accademico di Psichiatria, che allora si divideva prevalentemente in due grandi correnti, quella abituata ad usare psicofarmaci e metodi biologici, in maniera acritica e massiccia e spesso contentiva (si pensi alla sedazione pesante, indotta da neurolettici ad alte dosi o all’uso indiscriminato dell’elettroshock) e quella, ben felice e del tutto soddisfatta, di parlare ancora di Edipo, Thanatos ed Eros senza riferimento alcuno ai processi del cervello umano. Oggi, invece, lo sviluppo della teoria dell’attaccamento e quella dei sistemi motivazionali interpersonali, ben documentate anche da studi di visualizzazione cerebrale e di Psicofisiologia applicata, ha permesso di comprendere la reale dinamica del rapporto che lega il bimbo ai genitori e cioè l’attaccamento e non certo l’eros, per la madre ed il desiderio di morte (thanatos) per il padre (Siegel, 2013) ! Edipo c’entra poco, infatti, nel bond che lega i figli piccoli ai genitori e, comunque, Freud aveva stravolto il senso del mito, visto che Edipo è piuttosto protagonista di una dramma epistemico e non certo erotico, il cui reale pathos è basato sulla mancanza di consapevolezza e sul discontrollo emozionale e relazionale. Uccide, infatti, senza saperlo, il padre Laio (ed altre persone innocenti) solo perché non sa gestire la propria ira ed una eccessiva aggressività, durante una rissa di strada. Questi, d’altra parte, era, a sua volta, un empio che aveva deciso di esporre il figlio per farlo morire sul monte Citerone, spinto dalla paura superstiziosa di una oscura profezia. Edipo effettivamente sposò la madre Giocasta ma non certamente spinto dall’eros, semmai dal desiderio di potenza, in quanto quel matrimonio lo portava a divenire re di Tebe, città 25 MEDICINA | SCIENZE E RICERCHE • N. 5 • MARZO 2015 della quale Giocasta era la regina. Si acceca in fine, comprendendo i tragici errori compiuti e l’orrore della sua condizione ma si presenta a Colono dopo una piena riscrittura narrativa della sua vicenda biografica che lo consegna alla fine di vita più consapevole e maturo. Penso, dunque, che Freud non abbia letto attentamente Edipo Re e, soprattutto Edipo a Colono, dittico inscindibile del grandissimo Sofocle che io invece ho tradotto dal greco antico sui banchi del liceo e goduto tante volte nello spettacolare teatro greco di Siracusa! Ma, si capisce, vivere nella Magna Grecia e percorrere ad Ortigia, le strade calcate da Platone, riserva alcuni indubbi vantaggi! Grazie agli studi di specializzazione, svolti a Milano, ed alla cruciale esperienza presso il laboratorio di Psicofisiologia clinica, che in quella Università era stato allestito, potei incamminarmi, tra la fine degli anni Settanta e l’inizio degli Ottanta, sulla strada delle Neuroscienze applicate in Psichiatria e Psicoterapia. Il percorso di studi, ricerche ed applicazioni cliniche, attuato poi presso la Clinica Psichiatrica della Università di Catania, dove lavoro tuttora, dopo oltre trenta anni di intensa attività, mi hanno consentito di sviluppare una nuovo approccio allo studio della mente umana ed al trattamento del disagio psichico che ho definito Neoroscience-Based Cognitive Therapy (Scrimali, 2010, 2012). (Berger, 1929). Le tecniche di visualizzazione funzionale della attività cerebrale, quale la fMRI, hanno poi consentito una svolta definitiva a partire dagli Anni Ottanta (Bertolino, Di Giorgio, 2006). Nel 1991 ho pubblicato, con Liria Grimaldi, un libro (Neuroscience-Based Cognitive Therapy. New Methods for Assessment, Treatment and Self-Regulation) che costituisce una pietra miliare del mio percorso verso lo sviluppo di una Psicofisiologia cognitiva e complessa che si allontanava dall’alveo riduzionista della Psichiatria biologica per avvicinarsi alla Psicologia ed alla Psicoterapia Cognitive, secondo un approccio non riduzionista, ma dinamico e complesso (Scrimali, Grimaldi, 1991). In quel libro si ponevano le basi di una Neuroscienza applicata in Psichiatria e Psicoterapia. Le metodiche, individuate e sviluppate quali la Elettroencefalografica e lo studio della Attività elettrodermica, entrambe studiate mediante metodologie digitali e informatiche, erano però ancora applicate soprattutto in ambio di ricerca, non consentendo agevolmente la loro trasposizione in ambito clinico. Un salto di qualità importante ho potuto realizzarlo grazie allo sviluppo di una nuova branca clinica delle Neuroscienze che ho denominato Neuroscience-Based Cognitive Therapy (Scrimali, 2010, 2012). BACKGROUND EPISTEMOLOGICO NEUROSCIENCE-BASED COGNITIVE THERAPY I grandi padri della psicoterapia moderna, Freud and Jung, avevano tentato di basare le loro concettualizzazioni ed applicazioni cliniche sulla conoscenza del cervello. Entrambi condussero infatti studi in questa direzione, Freud più teorici e concettuali (Nortoff, 2012 ), Jung più clinici ed applicativi (Jung, 1906). Quest’ultimo Autore fu anzi il primo psicoterapeuta ad introdurre, nel setting del lavoro clinico, con i suoi pazienti, una vera e propria strumentazione di Psicologia clinica costituita da un ancora rudimentale psicogalvanometro. Se Freud e Jung decisero poi di sviluppare le loro teorie, intuitive e geniali, ma niente affatto corroborate da dati relativi alla dinamica funzionale cerebrale, fu solo per l’immaturità della conoscenze sul cervello e delle modalità di studio dello stesso disponibili tra la fine dell’Ottocento e la prima parte del Novecento. Fu infatti l’avvento delle tecnologie elettroniche, quali il monitoraggio clinico della attività elettroencefalografica, sviluppata d Berger, a partire dalla fine degli anni Venti del ventesimo secolo, a fornire finalmente metodiche affidabili, in grado di cominciare a documentare oggettivamente le attività del cervello. Si pensi al grande balzo in avanti che la elettroencefalografia consentì di effettuare nella comprensione dei processi relativi alla veglia, al sonno ed al sogno 26 Le metodologie di indagine più tipiche delle neuroscienze contemporanee sono costituite da tutte quelle tecniche che rendono possibile uno studio morfologico e, soprattutto, funzionale, accurato, oggettivo e replicabile del sistema nervoso, centrale, periferico e viscerale. Tra le tecniche di visualizzazione cerebrale, quelle relative al monitoraggio dell’attività elettroencefalografica, la Elettroencefalografia Digitale Quantitativa (QEEG) e lo studio digitale dell’attività elettrodermica (QEDA) sono oggi le facilmente utilizzabili, abbastanza agevolmente, nel setting clinico (Scrimali, 2012). Una vera e propria rivoluzione, nell’ambito delle tecniche di imaging cerebrale, si è registrata con lo sviluppo di nuove metodologie, in grado, non solo di individuare alterazioni strutturali, nella massa cerebrale, ma, addirittura, di visualizzare, in tempo reale, le modificazioni biochimiche che si verificano nelle varie aree cerebrali, quando queste vengono sollecitate a operare. Si può dire che, con la messa a punto di tali metodologie, si è finalmente concretizzato l’antico sogno dell’uomo di poter disporre di uno strumento di osservazione diretta dell’attività cerebrale, nell’individuo vivente. SCIENZE E RICERCHE • N. 5 • MARZO 2015 | MEDICINA Le principali tecniche di imaging cerebrale funzionale sono la tomografia ad emissione di un singolo positrone (Single Positron Emission Tomography, SPECT), la tomografia ad emissione di positroni (Positron Emission Tomography, PET) e la risonanza magnetica funzionale (Functional Magnetic Risonance, fMRI), (Bertolino e Di Giorgio, 2006). La prime due metodologie rendono possibile visualizzare l’attivazione funzionale cerebrale attraverso l’evidenziazione del flusso ematico. La PET, in particolare, consente lo studio dinamico del metabolismo cerebrale, sia grazie alla visualizzazione del flusso ematico regionale, che del consumo locale di glucosio. Oltre a ciò è possibile l’analisi funzionale dei vari sistemi cerebrali che utilizzano diversi neurotrasmettitori. La tecnica che, a partire dagli anni Novanta, ha fatto segnare una vera e propria impennata degli studi di visualizzazione dinamica funzionale del sistema nervoso centrale, è la risonanza magnetica funzionale (fMRI). In particolare, una specifica metodica di fMRI utilizza il sangue come mezzo di contrasto naturale, basandosi sul fatto che l’emoglobina è diamagnetica mentre l’ossiemoglobina è paramagnetica. Nelle aree cerebrali, attivate funzionalmente, si verifica un aumento del consumo di ossigeno e di flusso ematico ossigenato, con conseguente maggiore presenza di emoglobina ossigenata e un decremento di deossiemoglobina. In tal modo la fMRI consente di visualizzare le aree cerebrali attivate, senza la necessità di somministrare alcun mezzo di contrasto. La metodica appare dunque estremamente maneggevole, a parte la necessità di dover inserire il paziente all’interno del tunnel della strumentazione. Le tecniche di visualizzazione morfologica e funzionale del sistema nervoso centrale restano, per ora, tuttavia, confinate al laboratorio, anche se un recente sviluppo sembra poterne consentire una possibile prossima applicazione proprio in ambito clinico. Infatti, è stato da poco sviluppato negli Stati Uniti, un nuovo sistema di analisi funzionale, limitata al lobo frontale, che può applicarsi, non più inserendo il paziente, disteso, in un tunnel, ma solo applicando alcuni piccoli dispositivi sulla fronte (Biopac, 2009). Il sistema è anche in grado di attivare, mediante uno schermo, posto dinanzi al paziente, funzioni cognitive ed esecutive tipiche dei lobi frontali e di registrare i correlati funzionali interni di pattern di attività nervose, sia in condizioni normali, che patologiche, il tutto in un setting quasi clinico con il paziente comodamente seduto e pochissimo disturbato dalla sola presenza di piccoli dispositivi fissati sulla fronte. Il costo del sistema, di circa 30.000 euro, è piuttosto accessibile e lo rende, almeno sulla carta, uno strumento in grado di promuovere lo sviluppo delle ricerche di Psicologia clinica, fondate sull’analisi e la modificazione 27 MEDICINA | SCIENZE E RICERCHE • N. 5 • MARZO 2015 funzionali dei lobi frontali. Questa nuova tecnologia è stata denominata Functional Optical Brain Imaging e viene individuata dall’acronimo fNIR. Essa si basa, come la risonanza magnetica funzionale, sulla possibilità di analizzare in tempo reale le modificazioni metaboliche, relative all’attività dei neuroni, quantificando i livelli regionali di ossiemoglobina e di deossiemoglobina. L’analisi non viene effettuata con una metodologia riferibile al comportamento magnetico delle molecole di emoglobina ma grazie all’applicazione di tecniche spettroscopiche. Questa nuova e rivoluzionaria metodologia non richiede l’inserimento del paziente in un tunnel e consente di utilizzare solo una cuffia nella quale sono allocati 16 sensori. Scopo specifico di Neuroscience-Based Cognitive Therapy è quello di consentire, ad ogni clinico, di acquisire (per il basso costo) e di utilizzare agevolmente (grazie alla semplicità di impiego) strumentazioni per Psicofisiologia applica e per Biofeedback, nel setting clinico, con i pazienti, come si vede nella figura che rappresenta uno dei setting clinici che ho sviluppato. Lo scopo applicativo di Neuroscience-Based Cognitive Therapy è stato raggiunto anche grazie allo sviluppi di originali sistemi integrati di hardware e software che ho denominato MindLAB Set, NeuroLab Set e CardioLAB Set (Scrimali, 2012). Negli ultimi anni ho potuto disseminare la NeuroscienceBased Cognitive Therapy, in molti Paesi di quattro Continenti. L’ambito di applicazione più complesso ed integrato del nuovo modello Neuroscience-Based Cognitive Therapy in Psichiatria, Psicoterapia e Riabilitazione, può essere individuato nel mio lavoro sulla schizofrenia per la quale ho sviluppato un nuovo modello denominato Entropia della Mente ed un inedito protocollo terapeutico e riabilitativo, a cui ho attribuito il nome di Entropia Negativa (Scrimali, 2008). ENTROPIA DELLA MENTE ED ENTROPIA NEGATIVA La schizofrenia costituisce tuttora il problema centrale della Psichiatria, sia per quanto concerne l’aspetto psicopatologico e clinico, che terapeutico e riabilitativo. Se si considera, infatti, che la prevalenza, life time, di tale affezione si aggira intorno all’uno per cento della popolazione, senza sostanziali differenze, nelle varie regioni del pianeta, si realizza facilmente che tale drammatica condizione affligge oggi milioni di persone. Tenendo conto del carico di sofferenze, che questa patologia comporta, per i familiari, e degli enormi costi sociali che essa provoca, si comprende chiaramente come la terapia della schizofrenia costituisca una delle più importanti sfide in Psichiatria e Psicoterapia. A fronte di tale drammatica e complessa realtà, si è costretti ad ammettere una persistente arretratezza delle conoscenze scientifiche sulla dinamica della malattia e, soprattutto, la carenza di un approccio terapeutico, sistematizzato e soddi28 sfacente. Negli anni recenti, tuttavia, alcuni Autori della Psicoterapia Cognitiva hanno cominciato a proporre protocolli terapeutici e riabilitativi la cui efficacia ed efficienza appaiono dimostrate da convincenti evidenze sperimentali. Ancora in ombra resta comunque la dinamica eziologica e psicopatologica di questa condizione della mente umana che homo sapiens non condivide con nessuna altra creatura della Terra. Nella monografia, che ho pubblicato in Italia e, successivamente, in Inghilterra, in Inglese (Scrimali, 2006 e 2008) ho descritto una nuova prospettiva, sviluppata nel corso di numerosi anni di studi e ricerche, svolti presso la Clinica Psichiatrica della Università di Catania e l’Istituto Superiore per le Scienze Cognitive e già ampiamente discussa ed apprezzata in ambito internazionale, in America, Europa, Africa ed Asia. Tale prospettiva, costruttivista e informata alla logica dei sistemi complessi, si basa sui più recenti sviluppi delle Scienze contemporanee quali psicofisiologia, informatica, cibernetica, teoria dei sistemi complessi ed etologia, sia animale, che umana. Dopo aver delineato una nuova teoria sistemica del cervello e processuale della mente, fondata sulle concezioni del cervello modulare e della mente coalizionale, ho sviluppato una concettualizzazione multifattoriale della dinamica eziologica e un punto di vista complesso ed evolutivo della condizione psicotica, definita Entropia della Mente o Frenentropia. Successivamente, ho sviluppato un innovativo protocollo integrato, per la terapia e la riabilitazione del paziente, afflitto da schizofrenia, chiamato Entropia Negativa. Entropia della Mente ed Entropia Negativa costituiscono nuove e promettenti prospettive per la comprensione della condizione schizofrenica e per il suo trattamento basate appunto sulle Neuroscienze contemporanee. Grazie al protocollo Entropia Negativa, molti pazienti hanno conseguito, negli ultimi anni la guarigione clinica dalla malattia. Un’altra area clinica nel quale ho ampiamente sperimentato le tecniche della Neuroscience-Based Cognitive Therapy è quella delle dipendenze, specie per quel che riguarda la comprensione e la gestione dei processi biologici connessi al craving della sostanza o del comportamento (Scrimali, 2011). Per finire, l’adozione di tecniche di Neuroscienze applicate mi ha consentito anche di rivoluzionare la diagnostica, passando da una visione meramente categoriale della diagnosi and una più compiutamente processuale nell’ambito della quale i processi disfunzionali della mente sono valutati mediante tecniche di Psicofisiologia applicata e strumentazioni di QEEG e QEDA (Scrimali, 2007). CONCLUSIONI Come ho cercato di dimostrare, molto sinteticamente, in queste pagine, la possibilità di una applicazione quasi routinaria delle metodiche e delle conoscenze provenienti dal- SCIENZE E RICERCHE • N. 5 • MARZO 2015 | MEDICINA le neuroscienze, in ambito clinico, per la migliore comprensione del disagio psichico e per la implementazione di terapia integrate evidence-based, sembra a portata di mano. Sono presenti tuttavia, sul campo, alcune criticità. La più importante è individuabile nelle resistenze, opposte da molti Psicologi e Psichiatri, alla adozione di nuovi strumenti euristici brain-based e di in nuove metodologie neuroscience-based da applicare in ambito clinico per la valutazione ed il trattamento del paziente quali Psicofisiologia applicata e Biofeedback. Neuroscience-Based Cognitive Therapy, basata sulla epistemologia della complessità e sulla teoria dei sistemi dinamici non lineari, si deve confrontare oggi con il riduzionismo biologista sta che sta alla base della Psichiatria biologica, basata solo sul controllo dei sintomi e l’abuso di prescrizioni di psicofarmaci. Dall’altra parte, un diverso ostacolo, in ambito di Psicoterapia, sono gli atteggiamenti dei Colleghi Psicoterapeuti che mai vorrebbero accogliere l’innovazione tecnologica nella sacralità dei loro setting, sviluppati oltre cento cinquanta anni fa ma ancora attuati pedissequamente. Il confronto è tutt’ora in pieno svolgimento ed il successo della mia Neuroscience–Based Cognitive Therapy è attualmente molto più elevato in Asia (Cina, Taiwan, Corea e Giappone) dove la Psicoterapia non è appesantita dall’obsoleto e dogmatico patrimonio psicoanalitico e dove la tecnologia è vissuta come una importante risorsa, e non come un inutile fardello. Credo, comunque, che il trend sia irrimediabilmente orientato verso una ineludibile integrazione delle Neuroscienze in ogni articolazione del setting clinico per il trattamento del disagio psichico, come, appunto, ho cercato di dimostrare con questo articolo! BIBLIOGRAFIA Berger H (1929). Ubes dal Elektrenkephalogramm des Menschen. Archiv. Fur Psychiatric und Nervekrankneiten, 27, 527-570. Biopac (2009). www.biopac.com Jung K.G. (1906). Studies in Words Analysis. The Journal of Abnormal Psychology, Vol.1, June. Nortoff G. (2012). Psychoanalysis and the Brain – Why Did Freud Abandon Neuroscience? Frontiers in Psychology, Apr. 2. Scrimali T. (2006). Entropia della Mente ed Entropia Negativa. Nuove prospettive, cognitiviste e complesse, per la schizofrenia e la sua terapia. Franco Angeli, Milano. Scrimali T. (2008). Entropy of Mind and Negative Entropy. A new cognitive and complex approach to schizophrenia and its therapy. Karnac Books, London. Scrimali T. (2010). Neuroscienze e psicologia clinica. Dal laboratorio di ricerca al setting con i pazienti. Franco Angeli, Milano. Scrimali T. (2012). Neuroscience-Based Cognitive Therapy. New Methods for Assessment, Treatment and Self-Regulation. Wiley, Chichester. Scrimali T. (2011). Il Vincolo della Dipendenza. Un modello cognitivista e complesso per le dipendenze patologiche ed il loro trattamento. Franco Angeli, Milano. Scrimali T., Grimaldi L. (1982). Il Biofeedback della Attività Elettrodermica. Franco Angeli, Milano, 1982. Scrimali T., Grimaldi L. (1991). Sulle Tracce della Mente. Un approccio costruttivista e complesso in Psicofisiologia. Franco Angeli, Milano. Scrimali T., Alaimo, S.M., Grasso F. (2007). Dal Sintomi ai Processi. L’orientamento cognitivista complesso in Psicodiagnostica. Franco Angeli, Milano. Siegel, D. (2013). La Mente Relazionale. Neurobiologia dell’esperienza interpersonale. Raffaello Cortina Editore, Milano. 29 MEDICINA | SCIENZE E RICERCHE • N. 5 • MARZO 2015 I fattori di crescita del maxillo facciale BARTOLOMEO VALENTINO Morfopsicologo L a domanda a cui vogliamo rispondere nel presente articolo è la seguente: come è possibile che la faccia di un uomo sia diversa da tutti i miliardi di visi presenti sulla terra? Nemmeno a livello di gemelli si riscontra una identità totale, ma solo similitudine (in relazione al tipo di gemelli). Eppure, come vedremo, i meccanismi alla base dello sviluppo di un viso sono gli stessi in tutti gli uomini, prescindendo dalla razza, colore, ceto sociale, ecc. Mi piace citare a questo proposito un versetto, il 31 del canto XXIII del Purgatorio di Dante, quello dei golosi, quando Dante incontra Forese Donati, parente della moglie e suo compagno di dissipazioni in gioventù (oggi diremmo compagni di merenda), in cui si esprime così: “Chi nel viso delli uomini legge ‘omo’ ben avria quivi conosciuta l’emme”. Quella lettera M vista da Dante sul volto di Forese sarà stata specifica per quel goloso, dunque non sovrapponibile alle altre M degli 1 ospiti di quel girone. Tanto premesso, lo scopo della Morfopsicologia è proprio quello di cogliere le diversità morfologiche di un volto e correlare tali differenze con gli aspetti specifici di una personalità. A. CENNI DI EMBRIOLOGIA DEL MASSICCIO FACCIALE La regione Maxillo-facciale è una delle regioni fondamentali, sia per la vita vegetativa, sia per quella di relazione; essa svolge, infatti, un ruolo importante non solo nell’alimentazione e nella respirazione, ma anche nell’inserimento sociale 1 Secondo una antica tradizione nel volto umano si poteva leggere la parola OMO. Le tre gambe della M sarebbero le seguenti. Le due gambe laterali corrisponderebbero agli zigomi ed arcate sopracciliari. Il naso sarebbe la terza gamba centrale. Gli occhi situati tra le gambe sarebbero le due O della parola OMO. Dante si riferisce alla M di questa parola OMO, molto evidente nei golosi per la loro magrezza eccessiva 30 individuale mediante la mimica e il linguaggio. Dal punto di vista schematico, il cranio raggruppa due regioni differenti: Neurocranio e Splancnocranio. Per Neurocranio si intende la scatola cranica che racchiude e protegge la massa encefalica e le meningi. Lo Splancnocranio comprende le ossa che sono il supporto della masticazione, deglutizione, respirazione, fonazione. Lo splancnocranio è costituito da due regioni: un sistema naso-fronto-mascellare, il cui sviluppo è legato a quello dell’etmoide, e un sistema masticatorio che fa intervenire la mandibola. Esistono interazioni non solo tra questi due sistemi, ma anche tra lo splancnocranio e il neurocranio, attraverso il palato, modellato dall’azione della lingua. L’embriologia del sistema Maxillo-facciale, coinvolge due elementi distinti: gli archi branchiali e gli abbozzi facciali. Gli archi branchiali in numero di sei, sono delle sporgenze superficiali laterali dell’embrione ben visibili a partire dalla quinta settimana. Ogni arco branchiale è costituito da un asse di tessuto Mesodermico (uno dei tre foglietti embrionali da cui derivano i nostri organi) ricoperto esternamente da uno strato Ectodermico e internamente da epitelio di origine Endodermica. Essi costituiscono, pertanto, delle unità funzionali complete, comprendenti uno scheletro cartilagineo, che darà luogo alla mandibola, un elemento muscolare (muscoli masticatori) un’arteria, e un nervo. B. FATTORI DI CRESCITA DEL MASSICCIO FACCIALE Possono essere divisi in 3 ordini: intrinseci, estrinseci, funzionali. I fattori intrinseci sono soprattutto genetici ed endocrini. I fattori genetici si esercitano sotto forma di controllo sulla moltiplicazione degli elementi cellulari e sull’organizzazione delle strutture cartilaginee e dei nuclei di ossificazione. Tra i fattori endocrini ricordiamo l’ormone Somatotropo, mentre gli ormoni tiroidei e sessuali, maschili o femminili, hanno la tendenza a svolgere un ruolo moderatore sull’accrescimento. Tra i fattori estrinseci ricordiamo SCIENZE E RICERCHE • N. 5 • MARZO 2015 | MEDICINA l’alimentazione, la nutrizione, fattori socio-economici (le classi sociali più favorite avrebbero un accrescimento più lento e regolare delle altre), fattori affettivi (relazione madre-bambino) le cui conseguenze si fanno sentire sia a livello della qualità della condotta alimentare, sia a livello dello sviluppo intellettuale o psichico. Si discute l’esistenza di un sistema psico-neuro-endocrino, la cui alterazione avrebbe un effetto sull’accrescimento. Tra i fattori funzionali ricordiamo quelli di ordine muscolare e fattori sensoriali, grazie alla costituzione equilibrata di uno schema corporeo che, partendo dal contatto bilabiale, fornirà un informazione che, dopo aver percorso un circuito cerebrale, si ripercuoterà sul sistema Maxillo-facciale attraverso i muscoli del sistema. Infine si ricorda la Ipervascolarizzazione anomala, presente nella maggior parte delle strutture giovani, e che costituisce un fattore di Ipertrofia dello scheletro e delle parti molli grazie all’Ipernutrizione. C. MODALITÀ DI CRESCITA DELLE OSSA DEL CRANIO I fenomeni di base, correlati tra di loro per la crescita del cranio, sono: Rimodellamento e Riposizionamento. La crescita è in rapporto alla combinazione di fenomeni differenziati di apposizione di nuovo osso e di riassorbimento di esso. Tali fenomeni si verificano a livello del Periostio e dell’Endostio. Un osso, crescendo, occuperà necessariamente spazi diversi nel cranio, e deve quindi rimodellarsi, altrimenti non può rimanere collocato in quegli stessi spazi. Tale meccanismo è particolarmente complesso nel massiccio facciale, in quanto le ossa sono a strettissimo contatto tra di loro, influenzandosi a vicenda nel loro sviluppo. Ma un osso che gioca il ruolo centrale in tale sviluppo è l’Etmoide (Osso crivellato). Ciò è dettato dalla sua morfologia e dalla partecipazione a strutture importanti del cranio stesso. Infatti, con la sua lamina Cribrosa (in quanto presenta tanti forellini) costituisce il tetto delle cavità nasali, dalla cui parte profonda e alta partono i filuzzi olfattivi, ossia i Cilindrassi delle cellule sensoriali olfattive. Questi, attraversata la lamina Cribrosa, e giunti nella fossa cranica anteriore, andranno a formare il nervo olfattivo. Con la sua Lamina Papiracea, l’Etmoide contribuisce a formare la parete mediale delle cavità orbitarie, mentre la sua lamina perpendicolare, partecipa alla formazione del setto nasale osseo, insieme al Vomere e allo Sfenoide. Le masse laterali dell’etmoide, infine, formano i cornetti superiori e medi delle pareti laterali del naso, contri- buendo alla morfologia diversa del naso stesso. D. I SENI PARANASALI Significato della pneumatizzazione delle ossa paranasali Seno frontale e suo ruolo nella morfologia del piano superiore del viso I seni frontali non compaiono prima dei due anni di vita. Ciò spiega la forma rotondeggiante, non differenziata del neonato e bambino, che tradotto in termini morfopsicologici significa espansione-estroversione accentuata. Tutto ciò in quanto le spinte emotive non hanno svolto il loro ruolo, essendo ancora poche e non eccessivamente incisive. Prima dei sei anni comincia il vero sviluppo dei seni frontali con la comparsa delle bozze sopraorbitarie, che si configura elemento di espansione-estroversione. La fronte del bambino si avvia ad una differenziazione. Si comincia a creare un diverso equilibrio tra le spinte motorie di sviluppo, in particolare per quelle emotive. Nell’adolescenza-pubertà le dimensioni del seno sono estremamente variabili. Possono accentuarsi, ridursi, scomparire. Ciò in relazione alle “turbolenze” emotive tipiche di questa fascia di età. Pertanto, a livello frontale si potranno accentuare o diminuire gli elementi di espansioneestroversione o quelli di ritrazione-introversione. Dopo la pubertà l’accrescimento e modellamento del seno sono più lenti. Tutte le spinte motrici, comprese le emotive, si sono ormai stabilizzate e consolidate. Le emozioni non hanno più quella forza modellante tipica dei giovani. Ci si avvia sempre più verso una presenza di elementi di contrazioneintroversione frontale. Per la definitiva morfologia frontale non va dimenticato il ruolo dello sviluppo del lobo frontale del cervello. Infatti, da queste modalità di sviluppo le bozze frontali saranno più o meno presenti conferendo alla fronte, dunque, presenza di elementi di contrazione o di espansione. Pneumatizzazione del seno mascellare e delle cellette etmoidali e relativo significato Il seno mascellare, quindi piano medio del viso, inizia il suo sviluppo già al quinto mese di vita intrauterina. Ciò a conferma dell’importanza dell’attivazione della funzione olfattiva. Alla nascita il neonato possiede tutto il supporto per la funzione olfattiva, ma non solo quella. Già da questo momento ha inizio l’attivazione del circuito: stimolazioni emotive (fondamentale il rapporto con la madre o di chi ne fa le veci)-stimolazione dei muscoli mimici-effetto sul tono muscolare-apertura o chiusura del naso–effetto sulla struttura ossea. 31 MEDICINA | SCIENZE E RICERCHE • N. 5 • MARZO 2015 Lo sviluppo del seno mascellare, praticamente la morfologia del piano medio, si protrae fino alla pubertà in maniera differenziata nei vari soggetti. In questa fascia di età le spinte emozionali diventano più intense e, dunque, capaci di determinare zone di espansione-estroversione o zone di contrazioneintroversione, compresa la chiusura o apertura del recettore naso, presenza o meno della visibilità del setto nasale. E’ tutto il si- Il Drago di Komodo stema etmoidale a contribuire alla determinazione della forma non solo del naso, della lamina cribrosa (piano superiore), ma di tutto il piano medio. Va puntualizzato che questa lamina cribrosa, che contribuisce alla formazione del pavimento della fossa cranica anteriore, e quindi, alla morfologia dell’osso frontale, sta a significare che l’area olfattiva svolge un suo ruolo anche per il piano superiore, oltre che, principalmente, per quello medio. Alla luce di quanto riportato appare evidente il ruolo che i seni paranasali hanno nella determinazione dei dati morfologici del viso. Il loro differente sviluppo da persona a persona contribuisce, dunque, alla definizione del piano cerebrale, collegato al seno frontale, e di quello medio collegato al piano affettivo. Tali seni se hanno uno sviluppo particolarmente accentuato, portano all’espansione del volto, che equivale, psicologicamente, all’estroversione. Se, viceversa, lo sviluppo è più lento o ridotto, determineranno un elemento morfologico di ritrazione e, quindi, psicologico di introversione. L’aspetto più interessante della nostra analisi è che lo sviluppo differenziato è in rapporto a spinte emozionali diverse nelle diverse età e in soggetti diversi. E ciò, dunque, vale in modo particolare per il seno mascellare che costituisce elemento osseo fondamentale del piano medio, ovvero di quel piano dove nascono le spinte emozionali, avendo come supporto il Sistema limbico. SINTESI DEI FATTORI DI SVILUPPO DEL VISO RELATIVI AI PIANI 1. Piano superiore o cerebrale, corrispondente al neocortex, cervello di ultima formazione a) fattori generali di crescita, comuni a tutti i piani b) sviluppo dell’osso etmoide, particolarmente la lamina cribrosa, che costituisce parte del l’osso frontale c) muscoli mimici della regione d) pneumatizzazione del seno frontale, responsabile più direttamente delle bozze sopraorbitarie e) spinta evolutiva del lobo frontale del cervello, respon32 sabile della presenza più o meno accentuata delle bozze frontali 2. Piano medio o della socializzazione, del sentimento, dell’affettività, ecc. E’ corrispondente, metaforicamente, al Sistema limbico, più giovane del neocortex Questi i fattori di sviluppo: a) fattori generali di crescita b) sviluppo dell’etmoide. Questo osso assume un ruolo particolarmente importante quale supporto dell’area olfattiva. c) muscoli mimici regionali d) pneumatizzazione del seno mascellare e delle cellette etmoidali. 3. Piano inferiore o istintuale o della sensorialità, della forza, attività, azione ecc. Corrisponde al cervello rettiliano di Mac Lean (o degli istinti): presente per primo già negli animali (lucertole) della preistoria. Il Drago di Komodo, isola dell’Indonesia, è uno di queste Fattori di sviluppo: a) fattori generali di crescita, come per gli altri piani b) azione muscolare, dei masticatori in particolare Per concludere e rispondere alla domanda di partenza potremmo affermare con poche parole che è l’assemblaggio diversificato ed estremamente specifico delle varie componenti alla base dello sviluppo del viso, che porterà al suo differenziamento. Ogni uomo appare ad un altro, in modo consapevole o non, secondo la “maschera” che si dà. Il volto di un uomo non potrà mai essere riproducibile da un altro. Ed è a questo livello la radice della incomunicabilità tra gli uomini con tutti i problemi connessi. La Morfopsicologia ci può dare una mano di aiuto in tal senso. SCIENZE E RICERCHE • N. 5 • MARZO 2015 | INGEGNERIA CIVILE Salvaguardia dell’ambiente. Processi di mescolamento e trasporto di inquinanti in acqua MICHELE MOSSA Dipartimento di Ingegneria Civile, Ambientale, del Territorio, Edile e di Chimica, Politecnico di Bari “Dilution is the Solution to Pollution”. E’ un noto motto inglese che evidenzia la ragione per cui i flussi ambientali, caratterizzati da processi di diluizione e mescolamento, siano di grande interesse per i ricercatori. Il presente lavoro illustra lo scenario attuale di inquinamento del nostro pianeta, anche come monito per il futuro, e un’analisi generale sui flussi miscibili e non miscibili. Successivamente vengono presentati un’analisi teorica e dei risultati sperimentali di alcuni casi di studio relativi a getti immessi in un campo di moto ondoso e a getti in presenza di una corrente trasversale con vegetazione al fondo. Vengono altresì descritti brevemente il potenziale contributo delle misure di campo di campo e dell’uso di nuove tecnologie basate su immagini satellitari, facendo riferimento a casi di studio del gruppo di ricerca dello scrivente. Nell’articolo si evidenziano le ragioni per cui un’approfondita conoscenza dei complessi flussi ambientali deve essere perseguita nell’ambito degli interessi propri della ricerca, della tecnica e dell’ingegneria. A causa dei crescenti problemi posti in essere sulle risorse idriche, presenti in ogni parte del mondo, è evidente che la ricerca nel campo dell’Idraulica richiederà sempre più una cooperazione con esperti di altri campi e che gli sforzi dei ricercatori devono anche essere tesi verso la necessità di gestione e protezione delle risorse naturali. Considerando questi aspetti, il vecchio motto con cui con cui inizia questo sommario può essere cambiato in: “Dilution is (not always) the Solution to Pollution”. 1 L’AMBIENTE AL GIORNO D’OGGI E IL POTENZIALE CONTRIBUTO DELL’IDRAULICA “La grande differenza tra la situazione attuale e quella nella quale potremmo trovarci nel giro di poche generazioni evidenzia l’urgenza di ridurre ogni forma di pressione che oggi sta spingendo molte specie vero l’estinzione.” (Barnosky et al., Nature, Research Review, 2011) “Se le api scomparissero dalla faccia della Terra, l’Uomo avrebbe solo quattro anni di vita.” (Albert Einstein) L a crescita economica esplosiva, iniziata negli anni ‘60, sicuramente ha lasciato il segno sull’ingegneria idraulica e su un ampio spettro di problemi ambientali, legati a: 1) Inquinamento (dovuto alle acque reflue domestiche e industriali, acque di raffreddamento, sversamenti di petrolio, fertilizzazione dei campi, etc.). 2) Gestione delle risorse idriche (acqua potabile, per uso industriale, irriguo, idroelettrico, etc.). 3) Navigazione (correnti marine, formazione di ghiacci, processi di shoaling, processi di erosione con i conseguenti dragaggi, realizzazione di opere di protezione, etc.). 33 INGEGNERIA CIVILE | SCIENZE E RICERCHE • N. 5 • MARZO 2015 Figura 1. Le cinque grandi estinzioni di massa, cosiddette Big Five. [Per gentile concessione di Benton (2011).] 4) Alluvioni (previsioni climatiche, dighe, disciplina degli scarichi). 5) Traffico (gallerie, ponti, porti, etc.) 6) Attività di mare aperto (correnti costiere e vortici, derive di strati di ghiaccio, avarie, etc.) 7) Pesca (correnti, salinità, temperatura, contenuto di ossigeno, formazione di fronti, etc.) Tra le tematiche menzionate in precedenza, quella dell’inquinamento sta diventando sicuramente sempre più pressante, per le sue enormi conseguenze su aria, terra e acqua. Storicamente l’inquinamento è diventato un tema di vasta portata mediatica dopo la Seconda Guerra Mondiale, a causa delle radiazioni dovute alle esplosioni delle bombe atomiche durante la guerra e ai test che si tennero successivamente. In seguito, una grave catastrofe ambientale non nucleare si verificò a Londra nel 1952, il cosiddetto Grande Smog, provocando la morte di almeno 4.000 persone. Quell’evento disastroso portò alla promulgazione della prima grande e moderna legislazione di tutela ambientale, il Clean Air Act del 1956. Seguirono altri gravi episodi di inquinamento, che contribuirono ad accrescere la consapevolezza del problema su vasta scala. In particolare, nel 1974 lo sversamento di PCB (policlorobifenili) nel fiume Hudson (New York, USA) portò al divieto da parte dell’EPA (l’Environmental Protection Agency degli Stati Uniti) del consumo di pesce proveniente da quelle acque. A partire dal 1947 si ebbe una prolungata contaminazione da diossina a Love Canal (Niagara Falls, contea di Niagara, New York, USA). Nel 1978 la questione divenne di interesse nazionale, portando alla Superfund Legislation del 1980. Una serie di procedimenti giudiziari degli anni ’90, che resero famosi i paladini delle vittime, contribuì a far luce sugli sversamenti di cromo esavalente in California. L’inquinamento delle aree industriali 34 portò alla coniazione del termine brownfield per indicare una zona industriale da riqualificare. Oggi il termine è utilizzato molto spesso nell’ambito della pianificazione urbana. Negli Stati Uniti le problematiche connesse con l’inquinamento divennero sempre più di vasto interesse pubblico tra la metà degli anni ’50 e l’inizio degli anni ’70, quando il Congresso approvò una serie di normative tese alla salvaguardia dell’ambiente, come il Noise Control Act, il Clean Air Act, il Clean Water Act e il National Environmental Policy Act. In Italia uno dei primi grandi disastri ambientali si verificò intorno alle ore 12:37 del 10 luglio 1976 in un piccolo impianto di produzione chimica a Seveso, a circa 15 km a nord di Milano. Il disastro provocò una elevata esposizione alla diossina della popolazione residente. Sul caso sono stati condotti numerosi studi scientifici e, a partire da quell’evento, sono state redatte una serie di norme sulle procedure standard di sicurezza industriale. L’effetto immediato della contaminazione da diossina fu la morte di 3.300 animali domestici, per lo più pollame e conigli. Inoltre, delle 1.600 persone di ogni fascia di età che vennero esaminate, 447 risultarono colpite da gravi lesioni cutanee, come la cloracne. Venne realizzato un centro di consulenza per le donne in stato di gravidanza, di cui 26 optarono per un aborto, che era legale in casi particolari, dietro previo consulto. Il disastro di Seveso può essere considerato come l’evento che portò la vasta problematica dell’inquinamento di fronte all’attenzione dell’opinione pubblica italiana. Nel frattempo, negli ultimi anni, nuovi grandi paesi, come la Cina, l’India, il Brasile, hanno avviato una massiccia industrializzazione, non sempre accompagnata da una corretta sensibilità nei confronti dell’ambiente. Sicuramente gli eventi brevemente descritti in precedenza SCIENZE E RICERCHE • N. 5 • MARZO 2015 | INGEGNERIA CIVILE e altri ancora, che non è possibile qui riportare per ragioni di brevità, hanno sollecitato una maggiore sensibilità verso i problemi ambientali, con conseguenze di rilievo sulla ricerca scientifica, in generale, e sull’Idraulica, in particolare. Infatti, oggi la maggior parte delle attività indirizzate alla ricerca a agli aspetti tecnico-ingegneristici dei settori dell’Idraulica sono strettamente legate alla salvaguardia dell’ambiente. Finanche in settori come l’ingegneria delle turbomacchine la ricerca e la tecnica tengono nel dovuto conto le problematiche ambientali. Per esempio, un tema di rilievo per gli ingegneri che si occupano delle turbomacchine è la produzione di energia con delle turbine che sfruttino le correnti di marea, ponendo, tuttavia, sempre particolare cura ad alcune questioni ambientali, come la migrazione dei pesci, etc. Oggi il termine Ambiente riscuote un indubbio interesse tra i governi, le società finanziarie, l’industria e così via. Basti pensare che nel Regno Unito opera l’Environmental Agency, negli Stati Uniti l’equivalente agenzia EPA, etc. Queste agenzie governative si occupano anche di temi cari all’Idraulica, con particolare riguardo alle problematiche della protezione dell’ambiente e dei corpi idrici. In altre parole, molte tematiche di interesse dell’Idraulica, sia nel campo della ricerca che in quello professionale, sono sempre più inserite nell’ampio contesto delle questioni ambientali. Si tratta di temi sempre più attuali e complessi, legati anche al dibattito sui cambiamenti climatici e alla recente controversia scientifica (è noto che su questo argomento la comunità scientifica non è sempre unita, per quanto in generale la maggior parte dei ricercatori siano d’accordo sul riscaldamento terrestre dovuto soprattutto alle attività umane; a titolo di esempio, si vedano gli articoli, i reportage, i principali lavori scientifici, i commenti e le analisi su Nature Reports Climate Change dal sito web www.nature.com/clima/index.html), alla problematica sociale dovuta alla scarsità di acqua potabile (si ricorda che, soprattutto nei Paesi in via di sviluppo, milioni di persone soffrono per la mancanza o per la scarsità di acqua potabile; tra l’altro, in alcuni casi, la soluzione al problema, come la costruzioni di enormi dighe, è risultata peggiore del problema stesso, provocando danni ambientali incalcolabili), alla domanda sempre più crescente di fonti di energia (un contributo alla soluzione di questo problema proviene anche dal potenziale utilizzo di sistemi che sfruttano le correnti marine e le maree; si tratta, dunque, di sistemi in cui la comunità dei ricercatori e ingegneri idraulici è fortemente coinvolta). Tutti questi temi hanno portato all’organizzazione di specifici congressi che si ripetono a in- tervalli regolari, workshop, partnership e alla costituzione di nuovi enti e gruppi di lavoro. L’allarme nei confronti dell’inquinamento e dei problemi ambientali del nostro pianeta è stato recentemente messo in evidenza in un articolo pubblicato sulla prestigiosa rivista Nature (Barnosky et al., 2011) con un titolo minaccioso: È già in atto la sesta estinzione di massa della Terra? Per i paleontologi l’estinzione di massa si verifica quando la Terra perde più di tre quarti delle specie viventi in un intervallo temporale geologicamente breve (come è successo solo cinque volte negli ultimi 540 milioni anni o giù di lì). Recenti studi condotti dalla comunità scientifica dei biologi sono indirizzati a verificare se è in atto una sesta estinzione di massa, in considerazione della scomparsa di diverse specie animali e vegetali verificatesi nel corso degli ultimi secoli e millenni. Come già scritto, in letteratura vengono identificate cinque estinzioni di massa, le cosiddette Big Five (si veda la Figura 1) di seguito elencate: 1) Estinzione del Cretaceo-Paleogene (estinzione del fine Cretaceo): 65,5 milioni anni fa, alla fine del Cretaceo. In quel periodo si estinse la maggior parte dei dinosauri non-avicoli. I mammiferi e gli uccelli divennero i vertebrati terrestri dominanti nell’era di una nuova vita. 2) Estinzione del Triassico-Giurassico (fine Triassico): 205 milioni di anni fa durante la transizione Triassico-Giurassico. Si estinsero la maggior parte degli Arcosauri non dinosauri, la maggior parte dei Terapsidi e la maggior parte degli anfibi di grandi dimensioni, consentendo ai dinosauri di emergere per scarsa competizione con altre specie. 3) Estinzione del Permiano-Triassico (fine Permiano): 251 milioni di anni fa durante la transizione Permiano-Triassico. Si tratta della più grande estinzione verificatasi sul pianeta Terra, durante la quale scomparvero il 57% di tutte le famiglie e l’83% di tutti i generi viventi. Dopo l’estinzione divennero dominanti nuove unità tassonomiche. Sulla Terra si conclude il primato dei rettili simili ai mammiferi. Le specie estinte crearono spazio per l’ascesa degli Arcosauri. 4) Estinzione del tardo Devoniano: 375-360 milioni di anni fa vicino al periodo di transizione Devoniano-Carbonifero. Forse questa estinzione durò fino a 20 milioni di anni e ci sono prove di picchi di processi di estinzione in questo periodo. 5) Estinzione dell’Ordoviciano-Siluriano (fine Ordoviciano o O-S): 450-440 milioni di anni fa durante la transizione Ordoviciano-Siluriano. Si verificarono due eventi che provo35 INGEGNERIA CIVILE | SCIENZE E RICERCHE • N. 5 • MARZO 2015 Figura 2. Relazione tra i tassi di estinzione dei mammiferi e l’intervallo di tempo durante il quale i suddetti tassi sono stati valutati. Ogni piccolo punto grigio rappresenta l’estinzione per milione di specie e per anno (E/MSY) calcolata dalle durate delle unità tassonomiche riportate nel Database di Paleobiologia (intervalli unitari temporali di milioni di anni o più) o da elenchi di specie esistenti, recentemente estinte e del Pleistocene presenti in letteratura (intervalli unitari temporali di 100.000 anni e inferiori). Sono stati tracciati più di 4600 punti rappresentativi di altrettanti dati, raggruppati uno sopra l’altro. Il tratteggio di colore giallo definisce l’intervallo di varianza ‘normale’ (non antropogenico) del tasso di estinzione che ci si aspetterebbe per intervalli di misurazione differenti; per più di 100.000 anni, esso è uguale all’intervallo di confidenza del 95%, ma la dissolvenza presente sul lato destro del diagramma indica che il limite superiore della varianza ‘normale’ diventa incerta per intervalli di tempo relativamente piccoli. Le piccole linee orizzontali indicano la E/MSY determinata empiricamente per ogni intervallo unitario temporale. I pallini colorati grandi indicano i tassi di estinzione calcolati dal 2010. I pallini rossi si riferiscono all’estinzione del fine Pleistocene. I pallini arancione si riferiscono alle estinzioni documentate storicamente e mediate (da destra a sinistra) negli ultimi 1, 30, 50, 70, 100, 500, 1.000 e 5.000 anni. I pallini blu rappresentano un tentativo di migliorare la comparabilità dei dati più attuali con quelli basati sui fossili. In altri termini, il fine è quello di migliorare i dati relativi alle estinzioni delle specie ottenuti sulla base di scarsi dati fossili (come quelli relativi ad aree geografiche piccole o ai pipistrelli). I triangoli marroni rappresentano la proiezione dei tassi di estinzione che si avrebbero se i mammiferi “a rischio” si estinguessero entro 100, 500 o 1000 anni. Il triangolo più in basso (di ogni serie verticale) indica il tasso di estinzione che si avrebbe qualora solo le specie ‘in pericolo critico’ (‘critically endangered’, ossia, utilizzando una sigla, CR) dovessero estinguersi, il triangolo centrale indica il tasso di estinzione qualora si estinguessero le specie ‘in pericolo critico’ + ‘in pericolo’ (‘critically endangered’+‘endangered’, ossia, utilizzando delle sigle, CR ed EN), mentre il triangolo più in alto indica il tasso di estinzione che si avrebbe qualora si estinguessero le specie ‘in pericolo critico’ + ‘in pericolo’ + ‘vulnerabili’ (ossia ‘critically endangered’+‘endangered’+‘vulnerable’, ossia, utilizzando delle sigle, CR+EN+VU). [Per gentile concessione di Barnosky et al., 2011.] carono la morte del 27% di tutte le famiglie e il 57% di tutti i generi viventi. In termini di percentuale di generi viventi estinti, gli scienziati ritengono che, insieme, i due eventi rappresentino la seconda più grande estinzione tra le cinque più importanti della storia della Terra. La Figura 2 tratta da Barnosky et al. (2011) mostra una relazione tra il tasso di estinzione dei mammiferi e l’intervallo di tempo relativamente al quale il tasso di estinzione è calcolato. La Figura 3 tratta da Barnosky et al. (2011) riporta la percentuale stimata di unità tassonomiche estinte secondo l’International Union for Conservation of Nature in confronto il punto di riferimento del 75%, che, come già detto, è il valore minimo della percentuale di estinzione delle specie perché si possa parlare di estinzione di massa. La conclusione principale di Barnosky et al. (2011) evidenzia che sicuramente le attuali estinzioni di massa sono il frutto di una sinergia di eventi insoliti. Per le grandi estinzioni di massa, le cosiddette Big Five, questa sinergia di eventi 36 Figura 3. I numeri accanto a ogni icona indicano la percentuale di estinzione di una specie. Le icone bianche indicano la percentuale delle specie ‘estinte’ e ‘estinte allo stato brado’ nel corso degli ultimi 500 anni. Le icone nere riportano la percentuale delle specie ‘minacciate’ sommata a quella delle specie ‘estinte’ o ‘estinte allo stato brado’, la percentuale degli anfibi può raggiungere il 43%. Le icone gialle indicano le percentuali delle specie estinte relative alle cinque grandi estinzioni di massa: Cretaceo + Devoniano, Triassico, Ordoviciano e Permiano (da sinistra a destra). Gli asterischi indicano le unità tassonomiche per le quali pochissime specie (meno del 3% per i gasteropodi e bivalvi) sono state valutate; le frecce bianche indicano i casi in cui le percentuali di estinzione sono probabilmente sovrastimate (in quanto le specie percepite come in pericolo possono gravare sul valore). [Per gentile concessione di Barnosky et al., 2011.] negativi fu dovuta ad una dinamica insolita del clima, alla composizione atmosferica e a fattori di stress ecologici di anormale elevata intensità. Inoltre, gli autori hanno osservato che anche degli incidenti casuali, come l’impatto di un asteroide nel Cretaceo, potrebbero da soli causare un’estinzione devastante, ma la percentuale delle specie estinte sarebbe, in ogni caso, inferiore se, a monte, i fattori di stress sinergici non “innescassero la pompa dell’estinzione”. L’aspetto innovativo della potenziale sesta estinzione di massa è che oggigiorno una serie di fattori ecologici di stress estremo stanno rapidamente cambiando le condizioni atmosferiche, provocando, altresì, un riscaldamento con temperature al di sopra di quelle tipiche interglaciali, a causa del continuo incremento dei livelli di CO2, della frammentazione degli habitat, dell’inquinamento, delle attività massive di pesca e caccia, delle specie invasive, dei patogeni e dell’espansione della biomassa umana. Ad esempio, per quanto riguarda l’inquinamento del mare e il depauperamento degli oceani, dovuto anche ad una eccessiva attività di pesca, il risultato a cui si giungerà per effetto dell’attuale voracità e mancanza di sensibilità verso l’ambiente, sarà un mare privo di pesci e colmo di meduse. Infatti, il dominio dell’uomo sulla natura sta influenzando anche il mare. Scartabellando tra gli archivi della Biblioteca Pubblica della Contea di Monroe, Loren McClenachan, una ricercatrice laureatasi presso lo Scripps Institution of Oceanography, ha evidenziato il profondo cambiamento in atto nei mari attraverso un caso eloquente. Loren McClenachan è riuscita a trovare una serie di foto storiche di un’azienda di pesca ricreativa a noleggio nel Key West (Florida, USA) tra il 1950 e 1980, estendendo la sua analisi anche ai giorni nostri con delle foto scattate personalmente sempre sullo stesso SCIENZE E RICERCHE • N. 5 • MARZO 2015 | INGEGNERIA CIVILE molo. Si vedano le foto in Figura 4 e per maggiori dettagli si veda McClenachan (2009). Negli anni ’50 enormi cernie Golia e squali, in alcuni casi finanche più grandi e grossi dei pescatori, erano le specie dominanti della retata di pesca. Nel corso degli anni i pesci si sono ridotti di dimensione e le cernie e gli squali hanno lasciato il posto a piccoli dentici e pesci burro. A rimanere immutati rispetto agli anni ’50 sono solo i larghi sorrisi sui volti dei pescatori e turisti, del tutto ignari dei profondi cambiamenti dell’ambiente degli ultimi decenni. Tra l’altro è appena il caso di osservare che la pesca massiva rappresenta solo un piccolo pezzo di un puzzle molto più grande, costituito da molte situazioni di grave impatto ambientale tra loro strettamente connesse. Infatti, nei nostri fiumi ed oceani vengono immessi grandi quantitativi di inquinanti chimici e industriali, senza considerarne le gravi conseguenze. La produzione non pianificata di gas serra ne provoca l’infiltrazione nelle zone più profonde dei mari, con conseguente modifica della chimica delle acque, della temperatura e del contenuto di ossigeno, che sono tra le cause delle variazioni dei flussi delle correnti marine di profondità, spesso con implicazioni drammatiche. L’attuale livello di pressione sull’ambiente sta spingendo gli ecosistemi marini verso il limite della loro sopravvivenza. A tal riguardo un esempio può essere esplicativo. La Figura 5 mostra i cinque grandi vortici di corrente oceanica del mondo, ognuno delimitato dai continenti più vicini. Questi vortici sono responsabili di gran parte delle correnti superficiali del pianeta. I detriti galleggianti scaricati in mare e provenienti dai continenti o dalle navi vengono trascinati da queste correnti, convergendo verso alcune zone di mare aperto. In particolare, è ormai tristemente famosa la Grande Chiazza di Immondizia del Pacifico (Great Pacific Garbage Patch), la cui formazione fu già prevista da Day et al. (1990) in un articolo pubblicato dal NOAA (National Oceanic and Atmospheric Administration degli Stati Uniti). In conclusione, senza uno sforzo concertato di mitigazione, i vari fattori di stress che attualmente agiscono contro il nostro pianeta aumenteranno nell’immediato futuro, con conseguente incremento dei processi di estinzione di diverse specie viventi e gravi ripercussioni sull’intero ambiente. A tal riguardo, una conclusione ottimistica di Barnosky et al. (2011) evidenzia che è ancora possibile salvaguardare gran parte della biodiversità della Terra, sottolineando, tuttavia, che una mancata inversione di rotta rispetto all’attuale condizione di stress a cui è sottoposto il pianeta provocherà una escalation di gravi minacce per l’ambiente. Pertanto, la comunità scientifica è chiamata a dare una risposta ad una sfida futura, sviluppando una visione armonica e interdisciplinare dell’attività di recupero e salvaguardia dell’ambiente, che sia scientificamente basata, sostenibile, finanziariamente accettabile e a basso rischio. a) Anni ‘50: 20 Kg. Sessanta anni fa, enormi cernie e squali dominano la pesca nel Key West. b) Anni ’80: 9 Kg. Trenta anni fa, la pesca massiva nella regione ha eliminato i pesci più grandi dalla retata. c) 2007: 2,3 Kg. Al 2007 la dimensione media dei pesci nel Key West si è ridotta dell’88%. Figura 4(a-c). Gli oceani hanno già assorbito circa il 30% del biossido di carbonio rilasciato dalle attività umane fin dal periodo antecedente lo sviluppo industriale, soprattutto per effetto della combustione di combustibili fossili. Se le emissioni di anidride carbonica non verranno limitate, si prevede che l’acidità degli oceani aumenterà del 150% entro il 2050. È probabile che gli effetti dell’acidificazione dei mari creeranno maggiori problemi alle specie con conchiglie di carbonato e al fitoplancton che sostiene la catena alimentare. L’acidificazione è solo una parte del problema, poiché gli scarichi a mare dei nutrienti provenienti dalla terra, sotto forma di fertilizzanti e acque nere, e le temperature più elevate tipiche degli ultimi anni hanno recentemente causato un incremento delle aree marine prive di vita. Tra l’altro, i mari non saranno totalmente privi di vita. Infatti, il processo di estinzione, con le relative specie debellate, sta creando anche dei vincitori, come, ad esempio, le meduse, che, di fatto, prosperano nei mari ricchi di sostanze inquinanti. [Per gentile concessione di Loren McClenachan e Monroe County Public Library.] 37 INGEGNERIA CIVILE | SCIENZE E RICERCHE • N. 5 • MARZO 2015 Figura 5. La Grande Chiazza di Immondizia del Pacifico (Great Pacific Garbage Patch o Pacific Trash Vortex) è una zona dell’Oceano Pacifico in cui tendono a concentrarsi i rifiuti rilasciati in mare. È approssimativamente posizionata tra il 135° e il 155° di longitudine ovest e tra il 35° e il 42° di latitudine nord, anche se tende a spostarsi ogni anno e, dunque, la sua esatta posizione esatta è di difficile individuazione. Questo ammasso di immondizia si trova all’interno della grande struttura vorticosa del nord dell’Oceano Pacifico, che ne delimita l’estensione. La chiazza è costituita da un cumulo di oggetti e particelle di plastica di varie dimensioni, presenti sia in superficie che nell’intera colonna d’acqua, fino in profondità. Le correnti dell’Oceano Pacifico creano un vortice che inghiotte gli scarichi e i detriti provenienti dalle coste del Nord America, dell’Asia e delle Isole Hawaii. È stato stimato che l’80% dei rifiuti viene immesso in mare attraverso i sistemi fognari e i fiumi e, dunque, proviene dalla terra, mentre il 20% proviene dalle navi o direttamente dal mare, come le reti, l’attrezzatura da pesca o i contenitori che cadono in acqua dopo forti temporali. 2 TIPICHE CORRENTI STRATIFICATE DI RILEVANZA AMBIENTALE “Oggi in molti ritengono che i punti di scarico diretti non sono la causa principale dei problemi ambientali dei laghi e dei fiumi. Di fatto, le immissioni non puntuali (ossia le immissioni non provenienti da una condotta di scarico, ma da un’area ampia e di difficile delimitazione) rappresentano l’origine primaria dei contaminanti.” (Scott Socolofsky e Gerhard H. Jirka) porazione, la formazione di ghiacci, le variazioni della pressione atmosferica, la gravità, etc. (si veda, per esempio, la Figura 6). La maggior parte dell’energia fornita è utilizzata per scopi diversi dal processo di mescolamento (Csanady, 1980; Rutherford, 1994; Seminara e Tubino, 1996; Socolofsky & Jirka, 2005). Ad esempio, l’energia trasferita dal vento alle masse d’acqua è principalmente responsabile della formazione delle onde, della circolazione di superficie, del setup (in particolare, negli oceani si verificano fenomeni di risalita, cosiddetti upwelling, e sprofondamento, cosiddetti downwelling) e quindi della produzione di energia cinetica turbolenta, che, in ultimo, viene dissipata in calore. Cessando il vento, terminano anche i moti ondosi, le correnti e il setup. Tuttavia, La maggior parte dei problemi degli ambienti acquatici naturali sono resi complessi dalle variazioni spaziali e temporali della stratificazione di densità, causate dalle variazioni di temperatura e salinità o dalla presenza di particelle in sospensione. La formazione di termoclini (gradienti verticali di temperatura), aloclini (gradienti verticali di salinità) e picnoclini (gradienti verticali di densità) ha una grande influenza sulla circolazione e sulla qualità delle acque. Il processo di mescolamento che origina da stratificazioni stabili di due fluidi (ad esempio, uno strato di acqua dolce al di sopra di uno strato di acqua salata) richiede una certa quantità di energia. In natura questa energia proviene da molte fonti, come il vento, le Figura 6. Schema delle fonti di energia per i mari, laghi, etc. maree, gli scambi termici, l’eva38 SCIENZE E RICERCHE • N. 5 • MARZO 2015 | INGEGNERIA CIVILE a causa del processo di mescolamento innescatosi, parte dell’acqua salata e, dunque, a maggiore densità, risale verso la superficie, vincendo la gravità e mescolandosi con strati di acqua più superficiali; questo processo di risalita ne ha provocato un aumento di energia potenziale. L’efficienza di questo processo di mescolamento è dato dal rapporto tra il guadagno in energia potenziale e l’energia in ingresso, resa disponibile attraverso i vari fenomeni indicati in precedenza (ossia la produzione di energia cinetica turbolenta). Tale rapporto, detto numero di flusso di Richardson, sembra essere costante per un gran numero di correnti di densità stratificate. Per la piena comprensione della dinamica di questi campi di moto è importante analizzare anche il guadagno di energia potenziale del flusso dovuta ai contributi energetici della massa introdottasi nello stesso (attraverso il cosiddetto processo di intrusione, maggiormente noto con il termine anglosassone di entrainment). I campi di moto di rilevanza per gli ambienti acquatici naturali possono essere suddivisi in: 1) Campi di moto non miscibili a stratificazione di densità: il flusso si comporta come un campo di moto normale (omogeneo) sottoposto a un’accelerazione di gravità fortemente ridotta. 2) Campi di moto miscibili spinti dalla forza di galleggiamento. In questo caso il campo di moto e la stratificazione dipendono dal processo di mescolamento, tanto da influenzare le equazioni descrittive di questi flussi. Viceversa, è anche possibile affermare che il mescolamento dipende dal campo di moto e dalla stratificazione. Questa notevole e vicendevole influenza tra la turbolenza (legata al mescolamento) e il campo di moto medio rappresenta un elemento distintivo di questi flussi. La Figura 7 mostra alcuni campi di moto di fluidi miscibili tipici dei laghi, come indicato da Imboden & Wüest (1995). Figura 7. Schema di alcuni tipici processi di mescolamento in un lago. “ 3 ESEMPI DI PROCESSI DI DIFFUSIONE: GETTI INTERAGENTI CON ALTRI CAMPI DI MOTO O CON LA VEGETAZIONE AL FONDO Se ti addiviene di trattare delle acque consulta prima l’esperienza e poi la ragione” (Leonardo da Vinci) “Ho capito subito che c’era poca speranza di sviluppare una teoria pura e chiusa, e, in mancanza di tale teoria, la ricerca deve basarsi su ipotesi ottenute dall’elaborazione di dati sperimentali.” (A.N. Kolmogorov) Il mare è sempre stato il recapito finale dei prodotti di rifiuto provenienti dalla terra e trasportati dalle acque. Negli ultimi anni gli effetti dei getti di quantità di moto, getti di densità, correnti, stratificazioni, etc. sui processi di mescolamento e trasporto hanno ricevuto un’attenzione crescente, talvolta trascurando gli effetti rilevanti che l’azione delle onde svolge in molteplici casi. Infatti, mentre sono ormai innumerevoli gli studi presenti in letteratura sui getti e sulla loro interazione con le correnti, pochi sono i lavori che si occupano dell’interazione tra getti ed onde, nonostante la maggior parte di essi evidenzi l’importanza di un campo di moto ondoso sui processi di diffusione (Mossa, 2004a; Mossa, 20014b) e la necessità di prove sperimentali finalizzate alla corretta interpretazione della dinamica dell’interazione onde-getti, anche al fine di una eventuale conferma della validità dei modelli matematici presenti in letteratura. La tematica è di grande interesse ingegneristico per le tematiche ambientali che coinvolge (Fisher et al., 1979; Wood et al., 1993). È pur vero che nel passato sono stati condotti un certo numero di studi su configurazioni che prevedevano l’interazione dei getti con un campo di moto ondoso, ma essi erano soprattutto limitati alla misurazione delle concentrazioni (ai fini dell’analisi della diluizione). Pertanto, è evidente la necessità di un’analisi di dettaglio relativa a questo campo di moto con l’utilizzo di tecniche e strumentazioni moderne. Come mostrato da Nepf (2012), la vegetazione acquatica svolge un ruolo fondamentale negli ecosistemi. L’assorbimento delle sostanze nutritive e la produzione di ossigeno ad opera della vegetazione migliora la qualità delle acque (si veda, ad esempio, Wilcock et al., 1999). Inoltre, la capacità potenziale della vegetazione di rimuovere azoto e fosforo è così elevata che alcuni ricercatori 39 INGEGNERIA CIVILE | SCIENZE E RICERCHE • N. 5 • MARZO 2015 Nepf (2012) osserva che la presenza di vegetazione altera il campo di velocità di un flusso a diverse scale, che vanno dal ramo o dallo stelo di una singola pianta a quelle di una comunità di piante di una marcita o una prateria. L’analisi delle strutture di un flusso alle diverse scale è fondamentale per la comprensione di diversi processi. Per esempio, l’assorbimento dei Figura 8. Le mangrovie rappresentano un tipico esempio di vegetazione rigida in flussi e specchi d’acqua di valenza nutrienti da parte di un singolo steambientale. lo di una pianta dipende dallo strato limite presente sullo stelo stesso, consigliano la diffusione delle piantagioni nei corsi d’acqua ossia, in altri termini, dal flusso analizzato alla scala dello stelo. Analogamente, il processo di impollinazione è colle(Mars et al., 1999). Le praterie marine costituiscono la base di molte catene gato alle strutture del flusso che si generano intorno ad ogni alimentari e la vegetazione dei corsi d’acqua favorisce la bio- singolo stigma (si veda, per esempio, Ackerman, 1997). Vidiversità attraverso la creazione di una pluralità di habitat per ceversa, la capacità, per esempio, di una marcita o di una praeffetto della eterogeneità del profilo di velocità della corren- teria di trattenere o rilasciare sostanze organiche, sedimenti te (si veda, ad esempio, Kemp et al., 2000). Le paludi e le minerali, semi e polline dipende dalle strutture del flusso alla mangrovie (si veda, a titolo di esempio, la Figura 8) riduco- scala delle suddette marcite o praterie (si veda, per esempio, no l’erosione, grazie alla loro capacità di attenuare l’effetto Zong & Nepf, 2011). Inoltre, l’eterogeneità spaziale dei paradelle onde e dei deflussi conseguenti ai temporali; inoltre, metri alla scala della chioma della vegetazione può dar luogo la vegetazione rivierasca aumenta la stabilità delle sponde a complesse strutture di un flusso. È ciò che, per esempio, si verifica in una rete ramificata di canali in una palude o in un (Pollen & Simon, 2005). acquitrino, la quale attraversa regioni di vegetazione densa e in larga parte emergente. Mentre le correnti nei canali sono Tutti questi benefici effetti sono in qualche modo influen- responsabili di gran parte del processo di trasporto, le zone zati dal campo di moto che si genera sia all’interno che in con vegetazione provvedono alla maggior parte delle funprossimità della zona in presenza di vegetazione. Storica- zioni dell’ecosistema e all’intrappolamento delle particelle. Da queste brevi note appare evidente l’importanza dei mente la vegetazione acquatica presente nei fiumi è stata considerata solo come una causa di resistenza al moto e, per campi di moto con vegetazione al fondo. Studi indirizzati questa ragione, spesso è stata rimossa per migliorare il de- all’analisi delle correnti di questo tipo sono stati condotti presso diversi enti di ricerca (a tal riguardo, come già scritto, flusso delle acque e ridurre i rischi di inondazioni. Proprio per le ragioni su esposte, i primi studi di idrodina- è esaustivo l’articolo di analisi generale e prospettiva della mica sui campi di moto in presenza di vegetazione avevano tematica di Nepf, 2012) e, in particolare, in alcune università come obiettivo principale l’analisi delle resistenze al moto, italiane (si veda, ad esempio, Carollo et al., 2002; Poggi et con un punto di vista strettamente legato ai problemi di pro- al., 2004; Armanini et al., 2005; Ben Meftah et al., 2007; getto e verifica dell’ingegneria idraulica (si veda, per esem- Poggi et al., 2009;. Defina & Peruzzo, 2010). Tuttavia, gli pio, Ree, 1949). Tuttavia, come osservato in precedenza, la studi sui getti interagenti con la vegetazione sono ancora rari vegetazione provoca benefici effetti di natura ecologica, fa- in letteratura. Per tale ragione anche presso il laboratorio di idraulica del Politecnico di Bari si conducono studi sui getti cendone una parte integrante dei sistemi costieri e fluviali. di quantità di moto immessi in una corrente trasversale in presenza di vegetazione al fondo (Figura 9). In tali studi la vegetazione è simulata con degli steli rigidi. Figura 9. Foto del canale del laboratorio con la vegetazione artificiale. 40 SCIENZE E RICERCHE • N. 5 • MARZO 2015 | INGEGNERIA CIVILE 4 MISURAZIONI DI CAMPO E MONITORAGGIO AMBIENTALE, PROSPETTIVE FUTURE E RACCOMANDAZIONI FINALI “Ora ascoltate il suono che separa per sempre il vecchio dal nuovo.” [Presentazione del cinguettio bip-bip trasmesso dal satellite Sputnik.] (Annunciatore radiofonico della NBC nella notte del 4 ottobre 1957) “Se siete dalle parti del Golfo, oggi c’è una buona domanda da porsi ed è questa: Dov’è il petrolio?” (Brit Hume, conduttore televisivo di FOX News, deridendo la BP per il disastro dello sversamento di petrolio, 16 maggio 2010) “Mettersi insieme è un inizio. Restare insieme è un progresso. Lavorare insieme è un successo.” (Henry Ford) Nell’ambito della salvaguardia dell’ambiente, oltre ai modelli fisici di cui si è dato qualche cenno in precedenza, è fondamentale anche il monitoraggio di campo. Infatti, per quanto sia noto che la sperimentazione in situ presenti difficoltà in un certo qual modo diverse e maggiori rispetto alla sperimentazione in laboratorio o alle simulazioni numeriche, essa è tuttavia in grado di fornire uno scenario realistico di un campo di moto e di un processo di dispersione. Un esempio è rappresentato dal monitoraggio di un sistema di scarico a mare, il quale è parte integrante e fondamentale di ogni sistema di trattamento delle acque reflue con recapito finale in mare. La progettazione di un impianto di trattamento e scarico delle acque reflue deve tenere in debita considerazione l’uso a cui è destinato il corpo idrico recettore, i valori dei parametri fisico-chimici da rispettate ai fini della salvaguardia dell’uso stesso e la qualità delle acque del corpo idrico recettore. Per ulteriori dettagli si veda Mossa (2006) e De Serio et al. (2007). Il recente grave disastro nel Golfo del Messico, dovuto all’esplosione di un pozzo per l’estrazione di petrolio, ha causato una catastrofe ambientale. Infatti, sulla superficie del mare si formò una chiazza nera di petrolio la cui dimensione cresceva di giorno in giorno e che andava inesorabilmente alla deriva verso la costa della Louisiana. Per dimensioni e conseguenze, il disastro nel Golfo del Messico può competere con altri gravi incidenti del passato (come quello della Exxon Valdez nel 1989, che provocò uno sversamento di 41,3 milioni di litri di petrolio, e quello di Santa Barbara, in California, con uno sversamento di 15,9 milioni di litri di petrolio). Purtroppo, molti altri disastri di questo tipo sono accaduti e continuano ad accadere in tutto il mondo. Come riportato nell’editoriale del n. 3 del 2010 di Hydrolink (Mossa, 2010), l’incidente del Golfo del Messico potrebbe dare un impulso all’attuazione di una nuova politica energetica, che deve necessariamente salvaguardare l’ambiente ed essere razionale e pragmatica. Molti sono i quesiti che è necessario porsi in considerazione del fatto che le attività di ricerca dei giacimenti di petrolio e gas sono in continuo aumento e i punti di estrazione in mare aperto (a profondità anche superiore a 300 m) sono presenti in diverse regioni del mondo. Si pensi, per esempio, al Mar del Nord, alle zone di mare al largo delle coste dell’Africa occidentale e del Brasile, le quali, dunque, sono minacciate da un disastro simile a quello del Golfo del Messico. La comunità scientifica è concorde nel ritenere che a breve verrà raggiunto il picco della produzione di petrolio. Per quanto sia complesso dare una data certa su questo punto, le stime scientifiche più accreditate indicano che questo picco potrebbe verificarsi tra il 2010 e il 2020. Attualmente siamo di fronte ad una svolta epocale simile a quella vissuta dall’umanità quando si ebbe la consapevolezza che il nostro pianeta non è né piatto, né infinito. Di fatto, nella fiduciosa attesa che nuove fonti energetiche possano un giorno definitivamente sostituire i combustibili fossili, attualmente le compagnie petrolifere stanno “raschiando il fondo del barile”, eseguendo perforazioni in mare aperto a profondità sempre maggiori e sempre più pericolose per l’ambiente. E’ stato stimato che nel 2007 la produzione di petrolio proveniente da installazioni a profondità maggiori di 800 metri è stata circa il 70% della produzione totale. L’industria petrolifera prevede di estendere le attività di esplorazione e produzione fino a profondità di 3000 m, al fine di aumentare l’estrazione potenziale di petrolio e gas. Tuttavia, come il recente disastro nel Golfo del Messico ha evidenziato, è necessario tenere in debita considerazione tutti i problemi connessi col processo di estrazione a grandi profondità. In altre parole, è necessario considerare la questione sotto ogni punto di vista. In tal senso le attività di monitoraggio del petrolio sversato in mare e le relative simulazioni numeriche sono un valido ausilio per gli enti preposti alla salvaguardia delle coste. Proprio su questa tematica, è in corso un’attività di ricerca 41 INGEGNERIA CIVILE | SCIENZE E RICERCHE • N. 5 • MARZO 2015 42 e cooperazione che coinvolge la comunità scientifica degli Idraulici e dei Fisici per la messa a punto del monitoraggio satellitare. A tal riguardo, il lavoro di De Carolis et al. (2012) è un esempio di come possa essere fruttuosa una simile cooperazione. In sintesi, il lavoro richiamato presenta delle immagini satellitari ottenute nella regione dell’infrarosso vicino (NIR), le quali mostrano il processo di sversamento di petrolio dovuto al naufragio della Fu Shan Hai il 31 maggio 2003 nella zona di mare tra la costa svedese e quella danese (si veda un esempio in Figura 10). Queste immagini sono state confrontate con i risultati di una simulazione numerica del processo di trasporto della chiazza di petrolio (si veda la Figura 11). Per ulteriori dettagli si rimanda a De Carolis et al. (2012). In considerazione dei risultati brevemente descritti in precedenza, è prevedibile che le tecnologie satellitari possano riscuotere un interesse crescente ai fini della salvaguardia dell’ambiente. Ciò spiega l’importanza di un loro ulteriore sviluppo, il quale porterebbe alla realizzazione di sistemi di monitoraggio impensabili nel recente passato. A tal proposito si pensi alle potenzialità del sistema satellitare COSMO-SkyMed (COnstellation of small Satellites for Mediterranean basin Observation, ossia costellazione di satelliti di piccole dimensioni per l’osservazione del bacino del Mediterraneo), che rappresenta il più grande e recente investimento italiano nei Sistemi Spaziali per l’Osservazione della Terra, commissionato e finanziato dall’Agenzia Spaziale Italiana (ASI) e dal Ministero della Difesa (MoD) italiano. Come spesso accade per sistemi di questo tipo, è stato inizialmente concepito come un Sistema di Osservazione della Terra da utente a utente (end-to-end) con duplice uso (civile e militare), finalizzato a un servizio globale di fornitura di dati, prodotti e attività conformi a consolidati standard internazionali relativi a una vasta gamma di applicazioni (quali la Gestione del Rischio, le Applicazioni Scientifiche e Commerciali e le Applicazioni per la Difesa e per l’Intelligence). Il sistema è costituito da una costellazione di quattro satelliti di medie dimensioni su orbita terrestre bassa, tutti dotati di un radar ad apertura sintetica (SAR, Synthetic Aperture Radar), multimodale, ad alta risoluzione, operante sulla banda X e dotato di strumentazione di acquisizione e trasmissione dati particolarmente flessibile e innovativa. Alcuni esempi delle potenziali applicazioni sono le seguenti: 1) Prevenzione e gestione dei disastri ambientali (utile per condurre studi sulle cause e sui fenomeni precursori dei disastri ambientali e per migliorare la capacità di monitoraggio e valutazione dei danni in caso di frane, alluvioni, terremoti ed eruzioni vulcaniche). 2) Controllo degli oceani e delle coste (utile per rilevare in modo continuo e accurato lo stato delle coste, dei mari e delle acque interne ai fini della valutazione dell’erosione costiera e dell’inquinamento; si veda la Figura 12 a titolo di esempio). 3) Controllo delle risorse agricole e forestali (utile per migliorare la classificazione del suolo e il monitoraggio delle colture durante il ciclo di crescita, al fine di ottimizzarne la resa). 4) Controllo degli edifici (le immagini ad alta risoluzione spaziale e temporale del nuovo sistema satellitare forniscono un potente strumento per monitorare la presenza di nuovi insediamenti od opere e per controllare cedimenti o collassi strutturali). 5) Mappatura (utile per la realizzazione con elevata precisione di modelli digitali tridimensionali dei terreni aventi varie applicazioni). Figura 10. Immagine MODIS/Aqua (MYD), banda 2, acquisita il 3 giugno 2003 alle 11:20. Figura 11. Sovrapposizione delle chiazze di petrolio osservate dal MYD (in rosso) e simulate dal modello numerico (in verde) il 3 giugno 2003. Questa breve nota ha lo scopo principale di evidenziare l’importanza della ricerca nel campo dell’Idraulica ai fini della salvaguardia dell’ambiente. In particolare, sono stati presentati alcuni tipici flussi di valenza ambientale e alcuni casi di studio condotti dal gruppo di ricerca di Idraulica del Politecnico di Bari, evidenziando possibili correlazioni con ricerche analoghe a livello internazionale. Questo branca della ricerca è di sicuro interesse ai fini della corretta conoscenza del destino delle acque reflue immesse nei mari o nei fiumi. A tal fine, è importante osservare che il corpo idrico recettore (spesso si tratta di un sistema di grande rilievo ambientale) non è sempre in condizioni SCIENZE E RICERCHE • N. 5 • MARZO 2015 | INGEGNERIA CIVILE Figura 12. L’immagine si riferisce al Lago di Maracaibo (Venezuela). A differenza dei satelliti ottici, l’immagine radar mostra particolarmente bene le strutture metalliche (i punti visibili nell’immagine), rivelando la miriade di piattaforme petrolifere nel lago. [Per gentile concessione dell’ASI] statiche, come talvolta si assume in letteratura (cosiddetto scenario convenzionale); infatti, esso è spesso caratterizzato dalla presenza di onde, correnti, vegetazione al fondo, fondale ondulato, etc. Una conoscenza più approfondita dei flussi complessi a valenza ambientale deve essere perseguita per finalità sia di natura scientifica che tecnico-ingegneristica. In conclusione, la crescente pressione antropica sulle risorse idriche in tutto il mondo richiede un rinnovamento e una reinvenzione dell’ingegneria idraulica. La ricerca nel campo dell’Idraulica avverrà sempre più in collaborazione con gli esperti di tematiche ecologiche e ambientali, in considerazione della pressante esigenza di fornire delle risposte alla gestione e protezione delle risorse naturali. I vari problemi di cui si è dato cenno in questa nota richiedono ancora approfondimenti e ulteriori analisi a diverse scale e con l’utilizzo di vari “approcci”. È possibile prevedere che quest’area di ricerca vedrà crescere l’interesse di molti scienziati, i quali potranno contare su nuove interessanti tecnologie nel prossimo futuro. A tal riguardo, è forte la raccomandazione ad impegnarsi sempre più in queste tematiche, con un approccio in cui si consideri ovvia la collaborazione tra fisica, geologia, geomorfologia, ricerca sull’erosione delle coste, ecologia, biologia, fisiologia vegetale, etc. In futuro i gruppi di ricerca che riusciranno a integrarsi e a cooperare, superando i vecchi steccati e le vecchie visioni di chiusura di ciascun’area, avranno maggiori opportunità di successo negli obiettivi da perseguire. Nella consapevolezza che non è più tempo di una sterile competizione tra settori scientifici, diviene fondamentale svolgere le attività di ricerca con l’affascinante obiettivo di proteggere questa piccola astronave che è il nostro pianeta Terra. RINGRAZIAMENTI La presente nota è una sintesi della lettura presentata dall’autore durante il XXXIII Convegno di Idraulica e Co- struzioni Idrauliche, tenutosi presso l’Università di Brescia dal 10 al 15 settembre 2012. L’autore ringrazia tutti i colleghi, i ricercatori, i tecnici del Laboratorio di Ingegneria Costiera e del Laboratorio di Idraulica del Politecnico di Bari, che, con modalità ed entità diverse, ma sempre offrendo un prezioso aiuto, hanno dato un contributo alle attività di ricerca accennate. Le loro competenze eterogenee confermano che gli studi condotti su un sistema complesso come l’ambiente necessitano della collaborazione di diffe- renti gruppi di ricerca. BIBLIOGRAFIA Ackerman, J. Submarine pollination in the marine angiosperm Zostera marina, Am. J. Bot., 84(8), pp. 1110–1119, 1997. Armanini, A., Righetti, M. & Grisenti, P. Direct measurement of vegetation resistance in prototype scale, Journal of Hydraulic Research, 43, 5, 481-487, 2005. Barnosky, A.D., Matzke, N., Tomiya S., Wogan, G.O.U., Swartz, B., Quenta, T. B., Marshall C., McGuire, J.L., Lindsey, E.L. , Maguire K.C., Mersey B. & Ferrer E.A. Has the Earth’s sixth mass extinction already arrived?, Nature, Research Review, vol. 471, pp. 51-57, 2011. Ben Meftah, M. Mossa, M. & Petrillo, A. Round, vertical, turbulent, non-buoyant jet in vegetated channel, ISEH V, Tempe, Arizona, December 4-7, 2007. Benton, M.J., Mass extinctions: A brief history of catastrophe, The New Scientist, vol. 209, Issue 2802, 5, pp. ii-iii, March 2011. Carollo, F., Ferro, V. & Termini, D. Flow Velocity Measurements in Vegetated Channels, J. Hydraul. Eng., 128(7), 664–673, 2002. Csanady, G.T. Turbulent diffusion in the environment, Geophysical and Astrophysics Monographs, D. Reidel Publishing Company, 1980. Day, R.H., Shaw, D.G. & Hignell, U.S.E. The quantitative distribution and characteristics of neuston plastic in the north pacific ocean, 1985-88 Proceedings of the Second International Conference on Marine Debris, 2-7 April 1989, Honolulu, Hawaii, U.S. Dep. Commerce, NOAA Tech. Memo. NMFS, NOAA-TM-NMFS-SWFSC-154, 1990. De Carolis, G., Adamo, M., Pasquariello, G., De Padova, D. & Mossa, M. Quantitative characterization of marine oil slick by satellite near-infrared imagery and oil drift modelling: the Fun Shai Hai case study, International Journal of Remote Sensing, Manuscript ID TRES-PAP-2012-0052, 43 INGEGNERIA CIVILE | SCIENZE E RICERCHE • N. 5 • MARZO 2015 ISSN 0143-1161, accepted for publication, 2012. De Serio, F., Malcangio, D. & Mossa, M. Circulation in a Southern Italy coastal basin: Modelling and field measurements, Continental Shelf Research, vol. 27, pp. 779-797, 2007. Defina, A. & Peruzzo, P. Floating particle trapping and diffusion in vegetated open channel flow. Water Resour. Res., 46, W11525, 2010. Fischer, H.B., List, E.J., Koh, R.C.Y., Imberger J. & Brooks, N.H. Mixing in Inland and Coastal Waters. Academic Presss, New York, 1979. Imboden, D. M. & Wüest, A. Mixing mechanisms in lakes, in A. Lerman, D. M. Imboden & J. R. Gat, eds, ‘Physics and Chemistry of Lakes’, Springer Verlag, 1995. Kemp, J., Harper, D. & Crosa, G. The habitat-scale ecohydraulics of rivers, Ecol. Eng., 16, 17–29, 2000. Koole, R. & Swan, C. Measurements of a 2-D non-buoyant jet in a wave environment, Coastal Engineering, 24, 151169, 1994a. Mars, M., Kuruvilla, M. & Goen, H. The role of submergent macrophyte triglochin huegelii in domestic greywater treatment, Ecol. Eng., 12, 57–66, 1999. McClenachan, L. Historical declines of goliath grouper populations in South Florida, USA, Endangered Species Research, Contribution to the Theme Section ‘Range-wide status and conservation of the goliath grouper’, doi: 10.3354/ esr00167, 2009. Mossa M. Experimental study on the interaction of nonbuoyant jets and waves, Journal of Hydraulic Research, IAHR, 42(1), 13-28, 2004a. Mossa M. Behavior of Non-Buoyant Jets in a Wave Environment, Journal of Hydraulic Engineering, ASCE, 130(7), 2004b. Mossa M. Field measurements and monitoring of wastewater discharge in sea water, Estuarine, Coastal and Shelf 44 Science, vol. 68, pp. 509-514 ISSN: 0272-7714, 2006. Mossa M. Scraping the bottom of the barrel: What are the risks?, Hydrolink, Editorial, no. 3, Supplement to Journal of Hydraulic Research, vol. 48, no. 3, 2010. Nepf, H.M. Hydrodynamics of vegetated channels, Journal of Hydraulic Research, vol. 50, no. 3, pp. 262-279, 2012. Poggi, D., Krug, C. & Katul, G. Hydraulic resistance of submerged rigid vegetation derived from firstorder closure models, Water Resour. Res., 45, W10442, 2009. Pollen, N. & Simon, A. Estimating the mechanical effects of riparian vegetation on stream bank stability using a fiber bundle model, Water Resour. Res., 41, W07025, 2005. Ree, W.O. Hydraulic characteristics of vegetation for vegetated waterways, Agric. Eng., 30, 184–189, 1949. Rutherford, J.C. River mixing, John Wiley & Sons, 1994. Seminara, G. & Tubino, M. Fondamenti sulla diffusione e dispersione di traccianti passive, Collana Didattica di Meccanica dei Fluidi, Istituto di Idraulica, Università di Genova, 1996. Socolofsky, S. A. & Jirka, G.H. CVEN 489-501: Special Topics in Mixing and Transport Processes in the Environment, Coastal and Ocean Engineering Division Texas A&M University, M.S. 3136, College Station, TX 778433136, 2005. Wilcock, R., Champion, P., Nagels, J. & Crocker, G. The influence of aquatic macrophytes on the hydraulic and physicochemical properties of a New Zealand lowland stream, Hydrobiologia, 416(1), 203–214, 1999. Wood, I.R., Bell, R.G. & Wilkinson, D.L. Ocean disposal of wastewater, World Scientific, Advanced Series on Ocean Engineering, vol. 8, 1993. Zong, L. & Nepf, H. Spatial distribution of deposition within a patch of vegetation, Water Resour. Res., 47, W03516, 2011. SCIENZE E RICERCHE • N. 5 • MARZO 2015 | SCIENZE ARTISTICHE Le arti espressive come pedagogia della creatività GAETANO OLIVA Facoltà di Scienze della Formazione, Dipartimento di Italianistica e Comparatistica, Università Cattolica del Sacro Cuore, Milano « 1. TEATRO ED EDUCAZIONE Il teatro è un efficace mezzo d’educazione per il fatto che fa appello all’individuo intero, alla sua profonda umanità, alla sua coscienza dei valori, alla sua più immediata e spontanea 1 socialità». Questa può essere una buona sintesi della posizione che s’intende assumere nel presente lavoro sul teatro come “efficace mezzo d’educazione”. Innanzitutto l’esperienza teatrale ha la capacità di coinvolgere l’intera personalità del soggetto dal punto di vista psicofisico e di apertura alla relazione con gli altri. Allo stesso tempo la rappresentazione teatrale mette in gioco con grande intensità le qualità e le risorse del vivere dell’uomo facendo ogni volta una precisa scelta di valori. Tutte queste dimensioni sono di diritto coinvolte in ogni processo educativo. Avere quindi uno strumento in grado di sollecitarle tutte in diversa misura, risulta essere una preziosa risorsa per le progettualità educative di diverso tipo. Ciò è anche evidente per quanto riguarda le finalità dell’educazione e dell’esperienza teatrale. Infatti, «il teatro e l’educazione sono due realtà che possiedono finalità comuni: da un lato la pedagogia pone al centro il soggetto permettendogli di esprimersi, dall’altro il teatro persegue lo stesso obiettivo attraverso attività che stimolino lo sviluppo della 2 creatività e la comunicazione». La specificità del teatro è pertanto tutta centrata sull’asse creativo e comunicazionale all’interno del quale la prassi della rappresentazione ha delle tecniche e una storia importanti, ciò segue le stesse finalità dell’azione educativa diventandone un eccezionale alleato. In questa prospettiva, appare già chiaro come sia possibile parlare allora di Educazione alla Teatralità come vera e propria strategia educativa che «non vuole trasmettere un sapere ma portare il soggetto a formarsi attraverso l’esperienza e la scoperta. La finalità dell’educazione teatrale è la conoscenza di se stessi, delle proprie possibilità e limiti al fine di espri3 mersi e comunicare». 2. LE ORIGINI L’origine del laboratorio teatrale va cercata tra i molti, singolari avvenimenti che hanno caratterizzano la storia del teatro del Novecento. Rispetto al secolo precedente il teatro si riavvicina alla vita personale e sociale dell’uomo riassumendo una forte valenza valoriale. Questo nuovo sguardo che il teatro ha su di sé porta a una significativa accentuazione di due aspetti strutturali: al suo interno ha per centro l’attore, al suo esterno ha per obiettivo la comunicazione con lo spettatore. Tutto ciò è stata una vera rivoluzione per la storia teatrale: La rivoluzione culturale, che ha caratterizzato il teatro nel XX secolo, può essere paragonata per importanza alla rivoluzione copernicana la 1 G. Oliva, Educazione alla Teatralità e formazione, LED, Milano, 2005, p. 234. 2 Ibidem. nuova centralità che acquistò l’attore nel teatro del Novecento scon3 Ivi, p. 235. 45 SCIENZE ARTISTICHE | SCIENZE E RICERCHE • N. 5 • MARZO 2015 volse il modo di pensare e fare teatro; se, nell’essenza, l’evento teatra- È proprio qui, in questo spostamento dell’attenzione dallo spettacolo le restava lo stesso, composto sempre da un testo, da uno spazio e una come fine ultimo alla centralità dell’attore come protagonista di un scenografia, da elementi quali le luci, la musica, il trucco, ecc. in realtà processo, che si colloca l’incontro tra teatro ed educazione. Il teatro tutto diventava secondario e finalizzato alla messinscena dell’uomo, diviene il luogo della scoperta e delle possibilità, lo spazio in cui la dei suoi pensieri, delle sue emozioni.4 fantasia e la creatività possono esprimersi liberamente. Esso si incontra con la pedagogia nel momento in cui pone al centro l’uomo e gli Questa profonda modificazione del processo teatrale mostra immediatamente le ragioni del suo legame con il processo educativo: le emozioni, i pensieri e le relazioni dell’attore sono immediatamente manifestazione e riflessione sui pensieri e sulle relazioni della persona e offrono ad entrambi la possibilità di lavorare su se stessi e sulla propria consapevolezza del sé. In questa accezione si muovono personalità del teatro come Stanislavskij, Mejerchol’d, Vachtangov, Copeau, Brecht, Grotowski, Brook, Boal, Barba e tanti altri. Con loro si intrecciano con naturalezza le teorie dei maggiori pedagogisti degli ultimi due secoli: Dewey, Montessori, Freinet, Maritain. Il Novecento si presenta, infatti, come un’epoca nella quale l’uomo va alla ricerca di sé, della propria identità e delle ragioni del suo vivere sociale. Il fatto educativo, e al suo interno lo strumento privilegiato del teatro, diventano pertanto espressione di un bisogno personale e sociale: l’uomo è alla ricerca dell’autenticità della propria umanità, dei valori che possono garantire una vita buona, positiva e riconciliata. Il processo teatrale risponde a questa necessità perché è in grado di offrire al percorso educativo non solo teoriche ma energie e soluzioni creative: I laboratori [teatrali] del XX secolo si configurano dunque come esperienze formative per l’uomo ancora prima che per l’attore: il teatro del futuro poneva le radici nella pedagogia che diventa pedagogia teatrale, lontana dagli insegnamenti istituzionali, in grado d’essere davvero creativa e non pura e semplice trasmissione di conoscenze.5 Per arrivare a uno sviluppo e a una crescita armonica della persona il laboratorio si serve di azioni pratiche. L’educatore alla teatralità utilizza una metodologia precisa organizzata in esercizi creativi, si avvale di strumenti metodologici che nascono dalla scomposizione stessa delle componenti del teatro. Il linguaggio, il testo, lo spazio, il tempo, l’improvvisazione, lo studio del personaggio, i suoni e i materiali scenici vengono analizzati ed esaminati nelle loro caratteristiche, teatrali e sociali. Un linguaggio performativo, diretto all’azione, con regole proprie e che tiene conto del suo utilizzo nel progetto creativo finale. dà voce, nel momento in cui recupera ogni singolo individuo con la propria personalità e la propria espressività e lo fa crescere attraverso un percorso individuale che è però inserito in un disegno di gruppo. E nell’incontro di queste due realtà, quindi, che nasce il laboratorio teatrale.6 Il teatro focalizzandosi propriamente sull’esperienza-laboratorio dell’attore-persona in relazione con gli altri attori-persone, va a coincidere con il percorso pedagogico del singolo e del gruppo. Tutto questo avviene grazie anche allo sviluppo di strumenti come l’immaginazione, l’improvvisazione, la creatività e l’espressione tipici del lavoro teatrale: questi strumenti diventano veicolo per la scoperta e la gestione delle proprie emozioni, della propria sensibilità e dei propri affetti, più in generale, per l’intero mondo interiore dell’uomo che viene così chiamato in causa e che può quindi scoprirsi, formarsi, accrescersi, prendersi cura di sé. Questo modo di pensare e agire trova corrispondenza con i pensieri pedagogici di alcuni studiosi quali ad esempio, John Dewey (1859-1952), filosofo e pedagogista americano, che pone in risalto per la prima volta, nel campo dell’educazione, l’importanza del vivere l’esperienza che diventa un elemento importante prima ancora che dei contenuti cognitivi dell’esperienza stessa. Ci si educa all’interno del processo esperienziale inserito nel tessuto sociale. Anche l’italiana Maria Montessori (1870-1952) presenta dei significativi punti d’incontro tra la sua analisi pedagogica e le novità teatrali del Novecento. La Montessori parla di un’educazione della liberazione, attraverso la quale il fanciullo deve essere restituito a sé stesso, alla sua natura. E proprio da questo nuovo punto di partenza che diventa il centro di tutto l’interesse, che il laboratorio trae il suo senso e giustifica il suo esistere. Il laboratorio teatrale deve rappresentare innanzitutto un luogo, un ambiente protetto nel quale l’elemento centrale non è più la rappresentazione finale, ma il processo, il percorso di pratiche e conoscenze che l’individuo compie e vive su sé stesso in prima persona. Ciò che diviene fondamentale allora é la sperimentazione, la messa in gioco, l’esplorazione, il confronto e lo scontro con altre realtà, in modo tale da entrare nel teatro con tutto sé stessi, a partire proprio da quel pratico che si realizza concretamente.7 3. L’INTRECCIO CON LE TEORIE PEDAGOGICHE L’intrecciarsi delle nuove esperienze teatrali con la riflessione e la prassi pedagogica nasce da questo nuovo modo di concepire e vivere il teatro. G. Oliva (a cura di), La pedagogia teatrale, Arona (Novara), Editore XY.IT, 2009, p. 27. 4 5 Ibidem. 46 Il teatro diventa pertanto quel luogo protetto nel quale il soggetto può, in assenza di giudizio, indagare se stesso, mettersi alla prova in relazione a sé e con gli altri, improvvisare nuovi scenari, giocare nuove personali libertà mediando tra la sua intimità e la sua socialità per giungere a una nuova 6 G. Oliva, Educazione alla Teatralità e formazione, cit., p. 231. 7 Ivi, p.233. SCIENZE E RICERCHE • N. 5 • MARZO 2015 | SCIENZE ARTISTICHE forma nel proprio percorso di crescita umano. Il pensiero di questi due pedagogisti, in estrema sintesi, mostrano chiaramente come pedagogia e laboratorio teatrale si intreccino a vicenda in maniera molto proficua. In sintesi: L’equilibrio tra queste due dimensioni, quella pedagogica e quella teatrale, diventa indispensabile in un laboratorio di educazione alla teatralità che vuole essere un luogo in cui la consapevolezza psichica e fisica di sé e la capacità espressiva dell’identità ritrovata si sviluppino in modo armonico. La formazione dell’attore-persona non è finalizzata alla trasformazione dell’uomo in un “altro” rispetto a sé, ma ha come obiettivo di valorizzare le sue qualità nel rispetto, sempre, della sua personalità.8 Si parla dunque di “educazione attiva” giacché forma nel soggetto attitudini che gli permettono di sapere come agire, adeguatamente, in situazioni sociali sempre nuove. In altre parole si cerca di salvaguardare, con modi e intenti differenti, la dignità della persona e la validità della società di cui fa parte. 4. L’INTERDISCIPLINARIETÀ Un teatro che si intreccia con le teorie pedagogiche e che pone in essere un’esperienza educativa ampia diventa uno spazio in continuo scambio con le scienze umane. L’Educazione alla Teatralità è una scienza che vede la compartecipazione al suo pensiero di discipline quali la pedagogia, la sociologia, le scienze umane, la psicologia e l’arte performativa in generale. La scientificità di questa disciplina ne permette un’applicabilità in tutti i contesti possibili e con qualsiasi individuo, poiché pone al centro del suo processo pedagogico l’uomo, in quanto tale e non in quanto necessariamente abile a fare qualcosa. L’interdisciplinarietà dell’Educazione alla Teatralità è pertanto una conseguenza immediata del fatto che educazione ed esperienza teatrale si rivolgono all’intera personalità dell’uomo in tutte le sue dimensioni e questo non è solo un rivolgersi teorico ma, come abbiamo visto, è un mettere in gioco/in scena, uno sperimentare concreto, libero e creativo. A questo laboratorio sono pertanto invitate diverse altre discipline umane, individuali e sociali, così come esso si può rivolgere a svariati soggetti e diversi contesti. Qualsiasi persona ha qualcosa da dire, o meglio, ha molto da esprimere: occorre solamente la disponibilità a mettersi in gioco e a liberare la propria creatività. 5. IL LABORATORIO COME STRUMENTO METODOLOGICO L’arte teatrale si fa strumento educativo nella forma del laboratorio. È questo il luogo di lavoro di sperimentazione e di crescita. Il laboratorio teatrale ha una forte valenza pedagogica e offre un importante contributo nel processo educativo, 8 Ivi, p. 234. poiché, nel percorso che ognuno compie su di sé, conduce a imparare a “tirare fuori” ciò che “urla dentro”, conoscere e controllare la propria energia, a convivere con ciò che in un primo momento si è represso o rimosso. Il teatro, vissuto nella dimensione del laboratorio, permette di ampliare il campo di esperienza e di sperimentare situazioni di vita qualitativamente diverse da quelle abituali, che possono contribuire alla ridefinizione di sé, del mondo, degli altri. Fare teatro, in questo senso, significa allora rivedersi nel proprio passato: rivivere angosce, rivisitare certi comportamenti o situazioni, non per rimuoverle, ma per prendere coscienza di essere cresciuti e riconoscere le proprie positività. Il laboratorio teatrale si muove lungo tre dimensioni strumentali. Innanzitutto l’esperienza laboratoriale è azione fisica che coinvolge nella sua interezza il corpo e la voce dell’attore-persona. I gesti, la forma, il movimento esprimono o nascondono delle risonanze interiori. La voce e le parole sono, all’interno di questa corporalità, infatti, essa conferma, chiarisce, sottolinea o smentisce la verità delle posizioni del corpo; allo stesso tempo vi è anche la relazione inversa: è il corpo che dà forza o indebolisce la verità delle parole. Una seconda dimensione è la creatività. Per definizione il laboratorio teatrale è il luogo in cui l’attore-persona può e deve dare libero sfogo alla propria immaginazione che non è sempre possibile nella vita quotidiana, infatti, in tale spazio la persona sviluppa la propria energia che si condensa in nuove creazioni che aprono orizzonti inediti alle sue conoscenze. Da ultimo si intreccia con questi due elementi anche la dimensione sociale. Il corpo è sempre in relazione con ciò che lo circonda: altri corpi, oggetti, ambienti e quant’altro. Così l’esperienza dell’attore-persona si modula nel confronto, più o meno conflittuale, con la sfera del vivere insieme. Questi strumenti “vissuti” nel laboratorio determinano alcune dinamiche rispetto alla vita quotidiana che mettono in luce la valenza pedagogica ed educativa di tale esperienza. La prima dinamica è quella della sospensione. Nel laboratorio l’esperienza quotidiana è temporaneamente sospesa e si crea una dimensione di vita protetta dai condizionamenti e dai giudizi nei quali normalmente la persona è immersa. Questa specificità è preziosa perché può consentire lo stabilirsi di condizioni di fiducia: l’ambiente ottimale per ogni processo e relazioni educative. La dinamica della sospensione mette in grado i soggetti coinvolti di esplorare se stessi, la situazione e le risorse personali e sociali da mettere in campo. È questa possibilità che risulta altamente formativa per gli attori in gioco. La tappa dell’esplorazione è propedeutica a quella che si può definire della “costruzione”. L’esito del processo di un laboratorio può, infatti, portare il singolo attore-persona o il gruppo intero a riconoscere una nuova forma di atteggiamento personale, di interiorità psichica o di comportamento sociale che si è venuta costruendo proprio nel lavoro teatrale e che diventa ora patrimonio educativo consolidato. Questa novità esprime quella possibilità concreta di cambiamento che ogni processo educativo deve far emergere e, passo dopo passo, condurre a compimento. 47 SCIENZE ARTISTICHE | SCIENZE E RICERCHE • N. 5 • MARZO 2015 Quanto brevemente descritto risulta modularsi all’interno dell’esperienza laboratoriale su tre livelli mutuamente intrecciati: - livello individuale: l’attore-persona mette in gioco abilità precise per riuscire a stare sulla scena o per reggere un confronto con un pubblico, attraverso quel mezzo di contatto con sé stesso che, in teatro, è costituito dal monologo drammatico; deve servirsi poi ditali abilità In questa formula, all’interno della parola metodologia è contenuta anche l’esperienza necessaria dell’improvvisazione. Questo strumento ha uno scopo educativo prima ancora che teatrale in quanto ha una forza introspettiva enorme, essendo capace di lasciar affiorare innumerevoli elementi personali (emozioni, ricordi, intuizioni, sensazioni) altrimenti nascosti e sommersi ma che influenzano la personalità e l’azione del soggetto. nella vita quotidiana, ottenendo una maggiore gratificazione sia da sé stesso, sia dagli altri; 7 L’EMOZIONE - livello relazionale: in questa fase l’individuo si sperimenta nel dialogo, ovvero nella relazione psico-fisica con il partner sulla scena. Per cercare di stabilire un contatto emotivo con il compagno è necessario che si sviluppino ulteriormente alcune facoltà umane, quali la precisione e il controllo del proprio sé; L’esperienza del provare emozioni non è una scelta dell’individuo: l’emozione accade nel mondo psichico della persona su sollecitazione di un fatto esterno ad esso ma anche per dinamiche tutte interiori non facilmente riconoscibili. - livello gruppale: in questa ultima fase l’individuo si sperimenta nel e con il gruppo.9 L’emozione va considerata un costrutto psicologico nel quale intervengono diverse componenti, una componente cognitiva finalizzata Nella situazione didattica del laboratorio teatrale si attivano delle forze particolari tra gli allievi, l’educatore e il gruppo nel suo insieme: le loro esistenze creative entrano in una relazione dinamica. Il completamento del sé avviene mediante questo confronto con l’altro, un’interazione che non può avvenire senza dialogo e senza sperimentazione. alla valutazione della situazione-stimolo che provoca l’emozione; una componente di attivazione fisiologica determinata dall’intervento del sistema neurovegetativo; una componente espressivo-motoria; una componente motivazionale, relativa alle intenzioni e alla tendenza ad agire/reagire; una componente soggettiva consistente nel sentimento provato dall’individuo. Tutte le componenti sono interdipendenti tra loro e partecipano a determinare l’esperienza emozionale.12 6 LA PRE-ESPRESSIVITÀ Se è vero che ogni persona non può non comunicare, non è altrettanto vero che ogni persona è sempre consapevole del suo status espressivo. L’Educazione alla Teatralità parte dalla certezza che ogni soggetto ha una propria pre-espressività naturale che lo caratterizza in modo particolare, anche se non si è consapevoli di ciò. Prenderne coscienza significa conoscere se stessi e questo implica la voglia e l’intenzione di mettersi in gioco, di andare alla ricerca e alla scoperta di sé in modo profondo. Il concetto di pre-espressività, quindi, serve in quanto è in relazione all’attore, una persona che usa una tecnica extra-quotidiana del corpo, in una situazione di rappresentazione organizzata; nasce con l’individuo e lo accompagna lungo tutto il suo cammino modellandosi e trasformandosi con lui. In questo senso allora non è quindi corretto fare riferimento all’uomo e alla pre-espressività come due realtà distinte: i Questa definizione aiuta a comprendere come l’emozione sia un fenomeno fortemente complesso che innerva tutta la vita dell’uomo. Non ci sono ambiti nei quali l’uomo non prova emozione: ci sono semmai situazioni nelle quali le emozioni si nascondono o si manifestano apertamente; si muovono in sintonia con le azioni che l’uomo compie, oppure le ostacolano rendendole difficili o impossibili; ci sono momenti in cui il soggetto riconosce le proprie emozioni e le gestisce utilmente e momenti altri nei quali, invece, il soggetto è travolto dalle stesse conseguenze non sempre positive per la propria vita; ci sono situazioni, infine, dove la persona censura le proprie emozioni non volendo o non potendo riconoscerle nemmeno a se stessa. La complessità di questa esperienza è potenziata anche dal fatto che le emozioni sono sempre attività interiori in vicendevole scambio con il corpo: l’emozione vive nel corpo e lo condiziona ma allo stesso tempo lo stato del corpo influisce sulle emozioni. due termini si coinvolgono reciprocamente.10 Le emozioni sono espresse e comunicate nella stragrande maggioran- La persona non rivela pienamente se stessa se non scopre e accresce la propria pre-espressività. Lo sviluppo della fantasia e della creatività è conseguentemente l’obiettivo principe da raggiungere per valorizzare le qualità personali dei soggetti in gioco. Questo obiettivo è raggiungibile seguendo la formula sintetica: «pre-espressività + metodologia = sviluppo della creatività individuale».11 9 Ivi, p. 237. 10 Ivi, p. 235. 11 G. Oliva, Il Laboratorio Teatrale, Milano, LED, 1999, p.89. 48 za dei casi, oltre che con il linguaggio parlato, soprattutto attraverso una serie di segnali non verbali che riguardano la faccia, l’intonazione della voce, il corpo ecc. ln una certa misura e in modo differente da individuo a individuo e da cultura a cultura questi segnali non verbali e verbali che denotano emozioni possono essere tenuti sono controllo, mascherati, inibiti o, ancora, evidenziati a seconda delle circostanze.13 12 R. Di Rago, (a cura di), Emozionalità e teatro. Di pancia, di cuore, di testa, Milano, Franco Angeli, 2008, p. 77. 13 Ivi, p. 78. SCIENZE E RICERCHE • N. 5 • MARZO 2015 | SCIENZE ARTISTICHE Risulta evidente come un’educazione delle emozioni sia necessaria per l’esistenza della persona. Questa educazione assume spesso l’aspetto di una vera e propria alfabetizzazione emotiva che parte innanzitutto da una domanda di base che non va mai data per scontata: quali sono i nomi che posso dare a ciò che vivo e sento adesso dentro di me? Saper raccontare il proprie emozioni con parole ricche e dense di significato è il primo passo per saper convivere con esse in maniera riconciliata e positiva. Le emozioni sono, infatti, un arcipelago talvolta ambiguo e contraddittorio che possono offrire gusto ma anche disgusto alla vita così come possono essere un enorme vantaggio per le funzioni cognitive (intelligenza emotiva) oppure inibirle potentemente e, infine, sono risorse preziosissime per le relazioni umane ma anche causa di depressioni e chiusure autistiche. per proiettarle al di fuori di se stessi, controllarle, viverle e poterle condividere a una certa distanza, finché diventa possibile reintrodurle dentro di sé. Non sempre è possibile evitare le frustrazioni ma possiamo imparare a tollerarle, l’attività teatrale può offrire alternative facilmente fruibili per riuscire a dominare stati d’animo negativi. L’attività teatrale aiuta la persona a prendere coscienza del proprio linguaggio corporeo e a essere consapevole dei propri comportamenti, delle proprie emozioni, dei propri pensieri, questo è il primo passo per avere un dialogo autentico con se stessi e riuscire a raggiungere una piena crescita, accettazione e consapevolezza di sé. Lo stato di salute e il benessere individuale dipendono in gran parte Educare vuol dire favorire l’accrescimento positivo della personalità del soggetto, aiutandolo a cogliere le proprie risorse positive, contribuendo a sciogliere e riconciliare i nodi problematici che può portare in sé, perché giunga ad una umanità complessiva più serena e matura e quindi in grado di realizzare se stessa in relazione con gli altri e con l’ambiente in cui si trova. La creatività è una delle risorse più importanti per questo processo di maturazione proprio perché fa da ponte tra l’io interiore e l’io in relazione con gli altri. Educare pertanto vuol dire anche educare alla creatività, liberando la persona dagli eventuali blocchi e consentirle uno sviluppo continuo, rimuovendo cosi gli ostacoli sia culturali che psichici. dal controllo e dalla regolazione delle emozioni. La capacità di controllare, esprimere, vivere e sentire le emozioni è una qualità che non tutte le persone possiedono in eguale misura e che, in talune circostanze, può essere particolarmente importante sviluppare o acquisire. Si è parlato a tale proposito di “intelligenza emotiva”. Questo termine, sono linea l’esistenza, tra i vari fattori che costituiscono l’intelligenza umana, di un’abilità emotiva che permette a molti individui di sapersi muovere con successo, di vivere meglio e, spesso, più a lungo. Gli ambiti in cui sostanzialmente questa abilità emotiva si esplica riguardano: l. la conoscenza delle proprie emozioni, ovvero la capacità di essere autoconsapevoli dei propri vissuti emotivi e di sapersi osservare; 8. L’ATTIVITÀ TEATRALE COME PEDAGOGIA DELLA CREATIVITÀ 2. il controllo e la regolazione delle proprie emozioni (appropriatezza nell’espressione e nel vissuto emotivo, evitare il cosiddetto “sequestro Alla base dell’educazione alla creatività c’è la fiducia nella persona, emotivo” ovvero di essere dominati dalle emozioni); vista come capace di assumere su di sé la responsabilità del proprio 3. la capacità di sapersi motivare (predisposizione di piani e scopi, agire. All’individuo viene data la possibilità di affermare la propria capacità di tollerare le frustrazioni e di posporre le gratificazioni); individualità tramite il ricorso a una molteplicità di linguaggi, sia di 4. il riconoscimento dell’emozione altrui (empatia); tipo verbale sia non verbale.15 5. la gestione delle relazioni sociali tra individui e nel gruppo (capacità di leadership, negoziazione ecc.)14 L’urgenza di educare al riconoscimento e alla gestione delle emozioni è avvalorata anche dal fatto che nel mondo di oggi, la società e in particolare l’industria del commercio, si occupano delle emozioni della persona, quindi diventa necessaria un’ educazione alle proprie emozioni, cioè aiutare il soggetto a riconoscerle nella loro complessità per aiutarlo a maturare un equilibrio personale in rapporto con i propri valori, la concretezza reale della propria vita e la forza delle proprie scelte. Attraverso un percorso che permette di lavorare sul rapporto con se stessi e con gli altri il laboratorio teatrale consente di mettere in moto le proprie risorse in modo da riuscire a percepire e ad affrontare nodi emozionali, conflitti interiori, blocchi comunicativi. Il gioco teatrale in relazione ad un altro essere umano diviene strumento per tollerare emozioni forti, 14 Ibidem Il laboratorio teatrale è in grado pertanto di condurre il soggetto in un percorso di crescita e di formazione anche della propria sfera immaginativa, attivando così quelle potenzialità originarie della persona. 9 EDUCAZIONE AL BELLO Il compito dell’arte è quello di rivelare il bello della realtà, liberandolo dalle impurità che lo offuscano. Il teatro non deve mai dimenticare la sua natura artistica: oltre a recuperare il soggetto in stato di bisogno, deve soprattutto comunicare il senso estetico dell’arte stessa; il teatro è arte, prima di tutto, e la persona che si avvicina ad esso deve comunque ricercare all’interno di sé la fantasia e la creatività che la contraddistinguono.16 Attingere alle esperienze per la persona vuole essere un 15 G. Oliva, Educazione alla teatralità e formazione, cit., p.22 16 Ivi, p. 238. 49 SCIENZE ARTISTICHE | SCIENZE E RICERCHE • N. 5 • MARZO 2015 modo per riscoprire con libertà le dimensioni più autentiche dell’esistenza che testimoniano una meravigliosa sinfonia tra il buono, il bello e il vero. La creatività, la cura degli affetti e delle emozioni, l’espressione libera e armonica del proprio corpo in sintonia con l’anima favorisce la scoperta del concetto del bello. L’arte ne è pienamente testimone: ogni manifestazione artistica si sottrae alla dimensione della necessità mentre si trova a suo agio nella dimensione gratuita del dono e del divertimento. Non si tratta tanto di imparare una gestualità nuova, di elasticizzare la mente con la recita di una parte a memoria, quanto, piuttosto, di introiettare una nuova categoria esistenziale sradicata dal consumo, È importante procedere a fissare le improvvisazioni libere che segneranno la prima fase del lavoro in situazioni definitivamente concordate, idee comunemente accettate, battute precise, elementi di un vero e proprio dialogo teatrale. Inoltre il conduttore del laboratorio ha il compito di dirigere, contenere e indirizzare il gruppo verso una piena accettazione dell’altro. Tale soggetto si configura necessariamente come attore-educatore e pertanto deve essere in grado di padroneggiare professionalmente competenze teatrali e pedagogiche. Nella sua attività egli deve modulare i vissuti e l’espressività degli allievi in modo che la dimensione corale del processo creativo deve permettere lo sviluppo dell’individuo e quello del gruppo. dal vuoto apparire, dal cannibalico bisogno di avere tutto e subito. Il teatro diventa uno spazio-tempo significativo per acquisire la con- Il maestro di teatro, all’interno di un percorso formativo, diventa un sapevolezza che ovunque, anche in carcere, anche in se stessi, pur educatore e quindi lo si definisce un educatore alla teatralità. Quest’ul- essendo ritenuti criminali marchiati oppure disabili, mancanti di qual- timo ha il compito di orientare e sostenere, proporre stimoli, offrendo cosa e autoconfermanti questa etichetta, si può ritrovare qualcosa di suggerimenti, ribadendo osservazioni e domande piuttosto che for- bello. Questa consapevolezza si traduce nell’acquisizione di un nuovo nendo risposte, informazioni e concetti esclusivamente teorici. È op- strumento interpretativo di sé e del mondo.17 portuno che costui non si ponga come modello da imitare, ma sappia essere una figura di riferimento. L’educatore alla teatralità deve cono- L’esperienza teatrale vissuta nel “processo” conduce all’accrescimento della libertà e della creatività personale, più il soggetto cresce nella propria formazione umana, più si scopre artista e “produce” arte rivelando il bello di sé e della vita, scoprendo il bello dovunque e in ogni persona. scere i metodi dell’Animazione Teatrale cui è fondamentale l’esserci, sapendo diventare elemento integrante per la costituzione e collaborazione del gruppo. Accanto a questo è importante che comprenda e intuisca i modi con cui stimolare la reazione espressiva di ogni allievo. L’educatore, una volta colta nell’allievo la disponibilità ad esprimersi, deve essere in grado di farsi da parte per non sovrapporsi a lui per non 10 IL RUOLO DELL’EDUCATORE TEATRALE 50 soffocare la sua creatività.18 Dirigere un lavoro di questo tipo per un insegnante che svolge il ruolo di educatore teatrale significa evidentemente procedere all’accumulo di immagini, suggerire analogie di comportamenti, stimolare riflessioni logiche e, talvolta, favorire intuizioni poetiche. Spesso occorre che egli partecipi in prima persona al gioco dell’immaginazione per smuovere qualche inibizione, per sciogliere qualche riserbo, per fornire qualche esempio, per sentirsi e mostrarsi coinvolto in prima persona con tutto il proprio personale bagaglio fantastico nel processo creativo. Il ruolo dell’adulto, in questo senso, è per molti aspetti assimilabile a quello che in teatro è affidato al regista, a colui cioè cui compete la responsabilità delle decisioni finali. All’adulto, infatti, spettano diversi compiti: determinare la direzione di ricerca che il lavoro dovrà assumere, stabilire la successione e la consistenza delle diverse fasi in cui si articola il processo creativo e indicare le eventuali variazioni di programma. Le prove di uno spettacolo si chiamano così proprio perché in esse è insita la possibilità dell’errore, infatti, la loro funzione è quella di indagare sempre in più direzioni, alla ricerca della soluzione che risulti più soddisfacente e più congrua in rapporto all’economia complessiva della rappresentazione. Nel laboratorio teatrale il conduttore deve pertanto essere allo stesso tempo: un regista teatrale, un educatore e un animatore. Solo l’intreccio sapiente di queste tre competenze consente al singolo individuo e al gruppo di vivere in maniera proficua il percorso pedagogico all’interno dell’esperienza teatrale. Comune a tutte e tre queste dimensioni sono l’impianto maieutico: il conduttore del laboratorio deve avere fiducia nelle potenzialità dei soggetti e deve saper costruire quelle condizioni che consentono a ciascuno e al gruppo di lasciar affiorare i propri elementi significativi, emozioni, immaginazioni, ricordi, azioni, eventi. La sapienza del regista che, a questo punto, è a tutti gli effetti anche un educatore, consiste proprio nel generare quella dimensione comunicativa e affettiva nella quale ogni partecipante si possa sentire libero di esprimersi. Il maestro del laboratorio teatrale deve promuovere ma non vincolare; guidare ma non dirigere; suscitare ma non riempire di contenuti; dare sicurezza ma non imporsi: questo difficile equilibrio necessita di competenze sperimentate sul campo e di qualità umane affinate da tempo in un continuo lavoro personale su di sé. Sotto il profilo più strettamente pedagogico: 17 C. Cariboni, G. Oliva, A. Pessina, Il mio amore fragile. Storia di Francesco, Arona, Editore XY.IT, 2011, p.113. 18 G. Oliva (a cura di), La pedagogia teatrale, Arona (NO), Editore XY.IT, 2009, p. 42. SCIENZE E RICERCHE • N. 5 • MARZO 2015 | SCIENZE ARTISTICHE […] le caratteristiche peculiari richieste all’educatore alla teatralità cominciano dalla sua dimensione personale: è necessario che sia una persona matura che sappia mettersi in discussione. che sia dotato di capacità comunicative e che possegga una flessibilità intellettiva che gli permetta di adattarsi a tutte le situazioni, soprattutto poi che sia motivato e abbia uno stile giocoso e positivo che traspaia dal suo modo di lavorare [...] È importante che sia in grado dì gestire sapien- il conduttore deve necessariamente possedere in modo tale da poter adeguare le proprie proposte educative all’ambiente e alle persone con cui lavora. Per far in modo che le abilità creative personali possono essere sviluppate dall’educazione teatrale, occorre che siano offerti strumenti e contenuti adeguati, risulta quindi indispensabile la costruzione di un progetto educativo teatrale con obiettivi specifici e prefissati. temente la relazione, sapendo porre al centro il singolo individuo ma non trascurando la dimensione del gruppo: per questo è importante RIFERIMENTI BIBLIOGRAFICI che sia buon osservatore, così da cogliere le caratteristiche e i problemi delle persone che si trova di fronte. In ogni modo deve saper accogliere incondizionatamente ogni allievo ed avere la capacità di riporre in ciascuno la sua fiducia [...] È fondamentale che abbia anche doti organizzative, cioè sia in grado di progettare un intervento educativo consono alla situazione, che si sappia muovere all’interno delle diverse realtà in cui si può trovare ed operare.19 Per quel che riguarda invece la conoscenza della pedagogia teatrale, il conduttore di laboratorio: Non è necessario che sia un attore professionista, però deve avere una buona competenza sia a livello teorico che pratico del teatro; non è possibile pensare che il conduttore di un laboratorio teatrale non abbia sperimentato personalmente il percorso che va a proporre ad altri. È necessario, inoltre, che egli possieda una buona conoscenza della storia del teatro così da saper favorire nei suoi allievi la curiosità verso la cultura teatrale ed esserne vero promotore [...]. Per l’educatore alla teatralità è opportuno saper gestire l’arte teatrale nella sua globalità, per questo motivo la sua competenza si estende a tutte le arti, dal movimento, alla musica, dall’uso delle scene all’illuminotecnica. È utile sottolineare che il rapporto maestro-discepolo sia di tipo affettivo-relazionale. Un rapporto che non ha questa profondità non consentirebbe l’attivazione di tutte le dimensioni precedentemente descritte. Questa relazionalità affettiva è il vero e proprio amore pedagogico come ci ricorda Eugenio Barba: Parlare di rapporto educativo significa far spazio all’amore pedagogico. In esso vi è la coincidenza di due realtà distinte: l’unità nella diversità. Infatti, il vero amore esalta le singole personalità all’interno delle differenze. L’amore presenta alcune caratteristiche: - Protezione. Il vero amore sa proteggere facendo capire all’altro di essere sempre disponibile e sa lasciar liberi di sperimentarsi nella propria individualità. Gaetano Oliva, Il laboratorio teatrale, Milano, LED, 1999. Gaetano Oliva, L’educazione alla teatralità e la formazione. Dai fondamenti del movimento creativo alla form-azione, Milano, LED, 2005. Serena Pilotto (a cura di), Creatività e crescita personale attraverso l’educazione alla arti: danza, teatro, musica, arti visive. Idee, percorsi, metodi per l’esperienza pedagogica dell’arte nella formazione della persona, Atti del Convegno 13 e 14 febbraio 2006, Teatro “Giuditta Pasta” Saronno, Piacenza, L.I.R., 2007 Rosa Di Rago, (a cura di), Emozionalità e teatro, Milano, Franco Angeli, 2008. Gaetano Oliva, (a cura di), La pedagogia teatrale. La voce della tradizione e il teatro contemporaneo, Arona, XY.IT Editore, 2009. Gaetano Oliva, L’Educazione alla Teatralità e il gioco drammatico, Arona, XY.IT Editore, 2010. Gaetano Oliva (a cura di), La musica nella formazione della persona, Arona, XY.IT Editore, 2010. Catia Cariboni, Gaetano Oliva, Adriano Pessina, Il mio amore fragile. Storia di Francesco, Arona, XY.IT Editore, 2011. Enrico M. Salati, Cristiano Zappa, La pedagogia della maschera. Educazione alla teatralità nella scuola, Arona, XY.IT Editore, 2011. Gaetano Oliva, Serena Pilotto, La Scrittura Teatrale nel Novecento. Il Testo Drammatico e il Laboratorio di Scrittura Creativa, Arona, XY.IT Editore, 2013. Gaetano Oliva, Education to Theatricality inside Secondary School, Art and Body, CE Creative Education (USA), Vol.5 No.19, November 2014, pp. 1758-1775. Gaetano Oliva, Education to Theatricality: Creative Movement as a Training Model”, Global Journal of HUMAN-SOCIAL SCIENCE: G Linguistics & Education, Global Journals Inc. (USA), Volume 14 Issue 9, 2014, pp. 1-20. Distinzione. Il vero amore riconosce i bisogni dell’altro. - Razionalità. Il vero amore non va mai disgiunto dalla ragione, le degenerazioni sono dovute ad un prevalere dell’irrazionalità. - Oblatività. È il sentimento di comprensione e disinteressamento tipico dell’amore genitoriale.20 Flessibilità, adattabilità ed elasticità sono prerogative che 19 G. Oliva, L’Educazione alla Teatralità: il gioco drammatico, Arona (NO), Editore XY.IT, 2010, p. 264. 20 G. Oliva, (a cura di), La pedagogia teatrale, cit., p. 41. 51 FILOLOGIA | SCIENZE E RICERCHE • N. 5 • MARZO 2015 Eterovalutazione vs autospiegazione: nuove filologie per la divulgazione in aree scientifiche di temi interdisciplinari GRAZIELLA TONFONI Dipartimento di Storia Culture Civiltà, Alma Mater Studiorum Università di Bologna C PREMESSA ostantemente si notano, oggi, le conseguenze di una oggettiva difficoltà, in particolare presso la comunità accademica italo-europea, ad affrontare, in modi consensualmente accettabili, i problemi che emergono nella prassi di valutazione di ricerche avanzate, come tali irrimediabilmente difficili da catalogare. Le principali cause sono l’entropia comunicativa, la confusione informativa, la complicazione paradossale nell’applicazione di criteri di giudizio astratti, come si notano nella compilazione della modulistica attuale. Si possono rilevare casi ‘effettivamente assurdi’ con valutazioni del tutto disomogenee, perfino opposte in varie aree di eurozona, date le dinamiche tumultuose, le diacronie espressive, le fasi di rendicontazione accelerate.. Si evidenzia la necessità di avviare un percorso di “storia dei sistemi di valutazione”, attingendo anche alle ricerche indicate in questa silloge, basata su una esperienza unica, testimonianza singolare, ampiamente documentata in eurozona. Se ne rileva la totale differenza, la non equiparabilità, la mancanza di equipollenza, dei casi accademici singoli, fra loro molto diversi, che non possono, neppure devono essere considerati sulla base di categorie omologanti. 1.UN ESEMPIO CONCRETO La valutazione di un percorso di ricerca interdisciplinare, che intende proporre una piattaforma didattica di ecologia dell’informazione, di etnolinguistica per euro-zona, di antropologia della comunicazione scientifica, tecnica e letteraria, nel secondo decennio del terzo millennio in lingua italiana, risulta effettivamente complicata. Si rende indispensabile ricorrere a modalità di ragionamento complesse e rigorose. Ciò porta alla necessità di provvedere, parallelamente, sintesi e compendi, che rendano possibili usi, consensualmente sanciti, delle nuove terminologie introdotte. Tali impianti 52 lessicali, devono essere basati sulla quotidiana disamina dei criteri di selezione, dei parametri di valutazione in corso, supportati dalle analisi comparative, dalle filologie contrastive, che derivano da test specificamente condotti in “aree campione”, considerate come particolarmente significative. Sono infatti proprio le manifestazioni espressive, le emergenze asimmetriche rilevate, che possono facilitare la progettazione di linee evolutive, per uno scenario critico equilibrato. Risulta necessario, per settori interdisciplinari a cuneo fra raggruppamenti, tematicamente limitrofi o lontani, come per esempio nel caso del tentativo di ridefinizione di una nuova piattaforma didattica, scindere nettamente, sdoppiandoli con trasparenza, i rispettivi ruoli di “ricercatori pesanti”, ovvero fortemente produttivi e socialmente responsabili di un proprio patrimonio scientifico, didattico, narrativo, assai cospicuo, da un lato, e, dall’altro di docenti regolarmente inquadrati, cui sia proposto di diventare affidatari di tale patrimonio, da studiare con cura, comprendere, integrare, gestire didatticamente in aula. Si tratta quindi di progettare un “sistema intercapedine”, inteso facilitare la trasmissione di nuclei di conoscenze delicate, divenute indispensabili nella prassi accademica, rendendo ampiamente riconoscibile, successivamente riconosciuta, una bibliografia di effettiva attualità che, quando sia effettivamente resa solido riferimento, possa fornire le più adeguate risposte anche sul piano di una efficace divulgazione. Operando rigorosamente su temi emergenti, per integrare nuove conoscenze, maturate quotidianamente, si può arrivare ad impiantare una piattaforma didattica specificamente predisposta, illustrandone le modalità, indicandone la tempistica. Per renderla incorporabile nell’ambito di un vigente raggruppamento disciplinare, che già si presenti come un contenitore di diverse aree come può essere appunto quello dell’Ecologia, che accorpa anche l’Antropologia. In tale ambito, che già promuove una particolare attenzione ai fenomeni di spreco energetico, ecco che si potrebbe più agevolmente inserire un percorso di studio sulla attuale dis- SCIENZE E RICERCHE • N. 5 • MARZO 2015 | FILOLOGIA sipazione e riciclaggio delle risorse, edite e pubblicate. Esiste infatti un vero e proprio ‘spreco nella ricerca’ che spesso conduce ‘a scoprire più volte la stessa ruota’ come si suole dire. Essendo già nel settore di studio dell’Ecologia disponibile un intero vocabolario tecnico, si potrebbe più facilmente introdurre un percorso analogico. Ampliando il concetto di recupero ovvero di riciclaggio corretto di acquisizioni di conoscenze solide, valide, come rilancio e riproposta di articoli e volumi, che siano stati veri e propri apripista, ma che spesso vanno perduti. Si può così proporre una particolare attenzione sul come sia rilevante oggi capitalizzare di tanta ricerca che, se non ben catalogata, può andare sommersa dalla massa delle incalcolabili pubblicazioni, spesso affastellate, frettolose, per eccesso di quantità. 2. DIVERSI PERIODI, DISTANTI PROBLEMI, DISTINTE SOLUZIONI Una precisa indagine su campo rivela come numerosi e variegati siano i titoli di nuovi insegnamenti, che si alternano, si avvicendano nella realtà accademica attuale degli atenei italiani. Si riscontra invece una ben maggiore difficoltà nella ridefinizione interna dei vari settori disciplinari, nella selezione del solido sapere pratico, delle tecniche abilità, competenze specializzanti, che possano essere integrate in aree già ufficialmente esistenti e ben presenziate. La quantità di energia esplicativa da spendere annualmente, la fatica didascalica da investire quotidianamente, nella prefigurazione di passerelle interdisciplinari di scorrimento, che tutelino le figure accademiche dei ricercatori “stile antico”, ovvero di quelle figure accademiche, inserite in atenei italiani già dai primi anni ottanta, regolarmente confermate, che siano in transito fra aree del sapere accademico, soprattutto qualora tale spostamento individuale, non avvenga attraverso i regolari canali, predisposti per le idoneità, risulta crescere esponenzialmente fino a raggiungere picchi preoccupanti, mai prima di ora rilevatisi. Ne deriva come l’unica forma di possibile collaborazione nei confronti di chi svolge ricerca rigorosa “all’antica”, ovvero accorpando nella stessa persona i diversi ruoli di ideatrice, verificatrice documentatrice, presentatrice, critica severa dei propri prodotti, sempre assai difficili da classificare, debba essere quella di predisporre appositamente un comitato, che riconoscendo la assoluta particolarità o anomalia, a seconda dei pareri personali dei vari commissari, possa accreditare il valore della testimonianza scientifica materializzandolo, non mediante un riconoscimento tardivo di idoneità secondo prassi concorsuale abilitativa, equiparabile alla docenza di alcuna materia in particolare, ma indicizzando il valore dei contenuti stabili, attraverso una espressione simbolica di apprezzamento complessivo, per la capacità di resilienza dimostrata da tale assai peculiare figura autonoma, indipendente. Tale forma trasversale di “rivalutazione simbolica accademica interna” deve naturalmente essere adeguata rispetto al singolo profilo, rispettosa delle classificazioni vigenti, aggiornata rispetto ai criteri attuali di merito, che sono però di fatto continuamente cangianti, variegati, spesso in contraddizione. Si propone quindi la espressione descrittiva di Ricercatore Professore Autocertificato, ovvero responsabile della autovalutazione dei propri prodotti di ricerca. Tale sottotitolazione, puramente onorifica, sostanzialmente rafforzerebbe la possibile alternativa di una assai più praticabile e più semplice espressione. Il titolo di Ricercatore Onorario, oppure di Ricercatore a Vita, se autonomamente coniato da un ateneo nazionale, non si sovrapporrebbe, interferendo con le attuali categorie e classi di scorrimento accademico, perché sarebbe assegnabile come formale riconoscimento super partes, in modalità una tantum, senza comportare ricadute patrimoniali o incrementi stipendiali di alcun tipo. La assoluta priorità di “una ricercatrice eccessivamente pesante”, che ha già prodotto e costantemente produce ricerca in misura qualitativamente e quantitativamente eccedente, rispetto ai parametri attuali previsti, allo stesso tempo occupandosi di identificare, misurare le parti di suoi manufatti di ricerca, da redistribuire nei vari settori interessati, cercando di calibrare le innovazioni effettivamente utili, nel rispetto di 53 FILOLOGIA | SCIENZE E RICERCHE • N. 5 • MARZO 2015 eventuali intersezioni, consiste nella mobilità editoriale assoluta e nella flessibilità interdisciplinare relativa. Secondo alcuni algoritmi, concepiti e messi a punto nel gennaio 2015, i rispettivi calcoli, conguagli, conteggi, portano le pubblicazioni interdisciplinari effettivamente innovative e solide a dovere ricevere comunque una valutazione di impatto qualitativo limitato, secondo l’attuale sistema di valutazione. Ne deriva un ovvio rallentamento anche nelle fasi della progressiva divulgazione. Questo limite penalizza di fatto i lettori e gli utenti finali, che non vengono esposti a ricerche rilevanti nei tempi utili ma solo aggiornati con consistenti ritardi. Per quanto riguarda i settori cruciali, ovvero il cui impatto sulla vita dei cittadini è forte, immediato, una assegnazione di precedenza, collide evidentemente con la norma irrigiditasi progressivamente, di procedere alla submission di successivi articoli e saggi, attendendo i tempi standard, previsti da parte di comitati di referee, secondo le prassi editoriali, le pratiche redazionali, consensualmente riconosciute, le formattazioni imposte, che non si rivelino negoziabili, non ammettendo alcun tipo di eccezione alla regola. Un recente conteggio rivela come il dispendio di energie richiesto ad “una ricercatrice estesa” risulta essere almeno triplicato nel corso dell’anno 2014. Tuttora si rileva essere in esponenziale aumento di complessità, quando si arrivi al momento della rendicontazione finale, come prevista nella modulistica corrente. Si può assistere al paradosso di una griglia interpretativa di valutazione, che categorizza i prodotti sintetici più rilevanti considerandoli di “valore limitato” non riuscendo a captarne l’essenza, non riconoscendone la classificazione, non ammettendone la catalogazione, rendendoli paradossalmente invisibili. 3. L’AUTOFILOLOGIA DIDASCALICA E LA ETEROVALUTAZIONE ANALITICA Prima di ridiscutere una prassi eventuale di continuativa auto-precisazione, che possa sfociare in un cosiddetto patto di stabilità inter-atenei italiani, per sancire la piena accettazione, senza eccezioni, di criteri di giudizio consoni, rispetto alle valutazioni generiche ed astratte, proposte per la intera euro-zona, è necessario premettere che le osservazioni qui presentate, si limitano a circoscrivere alcuni temi specifici come quelli affrontati dalla stessa autrice. Precisamente i seguenti: Le Patologie comunicative in era post-internet; Etno-Antropologia della Comunicazione Scientifica, Tecnica e Letteraria, nel Secondo Decennio del Terzo Millennio in Eurozona; Economia Saggistica (Tonfoni G., 2012-2013); una divulgazione stabile per una educazione permanente. Criteri di valutazione, analisi comparative e filologie contrastive in ‘aree campione’ di eurozona. Le manifestazioni espressive e le emergenze informative in contesti culturali limitrofi, linguisticamente asimmetrici. Turbolenze interpretative visibili e invisibili. La reattività negativa che si può manifestare da parte ac54 cademica di fronte ad una oggettiva complessità, è rischio personale ed individuale costante, che chi conduca ricerca decisamente controcorrente, su temi controversi, corre quotidianamente. La capacità di attivare successivi percorsi di rappezzo, basati sulla fiducia nella resilienza bibliografica, è al momento l’unica soluzione possibile da applicare ad una scheggiata sinopsi, per restaurare un danneggiato quadro di riferimento, riportando le sintesi di ricerca più importanti ad un certo equilibrio interno, sia lordo che netto. La riconoscibilità di un pareggio filologico corretto, si materializza nella selezione di termini e titoli a cluster, ovvero brevi sintesi, che conducano velocemente, chi intenda davvero informarsi e formarsi, a piattaforme didattiche derivate da precise indicazioni bibliografiche, seppur siano stati tali titoli precedentemente non considerati ottimi e spesso perfino disattesi. La filologia attuale e futura deve prendere atto di selezioni di qualità oggi effettuate come risultato di una procedura algoritmica. Si rende evidente la necessità di trattenere, come dati informativi, le particolarità complessive, per potere rendere una valutazione congrua delle opere attuali. Si è comunque già determinata una svalutazione tecnica, che coloro, che operano nel settore delle proiezioni, avevano preventivato e previsto come possibile, ma non auspicabile effetto collaterale. La pura e semplice applicazione di una procedura automatizzata, che non richieda necessariamente la comprensione effettiva delle opere, nel secondo decennio del terzo millennio, risulta un meccanismo assai rischioso cui solo l’autoreferenzialità coerente può porre argine se non rimedio Conteggi approssimativi, conti rarefatti, racconti inesatti, tendono a fare apparire la compagine filologica italiana più stabile di quanto effettivamente riesca a risultare alla prova dei fatti. Si propone che un nuovo sistema multiparametrico, flessibile, locale, possa diventare un generatore di proposte congrue, di raccolte differenziate, al fine di valutare l’impatto di ogni paragrafo, regione per regione, ateneo per ateneo. Permane comunque la necessità di delineare una area di interesse definibile come “Ecologia dell’informazione e della narrazione”, da lasciare poi come materia di studio, affidabile a docenti di più settori interessati. A volere distinguere le dicerie dai detti, le superstizioni dai fatti, le conoscenze dalle ipotesi, per potere smaltire rifiuti semanticamente tossici, per evitarne le pragmatiche esalazioni e contaminazioni su più vasto raggio. Un referendum accademico di futura realizzabilità, porterebbe alla luce l’altrettanto giusta esigenza di fare uscire la letteratura scientifica italiana del secondo decennio del terzo millennio da una dipendenza acritica, di matrice euro-centrica, che è comunque destinata a obliterare, sulla base di algoritmi parziali, ad una ad una, prima o poi, tutte le letterature scientifiche europee. Invalidandone e non convalidandone senso autonomo e significato autentico. Una semplice autocertificazione antologica, che dimostri la capacità della filologia italiana e della commissioni attuali SCIENZE E RICERCHE • N. 5 • MARZO 2015 | FILOLOGIA di commentare la letteratura scientifica contemporanea locale, a prescindere da tali algoritmi, sarebbe un segnale coraggioso, che passerebbe alla storia di euro-zona, se avviato in ambito accademico. Seguirebbero, a vista, tutte le commissioni addette alle letterature scientifiche vigenti, le cui istituzioni potranno procedere, liberandosi da gioghi valutativi, impraticabili vincoli, che assegnano criteri provvisori, in modalità permanente, penalizzando arbitrariamente, chi dovrebbe ricevere una valutazione di eccellenza, che risulta spesso non registrabile secondo inderogabili criteri, meccanicamente annullandone la validità o riconducendola ad una catalogazione in fieri, proposta al fine di giustificare il contenimento in un giudizio, che prescinde dall’analisi del contenuto. Notando le evidenti discrasie, fra un giudizio automatico e una lettura accurata da parte di esperti, si potranno, in futuro, evitare eccessi meccanicistici, sostenendo piuttosto chi, rischiando quotidianamente l’ incomprensione e l’ostilità, costantemente si adopera, con difficoltà evidenti, per promuovere la qualità della interpretazione esatta, obiettiva, nella ricerca precisa. Operando a favore della conservazione delle singolarità assolute, delle atipicità, non cedibili, di fronte alle ricadute costanti di valore, che colpiscono conseguentemente i livelli di credito degli atenei coinvolti. In un ambiente accademico, che troppo spesso considera il valutare automatico, come unica soluzione ai limiti di precedenti prassi, in una euro-zona confusa. In una area ormai fittamente popolata, come quella italiana già risulta, si propone il rispetto, il ripristino della autocertificazione autoctona, nei casi di ricerca accademicamente singolari, come può essere quello nazionale, qui esaminato. Dato il conteggio minuzioso, il valore scientifico intrinseco di ogni capitolo deve potere autonomamente generare il suo stesso spessore valutativo, secondo le nuove, eque premesse di catalogazione coerente. La reazione accademica all’introduzione di un ulteriore titolo di insegnamento pare incerta, lenta, oltre che assai dispendiosa, da parte di chi, intendendo affiancare nuovi parametri, incontri ovviamente alcune resistenze. Sono difficoltà da ricondursi soprattutto alla complessità raggiunta, ai successivi percorsi di semplificazione, volta per volta indicati, che implicano fasi di riallineamento interno, attivano percorsi di apprendimento, che non tutti gli esperti dei molteplici settori possono avere il tempo di seguire, con la dovuta pazienza, nelle loro diacroniche proiezioni di massima. Esiste già di fatto un seppur vago raggruppamento dell’Europeistica, che in fondo è una Linguistica contrastiva, una Filologia destinata appositamente alla prassi critica di eurozona. Si tratta di un settore ampiamente presenziato, i cui appartenenti dovranno occuparsi anche di individuare quelle tratte morfologiche, che durante i vari percorsi semantici di smistamento, hanno assunto significati diversi, in lingue pur affini. L’attenzione a non dare luogo ad equivoci semantici, deve essere esercitata collaborativamente, da parte dei vari protagonisti accademici. In tale quadro di riferimento, si possono individuare le confusioni comunicative, che si pro- ducono in contesti multilinguistici, ove alcune tratte paiono simili, ma sono invece del tutto discordanti. Ove la distanza espressiva rischia, inosservata, di crescere in modo costante. Creando divaricazioni di senso e di significato difficilmente ricomponibili. La compattazione di nuovi materiali di studio implica il rispetto di una legge della parsimonia nella catalogazione, nella selezione di titoli, per nuovi settori di ricerca. Si conferma che aggiungere una ulteriore denominazione potrebbe risultare complicato, inutilmente costoso, perfino controproducente. Si ritiene opportuno seguire il motto filosofico assai noto: Entia non sunt multiplicanda sine necessitate, estendendolo dal suo antico contesto, trasferendolo agli attuali settori di ricerca, in via di ridefinizione, ovvero concludendo con una riformulazione del concetto stesso: disciplinae non sunt multiplicandae sine cura. 4. CONCLUSIONE In questo saggio, l’autrice ha inteso prospettare alcune indicazioni precise, da lei maturate negli ultimi anni, procedendo ad una riflessione complessiva sulla valutabilità, sulla valutazione della qualità della ricerca interdisciplinare, innovativa, tema assai trascurato, ma di effettivo rilievo soprattutto per profili di studiosi, che operino in ‘zone di confine’, ovvero fra più aree tematiche allo stesso tempo. Interdisciplinarietà e ricerca avanzata oggi sono problemi cruciali da affrontare senza penalizzare chi abbia resa prioritaria la qualità della ricerca, anche a scapito del proprio avanzamento di carriera accademica. Interdisciplinarietà se autentica non vuole dire “appartenere a tutto e quindi a nulla” ma riconoscimento di una “appartenenza speciale, singolare, unica”. Essenziale raggiungere un efficace consolidamento dei risultati disponibili ed accertati. Si realizzerebbe un recupero di materiale di ricerca, riutilizzabile secondo una visione responsabile, che prevede la minuta manutenzione, il mantenimento organico di prodotti di ricerca validi per evitare fenomeni di spreco di una saggistica importante, Si potrebbero in tal modo recuperare nella loro significatività effettiva, alcune osservazioni, numerose linee guida, ridistribuendole equamente sul territorio. PER APPROFONDIMENTI: Tonfoni G, 2014, Sistemi di Contenimento del Rischio di Anacoluti e di Anacronismi in Una Riformattazione Redazionale Europea, Società Editrice Esculapio, Bologna, E-Pub, pp.1- 32 (commento sintetico dell’autrice alla propria bibliografia e compendio della più recente attività didattica) Tonfoni G., 2015, La singolarità di un caso accademico interdisciplinare italiano: prospettive per una valutazione equa e sostenibile di ricerche antropolinguistiche di progressiva rilevanza filologica in euro-zona in Digital Library Ams Acta 4150, Alma Mater Studiorum Università di Bologna (versione estesa della autrice cui la stessa autrice ha attinto per questo ben più sintetico contributo) 55 PSICOLOGIA | SCIENZE E RICERCHE • N. 5 • MARZO 2015 Errori, illusioni o incantesimi? Una riflessione sulla gestione dei risparmi ALESSANDRA JACOMUZZI Università Ca’ Foscari Venezia Aprendo i manuali psicologia generale siamo soliti leggere che ciò che contraddistingue l’uomo dalle altre specie animali è il suo essere dotato di ragionamento e di linguaggio. Questo è vero ma esiste un’altra caratteristica, peculiare all’essere umano: la capacità di diventare consapevole dei propri errori. Commettere errori non è certo un’abilità, tuttavia averne coscienza, modificare di conseguenza i nostri comportamenti e le nostre valutazioni costituisce una capacità che è utile acquisire. Capire quando e per quale motivo commettiamo un errore è il primo passo per non cadere più in inganno. Esiste un vasto filone di ricerche nell’ambito della psicologia dell’errore che mostra come la nostra mente e il nostro corpo siano costruiti in maniera tale da trarci in inganno, in determinate condizioni (Kanheman 2014, Kanizsa 1997). Gli errori possono essere di diversi tipi. A volte sono i nostri stessi organi di senso che ci restituiscono un’immagine errata della realtà. Pensate a un bastone di legno immerso nelle acque trasparenti di un bel lago. L’immagine che ne ricaviamo è quella di un bastone storto; e nonostante le nostre conoscenze pregresse ci possano rassicurare che qualunque bastone, anche se visto storto perché immerso nell’acqua, è dritto, noi continueremo visivamente a percepirlo storto. Altre volte, invece, è la nostra mente a trarci in inganno. Provate a fare un semplice esperimento. Mostrate a un vostro amico quattro carte che su un lato hanno una lettera (vocale o consonante) e sull’altro un numero (pari o dispari): la situazione che gli presentate è la seguente: A D 4 7 A questo punto dite al vostro amico che può girare solo due carte per dichiarare se la seguente regole è vera o falsa: “se una carta ha una vocale su un lato allora ha un numero pari dall’altro”. Se il vostro amico (e forse anche voi) pensa di girare le 56 carte che presentano il numero 4 e la lettera A si sta comportando come il 46% dei partecipanti all’esperimento che Wason condusse nel 1968 (Wason 1968). La nostra capacità di ragionamento ci induce in errore. Infatti, girando la carta 4 possiamo trovare una vocale o una consonante. Nel primo caso non è detto che la regola sia confermata, la carta numero 7, infatti, potrebbe avere una vocale sul suo retro. Nel caso, invece, in cui vi sia una consonante la regola non per questo verrebbe confermata in quanto la regola non esclude che ci possano essere numeri pari con una consonante sul retro. Le carte da girare sono la carte D e la carta 7. Infatti, se girando le carte che contengono una consonante troviamo un numero dispari allora la regola è sconfermata e allo stesso modo, se girando la carta dispari troviamo una vocale la regola, di nuovo, è sconfermata. Nel caso in cui invece la lettera D presenti un numero dispari e il numero 7 una consonante allora la regola verrebbe confermata. A questo punto un attento lettore potrebbe intervenire facendo notare che tutto sommato, percepire un bastone storto o sbagliare a girare le carte nell’esperimento precedente non ha grosse ripercussioni sulla vita dell’essere umano; e questo sicuramente è un dato di fatto. Tuttavia, esiste un campo, nel quale tutti noi prima o poi dobbiamo cimentarci nella vita, in cui gli errori compiuti dalla nostra mente determinano conseguenze di rilievo: la gestione dei risparmi. LA DISTRIBUZIONE DELLE RICCHEZZE DEGLI ITALIANI Se guardiamo ai dati pubblicati sul supplemento al bollettino statistico dedicato alle ricchezze delle famiglie italiane, pubblicato dalla Banca di Italia nel 2014 (relativo all’anno 2013), possiamo notare un dato molto interessante. La maggior parte delle ricchezze degli italiani (si parla del 60%) è costituita da attività reali (dove per attività reali si intendono i beni fisici delle persone). Ancora più sorprendente risulta il fatto che le stesse attività reali sono costituite per l’85% da SCIENZE E RICERCHE • N. 5 • MARZO 2015 | PSICOLOGIA immobili. Questa distribuzione del tutto sbilanciata determina il fatto che le ricchezze degli italiani sono attualmente legate in maniera indissolubile al destino del nostro paese e della nostra valuta; destino che al momento non sembra particolarmente roseo. Le ricchezze in immobili sono, infatti, in immobili che si trovano su territorio italiano e gli investimenti finanziari sono perlopiù anch’essi nella stessa valuta delle case, della retribuzione e della pensione. Si potrebbe pensare che questo stato di cose derivi da un diffuso senso di patriottismo degli italiani ma le cose non sono così semplici. L’attuale distribuzione delle ricchezze è dovuta a un errore che la nostra mente è propensa a commettere. Ovvero, la violazione del principio fondamentale di qualunque investimento finanziario: la diversificazione. Questo è un principio che trova applicazione in molti altri ambiti di vita permettendoci di essere meno vulnerabili (Legrenzi, 2014, Taleb, 2013, White et al., 2013). È sempre meglio non mettere tutto nello stesso “paniere” soprattutto se, come nel caso dell’Italia, il paniere non è certo quello maggiormente efficiente e sicuro a livello mondiale. Peraltro è interessante ricordare che, secondo i sondaggi, molte persone dichiarano di essere consapevoli di tutto ciò: il 68% per cento afferma di sapere che cosa sia la diversificazione di portafoglio, e il 62% vi associa qualcosa di positivo (Antonio Criscione, Una pluralità di scelte per vincere le incertezze, Plus24 del 2.8.14, p. 7). Eppure gli italiani nel loro complesso non si comportano così, o, per lo meno, non si sono comportati così in passato. L’apprendimento sulla base delle conseguenze non ha funzionato, nel senso che la maggioranza degli italiani non ha imparato a differenziare le destinazioni dei loro risparmi. Per quale motivo? Perché quando dobbiamo prendere decisioni che riguardano il nostro patrimonio la mente ci trae in inganno; sembra proprio che ci porti a commettere degli errori. E tuttavia, si può davvero parlare di errore? ERRORE O ILLUSIONE? Alcuni ricercatori, seguendo la tradizione di studi inaugurata dal premio nobel Daniel Kanheman, ritengono che le scelte che gli individui compiono quando si trovano a gestire i propri risparmi siano gli esiti di noti meccanismi di scelta sub-ottimali innescati dalla mente umana (Kanheman ,2011). Il meccanismo di avversione alle perdita così come l’effetto dotazione renderebbero difficile un ragionamento trasparente e chiaro sulle nostre ricchezze (Legenzi, 2014). Il nostro sistema emotivo sembra avere il sopravvento su quello razionale. Tuttavia non è ancora chiaro se, a proposito delle nostre scelte, si possa davvero parlare di errori. Se facciamo un’analisi comparata degli errori che si possono commettere nella vita quotidiana e di quelli che commettiamo nell’ambito finanziario possiamo notare come questi ultimi presentino caratteristiche peculiari. Proviamo a esaminare alcuni errori della quotidianità. (Gli errori che seguono sono tratti da Rizzo 1995). Devo fare una fotocopia a doppia pagina su formato A5. Preparo il foglio e imposto la macchina in maniera tale stampare su formato grande. Inizio la stampa. Mi accorgo alla prima pagina che la stampante ha stampato su un foglio grande lasciandone metà bianco. Ripeto da capo le operazioni e il risultato di pagina semi-bianca si ripete. Controllo meglio la programmazione della stampante e mi accorgo che l’avevo programmata per stampare il foglio grande ma non per la doppia pagina. Riprogrammo correttamente e stampo, senza alcun errore. Che cosa è successo? In questo caso il processo che ha portato alla stampa corretta si è articolato in tre fasi. 1. Incongruenza tra risultati e attese. 2. Analisi della situazione che permette di riconoscere l’errore. 3. Correzione dell’errore. Facciamo un altro esempio. Devo pulire a fondo il bagagliaio della nostra auto. Tolgo il pannello di appoggio sopra il quale si trovano le casse dell’altoparlante. Per farlo le stacco. Quindi pulisco, riposiziono il pannello di appoggio e chiudo il bagagliaio. Salgo in macchina e mi accorgo che gli altoparlanti della radio non funzionano. Ecco che mi ricordo di averli staccati io stesso e di essermi dimenticato di riattaccarli. Cosa è successo questa volta? Di nuovo abbiamo tre fasi. 1. Incongruenza tra risultati e attese. 2. Analisi della situazione che fa affiorare un ricordo e permette di riconoscere l’errore. 3. Correzione dell’errore. Alcune volte la dimenticanza non riguarda qualcosa che ho fatto ma qualcosa che stavo per fare. Voglio prendere le chiavi dell’auto aziendale che si trovano in una scatola nell’ingresso dell’ufficio. Entro in un’altra stanza e un amico inizia a parlarmi. Mentre parlo cerco in un cassetto, non trovo le chiavi. Inizio a vagare per l’ufficio e mi rendo conto di non sapere più cosa sto cercando. Torno alla mia scrivania, mi siedo e d’improvviso ricordo che mi ero alzato per prendere le chiavi della macchina aziendale poste nella scatole all’ingresso dell’ufficio. In questo caso entra in gioco in miscuglio di distrazioni e dimenticanze che, di nuovo, portano a una incongruenza tra il risultato atteso e quello ottenuto; e di nuovo alle tre fasi che determinano la correzione dell’errore. La caratteristica degli errori che costellano la nostra vita quotidiana è l’incongruenza tra gli elementi di una storia e alcuni elementi interni (della mente) o esterni (del mondo). Questo determina la nostra possibilità di risalire all’origine 57 PSICOLOGIA | SCIENZE E RICERCHE • N. 5 • MARZO 2015 dell’incongruenza per correggerla. Proviamo ora a vedere se lo stesso criterio vale anche per gli errori commessi in ambito finanziario. Ecco che viene in luce la differenza abissale che sussiste tra le due tipologie di errori. In ambito finanziario, l’errore è il pensare che ci sia un errore e che qualcuno di più preparato, meno sbadato o distratto di noi potesse non incorrere nell’errore. Si tratta dunque di due fenomeni differenti in cui la nostra conoscenza può agire in maniera diversa. Nel primo caso riducendo gli errori (dagli errori si impara, ricordate?). Nel secondo caso, invece, prevenendo gli stessi, ammortizzandoli. Infatti, qui non abbiamo la possibilità, divenuti coscienti di un errore, di tornare metaforicamente indietro e correggerlo. Piuttosto abbiamo la possibilità di prevenirlo, cercando di distribuire i nostri risparmiri in maniera tale da compensare le oscillazioni. Nei mercati, almeno nell’ambito dei tempi che interessano le persone comuni, regna l’incertezza: la conoscenza di traduce in ammissione di ignoranza. L’errore, se di errore si può parlare, non può essere corretto ma soltanto prevenuto. Queste sono parte delle motivazioni che hanno indotto alcuni studiosi a parlare non tanto di errori quanto di illusioni nell’ambito della gestione dei risparmi. Non di rado si trovano psicologi che iniziano il loro discorso sulle decisioni in ambito finanziario citando le illusioni ottiche. Questo per mostrare che ciò che sembra un errore, ovvero l’agire dei singoli individui contrario al principio della diversificazione, in realtà non è riconducibile a sbagli dei singoli individui ma a illusioni cognitive. Un’attenta analisi comparativa tra illusioni ottiche e cognitive e illusioni nell’ambito della gestione del risparmio mostra che anche in questo caso il paragone non funziona. Un’illusione ottica viene definita tale proprio perché permane, anche quando ne diveniamo consapevoli. Il nostro sistema visivo è, infatti, progettato in maniera tale che non ci fa vedere una cosa piuttosto che un’altra. E noi continueremo a vederla come tale anche quando ci sia stata svelata l’illusione. Facciamo un esempio. L’illusione della Muller lyer ci fa vedere due segmenti costruiti di lunghezza uguale che differiscono solo per il verso delle freccette poste alla fine dei segmenti (in un caso rivolte all’esterno, nell’altro rivolte verso l’interno)come differenti: l’uno più corto dell’altro. Mi è già capitato di dover disegnare una Muller Lyer e di essere quindi assolutamente consapevole della lunghezza, identica, dei due segmenti. Nonostante la mia conoscenza continuavo a percepire visivamente i due segmenti di lunghezze differenti. Nella gestione dei risparmi però le cose vanno diversamente. C’è un momento in cui in qualche modo la nebbia si dirada e le persone riescono a vedere le cose come sono realmente. E anche a comportarsi di conseguenza. Anche la possibilità di parlare di illusione sembra da scartare. Ma allora, che cosa succede quando decidiamo delle nostre finanze? 58 FORSE INCANTESIMI… Ho affermato che nell’ambito della gestione dei risparmi c’è un momento in cui le persone riescono a vedere dove hanno sbagliato e agiscono di conseguenza. Ecco, sembrerebbe proprio che l’uomo sia vittima di un incantesimo che dopo anni di sonno svanisce e permette di destarsi. E di solito, almeno nelle fiabe, una volta svanito l’incantesimo le cose vanno bene, o perlomeno meglio. Più che di errore o di illusione sembra quindi più opportuno parlare di incantesimo; un incantesimo da cui gli italiani sembra stiano lentamente risvegliandosi se, come riportano i dati della Banca di Italia, lentamente lo sbilanciamento della distribuzione delle ricchezze si sta affievolendo. Parlare di incantesimo apre uno spiraglio di speranza. Se fossimo stati vittime di illusione difficilmente avremmo potuto cambiare le sorti delle nostre ricchezze. Certo, potendo parlare di errore sarebbe stato forse più semplice evidenziarlo e correggerlo. Ma in fondo per ogni incantesimo esiste una via di fuga. Il punto allora diventa capire quali possano essere i fattori che accelerano lo svanire dell’incantesimo. Questa però è un’altra storia. RIFERIMENTI BIBLIOGRAFICI Duarte, J., Crawford, J., Stern, C., Haidt, J., Jussim, L., Tetlock, P. (in corso di stampa), Political Diversity Will Improve Social Psychological Science, Behavioral and Brain Sciences. Legrenzi, P. (2013), Perché gestiamo male i nostri risparmi, il Mulino, Bologna. Legrenzi, P. (2014), Frugalità, il Mulino, Bologna. Legrenzi, P. (2014), Fondamenti di psicologia generale, il Mulino Bologna. Legrenzi, P., Jacomuzzi, A. (2014), Macchine darwiniane, gestione del risparmio e scienze cognitive, Tavola rotonda “Menti in crisi”, Sistemi Intelligenti, XXVI, 1, pp. 191-197. Legrenzi, P., Umiltà, C. (2014), Perché abbiamo bisogno dell’anima, il Mulino, Bologna. Kahneman, D. (2012), Pensieri lenti e veloci, Mondadori, Milano. Pennisi, A. (2014), L’errore di Platone, il Mulino, Bologna. Rizzo, A., Ferrante, D., Bagnara, S. (1995), Handling Human Error, in Hoc, C. Cacciabue, P., Hollnagel, E. (a cura di), Expertise and Technology, Psychology Press, Hove Sussex. Skinner, B. F. (1981), Selection by consequences, “Science”, 213, 501-504. Taleb, B. (2013), Antifragile, Il Saggiatore, Milano. White, A., Li, J Griskevicius, V., Neuberg, S., Kenrick, D. (2013), Putting All your Eggs in One Basket: Life-History Strategies, Bet Hedging, and Diversification, Psychological Science, 715-722. SCIENZE E RICERCHE • N. 5 • MARZO 2015 | STORIA Gli alberi lungo le strade: una questione storica e ambientale ROSSANO PAZZAGLI Università degli Studi del Molise L ’aumento del traffico automobilistico, conseguenza anche del mancato potenziamento dei trasporti pubblici che anzi stanno subendo politiche di tagli e ridimensionamenti, sta riproponendo in misura crescente il problema della sicurezza stradale. Spesso sotto la spinta emotiva di gravi incidenti, dimenticando la responsabilità di errate strategie gestionali della mobilità, come quella delle numerose privatizzazioni e della progressiva introduzione dei pedaggi sulle strade a scorrimento veloce, sono le tradizionali alberature lungo le strade d’Italia a finire sotto accusa. Qualcuno arriva così a proporre l’abbattimento indiscriminato di interi filari di piante, ignorando le funzioni che questi hanno a lungo svolto e che almeno in parte potrebbero ancora svolgere. Lo stesso codice della strada, approvato nel 1992, prevede nei successivi regolamenti di attuazione il divieto della presenza di alberi entro una distanza minima di sei metri dal bordo stradale1. Si tratta di un tema molto ampio e ricco di significati, che inevitabilmente tocca diversi ambiti – dalla storia dell’architettura all’agronomia, dalle scienze forestali all’ingegneria e che ci consegna non pochi interrogativi sul nostro modo di intendere il rapporto tra società, infrastrutture e paesaggio. La prospettiva storica può aiutare a porre correttamente il problema, al di fuori di scorciatoie o soluzioni irrazionali. LE ALBERATURE STRADALI DALLE CARROZZE ALL’AUTOMOBILE In gran parte d’Europa i viali alberati sono la più antica forma d’inverdimento ai bordi delle strade, marcando in modo quasi indelebile i tragitti viari. Originariamente le alberature servivano a consolidare e a rendere permanenti e riconoscibili le vie di comunicazione: le radici degli alberi impedivano che la superficie stradale non pavimentata si ero1 Decreto Legislativo 30 aprile 1992, n. 285, Nuovo codice della strada. desse, le chiome creavano una piacevole zona d’ombra attutendo il caldo estivo e proteggevano da pioggia e neve nella stagione invernale; quando si impiegavano alberi da frutto, questi davano nutrimento ai viandanti; inoltre fornivano legname da costruzione e legna da ardere, fascine, alimenti per animali, miele ecc. Gli alberi più frequentemente usati per le alberature stradali sono il tiglio, l’acero, la quercia, il platano e l’ippocastano, ma anche il noce, il carpino, il faggio, come pure varie specie di alberi da frutto, e in certe regioni gelsi e cipressi, fino all’impiego di piante esotiche – come le palme - talvolta legate alle avventure coloniali. Per lungo tempo si è usato soprattutto l’olmo, prima che una aggressiva malattia fungina (Ophiostoma ulmi) falcidiasse nel secolo scorso gli olmi europei. Infine, a livello ambientale, i viali alberati offrono con i loro rami, le foglie e i tronchi un habitat adatto molte specie animali e costituiscono elementi di collegamento tra ecosistemi, configurandosi a volte come veri e propri corridoi ecologici. Nell’age of oil, o età dell’automobile, molte di queste funzioni non risultano più compatibili con gli stili di vita e le modalità degli spostamenti, ma non è fuori luogo domandarsi quante e quali di esse possono essere attualizzate o addirittura rilanciate nell’ottica di una nuova mobilità sostenibile. Le alberature stradali, simili per certi aspetti alle alberature che segnano i confini dei campi, hanno rivestito dunque, nel corso del tempo, ruoli funzionali e funzioni produttive: 59 STORIA | SCIENZE E RICERCHE • N. 5 • MARZO 2015 legname, foglie, frutti, difesa dal sole, dal vento e dalla pioggia, consolidamento del suolo e creazione di un microclima più adatto agli spostamenti degli animali e delle persone. PAESAGGIO AGRARIO E PAESAGGIO STRADALE Dal punto di vista visivo queste formazioni hanno sempre teso a disegnare delle linee e delle interruzioni, in special modo nelle zone di pianura dove prevaleva il paesaggio semplice dei seminativi o dei pascoli, inserendo elementi diversificatori che contribuito ad arricchire paesaggio rendendolo meno omogeneo ed uniforme. Per tutti questi motivi le alberature stradali hanno rappresentato un segno quasi indelebile, un elemento di resistenza al processo di banalizzazione del paesaggio che ha preso piede soprattutto nell’età contemporanea. Sotto questo aspetto si può dire che la tecnica di costruzione stradale è stata sostanzialmente mutuata dalla più complessiva organizzazione dello spazio rurale, che soprattutto nell’Italia centro-settentrionale assegnava agli alberi un ruolo importante, sia nella forma della piantata padana che in quella dell’alberata toscana e umbro-marchigiana, per riprendere le classiche espressioni coniate da Emilio Sereni . Nelle campagne le strade sterrate, che sono anche alberate, sono gene