marzo 2015 - Scienze e Ricerche

Transcript

marzo 2015 - Scienze e Ricerche
ISSN 2283-5873
Scienze e Ricerche
SR
MENSILE - N. 5 - MARZO 2015
5.
www.ferroantoninomaria.com
i libri di Antonino Maria Ferro
Antonino Maria Ferro (Mazara del Vallo 1967) è
diplomato in Elettrotecnica presso l’istituto tecnico
industriale di Mazara del Vallo, ha lavorato in diversi campi dell’industria e ha frequentato corsi di
informatica e sicurezza. Attualmente si dedica allo
studio di nuove fonti energetiche e lavora presso l’istituto scolastico “San Gaspare Bertoni” di Udine.
5. Sommario
COPERTINA
ELISABETTA STRICKLAND
Essere donna e fare scienza in Italia: un’impresa difficile
LUCIANO CELI
L’orologio del cambiamento climatico
ROBERTO FIESCHI
5
2015. L’anno della luce
DAVIDE SCHIFFER
Memoria e oblio
69
GIORGIO BIANCIARDI
Fisica del caos: un’introduzione storica
ERMINIO GIAVINI
Teratologia: la tossicologia dello sviluppo embrionale
TULLIO SCRIMALI
Neuroscienze applicate e terapia integrata del disagio psichico
I fattori di crescita del maxillo facciale
MICHELE MOSSA
Processi di mescolamento e trasporto di inquinanti in acqua
GAETANO OLIVA
Le arti espressive come pedagogia della creatività
GRAZIELLA TONFONI
La divulgazione in aree scientifiche di temi interdisciplinari
ALESSANDRA JACOMUZZI
Errori, illusioni o incantesimi? La gestione dei risparmi
ROSSANO PAZZAGLI
Gli alberi lungo le strade. Una questione storica e ambientale
PAOLO FRASCAROLO E STEFANO PROTTI
Gianfranco Mattei. Chimico, partigiano, cittadino
FRANCO RIVA
Una libertà fragile. Gabriel Marcel e Jean-Paul Sartre
DECIO COCOLICCHIO
Sul Premio Nobel ad Einstein
ALDO ZANCA
Economia e/o etica
ANNAMARIA MUOIO E GIUSEPPE ANTONIO PABLO CIRRONE
Il Centro di AdroTerapia e Applicazioni Nucleari Avanzate di Catania
BARBARA MISSANA
Le nuove frontiere della scienza applicata all’arte: la Neuroestetica
CLAUDIO PALUMBO
L’importanza delle competenze trasversali
112
ANGELO ARIEMMA
I migliori anni della nostra vita
pag.
7
pag.
9
pag.
11
pag.
15
pag.
19
pag.
25
pag.
30
pag.
33
pag.
45
pag.
52
pag.
56
pag.
59
pag.
66
pag.
69
pag.
78
pag.
81
pag.
87
pag.
88
pag.
91
pag.
93
pag.
97
RICERCHE
LINO MIRAMONTI
Il sole studiato in tempo reale col rivelatore di neutrini borexino
SILVIA AROSSA
L’inquinamento dell’ambiente marino: la plastica e i suoi effetti
ELISA CECCONI
Una medicina per l’uomo. La riflessione di Viktor von Weizsäcker
DONATELLA DI CORRADO
n. 5 marzo 2015
5
CONTRIBUTI E INTERVENTI
BARTOLOMEO VALENTINO
81
pag.
pag. 101
pag. 106
Come si allena l’attenzione nel gioco del calcio?
pag. 112
IL COMITATO SCIENTIFICO
3
N. 5 - MARZO 2015
ISSN 2283-5873
Scienze e Ricerche
n. 5, marzo 2015
Coordinamento
• Scienze matematiche, fisiche e naturali:
Vincenzo Brandolini, Claudio Cassardo, Alessandra Celletti, Alberto Facchini, Savino Longo, Paola Magnaghi Delfino, Giuseppe Morello, Annamaria Muoio, Andrea Natali, Marcello Pelillo, Marco Rigoli, Carmela Saturnino, Roberto Scandone, Franco Taggi, Benedetto Tirozzi,
Pietro Ursino
• Scienze biologiche e della salute:
Riccardo N. Barbagallo, Cesario Bellantuono, Antonio Brunetti, Davide
Festi, Maurizio Giuliani, Caterina La Porta, Alessandra Mazzeo, Antonio Miceli, Letizia Polito, Marco Zaffanello, Nicola Zambrano
• Scienze dell’ingegneria e dell’architettura:
Orazio Carpenzano, Federico Cheli, Massimo Guarnieri, Giuliana Guazzaroni, Giovanna La Fianza, Angela Giovanna Leuzzi, Luciano Mescia,
Maria Ines Pascariello, Vincenzo Sapienza, Maria Grazia Turco, Silvano Vergura
• Scienze dell’uomo, filosofiche, storiche e letterarie:
Enrico Acquaro, Angelo Ariemma, Carlo Beltrame, Marta Bertolaso,
Sergio Bonetti, Emanuele Ferrari, Antonio Lucio Giannone, Domenico Ienna, Rosa Lombardi, Gianna Marrone, Stefania Giulia Mazzone,
Antonella Nuzzaci, Claudio Palumbo, Francesco Randazzo, Luca Refrigeri, Franco Riva, Mariagrazia Russo, Domenico Russo, Domenico
Tafuri, Alessandro Teatini, Patrizia Torricelli, Agnese Visconti
• Scienze giuridiche, economiche e sociali:
Giovanni Borriello, Marco Cilento, Luigi Colaianni, Agostina Latino, Elisa Pintus, Erica Varese, Alberto Virgilio, Maria Rosaria Viviano
Un numero in formato elettronico: 6,00 euro
Un numero in formato cartaceo: 9,00 euro
Abbonamenti in formato elettronico:
• annuale (12 numeri): 37,00 euro
• semestrale (6 numeri): 19,00 euro
Abbonamenti in formato cartaceo (comprensivo del formato elettronico):
• annuale (12 numeri): 72,00 euro
• semestrale (6 numeri): 39,00 euro
L’acquisto di estratti in formato cartaceo (min. 10 copie) va concordato
con la segreteria
Il versamento può essere effettuato:
• con carta di credito, utilizzando il servizio PayPal accessibile dai siti
www.associazioneitalianadellibro.it
www.scienze-ricerche.it
• versamento con collettino di contto crrente postale sul conto corrente
postale n. 1012061907 intestato all’Associazione Italiana del Libro, Via
Giuseppe Rosso 1/a, 00136 Roma (specificare la causale)
• bonifico sul conto corrente postale n. 1012061907 intestato
all’Associazione Italiana del Libro, Via Giuseppe Rosso 1/a, 00136 Roma
IBAN: IT39I0760103200001012061907
4
La pubblicazione di articoli su Scienze e Ricerche è aperta a tutti. Tutti
i contributi, a meno che l’autore non ritenga di inibire tale possibilità,
vengono pubblicati anche online sul sito www.scienze-ricerche.it, in
modalità open access, cioè a libera lettura.
La rivista ospita essenzialmente due tipologie di contributi:
• interventi, analisi e articoli di divulgazione scientifica (solitamente in
italiano).
• ricerche e articoli scientifici (in italiano, in inglese o in altre lingue).
Gli articoli scientifici seguono le regole della peer review.
La direzione editoriale non è obbligata a motivare l’eventuale rifiuto opposto alla pubblicazione di articoli, ricerche, contributi o interventi.
Non è previsto l’invio di copie omaggio agli autori.
Scienze e Ricerche è anche una pubblicazione peer reviewed. Le ricerche e gli articoli scientifici inviati per la pubblicazione sono sottoposti
a una procedura di revisione paritaria che prevede il giudizio in forma
anonima di almeno due “blind referees”. I referees non conoscono
l’identità dell’autore e l’autore non conosce l’identità dei colleghi
chiamati a giudicare il suo contributo.
Gli articoli scientifici inviati per la pubblicazione vengono resi anonimi,
protetti e linkati in un’apposita sezione del sito. Ciascuno dei referees
chiamati a valutarli potrà accedervi esclusivamente mediante password, fornendo alla direzione il suo parere e suggerendo eventuali
modifiche o integrazioni. Il raccordo con gli autori sarà garantito dalla
redazione.
Il parere dei referees non è vincolante per la direzione editoriale, cui
spetta da ultimo - in raccordo con il coordinamento e il comitato
scientifico - ogni decisione in caso di divergenza di opinioni tra i vari
referees.
L’elenco dei referees impegnati nella valutazione degli articoli scientifici viene pubblicato con cadenza annuale.
Chiunque può richiedere di far parte del collegio dei referees di Scienze
e Ricerche allegando alla richiesta il proprio curriculum, comprensivo
della data di nascita, e l’indicazione del settore scientifico-disciplinare di propria particolare competenza.
Scienze e Ricerche
sede legale: Via Giuseppe Rosso 1/a, 00136 Roma
Registrazione presso il Tribunale di Roma n. 19/2015 del 2/2/2015
Gestione editoriale: Agra Editrice Srl, Roma
Tipografia: Andersen Spa, Boca
Direttore responsabile: Giancarlo Dosi
www.scienze-ricerche.it
[email protected]
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | COPERTINA
Essere donna e fare scienza in Italia:
un’impresa difficile
ELISABETTA STRICKLAND
Università degli Studi di Roma Tor Vergata
S
i discute tanto sull’eguaglianza di genere in
tutti gli ambiti della vita sociale e professionale, quindi non meraviglia che anche nella
ricerca scientifica si cerchi di analizzare cosa
è stato fatto e cosa si può fare ancora per superare la barriera costituita dagli stereotipi ed i pregiudizi
ereditati da una storia difficile per le donne nella cultura e
nella vita civile del nostro paese. E’ necessario infatti ricordare che le scuole pubbliche sono state aperte alle donne solo
nel 1874, tanto che intorno al 1900 sono aumentate vistosamente le iscrizioni femminili alle scuole di ogni grado e
quindi anche alle università. Ma prima di questo importante
giro di boa, l’educazione nelle famiglie era affidata ad insegnanti pagati privatamente, dando sempre la precedenza
o addirittura l’esclusiva ai maschi. Oggi le
donne rappresentano
circa la metà dei laureati in area scientifica
nel nostro paese, ma
solo un terzo dei ricercatori effettivi e un
quinto dei professori
di prima fascia nelle
università. Sono inoltre in numero esiguo
nelle posizioni apicali,
sia nelle università che
negli enti di ricerca. Il
fatto che in passato si
sia cercato di tenerle
lontano da un centro di
potere così importante
come il mondo della
scienza ha fatto leva su
una presunta inferiorità intellettuale della
donna, postulata ma ovviamente mai dimostrata. Assodato
quindi che le donne già da tempo mostrano di essere in grado di ottenere risultati rilevanti in campo scientifico, sarebbe
ora necessario intervenire sulla formazione dei futuri scienziati, occupandosi non solo degli aspetti tecnici, ma anche
dei fattori psicologici; con un atteggiamento più positivo nei
confronti di sè stesse e dei loro programmi di realizzazione è fatale che le donne possano sostenere più facilmente
la competizione maschile. Quindi le politiche di genere non
dovrebbero essere imperniate solo sulle seppur utili misure
necessarie per conciliare lavoro ed impegni familiari, ma devono anche permettere di lasciare alle spalle alcune visioni
tradizionali della carriera; questo è quanto si è rilevato in
modo preciso nel corso di un ciclo di seminari organizzati
dal Comitato Unico di
Garanzia di Ateneo
all’inizio di quest’anno all’Università ‘Tor
Vergata” a Roma, dedicati al “Work-life
balance”, il termine
attuale per il problema
della conciliazione.
Come è noto, le
donne tendono a partecipare più attivamente
alla ricerca nei primi
anni della carriera,
mentre con l’avanzare
dell’età le ambizioni
professionali lasciano
spesso il posto a priorità di tipo familiare.
E’ proprio la difficoltà
nel conciliare l’attività lavorativa con gli
impegni familiari ad
5
COPERTINA | SCIENZE E RICERCHE • N. 5 • MARZO 2015
essere percepita dalla maggior parte dei ricercatori come
uno dei principali ostacoli alla parità di genere nel settore
scientifico. Un secondo ostacolo riguarda invece il già citato
atteggiamento autodiscriminatorio delle donne nei confronti
del loro ruolo professionale. Più della metà infatti sembra
ritenere di non essere in grado di raggiungere le posizioni
di maggiore responsabilità, in quanto meno disposte degli
uomini a combattere per la propria carriera. E’ quindi vitale
superare alcune visioni tradizionali della carriera e della suddivisione dei ruoli. Per fare un esempio concreto, i criteri di
reclutamento e incentivazione della carriera dovrebbero riconoscere anche caratteristiche come l’attitudine ad interagire
con i propri colleghi, a contribuire alla crescita dei propri
collaboratori e a condividere conoscenze ed informazioni,
nonchè a premiare un approccio alla ricerca aperto e interdisciplinare, incoraggiando un atteggiamento collaborativo
piuttosto che competitivo.
E’ fondamentale inoltre combattere la convinzione diffusa
che le carriere scientifiche non abbiano la ricaduta sociale
che offrono altre tipologie di studi, convinzione smentita
dalle indagini statistiche sulla condizione occupazionale dei
laureati, secondo le quali il loro grado di occupazione nelle scienze di base a cinque anni dalla laurea risulta essere
molto alta, salendo ulteriormente per chi è in possesso di un
dottorato di ricerca. Naturalmente questi dati vanno visti in
modo globale, cioè il mercato del lavoro va esteso oltre i
confini del proprio paese. E’ pertanto falso che questi titoli
di studio non siano adeguatamente spendibili sul mercato del
lavoro. Anche dal punto di vista della remunerazione, risulta
che il salario medio dei laureati in chimica, fisica, biologia
e matematica è inferiore solo a quello dei laureati nell’area
medica e di ingegneria, mentre è confrontabile con quelli
dell’area economica-statistica e politico-sociale.
Per avere un’idea di come le cose stiano comunque cambiando, basta guardare a quanto è successo nel 2014. Tre
eminenti signore hanno sfatato ogni leggenda volta a screditare il potenziale femminile nella ricerca scientifica, precisamente Mariam Mirzakhani, matematica, vincitrice della
6
prima Fields Medal attribuita ad una donna, Samantha Critoforetti, ingegnera, prima donna italiana lanciata nello spazio
ed attualmente a bordo della stazione spaziale internazionale
e Fabiola Gianotti, fisica, prima donna nominata Direttore
Generale del CERN di Ginevra.
Si tratta ovviamente di tre figure femminili notevolissime.
Maryam, di origine iraniana, ha una cattedra all’Università
di Stanford, guadagnata a soli 29 anni per importanti contributi in geometria iperbolica, teoria ergodica e geometria
simplettica. Samantha è aviatrice e astronauta, prima donna italiana negli equipaggi dell’ Agenzia Spaziale Europea,
coetanea di Maryam e laureata in ingegneria meccanica all’
Università Tecnica di Monaco, successivamente ammessa
all’Accademia Aeronautica di Pozzuoli con conseguente
laurea in scienze areonautiche presso la Università Federico
II di Napoli ed infine specializzata negli Stati Uniti presso
l’Euro-Nato Joint Jet Pilot Training di Wichita Falls in Texas. Infine la fisica Fabiola Gianotti, che dopo la scoperta
della prima particella compatibile con il bosone di Higgs nel
luglio 2012, si è guadagnata vari titoli accademici ed una
copertina su Time Magazine.
L’anno appena trascorso è quindi stato semplicemente
straordinario per le scienziate italiane e non, un anno in cui
per la prima volta si è avvertita in modo palpabile un’aria
nuova nel mondo delle scienze che fino ad ora sembrava
impossibile respirare.
In conclusione bisogna insistere e combattere, l’assenza
delle donne dai luoghi di potere è estremamente importante come dato negativo: incidere sui meccanismi decisionali,
individuare nella trasparenza delle procedure il criterio principale per sottoporre alla verifica della collettività scientifica
le tante nomine che disegnano il panorama delle massime
istituzioni scientifiche è uno dei principali punti critici del
sistema di ricerca italiano. La certezza di una valutazione
oggettiva delle proprie qualità e dell’esistenza di una effettiva parità nella scienza è senza dubbio il modo per superare
questo ostacolo.
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | COPERTINA
L’orologio del cambiamento climatico
LUCIANO CELI
Consiglio Nazionale delle Ricerche, Istituto per i Processi Chimico-Fisici, Pisa
C
hi è appassionato di fumetti non potrà aver
dimenticato – complice la recente trasposizione in film – la graphic novel Watchmen,
uscita, ormai diversi lustri fa, dalla geniale
penna di Alan Moore. Per sommi capi: la
storia è ambientata nel 1985, in piena guerra fredda e l’Unione Sovietica è ancora una superpotenza. A causa di un incidente nucleare in laboratorio, il fisico Jon Osterman diviene
il Dr. Manhattan, con evidente riferimento al reale progetto
Manhattan che, durante la seconda guerra mondiale, vide
le migliori menti della fisica (e non solo), cooperare per la
costruzione della bomba atomica. La storia, densissima di
significati, di analogie, con camei culturali pregevoli, come
quello a William Blake nel capitolo Agghiacciante simmetria, si snoda, pur con una trama originale, nella contrapposizione classica tra bene e male: ancora una volta il genere
umano si salverà grazie all’intelligenza e al sacrificio del Dr .
Manhattan, divenuto nel frattempo, grazie all’incidente, una
sorta di divinità capace di conoscere e comprendere nel profondo molte delle leggi della Fisica a noi sconosciute. Questo
ne muterà il carattere fino a condurlo verso una sostanziale
atarassia nei confronti dell’umanità cui lui stesso è appartenuto.
Nel fumetto i riferimenti agli orologi non mancano:
dall’antica analogia di Dio come il “grande orologiaio”, alla
vicenda dello stesso Osterman che sarebbe dovuto diventare
un orologiaio, per arrivare a ciò che qui interessa: l’orologio
dell’apocalisse (o del Giorno del Giudizio - Doomsday Clock
in inglese).
Ancora una volta si tratta di una metafora, che però trova il
suo pieno riscontro nel mondo reale, trattandosi di un’iniziativa – inizialmente semiseria, ma poi sempre più “efficace”
– messa in piedi da alcuni scienziati del Bulletin of the Atomic Scientists dell’Università di Chicago nel 1947. Iniziativa
che, con la metafora dell’orologio, vuole fornire una misura
del pericolo di una ipotetica fine del mondo a cui l’umanità
è sottoposta: più le lancette sono vicine alla mezzanotte, più
la fine del mondo può considerarsi prossima a causa di una
qualche minaccia.
L’orologio fu ovviamente immaginato per indicare in modo
comprensibile e concreto il pericolo di una guerra nucleare:
con la crisi dei missili a Cuba nel 1961 venne toccato il cul-
7
COPERTINA | SCIENZE E RICERCHE • N. 5 • MARZO 2015
mine e l’orologio sarebbe stato almeno idealmente – anche
se per pochi giorni – sulle 23:59. Tuttavia all’epoca le lancette non vennero spostate, poiché la revisione della minaccia al
genere umano aveva una cadenza annuale.
Dal 2007 però, data la situazione socio-politica internazionale, il pericolo nucleare lascia il posto alla annosa
questione del (definitivo) cambiamento climatico: sul sito
degli scienziati atomici (http://thebulletin.org/) attualmente mancano tre minuti alla mezzanotte. Un pericolo che è
oggettivo – i cambiamenti climatici sono ormai irreversibili
e bisogna porvi rimedio – ma soprattutto trova il suo maggiore fattore di rischio in una cattiva, quando non del tutto
assente, percezione del problema (http://www.pewinternet.
org/2015/01/29/public-and-scientists-views-on-science-andsociety/). Un problema complesso perché “multifattoriale”:
coinvolge l’umanità intera, scelte politiche anche drastiche
sulle questioni energetiche (http://www.nature.com/nature/
journal/v517/n7533/abs/nature14016.html), migrazioni e
8
movimenti di popolazioni ancora sporadici se confrontati
col numero di persone presenti sul pianeta, ma che potrebbe
intensificarsi (http://www.nature.com/news/human-adaptation-manage-climate-induced-resettlement-1.16697).
Sembra che la ricetta stia nel titolo del ponderoso volume di Naomi Klein fresco di traduzione per Rizzoli: Una
rivoluzione ci salverà. Solo rivoluzionando il nostro modo
di pensare e attuando politiche capaci di favorire modelli e
stili di vita differenti potremo raggiungere insieme l’obiettivo proposto per il summit che si terrà a Parigi nel dicembre
di quest’anno: quello di mantenere entro i due gradi celsius
l’aumento della temperatura globale del pianeta.
A differenza di quel che accade nelle graphic novel, però
se falliremo non ci sarà nessun Dr. Manhattan a salvarci.
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | COPERTINA
2015. L’anno della luce
ROBERTO FIESCHI
Professore Emerito di Fisica, Università degli Studi di Parma
I
l 2015 è stato dichiarato lo Year
of Light and Light-Based Technologies. Le Nazioni Unite
hanno riconosciuto che la luce
– e più in generale la radiazione
elettromagnetica – gioca un ruolo importante anche nei campi di energia e agricoltura, che ha rivoluzionato la medicina e ha aperto la strada
alle comunicazioni con fibre ottiche tramite Internet.
Dalla Genesi: “fiat lux et lux fuit”
Frase biblica, pronunciata al Creatore dell’Universo. Si
tratta dell’adattamento latino dell’espressione in lingua greca, a sua volta tradotta dall‘ebraico.
“Dio vide che la luce era cosa buona, separò la luce dalle
tenebre e chiamò la luce giorno e le tenebre notte. E fu sera
e fu mattina: primo giorno”.
Secondo il modello di Universo oggi accettato, in seguito
alla formazione degli atomi, 300.000 anni dopo il big bang,
ossia circa 14 miliardi di anni fa, la radiazione primaria si
propagò nell’Universo. Quanto oggi ne resta fu rivelato nel
1964 da Arno Penzias e Robert Wilson: la radiazione cosmica di fondo, a conferma della teoria sull’origine dell’Universo.
“Dio disse: «Ci siano luci nel firmamento del cielo, per
distinguere il giorno dalla notte;servano da segni per le stagioni, per i giorni e per gli anni e servano da luci nel firma-
mento del cielo per illuminare la terra». E
così avvenne [...]
Dio fece le due luci grandi, la luce maggiore per regolare il giorno e la luce minore
per regolare la notte, e le stelle.
Dio le pose nel firmamento del cielo per
illuminare la terra e per regolare giorno e
notte e per separare la luce dalle tenebre. E Dio vide che era
cosa buona.
E fu sera e fu mattina: quarto giorno”.
Le prime stelle e le galassie si formarono un miliardo di
anni dal Big Bang. Il Sole e il sistema solare, incluso il nostro
pianeta, si formarono circa 4,5 miliardi di anni fa.
Ma il Padreterno, quando fu scritta la Genesi (la sua redazione definitiva, ad opera di autori ignoti, è collocata al VI-V
secolo a.C.) non poteva sapere tutte queste cose.
Ricordiamo qualche semplice nozione.
Fotosintesi
Questo processo, che forma ossigeno e carboidrati dall’anidride carbonica e dall’acqua, iniziò oltre due milioni di
anni fa per azione dei cianobatteri. La fotosintesi, direttamente o indirettamente, è responsabile di tutte le forme di
vita sulla Terra.
Il controllo del fuoco da parte dell’Homo Erectus risale
a 1,5 milioni di anni fa. Le più antiche prove di uso umano
del fuoco provengono da vari siti archeologici nell’Africa
La luce e le onde elettromagnetiche
Il processo della fotosintesi
9
COPERTINA | SCIENZE E RICERCHE • N. 5 • MARZO 2015
Orientale.
Oggi, grazie all’elettricità, le sorgenti artificiali di luce sono le
lampade a incandescenza, inventate da Joseph
Swan e da Thomas Edison, le lampade a fluorescenza e i LED.
Rifrazione della luce
Prima che fosse scoperta la legge della rifrazione a opera dello
Snellius, legge che aprì
la via allo studio dei sistemi ottici, sembra si
conoscessero, fino dal
sec. XIII, lenti convesse Radiotelescopio
e concave, in uso per la
correzione dei difetti di vista.
Galileo fece sua l’idea di un ottico olandese accostando
due lenti per occhiali. Un cannocchiale fabbricato in Olanda
venne portato in Italia nel 1609 e ne giunse notizia a Galileo
Galilei, allora a Padova, il quale riuscì a costruire dei modelli
migliori di quelli stranieri. Si aprì così una nuova via allo
studio del cielo: pianeti medicei, fasi di Venere, macchie solari, sostegno al modello copernicano del sistema solare, ma
anche processo davanti al Tribunale dell’Inquisizione.
A partire dall’Ottocento nuove finestre si sono via via aperte nello studio del cielo. All’esame della porzione visibile
dello spettro si aggiunsero via via l’esame dell’ultravioletto e
dell’infrarosso, quindi dei raggi X e gamma, delle microonde
e delle radioonde, rivelando fenomeni inattesi.
Riflessione totale
Grazie ad essa e alla capacità di realizzare vetri estremamente trasparenti oggi abbiamo le telecomunicazioni tramite
le fibre ottiche, che guidano la luce e i segnali che essa trasporta su grandi distanze. Le fibre ottiche hanno anche altri
impieghi importanti, come endoscopi in medicina.
Charles K. Kao è considerate il padre delle fibre ottiche.
Nel 2009 gli fu assegnato il Premio Nobel per la fisica.
Dispersione
Isaac Newton (Woolsthorpe-by-Colsterworth, 1642 –
Londra, 1727) studiò la dispersione di un raggio di luce
bianca che attraversa un prisma di vetro e si scompone nei
Il fenomeno della dispersione
10
vari colori e divenne
un convinto sostenitore
della teoria corpuscolare
della luce.
Teoria ondulatoria
Christiaan Huygens
(L’Aia, 1629 –1695) la
sostenne, contro quella
corpuscolare. La dimostrazione fu data da
ThomasYoung (Milverton, 1773-Londra,1829)
con l’esperimento della
interferenza.
L’effetto fotoelettrico
(1905)
Albert
Einstein
(Ulm, 1879 - Princeton, 1955), con l’interpretazione di questo fenomeno, rilanciò il modello corpuscolare: la radiazione elettromagnetica consta di un flusso di
particelle, i fotoni.
Oggi sappiamo che il modello ondulatorio e quello corpuscolare coesistono: dualismo onda-corpuscolo. Tutti gli
esperimenti hanno confermato questo dualismo, che in seguito è stato esteso anche alle particelle di materia
L’effetto fotovoltaico e le celle solari
Può essere considerato un effetto fotoelettrico interno al
materiale semiconduttore. E’ sfruttato anche per convertire
(parzialmente) l’energia della luce in energia elettrica. Lo
sfruttamento dell’energia solare è cresciuto rapidamente
nell’ultimo decennio, riducendo lo sfruttamento dei combustibili fossili. Il Nobel per la Fisica è stato assegnato nel
2014, proprio sul tema della luce, ai ricercatori giapponesi
Isamu Akasaki, Hiroshi Amano e Shuji Nakamura, per l’invenzione dei LED a luce blu.
Il laser
Il laser è un dispositivo in grado di emettere un fascio di
luce coerente, monocromatica, e concentrata in un raggio
rettilineo estremamente collimato, attraverso il processo di
emissione stimolata. Inoltre la luminosità (brillanza) delle
sorgenti laser è elevatissima a paragone di quella delle sorgenti luminose tradizionali.
Fu inventato nel 1960 da Theodore Harold Maiman (Los
Angeles, 1927 - Vancouver, 2007). Ha infinite applicazioni:
nelle telecomunicazioni, in medicina, nell’industria.
La fotonica
Il termine fu coniato intorno al 1960, quando fu inventato
il laser.
Riguarda generazione, rivelazione e controllo della luce e,
più in generale, della radiazione elettromagnetica, dai raggi
gamma alle radioonde. Telecomunicazioni, cellulari, Internet, strumenti medicali e per l’industria manifatturiera e militare (visione notturna), eccetera, rientrano nella fotonica.
Il 21esimo secolo dipenderà dalla fotonica così come il
20esimo dipese dall’elettronica.
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | COPERTINA
Memoria e oblio
DAVIDE SCHIFFER
Professore Emerito di Neurologia, Università degli Studi di Torino
È
da poco trascorso il Giorno della Memoria,
che ancora per pochi rappresenta l’occasione
di tristi ricordi, ma non per tutti. E’ passato
molto tempo da allora e l’aforisma, spesso
ripetuto in quei giorni, “per non dimenticare” riferito alla Shoah e ai suoi correlati, sta correndo il
rischio di diventare banalmente l’icona di un qualcosa che
non si conosce più e di
essere strumentalizzato.
In chi voglia mantenere
un atteggiamento critico
di fronte ai continui neoideologismi del tempo attuale i quesiti che questo
aforisma suscita sono:
chi lancia questo messaggio e a chi è rivolto? Che
cosa non bisogna dimenticare? Ho scritto un libro
su questo argomento,
senza la pretesa di fare la
storia degli anni bui del secolo breve, ma per affrontare il
tema della memoria di quel periodo con un approccio fenomenologico (1).
Il tempo scorre e la memoria degli accadimenti con esso
si affievolisce e scompare nell’oblio, fatta salva la conservazione delle sue punte più alte nella storiografia che, però, ha
il difetto, comune a tutte le scienze, di essere storica e cioè di
fornire verità relative all’epoca in cui viene scritta. Già Benedetto Croce aveva detto che “ogni storia passata è una storia
contemporanea”. Vorrei affrontare il problema della memoria nell’uomo dal punto di vista neuro scientifico, ma so che
l’approccio biologico, in confronto agli animali da esperimento, compresa la lumachina di mare Aplysia californica su
cui si erano concentrati gli studi di Kandel (2), è ancora agli
albori; quello neuro-cognitivo e di neuro-imaging comincia
a produrre risultati, ma per lo più limitati alle sedi cerebrali
coinvolte (3, 4). Per la comprensione degli altrimenti impenetrabili meccanismi della memoria e delle sue categorizzazioni non rimane che l’approccio fenomenologico (5, 6) con
la distinzione della memoria in tre classi, individuale, collettiva e storico-culturale.
La memoria individuale contiene le esperienze associate
alla loro componente emotiva, i famosi qualia di Edelman
(7), la cui integrazione
nel vissuto avviene secondo un “pregiudizio”
(8) in senso ermeneutico
che condiziona l’esistenza di un polimorfismo di
vissuti pari alle individualità umane esistenti.
Le memorie individuali
pertanto potranno essere
“dilacerate” e cioè non
concordanti su singoli
accadimenti, perché costruite con diversi “pregiudizi.” La dilacerazione può continuare nella memoria
collettiva e poi si ricuce nella memoria culturale-storica con
l’eccezione dei revisionismi o negazionismi.
La costruzione di un vissuto avviene con l’integrazione in
esso di quanto entra nella nostra mente, percezioni, pensieri
etc, dopo il suo confronto con le nostre immagini mentali o
patterns, che non sono altro che un sistema di segnalazione interno, frutto di un previo scambio semiologico segnale/
recettore, sulla cui base operiamo i riconoscimenti e l’interpretazione del mondo esterno (9). Il sistema è validato
dall’intersoggettività così come il dato scientifico è validato
dall’intersoggettività scientifica. Al polimorfismo dei vissuti concorrono anche errori nella loro costruzione, legati alla
malafede (nel senso di Sartre), al difetto di critica o comunque all’attività di meccanismi iponoici e ipobulici (termini
presi da Kretschmer per indicare ciò che sta sotto il livello
11
COPERTINA | SCIENZE E RICERCHE • N. 5 • MARZO 2015
di coscienza e della volontà) per cui nascono convinzioni devianti o “errate” e cioè non validate dall’intersoggettività. Il
delirio in senso psichiatrico e cioè “la convinzione errata che
non si lascia correggere né dalla scienza né dall’esperienza”
e gli ideologismi (esempio, quello nazi-fascista) si sviluppano su questa base (10).
L’oblio si sviluppa di pari passo con la formazione della
memoria storica e culturale che salverà le punte emergenti
nel ricordo del passato, di altezza varia a seconda dell’approfondimento. Questa memoria implica comunque che qualcuno se ne appropri attraverso la lettura e lo studio e cioè la
cultura.
Con queste premesse la Shoah e la Resistenza, accomunate
dalla stessa genesi e cioè le dittature nazi-fasciste, sono analizzate alla luce dell’aforisma sopra menzionato. Anzitutto
bisogna chiarire a chi questo è rivolto. Secondo Kandel agli
ebrei perché il ricordo della Shoah rientra nei precetti della
religione ebraica, così come è entrato il “ricordati cosa ti ha
fatto Amalek” (11). La Shoah è stata l’emblema del male che
si è prodotto negli anni bui del secolo scorso, ma nel tempo
si va associando sempre di più con lo sterminio di milioni di
persone di religioni diverse con cui condivide la genesi. L’invito pertanto sembra avere un riferimento universale. A chi è
rivolto l’invito? Non certo ai superstiti o ai testimoni diretti
dell’epoca del male, segnati da un’esperienza che non potrà
essere dimenticata per l’enorme contenuto emotivo. Le generazioni successive che, tranne la prima fatta dai postmemory
(12) e cioè i figli delle vittime o dei superstiti che possono
avere albergato qualia assimilabili a quelli delle vittime, non
hanno esperienza diretta e quindi sono tendenzialmente neutre dal punto di vista emotivo. Come possono queste ricordare o dimenticare qualcosa che non hanno esperito? Per loro
si tratterà dapprima di memoria collettiva e poi soprattutto
di memoria storica che praticamente corrisponde all’oblio, a
meno che non venga ricercata.
Un altro punto importante è il significato del “non dimenticare.” La dilacerazione delle memorie individuali si ripete,
anche se in minor grado, nelle memorie collettive e tende
a scomparire in quella storica. L’invito a non dimenticare
come viene recepito da chi non ha condiviso le stesse esperienze delle vittime o ne ha avute di opposte su uguali accadimenti? Chi ha condiviso consciamente o inconsciamente
la concezione nazi-fascista o l’ha sostenuta anche per sola
convenienza e ha vissuto quelle esperienze con un altro “pregiudizio”, come si dice, non ha fatto “i conti con la storia”
avrà una visione dell’epoca del male contrapposta. Alludo
ai carnefici, agli autori delle deportazioni e dei massacri, a
chi si è adeguato all’organizzazione di morte e ha contribuito, magari indirettamente a tutto ciò, agli attuali anti-semiti,
ai loro discendenti che hanno conservato l’atteggiamento
di famiglia. In buona o in malafede possono trovarsi d’accordo nel ricordare, ma non si riferiscono a quel contenuto
che l’invito a non dimenticare intenderebbe alludere. Una
larga fascia di popolazione poi vuole, per i motivi suddetti,
dimenticare quello che è accaduto e addirittura molti usano inconsapevolmente nomi e insegne dell’epoca del male
12
come strumento di rivolta sociale, generazionale o semplice
delinquenza solamente per ferire l’establishment colpendo
ricchi, potenti, barboni, comunisti, ebrei, immigrati, gay, i
muri delle case etc.
Il relativismo non è oggi soltanto scientifico, ma anche
storico e culturale e sappiamo che scrivere di storia bisogna
emettere giudizi morali (13). Questi dipendono dall’ethos
dell’epoca in cui si svolgono gli accadimenti o si scrive di
essi. Per noi oggi valgono, a parte i credo religiosi, due principi antropologici fondamentali che sono l’empatia e la solidarietà, da cui derivano due corollari rappresentati da libertà
e giustizia. Chi contravviene fa il male. La sofferenza altrui è
sofferenza per noi. I nostri sentimenti e giudizi sono validati
dall’intersoggettività e sono cioè una norma. Chi si sottrae ad
essi si sottrae anche alla dialettica con il tempo, si ipostatizza o si dedialettizza nello stesso modo come è stato dello per
il delirio e gli ideologismi.
Oggi i negazionismi, i revisionismi ideologici, l’oblio per
incultura che si aggiunge a quello fisiologico legato alle capacità limitate, per quanto enormi, del nostro cervello, ci
suggeriscono cautele e precisazioni quando si rivolge l’invito a non dimenticare. Non serve tanto il mirare con l’invito e
i suoi supporti visivi a suscitare semplicemente emozioni, il
che può essere utile, ma anche sterile o strumentale ad altro,
quanto soprattutto a favorire con esse l’acculturazione critica
di quanto è successo, centrata sull’apprendimento della sua
genesi. Questo è il solo meccanismo che può salvarci dal
ripetere gli stessi errori del scolo scorso, anche se la historia magistra vitae si è dimostrata avere una portata più che
limitata.
(1) Schiffer D. Memoria e oblio: un’analisi fenomenologica degli anni bui del secolo breve. Golem Edizioni, Torino,
2015
(2) Kandel E. Alla ricerca della memoria, Codice, Torino,
2005; (3) Seung
(3) Seung S. Connettona. La nuova geografia della mente.
Codice, Torino, 2013
(4) Dahaene S. Coscienza e cervello.Come i neuroni codificano il pensiero. Raffaello Cortina Editore, Milano, 2014.
(5) Husserl E. Idee per una fenomenologia pura e per una
filosofia fenomenologica.Vol II, libro III, Einaudi, Torino,
2002.
(6) Feyles M. Studi per la fenomenologia della memoria.
Franco Angeli, Milano, 2012
(7) Edelman G. Darwinismo mentale. La teoria della selezione dei gruppi neuronali. Einaudi, Torino, 1995.
(8) Gadamer H-G.Verità e metodo, tr. it. Di G. Vattimo,
Bompiani, Milano, 1983
(9) Prodi G. Le basi materiali della significazione. Bompiani, Milano, 1977
(10) Schiffer D. Attraverso il microscopio. Neuroscienze e
basi del ragionamento clinico. Springer, Milano, 2011
(11) Deuteronomio, 25, 17-19
(12) Hirsch M. The generation of postmemory. Poetics
Today 29: 1, 2008
CONTRIBUTI&INTERVENTI
N. 5 - MARZO 2015
14
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | FISICA
Fisica del caos: un’introduzione storica
GIORGIO BIANCIARDI
Dipartimento di biotecnologie mediche, Università degli Studi di Siena
“Mon cher ami,
….. io avevo creduto che tutte le curve asintotiche, dopo essersi allontanate da una curva chiusa che rappresenta una soluzione periodica,
si avvicinassero in seguito asintoticamente alla stessa curva chiusa.
Quello che è vero, è che ce ne sono un’infinità che godono di questa
proprietà. Non vi nascondo affatto il dispiacere che mi provoca questa scoperta…”
Henri Poincaré, 1 dicembre 1889, dalla lettera a Mittag Leffler
HENRI POINCARÉ: LA SCOPERTA DEL CAOS
N
DETERMINISTICO
el luglio del 1885 la prestigiosa (già allora) rivista Nature pubblicava che il Re di
Svezia e Norvegia, Oscar II, il giorno del
suo sessantesimo compleanno, 21 gennaio 1889, avrebbe concesso un premio “a
un’importante scoperta nel campo dell’analisi superiore”.
Il Re, in effetti, era un cultore della materia, e quindi non
sorprendeva che avesse bandito il premio per la promozione
della cultura matematica: 2500 corone e una medaglia d’oro
del valore di 1000 franchi al vincitore. Gösta Mittag Leffler,
professore di matematica pura all’Università di Stoccolma,
fu incaricato di organizzare il concorso. Lo sforzo di Leffler
si concretizzò nella nomina di una Commissione giudicatrice
e nella stesura dei quattro problemi da mettere a concorso.
Il primo, quello che poi fu vinto da Poincaré, così recitava:
Dato un sistema di un numero qualunque di particelle che
si attraggono reciprocamente secondo la Legge di Newton,
assumendo che non avvenga mai un impatto di due particelle, si propone di sviluppare le coordinate di ogni particella in una serie che procede secondo qualche funzione nota
dal tempo che converge uniformemente in ogni intervallo
di tempo
Era il problema degli n corpi, classico problema di meccanica, concretizzato, ad esempio, nel moto dei pianeti intorno
al Sole.
DETERMINISMO
In effetti la legge di gravitazione universale di Newton
permette la completa descrizione di due corpi gravitanti, ma
l’estensione a più di due corpi, ad esempio anche solo tre
corpi gravitanti, alla fine del XIX secolo era fino ad allora
limitata a casi del tutto particolari, se si cercava una soluzione “matematicamente esatta”. Giuseppe Luigi Lagrange
nel 1772 aveva dimostrato l’esistenza di un sistema stabile,
esaustivamente descrivibile, tra 3 corpi in mutua orbita quando questi siano disposti ai 3 vertici di un triangolo equilatero
(ad esempio il pianeta Terra in orbita intorno al Sole con le
sue lune di polvere che lo accompagnano, oppure Giove con
alcuni gruppi di asteroidi). Una soluzione generale, anche
per solo 3 corpi, fino ad allora invece non esisteva.
Non era un mistero che lo stesso Newton ammetteva che la
sua splendida legge, in grado di spiegare in modo semplice e
elegante le 3 leggi di Keplero e stabilire la posizione dei pianeti intorno al Sole con grande precisione nell’arco di anni,
era insufficiente per spiegare la stabilità dello stesso Sistema
Solare quando si considerino tempi molto lunghi. Doveva
essere necessario – disse il grande fisico -, evidentemente,
che il buon Dio rimettesse ogni tanto le orbite planetarie al
proprio posto..
Negli anni dello scritto di Lagrange, un altro eminente fisico, Pierre Simon de Laplace, pubblicava la sua opera “Recherches sur le principe de la gravitation universelle, et sur
les inégalités séculaires des planètes” introducendo il calcolo delle perturbazioni che apparì fornire con grandissima
precisione la previsione della posizione futura di tutti i corpi
del Sistema Solare, riuscendo a gestire in modo completo
le interazioni gravitazionali multiple presenti. La precisione sembrava diventare, almeno potenzialmente, illimitata.
Tanto che Laplace potrà scrivere la famosa frase, emblema
del determinismo che ha dominato dalla sua (ri)nascita con
Galilei e Newton e fino ad oggi, la Fisica, e la Scienza tutta:
“Un’intelligenza che, per un istante dato, potesse cono15
FISICA | SCIENZE E RICERCHE • N. 5 • MARZO 2015
scere tutte le forze da cui la Natura è animata, e la situazione
rispettiva dei corpi che la compongono e che inoltre fosse
abbastanza grande da sottomettere questi dati all’analisi
… nulla le risulterebbe incerto, l’avvenire come il passato sarebbe presente ai suoi occhi”, Essai philosophique sur
les probabilités (questa intelligenza con questa conoscenza
e questa capacità di calcolo era senz’altro al di sopra delle
capacità umane, come riconosceva lo stesso Laplace1, ma
quello che contava era l’asserzione della possibilità in linea
di principio, l’ Universo è una “macchina” prevedibile: una
macchina deterministica. Come un orologio meccanico, per
quanto meravigliosamente complesso.
I grandi successi dell’astronomia, dalle previsioni del ritorno della Cometa di Halley, alla scoperta del pianeta Nettuno
tramite il calcolo delle perturbazioni gravitazionali introdotte
da Laplace, sembravano dimostrare al di là di ogni dubbio la
veridicità dell’assunto.
LA COMETA DI LEXELL
Il glorioso ritorno della Halley aveva confermato la capacità previsionale della Legge di Gravitazione Universale di
Newton, in distanze temporali che si misuravano in secoli,
ma ecco che il 14 giugno 1770 giunse la scoperta di una cometa, la cometa di Lexell, dal nome dell’astronomo che ne
studiò l’orbita. Orbita calcolata: dopo 5 anni sarebbe tornata.
Nessuno la vide tornare.
Lexell, ne approfondì lo studio dinamico. Tre anni prima
della scoperta l’astro chiomato seguiva un’orbita al di là di
quella di Marte, invisibile anche con i più potenti telescopi
dell’epoca. Nel 1767, la cometa aveva incontrato gravitazionalmente il grande Giove, l’orbita risultò modificata e la cometa lanciata verso il Sole, facendo nascere l’orbita ellittica
con periodo di 5 anni e mezzo, come era stata poi osservata
nel 1770. Pochi anni dopo, un ulteriore passaggio ravvicinato
con Giove, sbalzò la cometa al di là di Nettuno. Avevamo
tutto per poter iniziare a realizzare quel che sarà definito “il
fenomeno della dipendenza sensibile dalle condizioni iniziali
nei sistemi dinamici”, punto di riferimento dei sistemi caotici. Ma il fatto non fu compreso, o almeno non considerato
quanto avrebbe dovuto, fino al concorso bandito dal Re di
Svezia e Norvegia e che era stato vinto dal più grande matematico della seconda metà del XIX secolo, Henri Poincaré.
1 Nella stessa opera Laplace scrive: “..ma l’ignoranza delle diverse
cause che concorrono alla formazione degli eventi come pure la loro complessità, insieme con l’imperfezione dell’analisi, ci impediscono di conseguire la stessa certezza rispetto alla grande maggioranza dei fenomeni.
Vi sono quindi cose che per noi sono incerte, cose più o meno probabili, e
noi cerchiamo di rimediare all’impossibilità di conoscerle determinando
i loro diversi gradi di verosimiglianza. Accade così che alla debolezza
della mente umana si debba una delle più fini e ingegnose fra le teorie
matematiche, la scienza del caso o della probabilità”. L’impossibilità di
fare previsioni è meramente conoscitiva, lo è per la “debolezza della mente
umana”, ma di per sé l’Universo sarebbe prevedibile, afferma Laplace.
16
RITORNO A POINCARÉ
Alla commissione nominata da Leffler non apparvero dubbi. Il premio spettava alla risoluzione del primo quesito da
parte di Poincaré. Ma la situazione si mostrò subito complicata. La memoria si intitolava Sur le problème des trois
corps et les équations de la dynamique: dunque si limitava
alla soluzione, precisa e generale, di 3 corpi in mutua orbita
tra loro, pur dovendo precisare che si trattava di una soluzione ristretta a quando delle 3 masse, una è molto grande,
l’altra piccola relativamente alla prima, e la terza risulti di
massa trascurabile, e con orbite circolari e sullo stesso piano.
Pur in un approccio così limitato, Poincaré introduceva nuovi metodi di calcolo e produceva una laboriosa monografia
di 150 pagine. Così complessa che ai Commissari, grandi
matematici europei, apparve di non facile comprensione e
rimanevano punti oscuri. Allora, prima di rendere noto chi
fosse il vincitore, furono chieste delucidazioni all’Autore, il
quale sortì nove lunghe Notes, appendici da pubblicare insieme alla vasta monografia. Il premio fu assegnato al grande
matematico. Il problema degli n corpi era stato limitato ad
una soluzione particolare dei 3 corpi, ma comunque il problema era risolvibile e certo, il sistema era prevedibile e con
“precisione matematica”, ovvero senza ricorrere a metodi
numerici di approssimazione successive..
Tutto era ora pronto per la pubblicazione nella Rivista prescelta, Acta Mathematica di Stoccolma. Non fu così, o almeno non ancora. Un giovane matematico, a cui era stato affidato il compito di preparare il manoscritto per la stampa, si
accorse (luglio 1989) che alcuni passaggi sembravano poco
chiari, comunicandolo a Leffler. Quest’ultimo si rivolse ancora a Poincaré. Poincaré riguardò lo scritto, accorgendosi
con orrore non solo che in altre parti del manoscritto aveva
compiuto un errore, ma che le sue conseguenze “erano molto
serie”2. Ed ecco lo scritto sconsolato che abbiamo introdotto
nell’incipit iniziale di questo articolo.
Poincaré, convinto determinista, realizzava che nell’evoluzione dinamica del sistema studiato venivano a crearsi situazioni in cui una minima variazione delle condizioni iniziali
portava a divergenze così grandi nel moto da non consentire
più di prevedere quale ne poteva essere l’evoluzione nel tempo: il suo comportamento apparirebbe del tutto casuale, “la
previsione diventa impossibile, siamo di fronte al fenomeno
fortuito”, scriverà anni dopo in successivi Lavori in cui ne
ampliava e approfondiva lo studio. Era nato il concetto di
Caos deterministico: un sistema pur governato da Leggi può
assumere un comportamento del tutto imprevedibile.
Ad analoghi risultati pervenne in quegli anni Jacques
2 Per il grande matematico furono “serie” anche le conseguenze economiche. Le copie stampate dovettero essere distrutte, Poincaré dovette
rimborsare i costi della stampa, spendendo più di quanto aveva vinto con il
premio. Nel novembre 1890 la Memoria fu pubblicata con le nuove ampie
modifiche. Negli anni successivi Poincaré continuò a svilupparne lo studio
con “Les méthodes nouvelles de la mécanique celeste” (1892-1899) e con
le “Leçons de mécanique celeste” (1905-1911), evidenziando l’estrema
difficoltà e complessità dei sistemi dinamici.
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | FISICA
Hadamard, un altro matematico francese, che studiando le
geodetiche (le linee più brevi che congiungono due punti)
su una superficie a curvatura negativa, notò come queste
evolveranno divergendo in modo assai grande per qualunque
differenza per quanto minima delle posizioni iniziali. E’ la
metafora del biliardo di Hadamard: in un biliardo con superfice curva (o comunque in qualunque biliardo reale che non
sarà mai perfettamente piano), due palle che si trovino in una
posizione iniziale (quasi) uguale , e a cui venga applicata la
medesima forza, genereranno traiettorie che in breve tempo
divergeranno, cioè raggiungeranno posizioni finali totalmente diverse. Essendo impossibile ricostruire le condizioni
iniziali in modo assolutamente preciso, la posizione finale ne
risulterà impredicibile3.
I loro risultati furono considerati dalla maggior parte degli studiosi come stranezze della dinamica riguardanti casi
particolari, senza reali applicazioni ai problemi reali. Nella
prima metà del XX secolo un piccolo gruppo di fisici, pur
di altissimo rilievo, come J. Von Neumann e G.D. Birkhoff,
portarono avanti questi studi di dinamica, ma senz’altro il
mainstream della Scienza andava verso direzioni diverse.
EDWARD LORENZ: LA RISCOPERTA DEL CAOS
“Does the Flap of a Butterfly’s Wings in Brazil Set off a Tornado in
Texas?”
Titolo della Lecture di E. N. Lorenz all’ ”American Association for
the Advancement of Science”, 1972.
Nella prima metà del XX secolo non c’è dubbio che la
metafora dell’ “orologio meccanico” per spiegare il comportamento dell’Universo regnava sovrana, invadendo anche il
campo della Vita. Se già il filosofo Thomas Hobbes nel XVII
secolo definiva la vita come movimento e che quindi anche
un automa poteva essere considerato vivo, nel XX secolo
il filosofo-matematico Bertrand Russel affermava nella sua
Storia della Filosofia Occidentale che si ottiene progresso
nelle Scienze della Vita quando si riesce “a diminuire l’abisso tra l’essere vivente e la macchina”.
La nascita della nuova branca della fisica, la Scienza del
Caos e della sua sorella, la Geometria Frattale, si considera
legata alla pubblicazione di Edward Lorenz, oscuro (allora)
matematico applicato agli studi metereologici, “Deterministic Nonperiodic flow” sul Journal of Atmospheric Sciences,
del 1963.
Lui stesso racconta come in un giorno d’inverno dell’anno
1961, professore al Massachusetts Institute of Technology (il
prestigioso MIT di Cambridge), stava sottoponendo a prove
un modello matematico di dinamica dei fluidi (l’atmosfera è
un fluido) che aveva sviluppato. Si serviva di un calcolato3 È stato calcolato che dopo 7 rimbalzi, anche in un biliardo ideale, applicando la stessa forza, la previsione del punto di arrivo della palla lanciata
sarebbe possibile solo se la posizione fosse calcolata con la precisione di
10-8 cm, il diametro di un atomo di idrogeno. Stiamo entrando nel mondo
della fisica quantistica, dove l’indeterminazione regna sovrana. Quindi la
previsione ne risulta senz’altro impossibile.
re, un Royal McBee, una macchina molto meno potente dei
nostri odierni comuni PC portatili. Interruppe l’elaborazione,
per una pausa caffè. Al ritorno immise i dati intermedi che
aveva ottenuto dal suo modello di 12 equazioni. L’ output
numerico in breve tempo divenne completamente diverso
da quello di altre simulazioni numeriche precedenti. Il risultato era chiaro: un errore di troncamento numerico. Aveva
immesso dati alla terza cifra decimale, mentre il calcolatore
lavorava alla sesta cifra decimale. Questa divergenza faceva pensare da una parte “all’estrema sensibilità dalle condizioni iniziali dei sistemi dinamici” di Poincaré, dall’altra
alla grande imprevedibilità dei sistemi metereologici reali.
Volle andare a fondo. Riportando le soluzioni di un sistema
ridotto a 3 variabili, per poterlo rappresentare in uno spazio
tridimensionale (in un classico approccio dello “spazio delle
fasi”), vide che i punti generati dal sistema di equazioni, per
diversi input, non si distribuivano in modo “casuale”, ma risultavano delimitati in una regione finita di spazio, per quanto il sistema fosse notevolmente “imprevedibile”, la forma
della figura che nasceva non mutava. Il risultato sembrava
“interessante”, era nato “l’attrattore di Lorenz”: un sistema
di equazioni differenziali a bassa dimensionalità in grado
di generare un comportamento complesso. Imprevedibile la
singola traiettoria, ma con un suo “ordine” nel suo comportamento globale.
Il sistema di equazioni usate da Lorenz. La presenza di xz e xy determina la non linearità del sistema, da cui si origina il comportamento
complesso e la singola traiettoria diventa scarsamente prevedibile.
L’attrattore di Loren risultante dal sistema a 3 equazioni di cui sopra.
Per quanto sia ardua la previsione della singola traiettoria del sistema dinamico, nel suo complesso il sistema mostra un comportamento
“interessante”.
17
FISICA | SCIENZE E RICERCHE • N. 5 • MARZO 2015
Il decennio successivo l’interesse per i sistemi dinamici
“scarsamente prevedibili” perché basati su “modelli non
lineari”(ad es., espressi da equazioni che contengono un elevamento a potenza) iniziò a coinvolgere un numero sempre
maggiore di studiosi, anche al di là del campo della Fisica.
MITCHELL FEIGENBAUM
Possiamo terminare questo breve excursus con la storia
di Mitchell J. Feigenbaum e la sue pubblicazioni del 1978
“Quantitative Universality for a Class of Nonlinear Transformations”, in Journal of Statistical Physics e del 1980,
“Universal Behavior in Nonlinear Systems”, in Los Alamos
Science.
Siamo nella prima metà degli anni ’70 dello scorso secolo e il giovane fisico faceva calcoli su calcoli con equazioni
ricorsive (quindi lette in modo dinamico), usando una piccola calcolatrice tascabile. Chiese il permesso di lavorare
con un computer dell’esercito (con un collegamento telefonico molto ma molto precario). Racconta che nel mese più
“denso”, passava 23 ore al giorno a ottenere risultati dalle
equazioni che immetteva, consumando un numero incalcolabile di sigarette per mantenersi eveglio e non perdere la concentrazione. L’andamento era sempre estremamente simile,
indipendentemente dalle equazioni utilizzate (limitandosi
alle equazioni con un solo massimo, e considerando la più
semplice delle equazioni non lineari, esponente = 2). I valori all’inizio fissi ottenuti, quindi perfettamente prevedibili,
all’aumentare di un parametro dell’equazione, si sdoppiavano (i valori rimbalzavano tra 2 valori fissi), ciascun nuovo livello tornava a sdoppiarsi, di sdoppiamento in sdoppiamento
sempre più ravvicinato, si giungeva ad un comportamento
altamente caotico (una variazione numerica estremamente
piccola conseguiva ad un risultato estremamente diverso).
Ma dentro le aree caotiche nuove finestre di ordine si generavano, creando un sistema autosomigliante al cambiamento
di scala (un comportamento “frattale”). In questa struttura
autosomigliante, comune alle più diverse equazioni, erano
presenti dei rapporti numerici tra le biforcazioni che si generavano costanti e fissi. La via verso il caos era indicata da
precisi numeri, dei nuovi pi greco o altre delle costanti famose nel mondo della matematica dal tempo dei suoi albori.
Con l’approccio di Feingenbaum, i sistemi non lineari con la
loro impredicibilità contengono un comportamento complesso “estremamente interessante”. Esistono delle costanti che
sono comuni a modelli fisici completamente lontani tra loro.
Si può ora stabilire quando il sistema diventerà turbolento e
la previsione diventerà altamente limitata, da quando il sistema si comporterà in modo ordinato e la previsione sarà possibile con grande precisione. Ordine e caos sono profondamente interconnessi. Il “caos” può essere domato (anche se
dobbiamo rinunciare a quella ingenua capacità di previsione
che era stata supposta per tanti secoli, vedi qui di seguito).
In effetti, tutti i fenomeni fisici, anche se in diversa misura, sono caratterizzati universalmente dalla non linearità. I
sistemi non lineari godono di una varierà di comportamenti
18
rispetto a quelli lineari, in essi si osservano improvvisi passaggi da dinamiche regolari a regimi irregolari nonché una
critica dipendenza da variazioni, anche piccole, delle condizioni iniziali, che rende tali manifestazioni totalmente imprevedibili. Nel mondo reale, alcuni sistemi dinamici hanno
componenti di non linearità molto ridotta e trascurabile, ad
esempio il moto dei pianeti del Sistema Solare intorno al
Sole e la posizione nel cielo di questi prevedibile nei secoli4.
Altri hanno componenti non lineari molto importanti, vedi
le previsioni metereologiche, con la loro grande incertezza.
ma anche il moto nel Sistema Solare dei piccoli asteroidi di
massa di poche migliaia di tonnellate che quando vengono
scoperti “sfiorando” (parliamo di centinaia di migliaia di km,
comunque) il nostro pianeta appaiono in continua balìa di
mutamento di traiettoria e la previsione è possibile solo per
tempi dell’ordine delle ore.
Nascono ora applicazioni che coinvolgono non solo i modelli fisici più disparati, ma entrano anche nella economia,
in biologia e in medicina. Perché anche l’essere vivente, sistema altamente complesso, è mosso da logiche altamente
non lineari, e se lo vogliamo “capire” dovremo utilizzare le
nuove cognizioni che sono nate in questi ultimi decenni nel
mondo della non linearità, nel mondo della dinamica caotica. Il battito cardiaco, dalle caratteristiche sorprendetemente
ben poco prevedibili, può ora essere studiato con gli indici
numerici che caratterizzano i sistemi dinamici non lineari, il parametro di “prevedibilità del sistema” o “tempo di
Lyapunov”5, l’ indice di Hurst6, la dimensione di correlazione, l’entropia di Kolmogorov,.. , aiutandoci a discernere tra
lo stato di salute e quello di malattia (non solo cardiaca). La
fisica e la biologia tornano a dialogare.
4 Nei secoli si, ma non in un lasso di tempo molto più lungo. Nel 1989
l’astronomo Jacques Laskar calcolerà che anche il moto dei pianeti interni
del Sistema Solare, compresa la Terra, in un lungo tempo temporale (100
milioni di anni) risulta essenzialmente impredicibile, o, se vogliamo, in
senso generale, “ caotica”.
5 che definisce la scala al di là della quale la conoscenza iniziale del
sistema perde la sua pertinenza. E’ possibile spostare questo orizzonte
temporale, ma per moltiplicare per 10 il tempo per cui l’evoluzione del sistema divenga prevedibile a partire dalle sue condizioni iniziali, dovremo
aumentare la precisione della definizione di queste condizioni di un fattore
uguale a e10 (circa 1000). Presto la capacità di previsione viene perduta.
6 che stabilisce la “memoria” del sistema non lineare in esame. Le inondazioni periodiche del fiume Nilo, così come il battito cardiaco, sono sistemi dinamici altamente stocastici provvisti di “memoria”. Se il battito
cardiaco aumenta di frequenza, che il battito successivo sia ancor più
breve sarà statisticamente poco probabile (memoria “antipersistente”). In
questi sistemi, ogni evento porta memoria degli eventi passati. Gli effetti di tali eventi continuano a farsi sentire, anche se in modo sempre più
smorzato, sulle vicende future, anche se lontane nel tempo, e teoricamente
all’infinito.
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | SCIENZE BIOLOGICHE
Teratologia: la tossicologia dello
sviluppo embrionale
ERMINIO GIAVINI
Dipartimento di Bioscienze, Università degli Studi di Milano
L
INTRODUZIONE STORICA
a teratologia è la disciplina che si occupa
delle malformazioni congenite (m.c.). Il termine deriva dal greco τήρασ dal significato
originario di stella, astro celeste, degenerato
in cosa meravigliosa, segno premonitore e,
infine, nel significato di mostro (latino monstrum
= prodigio, segno degli dei). La frequenza delle
malformazioni congenite nei paesi occidentali è
dell’ordine del 3% dei nati vivi. Ciò significa che
in un paese come l’Italia, in cui nascono attualmente circa 500.000 bambini/anno, quasi 15.000
di loro possono essere portatori di m.c.. La gravità delle malformazioni è variabile: da vere e
proprie mostruosità, spesso incompatibili con la
vita, a gravi alterazioni morfologico-funzionali
gravemente disabilitanti, a lesioni d’organo risolvibili con interventi chirurgici riabilitativi (alterazioni della settazione cardiaca, palatoschisi).
In alcuni casi le malformazioni non sono di tipo
morfologico ma funzionale. Rientrano tra queste le lesioni cerebrali di vario grado con deficit
intellettuale e talvolta anche con impedimento motorio. Nel
complesso è chiaro che le m.c. rappresentano un problema
di enorme impatto sociale non solo per le gravi conseguenze
emotive e umanitarie che si verificano nelle famiglie colpite
da queste pesanti patologie, ma anche per il non irrilevante
impatto economico che hanno nel bilancio del servizio sanitario nazionale dal momento che molti individui affetti da
m.c. richiedono cure e supporti medici e paramedici per tutta
la vita. Malformazioni congenite si sono verificate sempre
nella storia dell’uomo, come documentato dalla mitologia
greca e dalle osservazioni di Aristotele su queste alterazioni
dello sviluppo. Molti scienziati dei secoli passati si sono occupati dell’argomento riportando casi di malformazioni reali
e anche di pura fantasia (si veda, ad esempio, il mostro di
Cracovia che si narra fosse nato nella città polacca nel 1543
con teste di cane a livello delle articolazioni del ginocchio
e del gomito e teste di scimmia alle ascelle). Solo nel 1832
venne pubblicato il primo vero trattato di Teratologia ad opera dell’anatomico francese Isidore Geoffroy de Saint Hilaire,
una mastodontica opera in tre volumi in cui l’autore descrive minuziosamente e classifica tutti i tipi di malformazioni
(vere) fino ad allora conosciute (in pratica tutte le malformazioni note anche ai giorni nostri). La grande opera del Saint
Hilaire è a tutt’oggi valida per la nomenclatura scientifica
delle principali m.c.. Ma l’interrogativo che generazioni di
scienziati si era posto era quello concernente le cause delle
malformazioni. Tra il Medio Evo e la fine del XIX secolo le
cause più accettate erano anche le più fantasiose: accoppiamento con animali o, ancor peggio per le conseguenze, con
il demonio; immaginazione, influssi degli astri ed altro (Giavini, 2004). Solo alla fine del XIX secolo, anche sulla scorta
delle nuove scoperte e tecniche nel campo dell’embriologia,
Camille Dareste affronta il problema delle m.c. da un punto
di vista sperimentale. Il modello sperimentale di cui disponeva era l’embrione di pollo in ovo, qualcosa su cui non era
19
SCIENZE BIOLOGICHE | SCIENZE E RICERCHE • N. 5 • MARZO 2015
semplice agire per ottenere alterazioni dello sviluppo. Ciononostante Dareste riuscì ad ottenere una vasta gamma di m.c.,
molte delle quali paragonabili a quelle osservate nell’uomo,
attraverso semplici ma efficaci interventi come descrive
dettagliatamente nel suo “Reserches sur la production artificielle des monstruosités” pubblicato nel 1871. Attraverso
variazioni della temperatura d’incubazione, scuotimento delle uova, invecchiamento delle uova prima di incubarle fu in
grado di ottenere una vastissima tipologia di malformazioni
dimostrando per la prima volta che fattori esogeni di tipo fisico potevano alterare gravemente lo sviluppo embrionale.
Parecchi anni più tardi F. Hale (1933) notò che maialini nati
da madri mantenute con diete carenti in vitamina A erano privi di occhi. Si apriva in questo modo la ricerca teratologica
impegnata a verificare se agenti chimici potessero interferire
con lo sviluppo normale dell’embrione di mammifero. In una
prima fase, sulla base dei risultati di Hale, si testarono su topi
e ratti diete carenti di diversi tipi di vitamine. Warkany e Nelson (1942) dimostrarono l’attività teratogena di diete carenti
in vitamina B2 nel ratto e Thiersch nel 1950 dimostrava che la
somministrazione a ratte gravide di aminopterina, un potente
antagonista dell’acido folico, determinava la morte di tutti
gli embrioni. Sulla base di questo risultato pensò di utilizzare
l’aminopterina come abortivo nelle donne. In un primo esperimento clinico dieci delle dodici donne cui fu amministrato
il farmaco abortirono, ma due di loro, dopo parto cesareo,
misero alla luce feti affetti da gravissime malformazioni.
Dunque sostanze chimiche cui era esposta la madre nei primi
mesi di gravidanza erano in grado di indurre malformazioni.
Negli anni ’50 del secolo scorso la sperimentazione di numerose sostanze chimiche su animali da laboratorio aveva reso
evidente che la teratogenesi chimica era un dato di fatto. Eppure, nonostante il grande numero di prove, questa evidenza
rimase confinata nell’ambito accademico, quasi che quegli
esperimenti fossero delle interessanti ma poco utili curiosità scientifiche prodotte da valenti ricercatori dotati di uno
scarso senso della realtà. La maggior parte degli ostetrici e
ginecologi dell’epoca non prese minimamente in considerazione questi dati. Il concetto dell’intangibilità dell’embrione
umano da parte di agenti esogeni di qualsiasi tipo, grazie alla
protezione della placenta, era dogma. Anche i ministeri della
sanità di diversi paesi non consideravano importante alcun
tipo di test su farmaci o sostanze chimiche per verificarne la
sicurezza in gravidanza. La stessa Food and Drug Administration (FDA), la potente agenzia regolativa degli USA, in
un documento del 1955 richiedeva alle industrie “appropriate toxicity tests. Recommended procedures fell into reasonably well definied categories, such as pharmacodynamics,
acute toxicity, subacute toxicity, chronic toxicity. Reproduction studies are really part of chronic toxicity experiments
and should yield information as to whether the substance in
question will affect fertility, lactation, size of litter, and mortality of the young”. Nessun riferimento a malformazioni. Il
problema principale era la fertilità e, eventualmente, la mortalità embrionale. La cosa più rilevante era che questo tipo
di test era richiesto solo per gli additivi alimentari, non per
20
i farmaci o per altre sostanze chimiche. La preoccupazione
della FDA era che gli additivi alimentari, introdotti con il
cibo presumibilmente per lunghi periodi di tempo, potessero indurre effetti indesiderati a livello delle gonadi. Eppure
altre importanti scoperte avrebbero dovuto aprire gli occhi a
chi di dovere circa la permeabilità della placenta umana. Nel
1941 un giovane oftalmologo australiano, Norman McAlistair Gregg, aveva verificato una insolitamente elevata incidenza di bambini affetti da cataratta, spesso associata ad
altre malformazioni, più frequentemente cardiache. Gregg fu
in grado di scoprire che questi bimbi erano nati da donne che
avevano contratto, durante la gravidanza, la rosolia di cui
si era avuta un’epidemia alcuni mesi prima. L’associazione
tra queste m.c. e la rosolia fu presto confermata e accettata.
Dunque un virus poteva essere causa di m.c. nell’uomo. Inoltre, fin dal 1939, si sapeva che la toxoplasmosi in gravidanza
poteva essere causa di malformazioni cerebrali.
Nel 1957 l’industria chimico-farmaceutica tedesca Grunenthal immetteva sul mercato un sedativo di mediocre attività farmacologica che risultò essere molto attivo come
antiemetico in gravidanza. Si chiamava Talidomide e fu un
successo internazionale. Il 16 settembre 1961 H. R. Wiedemann riportava su Med. Welt che un’inusuale malformazione agli arti si era riscontrata nei neonati di donne che avevano
utilizzato questo farmaco in gravidanza. Il 16 dicembre 1961
la rivista Lancet pubblicava una lettera di 15 righe inviata
dal pediatra australiano W. G. McBride che scriveva: ”negli
ultimi mesi ho notato che l’incidenza di anomalie multiple
in bambini nati da donne che hanno utilizzato talidomide in
gravidanza è molto elevata. Si tratta prevalentemente di malformazioni delle ossa. Qualcuno dei vostri lettori ha visto
simili malformazioni in figli di donne che hanno fatto uso di
questo farmaco in gravidanza?” Il 6 gennaio 1962 W. Lenz
confermava in una lettera a Lancet di aver visto 52 bimbi
affetti da malformazioni agli arti nati da donne che avevano utilizzato Contergan (Talidomide) in gravidanza e che,
dopo aver discusso della possibile correlazione Contergan
– malformazioni in una conferenza, aveva ricevuto lettere
che riportavano altri 115 casi. Si trattava prevalentemente di
malformazioni a livello degli arti che andavano, nei casi più
gravi, dalla completa assenza degli arti (amelia), all’assenza
delle porzioni intermedie con la mano articolata direttamente alla spalla (focomelia), fino a più modeste malformazioni
delle dita. L’associazione talidomide-malformazioni degli
arti era chiara, tanto più che dopo le pubblicazioni di Wiedeman, McBride e Lenz, molte altre segnalazioni arrivarono
da quasi tutto il mondo. La Grunenthal ritirò il farmaco dal
commercio. Si calcola, tuttavia, che nel breve periodo della
sua commercializzazione oltre un milione di donne gravide
nel mondo ne abbiano fatto uso e che più di 10.000 bambini siano nati con gravi malformazioni non solo agli arti
ma anche al sistema cardiovascolare e all’orecchio. Fu una
tragedia enorme che aprì gli occhi a tutti coloro che non avevano voluto credere ai risultati sperimentali: alcune sostanze
chimiche possono danneggiare seriamente l’embrione indipendentemente dalla loro tossicità sugli organismi adulti. Il
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | SCIENZE BIOLOGICHE
Talidomide era un farmaco praticamente atossico, privo di
effetti collaterali e privo (almeno quando fu commercializzato) anche di una provata attività farmacologica.
Da quel momento fu tutto un fiorire di studi sperimentali
mirati a verificare l’attività teratogena del Talidomide su diversi modelli animali. Lo si somministrò a topi, ratti, criceti, conigli, gatti, cani, diverse specie di scimmie e persino a
embrioni di pollo. Ma con risultati deludenti. Malformazioni
come quelle osservate nell’uomo furono indotte solo in conigli (usando dosi molto elevate) e in alcune specie di scimmie.
Ma anche e soprattutto le agenzie regolative di molti paesi
erano in grande fermento per trovare un modo per prevenire
quella che non era più considerata una cosa impossibile: l’induzione di m.c. nell’uomo da parte di sostanze chimiche. Si
tennero convegni, congressi, riunioni di esperti che portarono nel 1966 la FDA ad emanare le nuove linee guida per gli
studi sulla riproduzione e per la valutazione della sicurezza
per l’embrione di farmaci per uso umano. Per la prima volta
veniva stabilito per legge che prima dell’immissione in commercio di un farmaco questo doveva essere testato per i suoi
effetti sulla fertilità ma anche sullo sviluppo embriofetale
attraverso due studi ad hoc condotti su due specie animali
diverse di cui una doveva essere un roditore (consigliati ratto
o topo) ed una un non roditore (consigliato il coniglio). Ben
presto molti altri paesi adottarono le linee guida proposte
dalla FDA.
CAUSE DI MALFORMAZIONI
Gli anni che seguirono il tragico evento del Talidomide
non si limitarono a produrre un numero enorme di ricerche
sperimentali sugli effetti di sostanze chimiche somministrate
durante la gravidanza. Videro anche una svolta nella ricerca
epidemiologica sul rapporto tra m.c. e loro possibili cause,
ricerche che continuano incessantemente anche ai giorni nostri. Ciò ha permesso di individuare le principali cause di
m.c. nell’uomo. Secondo Nelson e Holmes (1989) circa il
28% delle malformazioni è di origine genetica (aberrazioni
cromosomiche o alterazioni monogeniche); il 2% è dovuto
ad infezioni materne in gravidanza (rosolia, toxoplasmosi,
citomegalovirus); l’1,5% è dovuto a malattie dismetaboliche
materne (diabete, fenilchetonuria); meno dell’1% a fattori
fisici (raggi X, ipertermia), circa il 2% ad esposizione a sostanze chimiche, inclusi i farmaci. Il problema è che circa il
65% delle m.c. nell’uomo è ancora da eziologia sconosciuta,
non si conosce, insomma, quale sia la loro causa. Per quanto riguarda le sostanze chimiche, quelle accertate per essere
causa di malformazioni nell’uomo sono elencate nella tabella riportata nella pagina.
Ma non siamo per niente certi che sia del tutto esauriente.
Il problema, dal punto di vista epidemiologico, è che, per
ottenere un risultato statisticamente significativo, è necessario che vi sia un incremento importante dell’incidenza di
una o più malformazioni in relazione alla causa considerata,
fenomeno che raramente si verifica (soprattutto se si studiano popolazioni poco numerose) a meno che si abbia a che
fare con agenti teratogeni molto potenti. Il timore è che, più
frequentemente, gli agenti teratogeni agiscano in maniera
subdola provocando un basso numero di malformazioni che
sfuggono alle ricerche epidemiologiche anche più sofisticate.
D’altra parte il numero di sostanze chimiche che si sono dimostrate in grado di produrre m.c. in una o più specie animali
da laboratorio è parecchio più alto.
PRINCIPI GENERALI DI TERATOGENESI CHIMICA
Le numerose ricerche condotte sia prima che dopo l’evento Talidomide su animali da laboratorio hanno permesso di
individuare alcuni principi generali che governano la teratogenesi indotta da sostanze chimiche, formulati per la prima
volta da Wilson nel 1973, ma ancora del tutto validi.
1. Come in altri campi della tossicologia anche nella teratogenesi vale il principio della relazione dose – effetto.
La frequenza e la gravità delle malformazioni incrementano con l’incrementare della dose utilizzata, partendo da una
dose priva di effetti per arrivare ad una dose che provoca
il 100% di effetto. Spesso le dosi alte provocano la morte
dell’embrione, probabilmente perché inducono malformazioni talmente gravi da essere incompatibili con la vita intrauterina. Questo principio è molto importante dal punto di
vista tossicologico perché sottintende che la teratogenesi è
un fenomeno a soglia e non un fenomeno stocastico; quindi,
Agente
Funzione
Effetti
Aminopterina, metotrexate
Antitumorali, antagonisti folati
Malformazioni multiple
Androgeni
Ormoni
Mascolinizzazione genitali esterni
Acido valproico
Anticonvulsivo
Spina bifida, malformazioni facciali
Carbamazepina
Anticonvulsivo
Spina bifida, malformazioni multiple
Cocaina
Sostanza ricreativa
Lesioni cerebrali e renali
Cumarina, warfarina
Anticoagulante
Ipoplasia nasale, malformazioni cerebrali, aborto
Dietilstibestrolo
Estrogeno sintetico
Alterazioni genitali esterni, neoplasie vaginali
Etanolo
Solvente, sostanza ricreativa
Malformazioni facciali, cerebrali
Fenitoina
Anticonvulsivo
Malformazioni facciali e multiple
Mercurio
Scarto industriale
Paralisi cerebrale, ritardo mentale
Piombo
Scarto industriale
Ritardo mentale
PCBs (bifenili policlorurati)
Contaminanti ambientali
Ritardo mentale, pigmentazione cute
Retinoidi
Antiacne
Sistema nervoso, orecchio, cuore, scheletro
Talidomide
Antiemetico, antitumorale
Arti, cuore, orecchio, autismo(?)
Tetracicline
Antibiotici
Pigmentazione denti
21
SCIENZE BIOLOGICHE | SCIENZE E RICERCHE • N. 5 • MARZO 2015
in esperimenti ben condotti, è possibile individuare sempre,
per una determinata sostanza, una dose al di sotto della quale
non è possibile indurre malformazioni.
2. La teratogenesi chimica è un fenomeno tipicamente specie-specifico. Non tutte le specie sono egualmente sensibili
all’effetto teratogeno di un determinato agente. Gli esempi sono numerosi: il Talidomide provoca malformazioni
nell’uomo, nel coniglio (a dosi 100 volte superiori alla dose
terapeutica) e in alcune specie di scimmie, ma non nel topo
o nel ratto; l’acido valproico provoca spina bifida nell’uomo
ma non nel ratto in cui induce malformazioni allo scheletro
assile mai osservate nell’uomo; all’opposto l’acido acetilsalicilico (aspirina) provoca malformazioni scheletriche nei roditori ma non nell’uomo. Le differenze nella risposta talvolta
non si limitano alla specie, ma si riscontrano anche a livello
di sottospecie o ceppi: il cortisone è in grado di indurre palatoschisi nei topi di ceppo C57Bl ma non nei topi di ceppo A,
a parità di dose e giorno di trattamento.
Le ragioni di queste differenti risposte non sono del tutto
chiare. Si ritiene che siano multifattoriali e legate al genotipo
materno e dell’embrione, a differenze nel metabolismo dello
xenobiotico e a differenze nella tossicocinetica in specie o
ceppi diversi. Comunque sia, questo principio pone dei seri
limiti nell’interpretazione dei risultati sperimentali ai fini
della prevenzione della m.c. da agenti chimici. E’ del tutto
evidente che il principio di precauzione farà si che una sostanza che risulti teratogena in una specie animale non venga commercializzata o, se assolutamente necessaria, venga
commercializzata adottando opportune misure di sicurezza,
diverse a seconda che si tratti di un farmaco o di una sostanza presente nell’ambiente (pesticidi, sostanze chimiche
nell’ambiente di lavoro). Nel primo caso è necessario segnalare che il farmaco non deve essere somministrato in donne
in età fertile. Nel secondo caso è possibile utilizzare i “ fattori
di sicurezza” (FS). Il FS è un valore del tutto empirico che si
utilizza per individuare una dose che, ragionevolmente, non
dovrebbe costituire un rischio per gli individui esposti: ADI
= Admissible Daily Intake. Il fattore di sicurezza si applica alla dose priva di effetti ottenuta negli esperimenti sugli
animali. As esempio, se la sostanza X ha una dose priva di
effetti di 10mg/kg, applicando un FS di 1000 si ottiene un
ADI di 10/1000 = 0,01mg/kg/giorno. Si accetta, insomma,
che una dose mille volte inferiore a quella che non produce
effetti nell’animale da esperimento possa essere sicura per
l’esposizione umana.
3. Esiste un periodo sensibile per l’induzione di specifiche
malformazioni. Prima di tutto è importante sottolineare che
gli agenti teratogeni agiscono solo in un determinato periodo
della gravidanza, il cosiddetto periodo morfogenetico/organogenetico, durante il quale si individua la struttura generale del corpo dell’embrione e si abbozzano i diversi organi e
apparati. Questo periodo ha inizio al momento dell’impianto
in utero e dura un periodo di tempo variabile a seconda delle
specie. Circa 10 giorni nei roditori, circa due mesi nell’uomo. Nell’ambito del periodo di suscettibilità, inoltre, si ottengono malformazioni diverse a seconda del momento in
22
cui l’embrione è esposto all’agente teratogeno. Le malformazioni a livello dell’arto superiore nei bambini esposti in
utero a Talidomide sono state prodotte quando il farmaco è
stato somministrato nell’arco di tempo compreso tra il 20° ed
il 30° giorno di età embrionale. Prima o dopo questo periodo la malformazione all’arto non è inducibile. Ciò spiegherebbe, in parte, la relativamente bassa frequenza di bambini
malformati (circa 10.000) a fronte del gran numero di donne
che hanno utilizzato il farmaco in gravidanza: solo quelle
che l’hanno utilizzato in quell’arco temporale hanno avuto
figli con malformazioni.
4. Esiste un quarto principio, relativo agli esiti dell’esposizione in utero ad agenti chimici che non sono soltanto malformazioni congenite, ma anche morte dell’embrione, ritardo di sviluppo e deficit funzionale di organi e sistemi( sistema nervoso, immunitario, endocrino, riproduttivo ecc.). Per
questa ragione la vecchia terminologia di teratogenesi è stata
sostituita con la più moderna e omnicomprensiva “tossicità dello sviluppo”. Con questa nuova visione del problema
dell’esposizione in utero l’attenzione non è più focalizzata
solo sul periodo organogenetico ma su tutta la gravidanza
perché se il periodo organogenetico è quello più a rischio per
le alterazioni morfologiche, tutto l’arco della gravidanza è a
rischio per alterazioni di tipo funzionale, molto gravi e invalidanti anche se non morfologicamente visibili. Per questa
ragione il termine agente teratogeno viene attribuito alle sole
sostanze chimiche in grado di indurre m.c.. Per le sostanze
che provocano altre patologie embriofetali si preferiscono i
termini “agente embriotossico o fetotossico”.
MECCANISMI DI TERATOGENESI
Nonostante lunghi anni di ricerche, un punto ancora oscuro nella produzione di m.c. è proprio relativo ai meccanismi
attraverso i quali gli agenti teratogeni inducono i loro effetti
sull’embrione. In questi ultimi anni alcuni passi avanti sono
stati fatti per chiarire questo aspetto, ma ancora molto rimane
da fare. Le ragioni dell’insuccesso nella completa comprensione dei meccanismi di teratogenesi da agenti chimici sono
almeno due: 1) prima di tutto la complessità dei meccanismi
molecolari che controllano lo sviluppo embrionale. Durante
gli ultimi anni sono stati fatti enormi progressi nella comprensione delle interazioni molecolari che controllano i diversi
aspetti dello sviluppo (proliferazione cellulare, migrazione
cellulare, differenziamento, apoptosi ecc.), ma ancora esistono molti punti oscuri che devono essere chiariti; 2) la seconda ragione è, in qualche modo, conseguenza della prima.
E’ verosimile che gli agenti teratogeni agiscano interferendo
con più meccanismi che controllano lo sviluppo embrionale.
Sulla base delle attuali conoscenze il controllo dello sviluppo
embrionale può essere, semplicisticamente, visto come un’espressione differenziale di specifici geni, in specifici siti ed
in specifici momenti dello sviluppo. Questi geni codificano
per fattori di trascrizione che attivano o reprimono l’espressione di altri geni. Il preciso coordinamento dei processi di
sviluppo richiede interazioni tra cellule e tessuti embrionali
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | SCIENZE BIOLOGICHE
attraverso segnali chimici
(induzione embrionale)
che controllano l’attività
di specifici geni. L’espressione genica, inoltre, non
è regolata solo da fattori di
trascrizione ma anche da
altre molecole, chiamate
morfogeni, capaci di diffondere lungo le strutture
embrionali e di modulare
l’espressione genica interagendo con specifici
recettori nucleari. L’attività di questi morfogeni
è strettamente correlata
alla loro concentrazione
tissutale regolata da sistemi enzimatici intraembrionali che controllano la loro precisa
concentrazione in specifici organi. Uno dei morfogeni più
conosciuti è l’acido retinoico.
Alterazioni della concentrazione di acido retinoico
L’acido retinoico (AR), metabolita della vitamina A, è il
più noto morfogeno in embrioni animali. Una stretta correlazione tra alterate concentrazioni embrionali di AR e malformazioni cardiache, facciali, del sistema nervoso, delle
vertebre e degli arti è stata ampiamente documentata. La sintesi embrionale di AR è basata sulla ossidazione del retinolo
attraverso alcool e aldeide deidrogenasi. Il suo catabolismo
è controllato da enzimi appartenenti alla famiglia Cyp26
(Cyp26A1, B1, C1). Uno sbilanciamento tra sintesi e degradazione di AR può portare ad un eccesso o ad una carenza
del morfogeno con effetti, in entrambi i casi, deleteri per lo
sviluppo. Tra le sostanze che si sono dimostrate in grado di
interferire con la sintesi di AR vi è l’etanolo, attraverso un’inibizione competitiva degli enzimi deputati alla sua sintesi.
D’altra parte, sostanze che siano in grado di interferire con
gli enzimi che degradano l’AR possono determinare un aumento, anche transitorio, della sua concentrazione. Tra queste sono stati individuati alcuni fungicidi triazolici in grado
di indurre malformazioni facciali e dello scheletro assile in
animali da laboratorio.
Iperacetilazione istonica
Il grado di acetilazione degli istoni gioca un ruolo fondamentale nel modulare la struttura della cromatina e la trascrizione genica. L’acetilazione degli istoni, a carico delle acetiltransferasi, favorisce la trascrizione, la loro deacitalazione,
operata dalle deacetilasi, la inibisce. Sostanze in grado di inibire le deacetilasi (HDACi, Histone Deacetylase inhibitors)
producono una iperacetilazione istonica con conseguente
alterata trascrizione genica. In questi ultimi anni sono state
individuate numerose sostanze con questa attività e sono state studiate con interesse come possibili antitumorali. Molte
di esse, però, possiedono anche una notevole attività terato-
gena negli animali da esperimento. Lo stesso acido valproico, farmaco antiepilettico d’elezione, si è dimostrato essere
un potente HDACi tanto da essere considerato un possibile
farmaco antineoplastico. Nei roditori induce malformazioni
specifiche a livello dello scheletro assile ed iperacetilazione
embrionale a carico dei somiti, gli organi embrionali precursori delle vertebre.
Stress ossidativo
Numerosi xenobiotici possono essere bioattivati enzimaticamente a elettrofili reattivi o a radicali liberi che possono produrre ROS (Reactive Oxigen Species). Questi, se non
detossificati da sostanze o da enzimi antiossidativi, possono danneggiare macromolecole importanti quali proteine,
RNA e DNA. In generale le cellule sono dotate di un buon
macchinario per difendersi dai ROS, che vengono continuamente prodotti fisiologicamente, costituito da enzimi quali
le superossidodismutasi e le catalasi e da molecole antiossidanti come il glutatione e le vitamine C ed E. Sfortunatamente l’attività antiossidante delle cellule embrionali è solo
pari al 5% di quella delle cellule di organismi adulti sicché
l’embrione può essere facilmente oggetto dell’effetto tossico
provocato dai ROS. La difenilidantoina incrementa i livelli
di ossidazione del glutatione e del DNA embrionali mentre
alte concentrazioni di catalasi ne inibiscono l’attività teratogena. La somministrazione di antiossidanti quali la vitamina
C o di catalasi riduce anche gli effetti teratogeni indotti da
acido valproico in animali da laboratorio. Lo stesso etanolo
può indurre stress ossidativo sia direttamente, attraverso la
formazione di radicali liberi, che indirettamente riducendo la
capacità antiossidante delle cellule (ad esempio riducendo i
livelli di glutatione). Esperimenti sia in vitro sia in vivo hanno dimostrato che alte concentrazioni di antiossidanti riducono significativamente la tossicità cellulare indotta da etanolo.
Alterata sintesi di colesterolo
La sintesi intracellulare del colesterolo inizia dall’acetato e prosegue in una lunga serie di passaggi controllati da
23
SCIENZE BIOLOGICHE | SCIENZE E RICERCHE • N. 5 • MARZO 2015
specifici enzimi. Il knockout di alcuni di questi enzimi nel
topo provoca la morte dell’embrione, dimostrando il ruolo
fondamentale di questa molecola nello sviluppo embrionale. Nell’uomo esiste una sindrome nota come Smith-LemlyOptiz syndrome (SLOS) caratterizzata ad malformazioni
facciali, palatoschisi, microcefalia, sindattilia e, nelle forme
più gravi, ciclopia. Questa sindrome è dovuta ad una mutazione del gene DHCR7 che codifica per la 7-deidrocolesterolreduttasi, un enzima chiave per la sintesi del colesterolo.
Topi ko per Dhcr7 presentano palatoschisi e dismorfie facciali. La somministrazione di AY9944, un inibitore sintetico
della 7-deidrocolesterolreduttasi, in ratte gravide provoca
una riduzione drastica dei livelli di colesterolo plasmatico
e malformazioni facciali nei feti compatibili con la ciclopia.
La somministrazione di colesterolo è in grado di prevenire le
malformazioni indotte da questo inibitore. L’Antley-Bixler
syndrome (ABS) è caratterizzata nell’uomo da brachicefalia,
ipoplasia facciale, malformazioni cardiache e renali, curvatura anomala delle ossa lunghe. E’ associata ad alterazione
del metabolismo degli steroli legata al malfunzionamento
dell’enzima Cyp51, un altro enzima sulla via della sintesi
del colesterolo. Embrioni di topo ko per il gene che codifica per questo enzima muoiono in utero al 15° giorno di
gestazione, ma se vengono esaminati morfologicamente si
può osservare che presentano gravi malformazioni cardiache
(probabilmente responsabili della morte), ipoplasia facciale, malformazioni agli arti. L’attività dei fungicidi azolici
(triazoli e imidazoli) si basa proprio sull’inibizione selettiva
di Cyp51 al fine di alterare la sintesi della parete cellulare
fungina. Il Fluconazolo ed altri fungicidi azolici impiegati in
terapia umana ed in agricoltura si sono dimostrati teratogeni
nei roditori provocando malformazioni facciali ed allo scheletro assile. Sono stati, inoltre, riportati alcuni case reports
di bambini esposti in utero ad alte dosi di Fluconazolo che
presentavano alla nascita malformazioni simili a quelle della
ABS.
Alterata espressione genica
Come esposto prima, lo sviluppo embrionale è coordinato da uno stretto controllo genico, quindi alterazioni dell’espressione genica possono provocare alterazioni dello sviluppo.
Negli ultimi anni molte ricerche sono state fatte al fine di
individuare quali geni vengono modificati nella loro espressione a causa di esposizione dell’embrione a xenobiotici.
Mediante la tecnica del microarray si è potuto costatare
come uno xenobiotico sia in grado di provocare un grande
turbamento nella genomica e proteomica embrionale sia per
un effetto diretto dello xenobiotico sul DNA (raramente)
sia attraverso altri meccanismi (ROS, iperacetilazione ecc.).
In genere l’esposizione ad un singolo xenobiotico modifica l’espressione di decine di geni per molti dei quali non è
neppure nota la funzione, per altri la funzione sembra non
essere congrua con l’effetto teratogeno indotto, ma talvolta si
individuano geni la cui alterata espressione può spiegare l’effetto teratogeno osservato. In realtà, nonostante i numerosi
24
studi condotti, non è ancora stato possibile individuare con
sicurezza quali geni siano responsabili degli effetti teratogeni indotti da un particolare agente.
CONCLUSIONI
La teratologia sperimentale, o tossicologia dello sviluppo
che dir si voglia, costituisce a tutt’oggi il mezzo più valido
per l’individuazione di sostanze chimiche con potenziale teratogeno e, quindi, per prevenire tali effetti sull’uomo. Non
è da sottovalutare che, dopo la tragedia del Talidomide, altri episodi del genere non si sono più verificati. Le sostanze
teratogene per l’uomo sono sostanze la cui potenzialità di
indurre malformazioni era nota, ma che sono state comunque permesse in base al rapporto rischio/beneficio. Molti
farmaci teratogeni sul mercato non sono sostituibili (vedi
antiepilettici, antitumorali, anticoagulanti). Viceversa, l’etanolo, che costituisce il più importante agente embriotossico per la specie umana, responsabile della maggior parte
degli eventi tossici sull’embrione e sul feto, è una sostanza
a prevalente uso ricreativo con rilevanti effetti tossici non
solo sul prodotto del concepimento, ma anche sull’adulto
con noti effetti neurotossici, epatotossici e cancerogeni: ciononostante è di libera vendita. L’intensa attività di ricerca
nel settore condotta sia dall’industria chimico- farmaceutica
che dall’accademia ha, dunque, validamente contribuito alla
prevenzione delle m.c. nell’uomo, anche a scapito di qualche
prodotto non immesso sul mercato a scopo precauzionale.
Ma è estremamente importante non abbassare la guardia. Al
contrario, sarebbe opportuno incentivare le ricerche di base
sulla teratologia sperimentale allo scopo di individuare dei
marcatori biologici di teratogenicità che, se utilizzati in test
alternativi in vitro, permetterebbero una notevole riduzione
dei costi della sperimentazione teratologica in vivo.
BIBLIOGRAFIA ESSENZIALE
Giavini E. Figli di Satana. Mostri umani tra realtà e leggenda. Costa & Nolan, Milano, 2004.
Giavini E., Menegola E. Biomarkers of teratogenesis: suggestions from animal studies. Reprod. Toxicol., 34: 180-185,
2012.
Nelson K., Holmes L.B. Malformations due to presumed
spontaneous mutations in newborn infants. N. Eng. J. Med.,
320: 19-23, 1989.
Schaefer C., Peters P., Miller R. K. Drugs during pregnancy and lactation. Academic Press, NY, 2015.
Stephens T., Brynner R. Dark remedy: the impact of thalidomide and its survival as a vital medicine. Basic Books,
NY, 2009.
Wilson J. G. Environment and birth defects. Academic
Press, NY, 1973.
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | MEDICINA
Neuroscienze applicate e terapia
integrata del disagio psichico. Nuove
frontiere per la comprensione e la cura
della mente
TULLIO SCRIMALI
Professore Aggregato di Psicologia Clinica, Università degli Studi di Catania
H
INTRODUZIONE
o avuto la fortuna, nel corso della mia
carriera scientifica ed accademica, ma
anche della mia storia personale, (sono
nato all’inizio degli Anni Cinquanta) di
assistere e, in una piccola misura, di partecipare in prima persona, come psichiatra, psicoterapeuta e
neuroscienziato clinico, ad una vera e propria rivoluzione,
iniziata tra la fine del secondo e l’inizio del terzo millennio e
tuttora in pieno e tumultuoso svolgimento.
Quando, ancora studente, nel corso degli anni Settanta,
frequentavo la Facoltà di Medicina della Università di Catania, deciso a diventare Psichiatra e Psicoterapeuta, cominciai
a patire un certo disagio per il fatto che tutte le Psicoterapie,
allora in voga, da quelle di orientamento psicodinamico a
quelle comportamentali e cognitive, ma anche quelle sistemiche e relazionali, ponessero il cervello “tra parentesi” e
non se ne occupassero affatto, talvolta per espresso statuto
epistemologico.
Mi chiedevo come si potesse pensare di comprendere e
curare la mente, se si sapeva così poco del funzionamento
dell’organo, il cervello, che la produce e supporta, come un
processo emergente, fatto, non di materia, ma di informazione.
Decisi pertanto di abbracciare l’orientamento cognitivo,
che, in Psicoterapia, mi sembrava quello più interessato alle
evidenze sperimentali ed al laboratorio e di intraprendere lo
studio della Neuroscienze applicate. Iniziai allora a coltivare una nuova disciplina, la Psicofisiologia che, nella metà
degli Anni Settanta, stava creando un nuovo paradigma in
Psicologia Clinica ed in Psichiatria, grazie alla applicazione
di inedite metodologie strumentali. Tali nuove metodologie
consentivano di monitorare parametri biologici connessi al
funzionamento del sistema nervoso, centrale e periferico, e,
soprattutto, di fare apprendere, al paziente stesso, dinamiche
di autocontrollo ed autoregolazione, tramite una nuova me-
todologia, sperimentale e clinica, denominata biofeedback
(Scrimali e Grimaldi, 1982).
Così, la mia tesi sperimentale di laurea, a cui lavorai per
due anni, in un laboratorio artigianale che avevo allestito
presso la Clinica Psichiatrica della Università di Catania, fu
basata su Psicofisiologia applicata e Biofeedback, allora considerate ancora topiche quasi esoteriche.
Le mie ricerche, dunque, furono piuttosto avversate dall’establishment Accademico di Psichiatria, che allora si divideva prevalentemente in due grandi correnti, quella abituata ad
usare psicofarmaci e metodi biologici, in maniera acritica e
massiccia e spesso contentiva (si pensi alla sedazione pesante, indotta da neurolettici ad alte dosi o all’uso indiscriminato
dell’elettroshock) e quella, ben felice e del tutto soddisfatta,
di parlare ancora di Edipo, Thanatos ed Eros senza riferimento alcuno ai processi del cervello umano. Oggi, invece,
lo sviluppo della teoria dell’attaccamento e quella dei sistemi
motivazionali interpersonali, ben documentate anche da studi di visualizzazione cerebrale e di Psicofisiologia applicata,
ha permesso di comprendere la reale dinamica del rapporto
che lega il bimbo ai genitori e cioè l’attaccamento e non certo l’eros, per la madre ed il desiderio di morte (thanatos) per
il padre (Siegel, 2013) ! Edipo c’entra poco, infatti, nel bond
che lega i figli piccoli ai genitori e, comunque, Freud aveva
stravolto il senso del mito, visto che Edipo è piuttosto protagonista di una dramma epistemico e non certo erotico, il cui
reale pathos è basato sulla mancanza di consapevolezza e sul
discontrollo emozionale e relazionale. Uccide, infatti, senza
saperlo, il padre Laio (ed altre persone innocenti) solo perché
non sa gestire la propria ira ed una eccessiva aggressività,
durante una rissa di strada. Questi, d’altra parte, era, a sua
volta, un empio che aveva deciso di esporre il figlio per farlo
morire sul monte Citerone, spinto dalla paura superstiziosa
di una oscura profezia.
Edipo effettivamente sposò la madre Giocasta ma non certamente spinto dall’eros, semmai dal desiderio di potenza, in
quanto quel matrimonio lo portava a divenire re di Tebe, città
25
MEDICINA | SCIENZE E RICERCHE • N. 5 • MARZO 2015
della quale Giocasta era la regina.
Si acceca in fine, comprendendo i tragici errori compiuti e
l’orrore della sua condizione ma si presenta a Colono dopo
una piena riscrittura narrativa della sua vicenda biografica
che lo consegna alla fine di vita più consapevole e maturo.
Penso, dunque, che Freud non abbia letto attentamente Edipo Re e, soprattutto Edipo a Colono, dittico inscindibile del
grandissimo Sofocle che io invece ho tradotto dal greco antico sui banchi del liceo e goduto tante volte nello spettacolare
teatro greco di Siracusa! Ma, si capisce, vivere nella Magna
Grecia e percorrere ad Ortigia, le strade
calcate da Platone, riserva alcuni indubbi
vantaggi!
Grazie agli studi di specializzazione,
svolti a Milano, ed alla cruciale esperienza presso il laboratorio di Psicofisiologia
clinica, che in quella Università era stato
allestito, potei incamminarmi, tra la fine
degli anni Settanta e l’inizio degli Ottanta,
sulla strada delle Neuroscienze applicate
in Psichiatria e Psicoterapia. Il percorso
di studi, ricerche ed applicazioni cliniche,
attuato poi presso la Clinica Psichiatrica
della Università di Catania, dove lavoro
tuttora, dopo oltre trenta anni di intensa
attività, mi hanno consentito di sviluppare una nuovo approccio allo studio della
mente umana ed al trattamento del disagio psichico che ho
definito Neoroscience-Based Cognitive Therapy (Scrimali,
2010, 2012).
(Berger, 1929).
Le tecniche di visualizzazione funzionale della attività cerebrale, quale la fMRI, hanno poi consentito una svolta definitiva a partire dagli Anni Ottanta (Bertolino, Di Giorgio,
2006).
Nel 1991 ho pubblicato, con Liria Grimaldi, un libro
(Neuroscience-Based Cognitive Therapy. New Methods for
Assessment, Treatment and Self-Regulation) che costituisce
una pietra miliare del mio percorso verso lo sviluppo di una
Psicofisiologia cognitiva e complessa che
si allontanava dall’alveo riduzionista della
Psichiatria biologica per avvicinarsi alla
Psicologia ed alla Psicoterapia Cognitive,
secondo un approccio non riduzionista,
ma dinamico e complesso (Scrimali, Grimaldi, 1991).
In quel libro si ponevano le basi di una
Neuroscienza applicata in Psichiatria e
Psicoterapia. Le metodiche, individuate e
sviluppate quali la Elettroencefalografica
e lo studio della Attività elettrodermica,
entrambe studiate mediante metodologie
digitali e informatiche, erano però ancora
applicate soprattutto in ambio di ricerca,
non consentendo agevolmente la loro trasposizione in ambito clinico. Un salto di
qualità importante ho potuto realizzarlo grazie allo sviluppo
di una nuova branca clinica delle Neuroscienze che ho denominato Neuroscience-Based Cognitive Therapy (Scrimali,
2010, 2012).
BACKGROUND EPISTEMOLOGICO
NEUROSCIENCE-BASED COGNITIVE THERAPY
I grandi padri della psicoterapia moderna, Freud and Jung,
avevano tentato di basare le loro concettualizzazioni ed applicazioni cliniche sulla conoscenza del cervello. Entrambi
condussero infatti studi in questa direzione, Freud più teorici
e concettuali (Nortoff, 2012 ), Jung più clinici ed applicativi
(Jung, 1906). Quest’ultimo Autore fu anzi il primo psicoterapeuta ad introdurre, nel setting del lavoro clinico, con i suoi
pazienti, una vera e propria strumentazione di Psicologia clinica costituita da un ancora rudimentale psicogalvanometro.
Se Freud e Jung decisero poi di sviluppare le loro teorie,
intuitive e geniali, ma niente affatto corroborate da dati relativi alla dinamica funzionale cerebrale, fu solo per l’immaturità della conoscenze sul cervello e delle modalità di studio
dello stesso disponibili tra la fine dell’Ottocento e la prima
parte del Novecento.
Fu infatti l’avvento delle tecnologie elettroniche, quali il
monitoraggio clinico della attività elettroencefalografica,
sviluppata d Berger, a partire dalla fine degli anni Venti del
ventesimo secolo, a fornire finalmente metodiche affidabili, in grado di cominciare a documentare oggettivamente le
attività del cervello. Si pensi al grande balzo in avanti che
la elettroencefalografia consentì di effettuare nella comprensione dei processi relativi alla veglia, al sonno ed al sogno
26
Le metodologie di indagine più tipiche delle neuroscienze
contemporanee sono costituite da tutte quelle tecniche che
rendono possibile uno studio morfologico e, soprattutto, funzionale, accurato, oggettivo e replicabile del sistema nervoso, centrale, periferico e viscerale.
Tra le tecniche di visualizzazione cerebrale, quelle relative al monitoraggio dell’attività elettroencefalografica,
la Elettroencefalografia Digitale Quantitativa (QEEG) e
lo studio digitale dell’attività elettrodermica (QEDA) sono
oggi le facilmente utilizzabili, abbastanza agevolmente, nel
setting clinico (Scrimali, 2012).
Una vera e propria rivoluzione, nell’ambito delle tecniche
di imaging cerebrale, si è registrata con lo sviluppo di
nuove metodologie, in grado, non solo di individuare alterazioni strutturali, nella massa cerebrale, ma, addirittura,
di visualizzare, in tempo reale, le modificazioni biochimiche
che si verificano nelle varie aree cerebrali, quando queste
vengono sollecitate a operare.
Si può dire che, con la messa a punto di tali metodologie, si è finalmente concretizzato l’antico sogno dell’uomo
di poter disporre di uno strumento di osservazione diretta
dell’attività cerebrale, nell’individuo vivente.
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | MEDICINA
Le principali tecniche di
imaging cerebrale funzionale sono la tomografia ad
emissione di un singolo
positrone (Single Positron
Emission
Tomography,
SPECT), la tomografia
ad emissione di positroni
(Positron Emission Tomography, PET) e la risonanza magnetica funzionale
(Functional Magnetic Risonance, fMRI), (Bertolino
e Di Giorgio, 2006).
La prime due metodologie rendono possibile
visualizzare l’attivazione
funzionale cerebrale attraverso l’evidenziazione
del flusso ematico. La
PET, in particolare, consente lo studio dinamico del
metabolismo cerebrale, sia
grazie alla visualizzazione
del flusso ematico regionale, che del consumo locale
di glucosio. Oltre a ciò è
possibile l’analisi funzionale dei vari sistemi cerebrali che utilizzano diversi
neurotrasmettitori.
La tecnica che, a partire
dagli anni Novanta, ha fatto
segnare una vera e propria
impennata degli studi di
visualizzazione dinamica
funzionale del sistema nervoso centrale, è la risonanza magnetica funzionale
(fMRI).
In particolare, una specifica metodica di fMRI utilizza il
sangue come mezzo di contrasto naturale, basandosi sul fatto
che l’emoglobina è diamagnetica mentre l’ossiemoglobina
è paramagnetica. Nelle aree cerebrali, attivate funzionalmente, si verifica un aumento del consumo di ossigeno e
di flusso ematico ossigenato, con conseguente maggiore presenza di emoglobina ossigenata e un decremento di deossiemoglobina. In tal modo la fMRI consente di visualizzare
le aree cerebrali attivate, senza la necessità di somministrare
alcun mezzo di contrasto. La metodica appare dunque
estremamente maneggevole, a parte la necessità di dover
inserire il paziente all’interno del tunnel della strumentazione.
Le tecniche di visualizzazione morfologica e funzionale
del sistema nervoso centrale restano, per ora, tuttavia, confinate al laboratorio, anche se un recente sviluppo sembra
poterne consentire una possibile prossima applicazione
proprio in ambito clinico.
Infatti, è stato da poco sviluppato negli Stati Uniti, un nuovo sistema di analisi funzionale, limitata al lobo frontale,
che può applicarsi, non più inserendo il paziente, disteso, in
un tunnel, ma solo applicando alcuni piccoli dispositivi sulla
fronte (Biopac, 2009). Il sistema è anche in grado di attivare,
mediante uno schermo, posto dinanzi al paziente, funzioni
cognitive ed esecutive tipiche dei lobi frontali e di registrare
i correlati funzionali interni di pattern di attività nervose, sia
in condizioni normali, che patologiche, il tutto in un setting
quasi clinico con il paziente comodamente seduto e pochissimo disturbato dalla sola presenza di piccoli dispositivi fissati sulla fronte. Il costo del sistema, di circa 30.000 euro,
è piuttosto accessibile e lo rende, almeno sulla carta, uno
strumento in grado di promuovere lo sviluppo delle ricerche
di Psicologia clinica, fondate sull’analisi e la modificazione
27
MEDICINA | SCIENZE E RICERCHE • N. 5 • MARZO 2015
funzionali dei lobi frontali.
Questa nuova tecnologia è stata denominata Functional
Optical Brain Imaging e viene individuata dall’acronimo
fNIR. Essa si basa, come la risonanza magnetica funzionale,
sulla possibilità di analizzare in tempo reale le modificazioni
metaboliche, relative all’attività dei neuroni, quantificando i
livelli regionali di ossiemoglobina e di deossiemoglobina.
L’analisi non viene effettuata con una metodologia riferibile
al comportamento magnetico delle molecole di emoglobina ma grazie all’applicazione di tecniche spettroscopiche.
Questa nuova e rivoluzionaria metodologia non richiede
l’inserimento del paziente in un tunnel e consente di utilizzare solo una cuffia nella quale sono allocati 16 sensori.
Scopo specifico di Neuroscience-Based Cognitive Therapy
è quello di consentire, ad ogni clinico, di acquisire (per il
basso costo) e di utilizzare agevolmente (grazie alla semplicità di impiego) strumentazioni per Psicofisiologia applica e
per Biofeedback, nel setting clinico, con i pazienti, come si
vede nella figura che rappresenta uno dei setting clinici che
ho sviluppato.
Lo scopo applicativo di Neuroscience-Based Cognitive
Therapy è stato raggiunto anche grazie allo sviluppi di originali sistemi integrati di hardware e software che ho denominato MindLAB Set, NeuroLab Set e CardioLAB Set (Scrimali, 2012).
Negli ultimi anni ho potuto disseminare la NeuroscienceBased Cognitive Therapy, in molti Paesi di quattro Continenti.
L’ambito di applicazione più complesso ed integrato del
nuovo modello Neuroscience-Based Cognitive Therapy in
Psichiatria, Psicoterapia e Riabilitazione, può essere individuato nel mio lavoro sulla schizofrenia per la quale ho sviluppato un nuovo modello denominato Entropia della Mente
ed un inedito protocollo terapeutico e riabilitativo, a cui ho
attribuito il nome di Entropia Negativa (Scrimali, 2008).
ENTROPIA DELLA MENTE ED ENTROPIA NEGATIVA
La schizofrenia costituisce tuttora il problema centrale della Psichiatria, sia per quanto concerne l’aspetto psicopatologico e clinico, che terapeutico e riabilitativo. Se si considera,
infatti, che la prevalenza, life time, di tale affezione si aggira
intorno all’uno per cento della popolazione, senza sostanziali
differenze, nelle varie regioni del pianeta, si realizza facilmente che tale drammatica condizione affligge oggi milioni
di persone.
Tenendo conto del carico di sofferenze, che questa patologia comporta, per i familiari, e degli enormi costi sociali
che essa provoca, si comprende chiaramente come la terapia
della schizofrenia costituisca una delle più importanti sfide
in Psichiatria e Psicoterapia.
A fronte di tale drammatica e complessa realtà, si è costretti ad ammettere una persistente arretratezza delle conoscenze scientifiche sulla dinamica della malattia e, soprattutto, la
carenza di un approccio terapeutico, sistematizzato e soddi28
sfacente.
Negli anni recenti, tuttavia, alcuni Autori della Psicoterapia Cognitiva hanno cominciato a proporre protocolli terapeutici e riabilitativi la cui efficacia ed efficienza appaiono
dimostrate da convincenti evidenze sperimentali.
Ancora in ombra resta comunque la dinamica eziologica
e psicopatologica di questa condizione della mente umana
che homo sapiens non condivide con nessuna altra creatura
della Terra.
Nella monografia, che ho pubblicato in Italia e, successivamente, in Inghilterra, in Inglese (Scrimali, 2006 e 2008)
ho descritto una nuova prospettiva, sviluppata nel corso di
numerosi anni di studi e ricerche, svolti presso la Clinica Psichiatrica della Università di Catania e l’Istituto Superiore per
le Scienze Cognitive e già ampiamente discussa ed apprezzata in ambito internazionale, in America, Europa, Africa ed
Asia.
Tale prospettiva, costruttivista e informata alla logica
dei sistemi complessi, si basa sui più recenti sviluppi delle
Scienze contemporanee quali psicofisiologia, informatica,
cibernetica, teoria dei sistemi complessi ed etologia, sia animale, che umana.
Dopo aver delineato una nuova teoria sistemica del cervello e processuale della mente, fondata sulle concezioni del
cervello modulare e della mente coalizionale, ho sviluppato una concettualizzazione multifattoriale della dinamica
eziologica e un punto di vista complesso ed evolutivo della
condizione psicotica, definita Entropia della Mente o Frenentropia.
Successivamente, ho sviluppato un innovativo protocollo
integrato, per la terapia e la riabilitazione del paziente, afflitto da schizofrenia, chiamato Entropia Negativa.
Entropia della Mente ed Entropia Negativa costituiscono
nuove e promettenti prospettive per la comprensione della
condizione schizofrenica e per il suo trattamento basate appunto sulle Neuroscienze contemporanee. Grazie al protocollo Entropia Negativa, molti pazienti hanno conseguito,
negli ultimi anni la guarigione clinica dalla malattia.
Un’altra area clinica nel quale ho ampiamente sperimentato le tecniche della Neuroscience-Based Cognitive Therapy è
quella delle dipendenze, specie per quel che riguarda la comprensione e la gestione dei processi biologici connessi al craving della sostanza o del comportamento (Scrimali, 2011).
Per finire, l’adozione di tecniche di Neuroscienze applicate
mi ha consentito anche di rivoluzionare la diagnostica, passando da una visione meramente categoriale della diagnosi
and una più compiutamente processuale nell’ambito della
quale i processi disfunzionali della mente sono valutati mediante tecniche di Psicofisiologia applicata e strumentazioni
di QEEG e QEDA (Scrimali, 2007).
CONCLUSIONI
Come ho cercato di dimostrare, molto sinteticamente, in
queste pagine, la possibilità di una applicazione quasi routinaria delle metodiche e delle conoscenze provenienti dal-
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | MEDICINA
le neuroscienze, in
ambito clinico, per
la migliore comprensione del disagio psichico e per
la implementazione
di terapia integrate evidence-based,
sembra a portata di
mano.
Sono
presenti
tuttavia, sul campo,
alcune criticità. La
più importante è
individuabile nelle
resistenze, opposte
da molti Psicologi e Psichiatri, alla
adozione di nuovi
strumenti euristici
brain-based e di in
nuove metodologie
neuroscience-based
da applicare in ambito clinico per la
valutazione ed il trattamento del paziente quali Psicofisiologia applicata e Biofeedback.
Neuroscience-Based Cognitive Therapy, basata sulla epistemologia della complessità e sulla teoria dei sistemi dinamici non lineari, si deve confrontare oggi con il riduzionismo
biologista sta che sta alla base della Psichiatria biologica,
basata solo sul controllo dei sintomi e l’abuso di prescrizioni di psicofarmaci. Dall’altra parte, un diverso ostacolo, in
ambito di Psicoterapia, sono gli atteggiamenti dei Colleghi
Psicoterapeuti che mai vorrebbero accogliere l’innovazione
tecnologica nella sacralità dei loro setting, sviluppati oltre
cento cinquanta anni fa ma ancora attuati pedissequamente.
Il confronto è tutt’ora in pieno svolgimento ed il successo della mia Neuroscience–Based Cognitive Therapy è attualmente molto più elevato in Asia (Cina, Taiwan, Corea e
Giappone) dove la Psicoterapia non è appesantita dall’obsoleto e dogmatico patrimonio psicoanalitico e dove la tecnologia è vissuta come una importante risorsa, e non come un
inutile fardello.
Credo, comunque, che il trend sia irrimediabilmente orientato verso una ineludibile integrazione delle Neuroscienze in
ogni articolazione del setting clinico per il trattamento del
disagio psichico, come, appunto, ho cercato di dimostrare
con questo articolo!
BIBLIOGRAFIA
Berger H (1929). Ubes dal Elektrenkephalogramm des
Menschen. Archiv. Fur Psychiatric und Nervekrankneiten,
27, 527-570.
Biopac (2009). www.biopac.com
Jung K.G. (1906). Studies in Words Analysis. The Journal
of Abnormal Psychology, Vol.1, June.
Nortoff G. (2012). Psychoanalysis and the Brain – Why
Did Freud Abandon Neuroscience? Frontiers in Psychology,
Apr. 2.
Scrimali T. (2006). Entropia della Mente ed Entropia Negativa. Nuove prospettive, cognitiviste e complesse, per la
schizofrenia e la sua terapia. Franco Angeli, Milano.
Scrimali T. (2008). Entropy of Mind and Negative Entropy. A new cognitive and complex approach to schizophrenia
and its therapy. Karnac Books, London.
Scrimali T. (2010). Neuroscienze e psicologia clinica. Dal
laboratorio di ricerca al setting con i pazienti. Franco Angeli,
Milano.
Scrimali T. (2012). Neuroscience-Based Cognitive Therapy. New Methods for Assessment, Treatment and Self-Regulation. Wiley, Chichester.
Scrimali T. (2011). Il Vincolo della Dipendenza. Un modello cognitivista e complesso per le dipendenze patologiche
ed il loro trattamento. Franco Angeli, Milano.
Scrimali T., Grimaldi L. (1982). Il Biofeedback della Attività Elettrodermica. Franco Angeli, Milano, 1982.
Scrimali T., Grimaldi L. (1991). Sulle Tracce della Mente.
Un approccio costruttivista e complesso in Psicofisiologia.
Franco Angeli, Milano.
Scrimali T., Alaimo, S.M., Grasso F. (2007). Dal Sintomi
ai Processi. L’orientamento cognitivista complesso in Psicodiagnostica. Franco Angeli, Milano.
Siegel, D. (2013). La Mente Relazionale. Neurobiologia
dell’esperienza interpersonale. Raffaello Cortina Editore,
Milano.
29
MEDICINA | SCIENZE E RICERCHE • N. 5 • MARZO 2015
I fattori di crescita del maxillo facciale
BARTOLOMEO VALENTINO
Morfopsicologo
L
a domanda a cui vogliamo rispondere nel
presente articolo è la seguente: come è possibile che la faccia di un uomo sia diversa
da tutti i miliardi di visi presenti sulla terra?
Nemmeno a livello di gemelli si riscontra
una identità totale, ma solo similitudine (in relazione al tipo
di gemelli). Eppure, come vedremo, i meccanismi alla base
dello sviluppo di un viso sono gli stessi in tutti gli uomini,
prescindendo dalla razza, colore, ceto sociale, ecc. Mi piace
citare a questo proposito un versetto, il 31 del canto XXIII
del Purgatorio di Dante, quello dei golosi, quando Dante incontra Forese Donati, parente della moglie e suo compagno
di dissipazioni in gioventù (oggi diremmo compagni di merenda), in cui si esprime così: “Chi nel viso delli uomini legge ‘omo’ ben avria quivi conosciuta l’emme”. Quella lettera
M vista da Dante sul volto di Forese sarà stata specifica per
quel goloso, dunque non sovrapponibile alle altre M degli
1
ospiti di quel girone.
Tanto premesso, lo scopo della Morfopsicologia è proprio
quello di cogliere le diversità morfologiche di un volto e correlare tali differenze con gli aspetti specifici di una personalità.
A. CENNI DI EMBRIOLOGIA DEL MASSICCIO
FACCIALE
La regione Maxillo-facciale è una delle regioni fondamentali, sia per la vita vegetativa, sia per quella di relazione; essa
svolge, infatti, un ruolo importante non solo nell’alimentazione e nella respirazione, ma anche nell’inserimento sociale
1 Secondo una antica tradizione nel volto umano si poteva leggere la parola OMO. Le tre gambe della M sarebbero le seguenti. Le due gambe laterali corrisponderebbero agli zigomi ed arcate sopracciliari. Il naso sarebbe
la terza gamba centrale. Gli occhi situati tra le gambe sarebbero le due O
della parola OMO. Dante si riferisce alla M di questa parola OMO, molto
evidente nei golosi per la loro magrezza eccessiva
30
individuale mediante la mimica e il linguaggio. Dal punto di
vista schematico, il cranio raggruppa due regioni differenti:
Neurocranio e Splancnocranio.
Per Neurocranio si intende la scatola cranica che racchiude
e protegge la massa encefalica e le meningi. Lo Splancnocranio comprende le ossa che sono il supporto della masticazione, deglutizione, respirazione, fonazione. Lo splancnocranio
è costituito da due regioni: un sistema naso-fronto-mascellare, il cui sviluppo è legato a quello dell’etmoide, e un sistema
masticatorio che fa intervenire la mandibola.
Esistono interazioni non solo tra questi due sistemi, ma
anche tra lo splancnocranio e il neurocranio, attraverso il palato, modellato dall’azione della lingua. L’embriologia del
sistema Maxillo-facciale, coinvolge due elementi distinti: gli
archi branchiali e gli abbozzi facciali. Gli archi branchiali
in numero di sei, sono delle sporgenze superficiali laterali
dell’embrione ben visibili a partire dalla quinta settimana.
Ogni arco branchiale è costituito da un asse di tessuto Mesodermico (uno dei tre foglietti embrionali da cui derivano
i nostri organi) ricoperto esternamente da uno strato Ectodermico e internamente da epitelio di origine Endodermica.
Essi costituiscono, pertanto, delle unità funzionali complete,
comprendenti uno scheletro cartilagineo, che darà luogo alla
mandibola, un elemento muscolare (muscoli masticatori)
un’arteria, e un nervo.
B. FATTORI DI CRESCITA DEL MASSICCIO FACCIALE
Possono essere divisi in 3 ordini: intrinseci, estrinseci, funzionali. I fattori intrinseci sono soprattutto genetici
ed endocrini. I fattori genetici si esercitano sotto forma di
controllo sulla moltiplicazione degli elementi cellulari e
sull’organizzazione delle strutture cartilaginee e dei nuclei
di ossificazione. Tra i fattori endocrini ricordiamo l’ormone
Somatotropo, mentre gli ormoni tiroidei e sessuali, maschili
o femminili, hanno la tendenza a svolgere un ruolo moderatore sull’accrescimento. Tra i fattori estrinseci ricordiamo
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | MEDICINA
l’alimentazione, la nutrizione,
fattori socio-economici (le classi sociali più favorite avrebbero
un accrescimento più lento e regolare delle altre), fattori affettivi (relazione madre-bambino) le
cui conseguenze si fanno sentire
sia a livello della qualità della
condotta alimentare, sia a livello dello sviluppo intellettuale o
psichico. Si discute l’esistenza
di un sistema psico-neuro-endocrino, la cui alterazione avrebbe
un effetto sull’accrescimento.
Tra i fattori funzionali ricordiamo quelli di ordine muscolare
e fattori sensoriali, grazie alla
costituzione equilibrata di uno
schema corporeo che, partendo
dal contatto bilabiale, fornirà
un informazione che, dopo aver
percorso un circuito cerebrale, si ripercuoterà sul sistema
Maxillo-facciale attraverso i muscoli del sistema. Infine si
ricorda la Ipervascolarizzazione anomala, presente nella
maggior parte delle strutture giovani, e che costituisce un
fattore di Ipertrofia dello scheletro e delle parti molli grazie
all’Ipernutrizione.
C. MODALITÀ DI CRESCITA DELLE OSSA DEL
CRANIO
I fenomeni di base, correlati tra di loro per la crescita
del cranio, sono: Rimodellamento e Riposizionamento. La
crescita è in rapporto alla combinazione di fenomeni differenziati di apposizione di nuovo osso e di riassorbimento
di esso. Tali fenomeni si verificano a livello del Periostio
e dell’Endostio. Un osso, crescendo, occuperà necessariamente spazi diversi nel cranio, e deve quindi rimodellarsi,
altrimenti non può rimanere collocato in quegli stessi spazi.
Tale meccanismo è particolarmente complesso nel massiccio
facciale, in quanto le ossa sono a strettissimo contatto tra di
loro, influenzandosi a vicenda nel loro sviluppo. Ma un osso
che gioca il ruolo centrale in tale sviluppo è l’Etmoide (Osso
crivellato). Ciò è dettato dalla sua morfologia e dalla partecipazione a strutture importanti del cranio stesso. Infatti,
con la sua lamina Cribrosa (in quanto presenta tanti forellini)
costituisce il tetto delle cavità nasali, dalla cui parte profonda e alta partono i filuzzi olfattivi, ossia i Cilindrassi delle
cellule sensoriali olfattive. Questi, attraversata la lamina Cribrosa, e giunti nella fossa cranica anteriore, andranno a formare il nervo olfattivo. Con la sua Lamina Papiracea, l’Etmoide contribuisce a formare la parete mediale delle cavità
orbitarie, mentre la sua lamina perpendicolare, partecipa alla
formazione del setto nasale osseo, insieme al Vomere e allo
Sfenoide. Le masse laterali dell’etmoide, infine, formano i
cornetti superiori e medi delle pareti laterali del naso, contri-
buendo alla morfologia diversa
del naso stesso.
D. I SENI PARANASALI
Significato della
pneumatizzazione delle ossa
paranasali
Seno frontale e suo ruolo nella
morfologia del piano superiore
del viso
I seni frontali non compaiono
prima dei due anni di vita. Ciò
spiega la forma rotondeggiante,
non differenziata del neonato
e bambino, che tradotto in termini morfopsicologici significa espansione-estroversione
accentuata. Tutto ciò in quanto
le spinte emotive non hanno
svolto il loro ruolo, essendo
ancora poche e non eccessivamente incisive. Prima dei sei
anni comincia il vero sviluppo dei seni frontali con la comparsa delle bozze sopraorbitarie, che si configura elemento
di espansione-estroversione. La fronte del bambino si avvia
ad una differenziazione. Si comincia a creare un diverso
equilibrio tra le spinte motorie di sviluppo, in particolare per
quelle emotive. Nell’adolescenza-pubertà le dimensioni del
seno sono estremamente variabili. Possono accentuarsi, ridursi, scomparire. Ciò in relazione alle “turbolenze” emotive
tipiche di questa fascia di età. Pertanto, a livello frontale si
potranno accentuare o diminuire gli elementi di espansioneestroversione o quelli di ritrazione-introversione. Dopo la
pubertà l’accrescimento e modellamento del seno sono più
lenti. Tutte le spinte motrici, comprese le emotive, si sono
ormai stabilizzate e consolidate. Le emozioni non hanno
più quella forza modellante tipica dei giovani. Ci si avvia
sempre più verso una presenza di elementi di contrazioneintroversione frontale. Per la definitiva morfologia frontale
non va dimenticato il ruolo dello sviluppo del lobo frontale
del cervello. Infatti, da queste modalità di sviluppo le bozze
frontali saranno più o meno presenti conferendo alla fronte,
dunque, presenza di elementi di contrazione o di espansione.
Pneumatizzazione del seno mascellare e delle cellette
etmoidali e relativo significato
Il seno mascellare, quindi piano medio del viso, inizia il
suo sviluppo già al quinto mese di vita intrauterina. Ciò a
conferma dell’importanza dell’attivazione della funzione
olfattiva. Alla nascita il neonato possiede tutto il supporto
per la funzione olfattiva, ma non solo quella. Già da questo
momento ha inizio l’attivazione del circuito: stimolazioni
emotive (fondamentale il rapporto con la madre o di chi ne
fa le veci)-stimolazione dei muscoli mimici-effetto sul tono
muscolare-apertura o chiusura del naso–effetto sulla struttura ossea.
31
MEDICINA | SCIENZE E RICERCHE • N. 5 • MARZO 2015
Lo sviluppo del seno
mascellare, praticamente
la morfologia del piano
medio, si protrae fino alla
pubertà in maniera differenziata nei vari soggetti.
In questa fascia di età le
spinte emozionali diventano più intense e, dunque,
capaci di determinare zone
di espansione-estroversione o zone di contrazioneintroversione, compresa
la chiusura o apertura del
recettore naso, presenza o
meno della visibilità del
setto nasale. E’ tutto il si- Il Drago di Komodo
stema etmoidale a contribuire alla determinazione
della forma non solo del naso, della lamina cribrosa (piano
superiore), ma di tutto il piano medio. Va puntualizzato che
questa lamina cribrosa, che contribuisce alla formazione del
pavimento della fossa cranica anteriore, e quindi, alla morfologia dell’osso frontale, sta a significare che l’area olfattiva
svolge un suo ruolo anche per il piano superiore, oltre che,
principalmente, per quello medio.
Alla luce di quanto riportato appare evidente il ruolo che i
seni paranasali hanno nella determinazione dei dati morfologici del viso. Il loro differente sviluppo da persona a persona
contribuisce, dunque, alla definizione del piano cerebrale,
collegato al seno frontale, e di quello medio collegato al piano affettivo. Tali seni se hanno uno sviluppo particolarmente
accentuato, portano all’espansione del volto, che equivale,
psicologicamente, all’estroversione. Se, viceversa, lo sviluppo è più lento o ridotto, determineranno un elemento morfologico di ritrazione e, quindi, psicologico di introversione.
L’aspetto più interessante della nostra analisi è che lo sviluppo differenziato è in rapporto a spinte emozionali diverse
nelle diverse età e in soggetti diversi. E ciò, dunque, vale in
modo particolare per il seno mascellare che costituisce elemento osseo fondamentale del piano medio, ovvero di quel
piano dove nascono le spinte emozionali, avendo come supporto il Sistema limbico.
SINTESI DEI FATTORI DI SVILUPPO DEL VISO
RELATIVI AI PIANI
1. Piano superiore o cerebrale, corrispondente al
neocortex, cervello di ultima formazione
a) fattori generali di crescita, comuni a tutti i piani
b) sviluppo dell’osso etmoide, particolarmente la lamina
cribrosa, che costituisce parte del l’osso frontale
c) muscoli mimici della regione
d) pneumatizzazione del seno frontale, responsabile più
direttamente delle bozze sopraorbitarie
e) spinta evolutiva del lobo frontale del cervello, respon32
sabile della presenza più o meno accentuata delle bozze frontali
2. Piano medio o della socializzazione, del sentimento,
dell’affettività, ecc. E’ corrispondente, metaforicamente, al
Sistema limbico, più giovane del neocortex
Questi i fattori di sviluppo:
a) fattori generali di crescita
b) sviluppo dell’etmoide. Questo osso assume un ruolo
particolarmente importante quale supporto dell’area olfattiva.
c) muscoli mimici regionali
d) pneumatizzazione del seno mascellare e delle cellette
etmoidali.
3. Piano inferiore o istintuale o della sensorialità, della
forza, attività, azione ecc.
Corrisponde al cervello rettiliano di Mac Lean (o degli
istinti): presente per primo già negli animali (lucertole) della
preistoria. Il Drago di Komodo, isola dell’Indonesia, è uno
di queste
Fattori di sviluppo:
a) fattori generali di crescita, come per gli altri piani
b) azione muscolare, dei masticatori in particolare
Per concludere e rispondere alla domanda di partenza potremmo affermare con poche parole che è l’assemblaggio diversificato ed estremamente specifico delle varie componenti
alla base dello sviluppo del viso, che porterà al suo differenziamento. Ogni uomo appare ad un altro, in modo consapevole o non, secondo la “maschera” che si dà.
Il volto di un uomo non potrà mai essere riproducibile da
un altro. Ed è a questo livello la radice della incomunicabilità
tra gli uomini con tutti i problemi connessi. La Morfopsicologia ci può dare una mano di aiuto in tal senso.
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | INGEGNERIA CIVILE
Salvaguardia dell’ambiente.
Processi di mescolamento e trasporto
di inquinanti in acqua
MICHELE MOSSA
Dipartimento di Ingegneria Civile, Ambientale, del Territorio, Edile e di Chimica, Politecnico di Bari
“Dilution is the Solution to Pollution”. E’ un noto motto
inglese che evidenzia la ragione per cui i flussi ambientali,
caratterizzati da processi di diluizione e mescolamento, siano
di grande interesse per i ricercatori. Il presente lavoro illustra
lo scenario attuale di inquinamento del nostro pianeta, anche
come monito per il futuro, e un’analisi generale sui flussi miscibili e non miscibili. Successivamente vengono presentati
un’analisi teorica e dei risultati sperimentali di alcuni casi di
studio relativi a getti immessi in un campo di moto ondoso e
a getti in presenza di una corrente trasversale con vegetazione al fondo. Vengono altresì descritti brevemente il potenziale contributo delle misure di campo di campo e dell’uso di
nuove tecnologie basate su immagini satellitari, facendo riferimento a casi di studio del gruppo di ricerca dello scrivente.
Nell’articolo si evidenziano le ragioni per cui un’approfondita conoscenza dei complessi flussi ambientali deve
essere perseguita nell’ambito degli interessi propri della ricerca, della tecnica e dell’ingegneria. A causa dei crescenti
problemi posti in essere sulle risorse idriche, presenti in ogni
parte del mondo, è evidente che la ricerca nel campo dell’Idraulica richiederà sempre più una cooperazione con esperti
di altri campi e che gli sforzi dei ricercatori devono anche
essere tesi verso la necessità di gestione e protezione delle risorse naturali. Considerando questi aspetti, il vecchio motto
con cui con cui inizia questo sommario può essere cambiato
in: “Dilution is (not always) the Solution to Pollution”.
1 L’AMBIENTE AL GIORNO D’OGGI E IL POTENZIALE
CONTRIBUTO DELL’IDRAULICA
“La grande differenza tra la situazione attuale e quella nella quale
potremmo trovarci nel giro di poche generazioni evidenzia l’urgenza
di ridurre ogni forma di pressione
che oggi sta spingendo molte specie vero l’estinzione.”
(Barnosky et al., Nature, Research Review, 2011)
“Se le api scomparissero dalla faccia della Terra,
l’Uomo avrebbe solo quattro anni di vita.”
(Albert Einstein)
L
a crescita economica esplosiva, iniziata negli anni ‘60, sicuramente ha lasciato il segno
sull’ingegneria idraulica e su un ampio spettro di problemi ambientali, legati a:
1) Inquinamento (dovuto alle acque reflue
domestiche e industriali, acque di raffreddamento, sversamenti di petrolio, fertilizzazione dei campi, etc.).
2) Gestione delle risorse idriche (acqua potabile, per uso
industriale, irriguo, idroelettrico, etc.).
3) Navigazione (correnti marine, formazione di ghiacci,
processi di shoaling, processi di erosione con i conseguenti
dragaggi, realizzazione di opere di protezione, etc.).
33
INGEGNERIA CIVILE | SCIENZE E RICERCHE • N. 5 • MARZO 2015
Figura 1. Le cinque grandi estinzioni di massa, cosiddette Big Five. [Per gentile concessione di Benton (2011).]
4) Alluvioni (previsioni climatiche, dighe, disciplina degli
scarichi).
5) Traffico (gallerie, ponti, porti, etc.)
6) Attività di mare aperto (correnti costiere e vortici, derive di strati di ghiaccio, avarie, etc.)
7) Pesca (correnti, salinità, temperatura, contenuto di ossigeno, formazione di fronti, etc.)
Tra le tematiche menzionate in precedenza, quella dell’inquinamento sta diventando sicuramente sempre più pressante, per le sue enormi conseguenze su aria, terra e acqua.
Storicamente l’inquinamento è diventato un tema di vasta
portata mediatica dopo la Seconda Guerra Mondiale, a causa
delle radiazioni dovute alle esplosioni delle bombe atomiche
durante la guerra e ai test che si tennero successivamente.
In seguito, una grave catastrofe ambientale non nucleare
si verificò a Londra nel 1952, il cosiddetto Grande Smog,
provocando la morte di almeno 4.000 persone. Quell’evento disastroso portò alla promulgazione della prima grande e
moderna legislazione di tutela ambientale, il Clean Air Act
del 1956. Seguirono altri gravi episodi di inquinamento, che
contribuirono ad accrescere la consapevolezza del problema su vasta scala. In particolare, nel 1974 lo sversamento
di PCB (policlorobifenili) nel fiume Hudson (New York,
USA) portò al divieto da parte dell’EPA (l’Environmental
Protection Agency degli Stati Uniti) del consumo di pesce
proveniente da quelle acque. A partire dal 1947 si ebbe una
prolungata contaminazione da diossina a Love Canal (Niagara Falls, contea di Niagara, New York, USA). Nel 1978
la questione divenne di interesse nazionale, portando alla
Superfund Legislation del 1980. Una serie di procedimenti
giudiziari degli anni ’90, che resero famosi i paladini delle
vittime, contribuì a far luce sugli sversamenti di cromo esavalente in California. L’inquinamento delle aree industriali
34
portò alla coniazione del termine brownfield per indicare una
zona industriale da riqualificare. Oggi il termine è utilizzato
molto spesso nell’ambito della pianificazione urbana.
Negli Stati Uniti le problematiche connesse con l’inquinamento divennero sempre più di vasto interesse pubblico tra la
metà degli anni ’50 e l’inizio degli anni ’70, quando il Congresso approvò una serie di normative tese alla salvaguardia
dell’ambiente, come il Noise Control Act, il Clean Air Act,
il Clean Water Act e il National Environmental Policy Act.
In Italia uno dei primi grandi disastri ambientali si verificò intorno alle ore 12:37 del 10 luglio 1976 in un piccolo
impianto di produzione chimica a Seveso, a circa 15 km a
nord di Milano. Il disastro provocò una elevata esposizione
alla diossina della popolazione residente. Sul caso sono stati condotti numerosi studi scientifici e, a partire da quell’evento, sono state redatte una serie di norme sulle procedure
standard di sicurezza industriale. L’effetto immediato della contaminazione da diossina fu la morte di 3.300 animali
domestici, per lo più pollame e conigli. Inoltre, delle 1.600
persone di ogni fascia di età che vennero esaminate, 447 risultarono colpite da gravi lesioni cutanee, come la cloracne.
Venne realizzato un centro di consulenza per le donne in
stato di gravidanza, di cui 26 optarono per un aborto, che era
legale in casi particolari, dietro previo consulto. Il disastro
di Seveso può essere considerato come l’evento che portò la
vasta problematica dell’inquinamento di fronte all’attenzione dell’opinione pubblica italiana.
Nel frattempo, negli ultimi anni, nuovi grandi paesi, come
la Cina, l’India, il Brasile, hanno avviato una massiccia industrializzazione, non sempre accompagnata da una corretta
sensibilità nei confronti dell’ambiente.
Sicuramente gli eventi brevemente descritti in precedenza
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | INGEGNERIA CIVILE
e altri ancora, che non è possibile qui riportare per ragioni
di brevità, hanno sollecitato una maggiore sensibilità verso i
problemi ambientali, con conseguenze di rilievo sulla ricerca
scientifica, in generale, e sull’Idraulica, in particolare.
Infatti, oggi la maggior parte delle attività indirizzate
alla ricerca a agli aspetti tecnico-ingegneristici dei settori
dell’Idraulica sono strettamente legate alla salvaguardia dell’ambiente.
Finanche in settori come
l’ingegneria delle turbomacchine la ricerca e la
tecnica tengono nel dovuto conto le problematiche
ambientali. Per esempio,
un tema di rilievo per gli
ingegneri che si occupano
delle turbomacchine è la
produzione di energia con
delle turbine che sfruttino
le correnti di marea, ponendo, tuttavia, sempre
particolare cura ad alcune questioni ambientali, come la migrazione dei pesci, etc. Oggi il termine Ambiente riscuote un
indubbio interesse tra i governi, le società finanziarie, l’industria e così via. Basti pensare che nel Regno Unito opera l’Environmental Agency, negli Stati Uniti l’equivalente
agenzia EPA, etc. Queste agenzie governative si occupano
anche di temi cari all’Idraulica, con particolare riguardo alle
problematiche della protezione dell’ambiente e dei corpi
idrici. In altre parole, molte tematiche di interesse dell’Idraulica, sia nel campo della ricerca che in quello professionale,
sono sempre più inserite nell’ampio contesto delle questioni
ambientali.
Si tratta di temi sempre più attuali e complessi, legati
anche al dibattito sui cambiamenti climatici e alla recente
controversia scientifica (è noto che su questo argomento la
comunità scientifica non è sempre unita, per quanto in generale la maggior parte dei ricercatori siano d’accordo sul
riscaldamento terrestre dovuto soprattutto alle attività umane; a titolo di esempio, si vedano gli articoli, i reportage, i
principali lavori scientifici, i commenti e le analisi su Nature
Reports Climate Change dal sito web www.nature.com/clima/index.html), alla problematica sociale dovuta alla scarsità di acqua potabile (si ricorda che, soprattutto nei Paesi in
via di sviluppo, milioni di persone soffrono per la mancanza
o per la scarsità di acqua potabile; tra l’altro, in alcuni casi, la
soluzione al problema, come la costruzioni di enormi dighe,
è risultata peggiore del problema stesso, provocando danni
ambientali incalcolabili), alla domanda sempre più crescente di fonti di energia (un contributo alla soluzione di questo
problema proviene anche dal potenziale utilizzo di sistemi
che sfruttano le correnti marine e le maree; si tratta, dunque,
di sistemi in cui la comunità dei ricercatori e ingegneri idraulici è fortemente coinvolta). Tutti questi temi hanno portato
all’organizzazione di specifici congressi che si ripetono a in-
tervalli regolari, workshop, partnership e alla costituzione di
nuovi enti e gruppi di lavoro.
L’allarme nei confronti dell’inquinamento e dei problemi
ambientali del nostro pianeta è stato recentemente messo in
evidenza in un articolo pubblicato sulla prestigiosa rivista
Nature (Barnosky et al.,
2011) con un titolo minaccioso: È già in atto la
sesta estinzione di massa
della Terra?
Per i paleontologi
l’estinzione di massa si
verifica quando la Terra
perde più di tre quarti
delle specie viventi in
un intervallo temporale
geologicamente breve
(come è successo solo
cinque volte negli ultimi 540 milioni anni o
giù di lì). Recenti studi
condotti dalla comunità scientifica dei biologi sono indirizzati a verificare se è in atto una sesta estinzione di massa, in
considerazione della scomparsa di diverse specie animali e
vegetali verificatesi nel corso degli ultimi secoli e millenni.
Come già scritto, in letteratura vengono identificate cinque
estinzioni di massa, le cosiddette Big Five (si veda la Figura
1) di seguito elencate:
1) Estinzione del Cretaceo-Paleogene (estinzione del fine
Cretaceo): 65,5 milioni anni fa, alla fine del Cretaceo. In quel
periodo si estinse la maggior parte dei dinosauri non-avicoli.
I mammiferi e gli uccelli divennero i vertebrati terrestri dominanti nell’era di una nuova vita.
2) Estinzione del Triassico-Giurassico (fine Triassico):
205 milioni di anni fa durante la transizione Triassico-Giurassico. Si estinsero la maggior parte degli Arcosauri non
dinosauri, la maggior parte dei Terapsidi e la maggior parte
degli anfibi di grandi dimensioni, consentendo ai dinosauri di
emergere per scarsa competizione con altre specie.
3) Estinzione del Permiano-Triassico (fine Permiano): 251
milioni di anni fa durante la transizione Permiano-Triassico.
Si tratta della più grande estinzione verificatasi sul pianeta
Terra, durante la quale scomparvero il 57% di tutte le famiglie e l’83% di tutti i generi viventi. Dopo l’estinzione divennero dominanti nuove unità tassonomiche. Sulla Terra si
conclude il primato dei rettili simili ai mammiferi. Le specie
estinte crearono spazio per l’ascesa degli Arcosauri.
4) Estinzione del tardo Devoniano: 375-360 milioni di
anni fa vicino al periodo di transizione Devoniano-Carbonifero. Forse questa estinzione durò fino a 20 milioni di anni
e ci sono prove di picchi di processi di estinzione in questo
periodo.
5) Estinzione dell’Ordoviciano-Siluriano (fine Ordoviciano o O-S): 450-440 milioni di anni fa durante la transizione
Ordoviciano-Siluriano. Si verificarono due eventi che provo35
INGEGNERIA CIVILE | SCIENZE E RICERCHE • N. 5 • MARZO 2015
Figura 2. Relazione tra i tassi di estinzione dei mammiferi e l’intervallo di
tempo durante il quale i suddetti tassi sono stati valutati. Ogni piccolo punto
grigio rappresenta l’estinzione per milione di specie e per anno (E/MSY)
calcolata dalle durate delle unità tassonomiche riportate nel Database di
Paleobiologia (intervalli unitari temporali di milioni di anni o più) o da elenchi
di specie esistenti, recentemente estinte e del Pleistocene presenti in letteratura
(intervalli unitari temporali di 100.000 anni e inferiori). Sono stati tracciati più
di 4600 punti rappresentativi di altrettanti dati, raggruppati uno sopra l’altro.
Il tratteggio di colore giallo definisce l’intervallo di varianza ‘normale’ (non
antropogenico) del tasso di estinzione che ci si aspetterebbe per intervalli di
misurazione differenti; per più di 100.000 anni, esso è uguale all’intervallo di
confidenza del 95%, ma la dissolvenza presente sul lato destro del diagramma
indica che il limite superiore della varianza ‘normale’ diventa incerta per
intervalli di tempo relativamente piccoli. Le piccole linee orizzontali indicano
la E/MSY determinata empiricamente per ogni intervallo unitario temporale. I
pallini colorati grandi indicano i tassi di estinzione calcolati dal 2010. I pallini
rossi si riferiscono all’estinzione del fine Pleistocene. I pallini arancione si
riferiscono alle estinzioni documentate storicamente e mediate (da destra a
sinistra) negli ultimi 1, 30, 50, 70, 100, 500, 1.000 e 5.000 anni. I pallini blu
rappresentano un tentativo di migliorare la comparabilità dei dati più attuali
con quelli basati sui fossili. In altri termini, il fine è quello di migliorare i dati
relativi alle estinzioni delle specie ottenuti sulla base di scarsi dati fossili (come
quelli relativi ad aree geografiche piccole o ai pipistrelli). I triangoli marroni
rappresentano la proiezione dei tassi di estinzione che si avrebbero se i
mammiferi “a rischio” si estinguessero entro 100, 500 o 1000 anni. Il triangolo
più in basso (di ogni serie verticale) indica il tasso di estinzione che si avrebbe
qualora solo le specie ‘in pericolo critico’ (‘critically endangered’, ossia,
utilizzando una sigla, CR) dovessero estinguersi, il triangolo centrale indica il
tasso di estinzione qualora si estinguessero le specie ‘in pericolo critico’ + ‘in
pericolo’ (‘critically endangered’+‘endangered’, ossia, utilizzando delle sigle,
CR ed EN), mentre il triangolo più in alto indica il tasso di estinzione che si
avrebbe qualora si estinguessero le specie ‘in pericolo critico’ + ‘in pericolo’ +
‘vulnerabili’ (ossia ‘critically endangered’+‘endangered’+‘vulnerable’, ossia,
utilizzando delle sigle, CR+EN+VU). [Per gentile concessione di Barnosky et al.,
2011.]
carono la morte del 27% di tutte le famiglie e il 57% di tutti
i generi viventi. In termini di percentuale di generi viventi
estinti, gli scienziati ritengono che, insieme, i due eventi rappresentino la seconda più grande estinzione tra le cinque più
importanti della storia della Terra.
La Figura 2 tratta da Barnosky et al. (2011) mostra una
relazione tra il tasso di estinzione dei mammiferi e l’intervallo di tempo relativamente al quale il tasso di estinzione
è calcolato.
La Figura 3 tratta da Barnosky et al. (2011) riporta la percentuale stimata di unità tassonomiche estinte secondo l’International Union for Conservation of Nature in confronto il
punto di riferimento del 75%, che, come già detto, è il valore
minimo della percentuale di estinzione delle specie perché si
possa parlare di estinzione di massa.
La conclusione principale di Barnosky et al. (2011) evidenzia che sicuramente le attuali estinzioni di massa sono il
frutto di una sinergia di eventi insoliti. Per le grandi estinzioni di massa, le cosiddette Big Five, questa sinergia di eventi
36
Figura 3. I numeri accanto a ogni icona indicano la percentuale di estinzione
di una specie. Le icone bianche indicano la percentuale delle specie ‘estinte’ e
‘estinte allo stato brado’ nel corso degli ultimi 500 anni. Le icone nere riportano
la percentuale delle specie ‘minacciate’ sommata a quella delle specie ‘estinte’
o ‘estinte allo stato brado’, la percentuale degli anfibi può raggiungere il 43%.
Le icone gialle indicano le percentuali delle specie estinte relative alle cinque
grandi estinzioni di massa: Cretaceo + Devoniano, Triassico, Ordoviciano e
Permiano (da sinistra a destra). Gli asterischi indicano le unità tassonomiche
per le quali pochissime specie (meno del 3% per i gasteropodi e bivalvi) sono
state valutate; le frecce bianche indicano i casi in cui le percentuali di estinzione
sono probabilmente sovrastimate (in quanto le specie percepite come in
pericolo possono gravare sul valore). [Per gentile concessione di Barnosky et
al., 2011.]
negativi fu dovuta ad una dinamica insolita del clima, alla
composizione atmosferica e a fattori di stress ecologici di
anormale elevata intensità. Inoltre, gli autori hanno osservato
che anche degli incidenti casuali, come l’impatto di un asteroide nel Cretaceo, potrebbero da soli causare un’estinzione
devastante, ma la percentuale delle specie estinte sarebbe, in
ogni caso, inferiore se, a monte, i fattori di stress sinergici
non “innescassero la pompa dell’estinzione”.
L’aspetto innovativo della potenziale sesta estinzione di
massa è che oggigiorno una serie di fattori ecologici di stress
estremo stanno rapidamente cambiando le condizioni atmosferiche, provocando, altresì, un riscaldamento con temperature al di sopra di quelle tipiche interglaciali, a causa del
continuo incremento dei livelli di CO2, della frammentazione
degli habitat, dell’inquinamento, delle attività massive di pesca e caccia, delle specie invasive, dei patogeni e dell’espansione della biomassa umana.
Ad esempio, per quanto riguarda l’inquinamento del mare
e il depauperamento degli oceani, dovuto anche ad una eccessiva attività di pesca, il risultato a cui si giungerà per
effetto dell’attuale voracità e mancanza di sensibilità verso
l’ambiente, sarà un mare privo di pesci e colmo di meduse.
Infatti, il dominio dell’uomo sulla natura sta influenzando
anche il mare. Scartabellando tra gli archivi della Biblioteca
Pubblica della Contea di Monroe, Loren McClenachan, una
ricercatrice laureatasi presso lo Scripps Institution of Oceanography, ha evidenziato il profondo cambiamento in atto
nei mari attraverso un caso eloquente. Loren McClenachan
è riuscita a trovare una serie di foto storiche di un’azienda di
pesca ricreativa a noleggio nel Key West (Florida, USA) tra
il 1950 e 1980, estendendo la sua analisi anche ai giorni nostri con delle foto scattate personalmente sempre sullo stesso
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | INGEGNERIA CIVILE
molo. Si vedano le foto in Figura 4 e per maggiori dettagli si
veda McClenachan (2009).
Negli anni ’50 enormi cernie Golia e squali, in alcuni casi
finanche più grandi e grossi dei pescatori, erano le specie
dominanti della retata di pesca. Nel corso degli anni i pesci
si sono ridotti di dimensione e le cernie e gli squali hanno
lasciato il posto a piccoli dentici e pesci burro. A rimanere immutati rispetto agli anni ’50 sono solo i larghi sorrisi
sui volti dei pescatori e turisti, del tutto ignari dei profondi
cambiamenti dell’ambiente degli ultimi decenni. Tra l’altro
è appena il caso di osservare che la pesca massiva rappresenta solo un piccolo pezzo di un puzzle molto più grande,
costituito da molte situazioni di grave impatto ambientale tra
loro strettamente connesse. Infatti, nei nostri fiumi ed oceani
vengono immessi grandi quantitativi di inquinanti chimici e
industriali, senza considerarne le gravi conseguenze. La produzione non pianificata di gas serra ne provoca l’infiltrazione
nelle zone più profonde dei mari, con conseguente modifica
della chimica delle acque, della temperatura e del contenuto
di ossigeno, che sono tra le cause delle variazioni dei flussi
delle correnti marine di profondità, spesso con implicazioni
drammatiche.
L’attuale livello di pressione sull’ambiente sta spingendo
gli ecosistemi marini verso il limite della loro sopravvivenza.
A tal riguardo un esempio può essere esplicativo. La Figura 5
mostra i cinque grandi vortici di corrente oceanica del mondo, ognuno delimitato dai continenti più vicini.
Questi vortici sono responsabili di gran parte delle correnti
superficiali del pianeta. I detriti galleggianti scaricati in mare
e provenienti dai continenti o dalle navi vengono trascinati
da queste correnti, convergendo verso alcune zone di mare
aperto. In particolare, è ormai tristemente famosa la Grande
Chiazza di Immondizia del Pacifico (Great Pacific Garbage
Patch), la cui formazione fu già prevista da Day et al. (1990)
in un articolo pubblicato dal NOAA (National Oceanic and
Atmospheric Administration degli Stati Uniti).
In conclusione, senza uno sforzo concertato di mitigazione, i vari fattori di stress che attualmente agiscono contro
il nostro pianeta aumenteranno nell’immediato futuro, con
conseguente incremento dei processi di estinzione di diverse
specie viventi e gravi ripercussioni sull’intero ambiente. A
tal riguardo, una conclusione ottimistica di Barnosky et al.
(2011) evidenzia che è ancora possibile salvaguardare gran
parte della biodiversità della Terra, sottolineando, tuttavia,
che una mancata inversione di rotta rispetto all’attuale condizione di stress a cui è sottoposto il pianeta provocherà una
escalation di gravi minacce per l’ambiente.
Pertanto, la comunità scientifica è chiamata a dare una risposta ad una sfida futura, sviluppando una visione armonica e interdisciplinare dell’attività di recupero e salvaguardia
dell’ambiente, che sia scientificamente basata, sostenibile,
finanziariamente accettabile e a basso rischio.
a) Anni ‘50: 20 Kg. Sessanta anni fa, enormi cernie e squali dominano la pesca
nel Key West.
b) Anni ’80: 9 Kg. Trenta anni fa, la pesca massiva nella regione ha eliminato i
pesci più grandi dalla retata.
c) 2007: 2,3 Kg. Al 2007 la dimensione media dei pesci nel Key West si è ridotta
dell’88%.
Figura 4(a-c). Gli oceani hanno già assorbito circa il 30% del biossido di
carbonio rilasciato dalle attività umane fin dal periodo antecedente lo sviluppo
industriale, soprattutto per effetto della combustione di combustibili fossili.
Se le emissioni di anidride carbonica non verranno limitate, si prevede che
l’acidità degli oceani aumenterà del 150% entro il 2050. È probabile che gli
effetti dell’acidificazione dei mari creeranno maggiori problemi alle specie con
conchiglie di carbonato e al fitoplancton che sostiene la catena alimentare.
L’acidificazione è solo una parte del problema, poiché gli scarichi a mare dei
nutrienti provenienti dalla terra, sotto forma di fertilizzanti e acque nere, e le
temperature più elevate tipiche degli ultimi anni hanno recentemente causato
un incremento delle aree marine prive di vita. Tra l’altro, i mari non saranno
totalmente privi di vita. Infatti, il processo di estinzione, con le relative specie
debellate, sta creando anche dei vincitori, come, ad esempio, le meduse,
che, di fatto, prosperano nei mari ricchi di sostanze inquinanti. [Per gentile
concessione di Loren McClenachan e Monroe County Public Library.]
37
INGEGNERIA CIVILE | SCIENZE E RICERCHE • N. 5 • MARZO 2015
Figura 5. La Grande Chiazza di Immondizia del Pacifico (Great Pacific Garbage Patch o Pacific Trash Vortex) è una zona dell’Oceano
Pacifico in cui tendono a concentrarsi i rifiuti rilasciati in mare. È approssimativamente posizionata tra il 135° e il 155° di longitudine
ovest e tra il 35° e il 42° di latitudine nord, anche se tende a spostarsi ogni anno e, dunque, la sua esatta posizione esatta è di difficile
individuazione. Questo ammasso di immondizia si trova all’interno della grande struttura vorticosa del nord dell’Oceano Pacifico,
che ne delimita l’estensione. La chiazza è costituita da un cumulo di oggetti e particelle di plastica di varie dimensioni, presenti
sia in superficie che nell’intera colonna d’acqua, fino in profondità. Le correnti dell’Oceano Pacifico creano un vortice che inghiotte
gli scarichi e i detriti provenienti dalle coste del Nord America, dell’Asia e delle Isole Hawaii. È stato stimato che l’80% dei rifiuti
viene immesso in mare attraverso i sistemi fognari e i fiumi e, dunque, proviene dalla terra, mentre il 20% proviene dalle navi o
direttamente dal mare, come le reti, l’attrezzatura da pesca o i contenitori che cadono in acqua dopo forti temporali.
2 TIPICHE CORRENTI STRATIFICATE DI RILEVANZA
AMBIENTALE
“Oggi in molti ritengono che i punti di scarico diretti
non sono la causa principale dei problemi ambientali
dei laghi e dei fiumi. Di fatto, le immissioni non puntuali
(ossia le immissioni non provenienti da una condotta di scarico,
ma da un’area ampia e di difficile delimitazione)
rappresentano l’origine primaria dei contaminanti.”
(Scott Socolofsky e Gerhard H. Jirka)
porazione, la formazione di ghiacci, le variazioni della pressione atmosferica, la gravità, etc. (si veda, per esempio, la
Figura 6). La maggior parte dell’energia fornita è utilizzata
per scopi diversi dal processo di mescolamento (Csanady,
1980; Rutherford, 1994; Seminara e Tubino, 1996; Socolofsky & Jirka, 2005).
Ad esempio, l’energia trasferita dal vento alle masse d’acqua è principalmente responsabile della formazione delle
onde, della circolazione di superficie, del setup (in particolare, negli oceani si verificano fenomeni di risalita, cosiddetti upwelling, e sprofondamento, cosiddetti downwelling) e
quindi della produzione di energia cinetica turbolenta, che,
in ultimo, viene dissipata in calore. Cessando il vento, terminano anche i moti ondosi, le correnti e il setup. Tuttavia,
La maggior parte dei problemi degli ambienti acquatici naturali sono resi complessi dalle variazioni spaziali e
temporali della stratificazione di
densità, causate dalle variazioni
di temperatura e salinità o dalla
presenza di particelle in sospensione. La formazione di termoclini (gradienti verticali di temperatura), aloclini (gradienti verticali
di salinità) e picnoclini (gradienti
verticali di densità) ha una grande influenza sulla circolazione e
sulla qualità delle acque.
Il processo di mescolamento
che origina da stratificazioni stabili di due fluidi (ad esempio, uno
strato di acqua dolce al di sopra di
uno strato di acqua salata) richiede una certa quantità di energia.
In natura questa energia proviene
da molte fonti, come il vento, le Figura 6. Schema delle fonti di energia per i mari, laghi, etc.
maree, gli scambi termici, l’eva38
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | INGEGNERIA CIVILE
a causa del processo di mescolamento innescatosi, parte
dell’acqua salata e, dunque, a maggiore densità, risale verso
la superficie, vincendo la gravità e mescolandosi con strati
di acqua più superficiali; questo processo di risalita ne ha
provocato un aumento di energia potenziale.
L’efficienza di questo processo di mescolamento è dato dal
rapporto tra il guadagno in energia potenziale e l’energia in
ingresso, resa disponibile attraverso i vari fenomeni indicati
in precedenza (ossia la produzione di energia cinetica turbolenta). Tale rapporto, detto numero di flusso di Richardson,
sembra essere costante per un gran numero di correnti di densità stratificate. Per la piena comprensione della dinamica di
questi campi di moto è importante analizzare anche il guadagno di energia potenziale del flusso dovuta ai contributi
energetici della massa introdottasi nello stesso (attraverso il
cosiddetto processo di intrusione, maggiormente noto con il
termine anglosassone di entrainment).
I campi di moto di rilevanza per gli ambienti acquatici naturali possono essere suddivisi in:
1) Campi di moto non miscibili a stratificazione di densità:
il flusso si comporta come un campo di moto normale (omogeneo) sottoposto a un’accelerazione di gravità fortemente
ridotta.
2) Campi di moto miscibili spinti dalla forza di galleggiamento. In questo caso il campo di moto e la stratificazione
dipendono dal processo di mescolamento, tanto da influenzare le equazioni descrittive di questi flussi. Viceversa, è anche
possibile affermare che il mescolamento dipende dal campo
di moto e dalla stratificazione. Questa notevole e vicendevole influenza tra la turbolenza (legata al mescolamento) e il
campo di moto medio rappresenta un elemento distintivo di
questi flussi.
La Figura 7 mostra alcuni campi di moto di fluidi miscibili
tipici dei laghi, come indicato da Imboden & Wüest (1995).
Figura 7. Schema di alcuni tipici processi di mescolamento in un lago. “
3 ESEMPI DI PROCESSI DI DIFFUSIONE: GETTI
INTERAGENTI CON ALTRI CAMPI DI MOTO O CON LA
VEGETAZIONE AL FONDO
Se ti addiviene di trattare delle acque consulta prima l’esperienza e
poi la ragione”
(Leonardo da Vinci)
“Ho capito subito che c’era poca speranza
di sviluppare una teoria pura e chiusa,
e, in mancanza di tale teoria, la ricerca deve basarsi su
ipotesi ottenute dall’elaborazione di dati sperimentali.”
(A.N. Kolmogorov)
Il mare è sempre stato il recapito finale dei prodotti di rifiuto provenienti dalla terra e trasportati dalle acque. Negli ultimi anni gli effetti dei getti di quantità di moto, getti di densità, correnti, stratificazioni, etc. sui processi di mescolamento
e trasporto hanno ricevuto un’attenzione crescente, talvolta
trascurando gli effetti rilevanti che l’azione delle onde svolge
in molteplici casi. Infatti, mentre sono ormai innumerevoli
gli studi presenti in letteratura sui getti e sulla loro interazione con le correnti, pochi sono i lavori che si occupano
dell’interazione tra getti ed onde, nonostante la maggior parte di essi evidenzi l’importanza di un campo di moto ondoso
sui processi di diffusione (Mossa, 2004a; Mossa, 20014b)
e la necessità di prove sperimentali finalizzate alla corretta
interpretazione della dinamica dell’interazione onde-getti,
anche al fine di una eventuale conferma della validità dei modelli matematici presenti in letteratura. La tematica è di grande interesse ingegneristico per le tematiche ambientali che
coinvolge (Fisher et al., 1979; Wood et al., 1993). È pur vero
che nel passato sono stati condotti un certo numero di studi
su configurazioni che prevedevano l’interazione dei getti con
un campo di moto ondoso, ma essi erano soprattutto limitati
alla misurazione delle concentrazioni (ai fini dell’analisi della
diluizione). Pertanto, è evidente
la necessità di un’analisi di dettaglio relativa a questo campo di
moto con l’utilizzo di tecniche e
strumentazioni moderne.
Come mostrato da Nepf (2012),
la vegetazione acquatica svolge un ruolo fondamentale negli
ecosistemi. L’assorbimento delle
sostanze nutritive e la produzione
di ossigeno ad opera della vegetazione migliora la qualità delle
acque (si veda, ad esempio, Wilcock et al., 1999). Inoltre, la capacità potenziale della vegetazione di rimuovere azoto e fosforo è
così elevata che alcuni ricercatori
39
INGEGNERIA CIVILE | SCIENZE E RICERCHE • N. 5 • MARZO 2015
Nepf (2012) osserva che la presenza di vegetazione altera il campo di velocità di un flusso a diverse
scale, che vanno dal ramo o dallo
stelo di una singola pianta a quelle di una comunità di piante di una
marcita o una prateria. L’analisi
delle strutture di un flusso alle diverse scale è fondamentale per la
comprensione di diversi processi.
Per esempio, l’assorbimento dei
Figura 8. Le mangrovie rappresentano un tipico esempio di vegetazione rigida in flussi e specchi d’acqua di valenza nutrienti da parte di un singolo steambientale.
lo di una pianta dipende dallo strato limite presente sullo stelo stesso,
consigliano la diffusione delle piantagioni nei corsi d’acqua ossia, in altri termini, dal flusso analizzato alla scala dello
stelo. Analogamente, il processo di impollinazione è colle(Mars et al., 1999).
Le praterie marine costituiscono la base di molte catene gato alle strutture del flusso che si generano intorno ad ogni
alimentari e la vegetazione dei corsi d’acqua favorisce la bio- singolo stigma (si veda, per esempio, Ackerman, 1997). Vidiversità attraverso la creazione di una pluralità di habitat per ceversa, la capacità, per esempio, di una marcita o di una praeffetto della eterogeneità del profilo di velocità della corren- teria di trattenere o rilasciare sostanze organiche, sedimenti
te (si veda, ad esempio, Kemp et al., 2000). Le paludi e le minerali, semi e polline dipende dalle strutture del flusso alla
mangrovie (si veda, a titolo di esempio, la Figura 8) riduco- scala delle suddette marcite o praterie (si veda, per esempio,
no l’erosione, grazie alla loro capacità di attenuare l’effetto Zong & Nepf, 2011). Inoltre, l’eterogeneità spaziale dei paradelle onde e dei deflussi conseguenti ai temporali; inoltre, metri alla scala della chioma della vegetazione può dar luogo
la vegetazione rivierasca aumenta la stabilità delle sponde a complesse strutture di un flusso. È ciò che, per esempio, si
verifica in una rete ramificata di canali in una palude o in un
(Pollen & Simon, 2005).
acquitrino, la quale attraversa regioni di vegetazione densa e
in larga parte emergente. Mentre le correnti nei canali sono
Tutti questi benefici effetti sono in qualche modo influen- responsabili di gran parte del processo di trasporto, le zone
zati dal campo di moto che si genera sia all’interno che in con vegetazione provvedono alla maggior parte delle funprossimità della zona in presenza di vegetazione. Storica- zioni dell’ecosistema e all’intrappolamento delle particelle.
Da queste brevi note appare evidente l’importanza dei
mente la vegetazione acquatica presente nei fiumi è stata
considerata solo come una causa di resistenza al moto e, per campi di moto con vegetazione al fondo. Studi indirizzati
questa ragione, spesso è stata rimossa per migliorare il de- all’analisi delle correnti di questo tipo sono stati condotti
presso diversi enti di ricerca (a tal riguardo, come già scritto,
flusso delle acque e ridurre i rischi di inondazioni.
Proprio per le ragioni su esposte, i primi studi di idrodina- è esaustivo l’articolo di analisi generale e prospettiva della
mica sui campi di moto in presenza di vegetazione avevano tematica di Nepf, 2012) e, in particolare, in alcune università
come obiettivo principale l’analisi delle resistenze al moto, italiane (si veda, ad esempio, Carollo et al., 2002; Poggi et
con un punto di vista strettamente legato ai problemi di pro- al., 2004; Armanini et al., 2005; Ben Meftah et al., 2007;
getto e verifica dell’ingegneria idraulica (si veda, per esem- Poggi et al., 2009;. Defina & Peruzzo, 2010). Tuttavia, gli
pio, Ree, 1949). Tuttavia, come osservato in precedenza, la studi sui getti interagenti con la vegetazione sono ancora rari
vegetazione provoca benefici effetti di natura ecologica, fa- in letteratura. Per tale ragione anche presso il laboratorio di
idraulica del Politecnico di Bari si conducono studi sui getti
cendone una parte integrante dei sistemi costieri e fluviali.
di quantità di moto immessi
in una corrente trasversale in
presenza di vegetazione al
fondo (Figura 9). In tali studi
la vegetazione è simulata con
degli steli rigidi.
Figura 9. Foto del canale del laboratorio con la vegetazione artificiale.
40
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | INGEGNERIA CIVILE
4 MISURAZIONI DI CAMPO E MONITORAGGIO
AMBIENTALE, PROSPETTIVE FUTURE E
RACCOMANDAZIONI FINALI
“Ora ascoltate il suono che separa per sempre il vecchio dal nuovo.”
[Presentazione del cinguettio bip-bip trasmesso dal satellite Sputnik.]
(Annunciatore radiofonico della NBC nella notte del 4 ottobre 1957)
“Se siete dalle parti del Golfo, oggi c’è una buona domanda da porsi
ed è questa: Dov’è il petrolio?”
(Brit Hume, conduttore televisivo di FOX News,
deridendo la BP per il disastro dello sversamento di petrolio, 16
maggio 2010)
“Mettersi insieme è un inizio.
Restare insieme è un progresso.
Lavorare insieme è un successo.”
(Henry Ford)
Nell’ambito della salvaguardia dell’ambiente, oltre ai modelli fisici di cui si è dato qualche cenno in precedenza, è
fondamentale anche il monitoraggio di campo. Infatti, per
quanto sia noto che la sperimentazione in situ presenti difficoltà in un certo qual modo diverse e maggiori rispetto alla
sperimentazione in laboratorio o alle simulazioni numeriche,
essa è tuttavia in grado di fornire uno scenario realistico di un
campo di moto e di un processo di dispersione.
Un esempio è rappresentato dal monitoraggio di un sistema di scarico a mare, il quale è parte integrante e fondamentale di ogni sistema di trattamento delle acque reflue con
recapito finale in mare. La progettazione di un impianto di
trattamento e scarico delle acque reflue deve tenere in debita
considerazione l’uso a cui è destinato il corpo idrico recettore, i valori dei parametri fisico-chimici da rispettate ai fini
della salvaguardia dell’uso stesso e la qualità delle acque del
corpo idrico recettore. Per ulteriori dettagli si veda Mossa
(2006) e De Serio et al. (2007).
Il recente grave disastro nel Golfo del Messico, dovuto
all’esplosione di un pozzo per l’estrazione di petrolio, ha
causato una catastrofe ambientale. Infatti, sulla superficie del
mare si formò una chiazza nera di petrolio la cui dimensione
cresceva di giorno in giorno e che andava inesorabilmente
alla deriva verso la costa della Louisiana. Per dimensioni e
conseguenze, il disastro nel Golfo del Messico può competere con altri gravi incidenti del passato (come quello della
Exxon Valdez nel 1989, che provocò uno sversamento di
41,3 milioni di litri di petrolio, e quello di Santa Barbara,
in California, con uno sversamento di 15,9 milioni di litri di
petrolio). Purtroppo, molti altri disastri di questo tipo sono
accaduti e continuano ad accadere in tutto il mondo.
Come riportato nell’editoriale del n. 3 del 2010 di Hydrolink (Mossa, 2010), l’incidente del Golfo del Messico potrebbe dare un impulso all’attuazione di una nuova politica energetica, che deve necessariamente salvaguardare l’ambiente
ed essere razionale e pragmatica. Molti sono i quesiti che
è necessario porsi in considerazione del fatto che le attività
di ricerca dei giacimenti di petrolio e gas sono in continuo
aumento e i punti di estrazione in mare aperto (a profondità
anche superiore a 300 m) sono presenti in diverse regioni del
mondo. Si pensi, per esempio, al Mar del Nord, alle zone di
mare al largo delle coste dell’Africa occidentale e del Brasile, le quali, dunque, sono minacciate da un disastro simile a
quello del Golfo del Messico.
La comunità scientifica è concorde nel ritenere che a breve verrà raggiunto il picco della produzione di petrolio. Per
quanto sia complesso dare una data certa su questo punto, le
stime scientifiche più accreditate indicano che questo picco
potrebbe verificarsi tra il 2010 e il 2020. Attualmente siamo di fronte ad una svolta epocale simile a quella vissuta
dall’umanità quando si ebbe la consapevolezza che il nostro
pianeta non è né piatto, né infinito. Di fatto, nella fiduciosa
attesa che nuove fonti energetiche possano un giorno definitivamente sostituire i combustibili fossili, attualmente le
compagnie petrolifere stanno “raschiando il fondo del barile”, eseguendo perforazioni in mare aperto a profondità sempre maggiori e sempre più pericolose per l’ambiente. E’ stato
stimato che nel 2007 la produzione di petrolio proveniente
da installazioni a profondità maggiori di 800 metri è stata
circa il 70% della produzione totale. L’industria petrolifera
prevede di estendere le attività di esplorazione e produzione
fino a profondità di 3000 m, al fine di aumentare l’estrazione
potenziale di petrolio e gas. Tuttavia, come il recente disastro
nel Golfo del Messico ha evidenziato, è necessario tenere in
debita considerazione tutti i problemi connessi col processo
di estrazione a grandi profondità.
In altre parole, è necessario considerare la questione sotto
ogni punto di vista. In tal senso le attività di monitoraggio del
petrolio sversato in mare e le relative simulazioni numeriche
sono un valido ausilio per gli enti preposti alla salvaguardia
delle coste.
Proprio su questa tematica, è in corso un’attività di ricerca
41
INGEGNERIA CIVILE | SCIENZE E RICERCHE • N. 5 • MARZO 2015
42
e cooperazione che coinvolge la comunità scientifica degli
Idraulici e dei Fisici per la messa a punto del monitoraggio
satellitare. A tal riguardo, il lavoro di De Carolis et al. (2012)
è un esempio di come possa essere fruttuosa una simile cooperazione. In sintesi, il lavoro richiamato presenta delle
immagini satellitari ottenute nella regione dell’infrarosso vicino (NIR), le quali mostrano il processo di sversamento di
petrolio dovuto al naufragio della Fu Shan Hai il 31 maggio
2003 nella zona di mare tra la costa svedese e quella danese
(si veda un esempio in Figura 10).
Queste immagini sono state confrontate con i risultati di
una simulazione numerica del processo di trasporto della
chiazza di petrolio (si veda la Figura 11).
Per ulteriori dettagli si rimanda a De Carolis et al. (2012).
In considerazione dei risultati brevemente descritti in precedenza, è prevedibile che le tecnologie satellitari possano
riscuotere un interesse crescente ai fini della salvaguardia
dell’ambiente. Ciò spiega l’importanza di un loro ulteriore
sviluppo, il quale porterebbe alla realizzazione di sistemi di
monitoraggio impensabili nel recente passato.
A tal proposito si pensi alle potenzialità del sistema satellitare COSMO-SkyMed (COnstellation of small Satellites for
Mediterranean basin Observation, ossia costellazione di satelliti di piccole dimensioni per l’osservazione del bacino del
Mediterraneo), che rappresenta il più grande e recente investimento italiano nei Sistemi Spaziali per l’Osservazione della Terra, commissionato e finanziato dall’Agenzia Spaziale
Italiana (ASI) e dal Ministero della Difesa (MoD) italiano.
Come spesso accade per sistemi di questo tipo, è stato inizialmente concepito come un Sistema di Osservazione della
Terra da utente a utente (end-to-end) con duplice uso (civile
e militare), finalizzato a un servizio globale di fornitura di
dati, prodotti e attività conformi a consolidati standard internazionali relativi a una vasta gamma di applicazioni (quali
la Gestione del Rischio, le Applicazioni Scientifiche e Commerciali e le Applicazioni per la Difesa e per l’Intelligence).
Il sistema è costituito da una costellazione di quattro satelliti di medie dimensioni su orbita terrestre bassa, tutti dotati
di un radar ad apertura sintetica (SAR, Synthetic Aperture
Radar), multimodale, ad alta risoluzione, operante sulla banda X e dotato di strumentazione di acquisizione e trasmissione dati particolarmente flessibile e innovativa. Alcuni esempi delle potenziali applicazioni sono le seguenti:
1) Prevenzione e gestione dei disastri ambientali (utile per
condurre studi sulle cause e sui fenomeni precursori dei disastri ambientali e per migliorare la capacità di monitoraggio
e valutazione dei danni in caso di frane, alluvioni, terremoti
ed eruzioni vulcaniche).
2) Controllo degli oceani e delle coste (utile per rilevare
in modo continuo e accurato lo stato delle coste, dei mari
e delle acque interne ai fini della valutazione dell’erosione
costiera e dell’inquinamento; si veda la Figura 12 a titolo di
esempio).
3) Controllo delle risorse agricole e forestali (utile per migliorare la classificazione del suolo e il monitoraggio delle
colture durante il ciclo di crescita, al fine di ottimizzarne la
resa).
4) Controllo degli edifici (le immagini ad alta risoluzione
spaziale e temporale del nuovo sistema satellitare forniscono un potente strumento per monitorare la presenza di nuovi
insediamenti od opere e per controllare cedimenti o collassi
strutturali).
5) Mappatura (utile per la realizzazione con elevata precisione di modelli digitali tridimensionali dei terreni aventi
varie applicazioni).
Figura 10. Immagine MODIS/Aqua (MYD), banda 2, acquisita il 3 giugno 2003
alle 11:20.
Figura 11. Sovrapposizione delle chiazze di petrolio osservate dal MYD (in
rosso) e simulate dal modello numerico (in verde) il 3 giugno 2003.
Questa breve nota ha lo scopo principale di evidenziare
l’importanza della ricerca nel campo dell’Idraulica ai fini
della salvaguardia dell’ambiente. In particolare, sono stati
presentati alcuni tipici flussi di valenza ambientale e alcuni
casi di studio condotti dal gruppo di ricerca di Idraulica del
Politecnico di Bari, evidenziando possibili correlazioni con
ricerche analoghe a livello internazionale.
Questo branca della ricerca è di sicuro interesse ai fini della corretta conoscenza del destino delle acque reflue immesse nei mari o nei fiumi. A tal fine, è importante osservare
che il corpo idrico recettore (spesso si tratta di un sistema
di grande rilievo ambientale) non è sempre in condizioni
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | INGEGNERIA CIVILE
Figura 12. L’immagine si riferisce al Lago di Maracaibo (Venezuela). A differenza dei satelliti ottici, l’immagine radar
mostra particolarmente bene le strutture metalliche (i punti visibili nell’immagine), rivelando la miriade di piattaforme
petrolifere nel lago. [Per gentile concessione dell’ASI]
statiche, come talvolta si assume in letteratura (cosiddetto
scenario convenzionale); infatti, esso è spesso caratterizzato
dalla presenza di onde, correnti, vegetazione al fondo, fondale ondulato, etc.
Una conoscenza più approfondita dei flussi complessi a
valenza ambientale deve essere perseguita per finalità sia di
natura scientifica che tecnico-ingegneristica. In conclusione, la crescente pressione antropica sulle risorse idriche in
tutto il mondo richiede un rinnovamento e una reinvenzione
dell’ingegneria idraulica. La ricerca nel campo dell’Idraulica avverrà sempre più in collaborazione con gli esperti di
tematiche ecologiche e ambientali, in considerazione della
pressante esigenza di fornire delle risposte alla gestione e
protezione delle risorse naturali.
I vari problemi di cui si è dato cenno in questa nota richiedono ancora approfondimenti e ulteriori analisi a diverse scale e con l’utilizzo di vari “approcci”. È possibile prevedere
che quest’area di ricerca vedrà crescere l’interesse di molti
scienziati, i quali potranno contare su nuove interessanti tecnologie nel prossimo futuro.
A tal riguardo, è forte la raccomandazione ad impegnarsi
sempre più in queste tematiche, con un approccio in cui si
consideri ovvia la collaborazione tra fisica, geologia, geomorfologia, ricerca sull’erosione delle coste, ecologia, biologia, fisiologia vegetale, etc. In futuro i gruppi di ricerca
che riusciranno a integrarsi e a cooperare, superando i vecchi steccati e le vecchie visioni di chiusura di ciascun’area,
avranno maggiori opportunità di successo negli obiettivi da
perseguire. Nella consapevolezza che non è più tempo di una
sterile competizione tra settori scientifici, diviene fondamentale svolgere le attività di ricerca con l’affascinante obiettivo
di proteggere questa piccola astronave che è il nostro pianeta
Terra.
RINGRAZIAMENTI
La presente nota è una sintesi della lettura presentata
dall’autore durante il XXXIII Convegno di Idraulica e Co-
struzioni Idrauliche, tenutosi
presso l’Università di Brescia
dal 10 al 15 settembre 2012.
L’autore ringrazia tutti i colleghi, i ricercatori, i tecnici
del Laboratorio di Ingegneria
Costiera e del Laboratorio di
Idraulica del Politecnico di
Bari, che, con modalità ed
entità diverse, ma sempre offrendo un prezioso aiuto, hanno dato un contributo alle attività di ricerca accennate. Le
loro competenze eterogenee
confermano che gli studi condotti su un sistema complesso
come l’ambiente necessitano
della collaborazione di diffe-
renti gruppi di ricerca.
BIBLIOGRAFIA
Ackerman, J. Submarine pollination in the marine angiosperm Zostera marina, Am. J. Bot., 84(8), pp. 1110–1119,
1997.
Armanini, A., Righetti, M. & Grisenti, P. Direct measurement of vegetation resistance in prototype scale, Journal of
Hydraulic Research, 43, 5, 481-487, 2005.
Barnosky, A.D., Matzke, N., Tomiya S., Wogan, G.O.U.,
Swartz, B., Quenta, T. B., Marshall C., McGuire, J.L., Lindsey, E.L. , Maguire K.C., Mersey B. & Ferrer E.A. Has the
Earth’s sixth mass extinction already arrived?, Nature, Research Review, vol. 471, pp. 51-57, 2011.
Ben Meftah, M. Mossa, M. & Petrillo, A. Round, vertical, turbulent, non-buoyant jet in vegetated channel, ISEH V,
Tempe, Arizona, December 4-7, 2007.
Benton, M.J., Mass extinctions: A brief history of catastrophe, The New Scientist, vol. 209, Issue 2802, 5, pp. ii-iii,
March 2011.
Carollo, F., Ferro, V. & Termini, D. Flow Velocity Measurements in Vegetated Channels, J. Hydraul. Eng., 128(7),
664–673, 2002.
Csanady, G.T. Turbulent diffusion in the environment,
Geophysical and Astrophysics Monographs, D. Reidel Publishing Company, 1980.
Day, R.H., Shaw, D.G. & Hignell, U.S.E. The quantitative
distribution and characteristics of neuston plastic in the north
pacific ocean, 1985-88 Proceedings of the Second International Conference on Marine Debris, 2-7 April 1989, Honolulu, Hawaii, U.S. Dep. Commerce, NOAA Tech. Memo.
NMFS, NOAA-TM-NMFS-SWFSC-154, 1990.
De Carolis, G., Adamo, M., Pasquariello, G., De Padova,
D. & Mossa, M. Quantitative characterization of marine oil
slick by satellite near-infrared imagery and oil drift modelling: the Fun Shai Hai case study, International Journal of
Remote Sensing, Manuscript ID TRES-PAP-2012-0052,
43
INGEGNERIA CIVILE | SCIENZE E RICERCHE • N. 5 • MARZO 2015
ISSN 0143-1161, accepted for publication, 2012.
De Serio, F., Malcangio, D. & Mossa, M. Circulation in
a Southern Italy coastal basin: Modelling and field measurements, Continental Shelf Research, vol. 27, pp. 779-797,
2007.
Defina, A. & Peruzzo, P. Floating particle trapping and
diffusion in vegetated open channel flow. Water Resour.
Res., 46, W11525, 2010.
Fischer, H.B., List, E.J., Koh, R.C.Y., Imberger J. & Brooks, N.H. Mixing in Inland and Coastal Waters. Academic
Presss, New York, 1979.
Imboden, D. M. & Wüest, A. Mixing mechanisms in lakes,
in A. Lerman, D. M. Imboden & J. R. Gat, eds, ‘Physics and
Chemistry of Lakes’, Springer Verlag, 1995.
Kemp, J., Harper, D. & Crosa, G. The habitat-scale
ecohydraulics of rivers, Ecol. Eng., 16, 17–29, 2000.
Koole, R. & Swan, C. Measurements of a 2-D non-buoyant
jet in a wave environment, Coastal Engineering, 24, 151169, 1994a.
Mars, M., Kuruvilla, M. & Goen, H. The role of submergent macrophyte triglochin huegelii in domestic greywater
treatment, Ecol. Eng., 12, 57–66, 1999.
McClenachan, L. Historical declines of goliath grouper
populations in South Florida, USA, Endangered Species
Research, Contribution to the Theme Section ‘Range-wide
status and conservation of the goliath grouper’, doi: 10.3354/
esr00167, 2009.
Mossa M. Experimental study on the interaction of nonbuoyant jets and waves, Journal of Hydraulic Research,
IAHR, 42(1), 13-28, 2004a.
Mossa M. Behavior of Non-Buoyant Jets in a Wave Environment, Journal of Hydraulic Engineering, ASCE, 130(7),
2004b.
Mossa M. Field measurements and monitoring of wastewater discharge in sea water, Estuarine, Coastal and Shelf
44
Science, vol. 68, pp. 509-514 ISSN: 0272-7714, 2006.
Mossa M. Scraping the bottom of the barrel: What are the
risks?, Hydrolink, Editorial, no. 3, Supplement to Journal of
Hydraulic Research, vol. 48, no. 3, 2010.
Nepf, H.M. Hydrodynamics of vegetated channels,
Journal of Hydraulic Research, vol. 50, no. 3, pp. 262-279,
2012.
Poggi, D., Krug, C. & Katul, G. Hydraulic resistance of
submerged rigid vegetation derived from firstorder closure
models, Water Resour. Res., 45, W10442, 2009.
Pollen, N. & Simon, A. Estimating the mechanical effects
of riparian vegetation on stream bank stability using a fiber
bundle model, Water Resour. Res., 41, W07025, 2005.
Ree, W.O. Hydraulic characteristics of vegetation for vegetated waterways, Agric. Eng., 30, 184–189, 1949.
Rutherford, J.C. River mixing, John Wiley & Sons, 1994.
Seminara, G. & Tubino, M. Fondamenti sulla diffusione e
dispersione di traccianti passive, Collana Didattica di Meccanica dei Fluidi, Istituto di Idraulica, Università di Genova,
1996.
Socolofsky, S. A. & Jirka, G.H. CVEN 489-501: Special Topics in Mixing and Transport Processes in the Environment, Coastal and Ocean Engineering Division Texas
A&M University, M.S. 3136, College Station, TX 778433136, 2005.
Wilcock, R., Champion, P., Nagels, J. & Crocker, G. The
influence of aquatic macrophytes on the hydraulic and physicochemical properties of a New Zealand lowland stream,
Hydrobiologia, 416(1), 203–214, 1999.
Wood, I.R., Bell, R.G. & Wilkinson, D.L. Ocean disposal
of wastewater, World Scientific, Advanced Series on Ocean
Engineering, vol. 8, 1993.
Zong, L. & Nepf, H. Spatial distribution of deposition within a patch of vegetation, Water Resour. Res., 47,
W03516, 2011.
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | SCIENZE ARTISTICHE
Le arti espressive come
pedagogia della creatività
GAETANO OLIVA
Facoltà di Scienze della Formazione, Dipartimento di Italianistica e Comparatistica, Università Cattolica del Sacro Cuore, Milano
«
1. TEATRO ED EDUCAZIONE
Il teatro è un efficace mezzo d’educazione
per il fatto che fa appello all’individuo intero,
alla sua profonda umanità, alla sua coscienza
dei valori, alla sua più immediata e spontanea
1
socialità». Questa può essere una buona
sintesi della posizione che s’intende assumere nel presente lavoro sul teatro come “efficace mezzo d’educazione”.
Innanzitutto l’esperienza teatrale ha la capacità di coinvolgere l’intera personalità del soggetto dal punto di vista psicofisico e di apertura alla relazione con gli altri. Allo stesso
tempo la rappresentazione teatrale mette in gioco con grande
intensità le qualità e le risorse del vivere dell’uomo facendo
ogni volta una precisa scelta di valori. Tutte queste dimensioni sono di diritto coinvolte in ogni processo educativo. Avere
quindi uno strumento in grado di sollecitarle tutte in diversa
misura, risulta essere una preziosa risorsa per le progettualità
educative di diverso tipo.
Ciò è anche evidente per quanto riguarda le finalità dell’educazione e dell’esperienza teatrale. Infatti, «il teatro e l’educazione sono due realtà che possiedono finalità comuni:
da un lato la pedagogia pone al centro il soggetto permettendogli di esprimersi, dall’altro il teatro persegue lo stesso
obiettivo attraverso attività che stimolino lo sviluppo della
2
creatività e la comunicazione». La specificità del teatro è
pertanto tutta centrata sull’asse creativo e comunicazionale
all’interno del quale la prassi della rappresentazione ha delle
tecniche e una storia importanti, ciò segue le stesse finalità
dell’azione educativa diventandone un eccezionale alleato.
In questa prospettiva, appare già chiaro come sia possibile
parlare allora di Educazione alla Teatralità come vera e propria strategia educativa che «non vuole trasmettere un sapere
ma portare il soggetto a formarsi attraverso l’esperienza e la
scoperta. La finalità dell’educazione teatrale è la conoscenza
di se stessi, delle proprie possibilità e limiti al fine di espri3
mersi e comunicare».
2. LE ORIGINI
L’origine del laboratorio teatrale va cercata tra i molti,
singolari avvenimenti che hanno caratterizzano la storia del
teatro del Novecento. Rispetto al secolo precedente il teatro
si riavvicina alla vita personale e sociale dell’uomo riassumendo una forte valenza valoriale. Questo nuovo sguardo
che il teatro ha su di sé porta a una significativa accentuazione di due aspetti strutturali: al suo interno ha per centro
l’attore, al suo esterno ha per obiettivo la comunicazione con
lo spettatore. Tutto ciò è stata una vera rivoluzione per la
storia teatrale:
La rivoluzione culturale, che ha caratterizzato il teatro nel XX secolo,
può essere paragonata per importanza alla rivoluzione copernicana la
1 G. Oliva, Educazione alla Teatralità e formazione, LED, Milano, 2005,
p. 234.
2 Ibidem.
nuova centralità che acquistò l’attore nel teatro del Novecento scon3 Ivi, p. 235.
45
SCIENZE ARTISTICHE | SCIENZE E RICERCHE • N. 5 • MARZO 2015
volse il modo di pensare e fare teatro; se, nell’essenza, l’evento teatra-
È proprio qui, in questo spostamento dell’attenzione dallo spettacolo
le restava lo stesso, composto sempre da un testo, da uno spazio e una
come fine ultimo alla centralità dell’attore come protagonista di un
scenografia, da elementi quali le luci, la musica, il trucco, ecc. in realtà
processo, che si colloca l’incontro tra teatro ed educazione. Il teatro
tutto diventava secondario e finalizzato alla messinscena dell’uomo,
diviene il luogo della scoperta e delle possibilità, lo spazio in cui la
dei suoi pensieri, delle sue emozioni.4
fantasia e la creatività possono esprimersi liberamente. Esso si incontra con la pedagogia nel momento in cui pone al centro l’uomo e gli
Questa profonda modificazione del processo teatrale mostra immediatamente le ragioni del suo legame con il processo educativo: le emozioni, i pensieri e le relazioni dell’attore sono immediatamente manifestazione e riflessione sui
pensieri e sulle relazioni della persona e offrono ad entrambi
la possibilità di lavorare su se stessi e sulla propria consapevolezza del sé. In questa accezione si muovono personalità del teatro come Stanislavskij, Mejerchol’d, Vachtangov,
Copeau, Brecht, Grotowski, Brook, Boal, Barba e tanti altri.
Con loro si intrecciano con naturalezza le teorie dei maggiori pedagogisti degli ultimi due secoli: Dewey, Montessori, Freinet, Maritain. Il Novecento si presenta, infatti, come
un’epoca nella quale l’uomo va alla ricerca di sé, della propria identità e delle ragioni del suo vivere sociale. Il fatto
educativo, e al suo interno lo strumento privilegiato del teatro, diventano pertanto espressione di un bisogno personale
e sociale: l’uomo è alla ricerca dell’autenticità della propria
umanità, dei valori che possono garantire una vita buona,
positiva e riconciliata.
Il processo teatrale risponde a questa necessità perché è
in grado di offrire al percorso educativo non solo teoriche
ma energie e soluzioni creative:
I laboratori [teatrali] del XX secolo si configurano dunque come esperienze formative per l’uomo ancora prima che per l’attore: il teatro del
futuro poneva le radici nella pedagogia che diventa pedagogia teatrale, lontana dagli insegnamenti istituzionali, in grado d’essere davvero
creativa e non pura e semplice trasmissione di conoscenze.5
Per arrivare a uno sviluppo e a una crescita armonica della
persona il laboratorio si serve di azioni pratiche. L’educatore
alla teatralità utilizza una metodologia precisa organizzata
in esercizi creativi, si avvale di strumenti metodologici che
nascono dalla scomposizione stessa delle componenti del teatro. Il linguaggio, il testo, lo spazio, il tempo, l’improvvisazione, lo studio del personaggio, i suoni e i materiali scenici
vengono analizzati ed esaminati nelle loro caratteristiche,
teatrali e sociali. Un linguaggio performativo, diretto all’azione, con regole proprie e che tiene conto del suo utilizzo
nel progetto creativo finale.
dà voce, nel momento in cui recupera ogni singolo individuo con la
propria personalità e la propria espressività e lo fa crescere attraverso
un percorso individuale che è però inserito in un disegno di gruppo.
E nell’incontro di queste due realtà, quindi, che nasce il laboratorio
teatrale.6
Il teatro focalizzandosi propriamente sull’esperienza-laboratorio dell’attore-persona in relazione con gli altri attori-persone, va a coincidere con il percorso pedagogico del
singolo e del gruppo. Tutto questo avviene grazie anche allo
sviluppo di strumenti come l’immaginazione, l’improvvisazione, la creatività e l’espressione tipici del lavoro teatrale:
questi strumenti diventano veicolo per la scoperta e la gestione delle proprie emozioni, della propria sensibilità e dei
propri affetti, più in generale, per l’intero mondo interiore
dell’uomo che viene così chiamato in causa e che può quindi
scoprirsi, formarsi, accrescersi, prendersi cura di sé.
Questo modo di pensare e agire trova corrispondenza con i
pensieri pedagogici di alcuni studiosi quali ad esempio, John
Dewey (1859-1952), filosofo e pedagogista americano, che
pone in risalto per la prima volta, nel campo dell’educazione,
l’importanza del vivere l’esperienza che diventa un elemento
importante prima ancora che dei contenuti cognitivi dell’esperienza stessa. Ci si educa all’interno del processo esperienziale inserito nel tessuto sociale.
Anche l’italiana Maria Montessori (1870-1952) presenta
dei significativi punti d’incontro tra la sua analisi pedagogica
e le novità teatrali del Novecento.
La Montessori parla di un’educazione della liberazione, attraverso la
quale il fanciullo deve essere restituito a sé stesso, alla sua natura.
E proprio da questo nuovo punto di partenza che diventa il centro
di tutto l’interesse, che il laboratorio trae il suo senso e giustifica il
suo esistere. Il laboratorio teatrale deve rappresentare innanzitutto un
luogo, un ambiente protetto nel quale l’elemento centrale non è più la
rappresentazione finale, ma il processo, il percorso di pratiche e conoscenze che l’individuo compie e vive su sé stesso in prima persona.
Ciò che diviene fondamentale allora é la sperimentazione, la messa
in gioco, l’esplorazione, il confronto e lo scontro con altre realtà, in
modo tale da entrare nel teatro con tutto sé stessi, a partire proprio da
quel pratico che si realizza concretamente.7
3. L’INTRECCIO CON LE TEORIE PEDAGOGICHE
L’intrecciarsi delle nuove esperienze teatrali con la riflessione e la prassi pedagogica nasce da questo nuovo modo di
concepire e vivere il teatro.
G. Oliva (a cura di), La pedagogia teatrale, Arona
(Novara), Editore XY.IT, 2009, p. 27.
4
5 Ibidem.
46
Il teatro diventa pertanto quel luogo protetto nel quale il
soggetto può, in assenza di giudizio, indagare se stesso, mettersi alla prova in relazione a sé e con gli altri, improvvisare
nuovi scenari, giocare nuove personali libertà mediando tra
la sua intimità e la sua socialità per giungere a una nuova
6 G. Oliva, Educazione alla Teatralità e formazione, cit., p. 231.
7 Ivi, p.233.
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | SCIENZE ARTISTICHE
forma nel proprio percorso di crescita umano.
Il pensiero di questi due pedagogisti, in estrema sintesi,
mostrano chiaramente come pedagogia e laboratorio teatrale
si intreccino a vicenda in maniera molto proficua. In sintesi:
L’equilibrio tra queste due dimensioni, quella pedagogica e quella
teatrale, diventa indispensabile in un laboratorio di educazione alla
teatralità che vuole essere un luogo in cui la consapevolezza psichica e
fisica di sé e la capacità espressiva dell’identità ritrovata si sviluppino
in modo armonico. La formazione dell’attore-persona non è finalizzata alla trasformazione dell’uomo in un “altro” rispetto a sé, ma ha
come obiettivo di valorizzare le sue qualità nel rispetto, sempre, della
sua personalità.8
Si parla dunque di “educazione attiva” giacché forma nel
soggetto attitudini che gli permettono di sapere come agire,
adeguatamente, in situazioni sociali sempre nuove. In altre
parole si cerca di salvaguardare, con modi e intenti differenti,
la dignità della persona e la validità della società di cui fa
parte.
4. L’INTERDISCIPLINARIETÀ
Un teatro che si intreccia con le teorie pedagogiche e che
pone in essere un’esperienza educativa ampia diventa uno
spazio in continuo scambio con le scienze umane.
L’Educazione alla Teatralità è una scienza che vede la
compartecipazione al suo pensiero di discipline quali la
pedagogia, la sociologia, le scienze umane, la psicologia e
l’arte performativa in generale. La scientificità di questa disciplina ne permette un’applicabilità in tutti i contesti possibili e con qualsiasi individuo, poiché pone al centro del suo
processo pedagogico l’uomo, in quanto tale e non in quanto
necessariamente abile a fare qualcosa.
L’interdisciplinarietà dell’Educazione alla Teatralità è
pertanto una conseguenza immediata del fatto che educazione ed esperienza teatrale si rivolgono all’intera personalità
dell’uomo in tutte le sue dimensioni e questo non è solo un
rivolgersi teorico ma, come abbiamo visto, è un mettere in
gioco/in scena, uno sperimentare concreto, libero e creativo.
A questo laboratorio sono pertanto invitate diverse altre discipline umane, individuali e sociali, così come esso si può
rivolgere a svariati soggetti e diversi contesti. Qualsiasi persona ha qualcosa da dire, o meglio, ha molto da esprimere:
occorre solamente la disponibilità a mettersi in gioco e a liberare la propria creatività.
5. IL LABORATORIO COME STRUMENTO
METODOLOGICO
L’arte teatrale si fa strumento educativo nella forma del laboratorio. È questo il luogo di lavoro di sperimentazione e di
crescita. Il laboratorio teatrale ha una forte valenza pedagogica e offre un importante contributo nel processo educativo,
8 Ivi, p. 234.
poiché, nel percorso che ognuno compie su di sé, conduce
a imparare a “tirare fuori” ciò che “urla dentro”, conoscere
e controllare la propria energia, a convivere con ciò che in
un primo momento si è represso o rimosso. Il teatro, vissuto nella dimensione del laboratorio, permette di ampliare
il campo di esperienza e di sperimentare situazioni di vita
qualitativamente diverse da quelle abituali, che possono contribuire alla ridefinizione di sé, del mondo, degli altri. Fare
teatro, in questo senso, significa allora rivedersi nel proprio
passato: rivivere angosce, rivisitare certi comportamenti o
situazioni, non per rimuoverle, ma per prendere coscienza di
essere cresciuti e riconoscere le proprie positività.
Il laboratorio teatrale si muove lungo tre dimensioni strumentali. Innanzitutto l’esperienza laboratoriale è azione
fisica che coinvolge nella sua interezza il corpo e la voce
dell’attore-persona. I gesti, la forma, il movimento esprimono o nascondono delle risonanze interiori. La voce e le parole
sono, all’interno di questa corporalità, infatti, essa conferma,
chiarisce, sottolinea o smentisce la verità delle posizioni del
corpo; allo stesso tempo vi è anche la relazione inversa: è il
corpo che dà forza o indebolisce la verità delle parole.
Una seconda dimensione è la creatività. Per definizione il
laboratorio teatrale è il luogo in cui l’attore-persona può e
deve dare libero sfogo alla propria immaginazione che non è
sempre possibile nella vita quotidiana, infatti, in tale spazio
la persona sviluppa la propria energia che si condensa in nuove creazioni che aprono orizzonti inediti alle sue conoscenze.
Da ultimo si intreccia con questi due elementi anche la dimensione sociale. Il corpo è sempre in relazione con ciò che
lo circonda: altri corpi, oggetti, ambienti e quant’altro. Così
l’esperienza dell’attore-persona si modula nel confronto, più
o meno conflittuale, con la sfera del vivere insieme.
Questi strumenti “vissuti” nel laboratorio determinano alcune dinamiche rispetto alla vita quotidiana che mettono in
luce la valenza pedagogica ed educativa di tale esperienza.
La prima dinamica è quella della sospensione. Nel laboratorio l’esperienza quotidiana è temporaneamente sospesa e
si crea una dimensione di vita protetta dai condizionamenti
e dai giudizi nei quali normalmente la persona è immersa.
Questa specificità è preziosa perché può consentire lo stabilirsi di condizioni di fiducia: l’ambiente ottimale per ogni
processo e relazioni educative.
La dinamica della sospensione mette in grado i soggetti
coinvolti di esplorare se stessi, la situazione e le risorse personali e sociali da mettere in campo. È questa possibilità che
risulta altamente formativa per gli attori in gioco.
La tappa dell’esplorazione è propedeutica a quella che si
può definire della “costruzione”. L’esito del processo di un
laboratorio può, infatti, portare il singolo attore-persona o
il gruppo intero a riconoscere una nuova forma di atteggiamento personale, di interiorità psichica o di comportamento
sociale che si è venuta costruendo proprio nel lavoro teatrale
e che diventa ora patrimonio educativo consolidato. Questa
novità esprime quella possibilità concreta di cambiamento
che ogni processo educativo deve far emergere e, passo dopo
passo, condurre a compimento.
47
SCIENZE ARTISTICHE | SCIENZE E RICERCHE • N. 5 • MARZO 2015
Quanto brevemente descritto risulta modularsi all’interno
dell’esperienza laboratoriale su tre livelli mutuamente intrecciati:
- livello individuale: l’attore-persona mette in gioco abilità precise per
riuscire a stare sulla scena o per reggere un confronto con un pubblico, attraverso quel mezzo di contatto con sé stesso che, in teatro, è
costituito dal monologo drammatico; deve servirsi poi ditali abilità
In questa formula, all’interno della parola metodologia è
contenuta anche l’esperienza necessaria dell’improvvisazione. Questo strumento ha uno scopo educativo prima ancora
che teatrale in quanto ha una forza introspettiva enorme, essendo capace di lasciar affiorare innumerevoli elementi personali (emozioni, ricordi, intuizioni, sensazioni) altrimenti
nascosti e sommersi ma che influenzano la personalità e l’azione del soggetto.
nella vita quotidiana, ottenendo una maggiore gratificazione sia da sé
stesso, sia dagli altri;
7 L’EMOZIONE
- livello relazionale: in questa fase l’individuo si sperimenta nel dialogo, ovvero nella relazione psico-fisica con il partner sulla scena. Per
cercare di stabilire un contatto emotivo con il compagno è necessario
che si sviluppino ulteriormente alcune facoltà umane, quali la precisione e il controllo del proprio sé;
L’esperienza del provare emozioni non è una scelta dell’individuo: l’emozione accade nel mondo psichico della persona su sollecitazione di un fatto esterno ad esso ma anche per
dinamiche tutte interiori non facilmente riconoscibili.
- livello gruppale: in questa ultima fase l’individuo si sperimenta nel
e con il gruppo.9
L’emozione va considerata un costrutto psicologico nel quale intervengono diverse componenti, una componente cognitiva finalizzata
Nella situazione didattica del laboratorio teatrale si attivano delle forze particolari tra gli allievi, l’educatore e il
gruppo nel suo insieme: le loro esistenze creative entrano in
una relazione dinamica. Il completamento del sé avviene mediante questo confronto con l’altro, un’interazione che non
può avvenire senza dialogo e senza sperimentazione.
alla valutazione della situazione-stimolo che provoca l’emozione; una
componente di attivazione fisiologica determinata dall’intervento del
sistema neurovegetativo; una componente espressivo-motoria; una
componente motivazionale, relativa alle intenzioni e alla tendenza ad
agire/reagire; una componente soggettiva consistente nel sentimento
provato dall’individuo. Tutte le componenti sono interdipendenti tra
loro e partecipano a determinare l’esperienza emozionale.12
6 LA PRE-ESPRESSIVITÀ
Se è vero che ogni persona non può non comunicare, non
è altrettanto vero che ogni persona è sempre consapevole del
suo status espressivo.
L’Educazione alla Teatralità parte dalla certezza che ogni
soggetto ha una propria pre-espressività naturale che lo caratterizza in modo particolare, anche se non si è consapevoli
di ciò. Prenderne coscienza significa conoscere se stessi e
questo implica la voglia e l’intenzione di mettersi in gioco,
di andare alla ricerca e alla scoperta di sé in modo profondo.
Il concetto di pre-espressività, quindi, serve in quanto è in relazione
all’attore, una persona che usa una tecnica extra-quotidiana del corpo,
in una situazione di rappresentazione organizzata; nasce con l’individuo e lo accompagna lungo tutto il suo cammino modellandosi e trasformandosi con lui. In questo senso allora non è quindi corretto fare
riferimento all’uomo e alla pre-espressività come due realtà distinte: i
Questa definizione aiuta a comprendere come l’emozione sia un fenomeno fortemente complesso che innerva tutta la vita dell’uomo. Non ci sono ambiti nei quali l’uomo
non prova emozione: ci sono semmai situazioni nelle quali
le emozioni si nascondono o si manifestano apertamente; si
muovono in sintonia con le azioni che l’uomo compie, oppure le ostacolano rendendole difficili o impossibili; ci sono
momenti in cui il soggetto riconosce le proprie emozioni e le
gestisce utilmente e momenti altri nei quali, invece, il soggetto è travolto dalle stesse conseguenze non sempre positive
per la propria vita; ci sono situazioni, infine, dove la persona
censura le proprie emozioni non volendo o non potendo riconoscerle nemmeno a se stessa. La complessità di questa
esperienza è potenziata anche dal fatto che le emozioni sono
sempre attività interiori in vicendevole scambio con il corpo: l’emozione vive nel corpo e lo condiziona ma allo stesso
tempo lo stato del corpo influisce sulle emozioni.
due termini si coinvolgono reciprocamente.10
Le emozioni sono espresse e comunicate nella stragrande maggioran-
La persona non rivela pienamente se stessa se non scopre
e accresce la propria pre-espressività. Lo sviluppo della fantasia e della creatività è conseguentemente l’obiettivo principe da raggiungere per valorizzare le qualità personali dei
soggetti in gioco. Questo obiettivo è raggiungibile seguendo
la formula sintetica: «pre-espressività + metodologia = sviluppo della creatività individuale».11
9 Ivi, p. 237.
10 Ivi, p. 235.
11 G. Oliva, Il Laboratorio Teatrale, Milano, LED, 1999, p.89.
48
za dei casi, oltre che con il linguaggio parlato, soprattutto attraverso
una serie di segnali non verbali che riguardano la faccia, l’intonazione
della voce, il corpo ecc. ln una certa misura e in modo differente da
individuo a individuo e da cultura a cultura questi segnali non verbali
e verbali che denotano emozioni possono essere tenuti sono controllo,
mascherati, inibiti o, ancora, evidenziati a seconda delle circostanze.13
12 R. Di Rago, (a cura di), Emozionalità e teatro. Di pancia, di cuore, di
testa, Milano, Franco Angeli, 2008, p. 77.
13 Ivi, p. 78.
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | SCIENZE ARTISTICHE
Risulta evidente come un’educazione delle emozioni sia
necessaria per l’esistenza della persona. Questa educazione
assume spesso l’aspetto di una vera e propria alfabetizzazione emotiva che parte innanzitutto da una domanda di base
che non va mai data per scontata: quali sono i nomi che posso dare a ciò che vivo e sento adesso dentro di me? Saper
raccontare il proprie emozioni con parole ricche e dense di
significato è il primo passo per saper convivere con esse in
maniera riconciliata e positiva. Le emozioni sono, infatti, un
arcipelago talvolta ambiguo e contraddittorio che possono
offrire gusto ma anche disgusto alla vita così come possono
essere un enorme vantaggio per le funzioni cognitive (intelligenza emotiva) oppure inibirle potentemente e, infine, sono
risorse preziosissime per le relazioni umane ma anche causa
di depressioni e chiusure autistiche.
per proiettarle al di fuori di se stessi, controllarle, viverle e
poterle condividere a una certa distanza, finché diventa possibile reintrodurle dentro di sé. Non sempre è possibile evitare le frustrazioni ma possiamo imparare a tollerarle, l’attività
teatrale può offrire alternative facilmente fruibili per riuscire
a dominare stati d’animo negativi. L’attività teatrale aiuta la
persona a prendere coscienza del proprio linguaggio corporeo e a essere consapevole dei propri comportamenti, delle
proprie emozioni, dei propri pensieri, questo è il primo passo
per avere un dialogo autentico con se stessi e riuscire a raggiungere una piena crescita, accettazione e consapevolezza
di sé.
Lo stato di salute e il benessere individuale dipendono in gran parte
Educare vuol dire favorire l’accrescimento positivo della
personalità del soggetto, aiutandolo a cogliere le proprie risorse positive, contribuendo a sciogliere e riconciliare i nodi
problematici che può portare in sé, perché giunga ad una
umanità complessiva più serena e matura e quindi in grado
di realizzare se stessa in relazione con gli altri e con l’ambiente in cui si trova. La creatività è una delle risorse più importanti per questo processo di maturazione proprio perché
fa da ponte tra l’io interiore e l’io in relazione con gli altri.
Educare pertanto vuol dire anche educare alla creatività, liberando la persona dagli eventuali blocchi e consentirle uno
sviluppo continuo, rimuovendo cosi gli ostacoli sia culturali
che psichici.
dal controllo e dalla regolazione delle emozioni. La capacità di controllare, esprimere, vivere e sentire le emozioni è una qualità che non
tutte le persone possiedono in eguale misura e che, in talune circostanze, può essere particolarmente importante sviluppare o acquisire. Si
è parlato a tale proposito di “intelligenza emotiva”. Questo termine,
sono linea l’esistenza, tra i vari fattori che costituiscono l’intelligenza
umana, di un’abilità emotiva che permette a molti individui di sapersi
muovere con successo, di vivere meglio e, spesso, più a lungo. Gli
ambiti in cui sostanzialmente questa abilità emotiva si esplica riguardano:
l. la conoscenza delle proprie emozioni, ovvero la capacità di essere
autoconsapevoli dei propri vissuti emotivi e di sapersi osservare;
8. L’ATTIVITÀ TEATRALE COME PEDAGOGIA DELLA
CREATIVITÀ
2. il controllo e la regolazione delle proprie emozioni (appropriatezza
nell’espressione e nel vissuto emotivo, evitare il cosiddetto “sequestro
Alla base dell’educazione alla creatività c’è la fiducia nella persona,
emotivo” ovvero di essere dominati dalle emozioni);
vista come capace di assumere su di sé la responsabilità del proprio
3. la capacità di sapersi motivare (predisposizione di piani e scopi,
agire. All’individuo viene data la possibilità di affermare la propria
capacità di tollerare le frustrazioni e di posporre le gratificazioni);
individualità tramite il ricorso a una molteplicità di linguaggi, sia di
4. il riconoscimento dell’emozione altrui (empatia);
tipo verbale sia non verbale.15
5. la gestione delle relazioni sociali tra individui e nel gruppo (capacità di leadership, negoziazione
ecc.)14
L’urgenza di educare al riconoscimento e alla gestione delle emozioni è avvalorata anche dal fatto che nel mondo di
oggi, la società e in particolare l’industria del commercio, si
occupano delle emozioni della persona, quindi diventa necessaria un’ educazione alle proprie emozioni, cioè aiutare
il soggetto a riconoscerle nella loro complessità per aiutarlo
a maturare un equilibrio personale in rapporto con i propri
valori, la concretezza reale della propria vita e la forza delle
proprie scelte.
Attraverso un percorso che permette di lavorare sul rapporto con se stessi e con gli altri il laboratorio teatrale consente di mettere in moto le proprie risorse in modo da riuscire
a percepire e ad affrontare nodi emozionali, conflitti interiori,
blocchi comunicativi. Il gioco teatrale in relazione ad un altro
essere umano diviene strumento per tollerare emozioni forti,
14 Ibidem
Il laboratorio teatrale è in grado pertanto di condurre il
soggetto in un percorso di crescita e di formazione anche
della propria sfera immaginativa, attivando così quelle potenzialità originarie della persona.
9 EDUCAZIONE AL BELLO
Il compito dell’arte è quello di rivelare il bello della realtà,
liberandolo dalle impurità che lo offuscano.
Il teatro non deve mai dimenticare la sua natura artistica: oltre a recuperare il soggetto in stato di bisogno, deve soprattutto comunicare
il senso estetico dell’arte stessa; il teatro è arte, prima di tutto, e la
persona che si avvicina ad esso deve comunque ricercare all’interno di
sé la fantasia e la creatività che la contraddistinguono.16
Attingere alle esperienze per la persona vuole essere un
15 G. Oliva, Educazione alla teatralità e formazione, cit., p.22
16 Ivi, p. 238.
49
SCIENZE ARTISTICHE | SCIENZE E RICERCHE • N. 5 • MARZO 2015
modo per riscoprire con libertà le dimensioni più autentiche
dell’esistenza che testimoniano una meravigliosa sinfonia tra
il buono, il bello e il vero. La creatività, la cura degli affetti
e delle emozioni, l’espressione libera e armonica del proprio
corpo in sintonia con l’anima favorisce la scoperta del concetto del bello.
L’arte ne è pienamente testimone: ogni manifestazione
artistica si sottrae alla dimensione della necessità mentre si
trova a suo agio nella dimensione gratuita del dono e del divertimento.
Non si tratta tanto di imparare una gestualità nuova, di elasticizzare
la mente con la recita di una parte a memoria, quanto, piuttosto, di
introiettare una nuova categoria esistenziale sradicata dal consumo,
È importante procedere a fissare le improvvisazioni libere
che segneranno la prima fase del lavoro in situazioni definitivamente concordate, idee comunemente accettate, battute
precise, elementi di un vero e proprio dialogo teatrale.
Inoltre il conduttore del laboratorio ha il compito di dirigere, contenere e indirizzare il gruppo verso una piena accettazione dell’altro. Tale soggetto si configura necessariamente come attore-educatore e pertanto deve essere in grado
di padroneggiare professionalmente competenze teatrali e
pedagogiche.
Nella sua attività egli deve modulare i vissuti e l’espressività degli allievi in modo che la dimensione corale del processo creativo deve permettere lo sviluppo dell’individuo e
quello del gruppo.
dal vuoto apparire, dal cannibalico bisogno di avere tutto e subito.
Il teatro diventa uno spazio-tempo significativo per acquisire la con-
Il maestro di teatro, all’interno di un percorso formativo, diventa un
sapevolezza che ovunque, anche in carcere, anche in se stessi, pur
educatore e quindi lo si definisce un educatore alla teatralità. Quest’ul-
essendo ritenuti criminali marchiati oppure disabili, mancanti di qual-
timo ha il compito di orientare e sostenere, proporre stimoli, offrendo
cosa e autoconfermanti questa etichetta, si può ritrovare qualcosa di
suggerimenti, ribadendo osservazioni e domande piuttosto che for-
bello. Questa consapevolezza si traduce nell’acquisizione di un nuovo
nendo risposte, informazioni e concetti esclusivamente teorici. È op-
strumento interpretativo di sé e del mondo.17
portuno che costui non si ponga come modello da imitare, ma sappia
essere una figura di riferimento. L’educatore alla teatralità deve cono-
L’esperienza teatrale vissuta nel “processo” conduce
all’accrescimento della libertà e della creatività personale,
più il soggetto cresce nella propria formazione umana, più si
scopre artista e “produce” arte rivelando il bello di sé e della
vita, scoprendo il bello dovunque e in ogni persona.
scere i metodi dell’Animazione Teatrale cui è fondamentale l’esserci,
sapendo diventare elemento integrante per la costituzione e collaborazione del gruppo. Accanto a questo è importante che comprenda e intuisca i modi con cui stimolare la reazione espressiva di ogni allievo.
L’educatore, una volta colta nell’allievo la disponibilità ad esprimersi,
deve essere in grado di farsi da parte per non sovrapporsi a lui per non
10 IL RUOLO DELL’EDUCATORE TEATRALE
50
soffocare la sua creatività.18
Dirigere un lavoro di questo tipo per un insegnante che
svolge il ruolo di educatore teatrale significa evidentemente
procedere all’accumulo di immagini, suggerire analogie di
comportamenti, stimolare riflessioni logiche e, talvolta, favorire intuizioni poetiche. Spesso occorre che egli partecipi
in prima persona al gioco dell’immaginazione per smuovere
qualche inibizione, per sciogliere qualche riserbo, per fornire
qualche esempio, per sentirsi e mostrarsi coinvolto in prima
persona con tutto il proprio personale bagaglio fantastico nel
processo creativo. Il ruolo dell’adulto, in questo senso, è per
molti aspetti assimilabile a quello che in teatro è affidato al
regista, a colui cioè cui compete la responsabilità delle decisioni finali.
All’adulto, infatti, spettano diversi compiti: determinare la
direzione di ricerca che il lavoro dovrà assumere, stabilire la
successione e la consistenza delle diverse fasi in cui si articola il processo creativo e indicare le eventuali variazioni di
programma.
Le prove di uno spettacolo si chiamano così proprio perché
in esse è insita la possibilità dell’errore, infatti, la loro funzione è quella di indagare sempre in più direzioni, alla ricerca
della soluzione che risulti più soddisfacente e più congrua in
rapporto all’economia complessiva della rappresentazione.
Nel laboratorio teatrale il conduttore deve pertanto essere
allo stesso tempo: un regista teatrale, un educatore e un animatore. Solo l’intreccio sapiente di queste tre competenze
consente al singolo individuo e al gruppo di vivere in maniera proficua il percorso pedagogico all’interno dell’esperienza
teatrale.
Comune a tutte e tre queste dimensioni sono l’impianto
maieutico: il conduttore del laboratorio deve avere fiducia
nelle potenzialità dei soggetti e deve saper costruire quelle
condizioni che consentono a ciascuno e al gruppo di lasciar
affiorare i propri elementi significativi, emozioni, immaginazioni, ricordi, azioni, eventi. La sapienza del regista che,
a questo punto, è a tutti gli effetti anche un educatore, consiste proprio nel generare quella dimensione comunicativa e
affettiva nella quale ogni partecipante si possa sentire libero
di esprimersi. Il maestro del laboratorio teatrale deve promuovere ma non vincolare; guidare ma non dirigere; suscitare ma non riempire di contenuti; dare sicurezza ma non
imporsi: questo difficile equilibrio necessita di competenze
sperimentate sul campo e di qualità umane affinate da tempo
in un continuo lavoro personale su di sé. Sotto il profilo più
strettamente pedagogico:
17 C. Cariboni, G. Oliva, A. Pessina, Il mio amore fragile. Storia di
Francesco, Arona, Editore XY.IT, 2011, p.113.
18 G. Oliva (a cura di), La pedagogia teatrale, Arona (NO), Editore
XY.IT, 2009, p. 42.
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | SCIENZE ARTISTICHE
[…] le caratteristiche peculiari richieste all’educatore alla teatralità cominciano dalla sua dimensione personale: è necessario che sia
una persona matura che sappia mettersi in discussione. che sia dotato
di capacità comunicative e che possegga una flessibilità intellettiva
che gli permetta di adattarsi a tutte le situazioni, soprattutto poi che
sia motivato e abbia uno stile giocoso e positivo che traspaia dal suo
modo di lavorare [...] È importante che sia in grado dì gestire sapien-
il conduttore deve necessariamente possedere in modo tale
da poter adeguare le proprie proposte educative all’ambiente
e alle persone con cui lavora. Per far in modo che le abilità
creative personali possono essere sviluppate dall’educazione teatrale, occorre che siano offerti strumenti e contenuti
adeguati, risulta quindi indispensabile la costruzione di un
progetto educativo teatrale con obiettivi specifici e prefissati.
temente la relazione, sapendo porre al centro il singolo individuo ma
non trascurando la dimensione del gruppo: per questo è importante
RIFERIMENTI BIBLIOGRAFICI
che sia buon osservatore, così da cogliere le caratteristiche e i problemi delle persone che si trova di fronte. In ogni modo deve saper
accogliere incondizionatamente ogni allievo ed avere la capacità di
riporre in ciascuno la sua fiducia [...] È fondamentale che abbia anche
doti organizzative, cioè sia in grado di progettare un intervento educativo consono alla situazione, che si sappia muovere all’interno delle
diverse realtà in cui si può trovare ed operare.19
Per quel che riguarda invece la conoscenza della pedagogia teatrale, il conduttore di laboratorio:
Non è necessario che sia un attore professionista, però deve avere una
buona competenza sia a livello teorico che pratico del teatro; non è
possibile pensare che il conduttore di un laboratorio teatrale non abbia
sperimentato personalmente il percorso che va a proporre ad altri. È
necessario, inoltre, che egli possieda una buona conoscenza della storia del teatro così da saper favorire nei suoi allievi la curiosità verso
la cultura teatrale ed esserne vero promotore [...]. Per l’educatore alla
teatralità è opportuno saper gestire l’arte teatrale nella sua globalità,
per questo motivo la sua competenza si estende a tutte le arti, dal movimento, alla musica, dall’uso delle scene all’illuminotecnica.
È utile sottolineare che il rapporto maestro-discepolo sia
di tipo affettivo-relazionale. Un rapporto che non ha questa
profondità non consentirebbe l’attivazione di tutte le dimensioni precedentemente descritte. Questa relazionalità affettiva è il vero e proprio amore pedagogico come ci ricorda
Eugenio Barba:
Parlare di rapporto educativo significa far spazio all’amore pedagogico. In esso vi è la coincidenza di due realtà distinte: l’unità nella
diversità. Infatti, il vero amore esalta le singole personalità all’interno
delle differenze. L’amore presenta alcune caratteristiche:
- Protezione. Il vero amore sa proteggere facendo capire all’altro di
essere sempre disponibile e sa lasciar liberi di sperimentarsi nella propria individualità.
Gaetano Oliva, Il laboratorio teatrale, Milano, LED, 1999.
Gaetano Oliva, L’educazione alla teatralità e la formazione. Dai fondamenti del movimento creativo alla form-azione, Milano, LED, 2005.
Serena Pilotto (a cura di), Creatività e crescita personale
attraverso l’educazione alla arti: danza, teatro, musica, arti
visive. Idee, percorsi, metodi per l’esperienza pedagogica
dell’arte nella formazione della persona, Atti del Convegno
13 e 14 febbraio 2006, Teatro “Giuditta Pasta” Saronno, Piacenza, L.I.R., 2007
Rosa Di Rago, (a cura di), Emozionalità e teatro, Milano,
Franco Angeli, 2008.
Gaetano Oliva, (a cura di), La pedagogia teatrale. La voce
della tradizione e il teatro contemporaneo, Arona, XY.IT
Editore, 2009.
Gaetano Oliva, L’Educazione alla Teatralità e il gioco
drammatico, Arona, XY.IT Editore, 2010.
Gaetano Oliva (a cura di), La musica nella formazione della persona, Arona, XY.IT Editore, 2010.
Catia Cariboni, Gaetano Oliva, Adriano Pessina, Il mio
amore fragile. Storia di Francesco, Arona, XY.IT Editore,
2011.
Enrico M. Salati, Cristiano Zappa, La pedagogia della
maschera. Educazione alla teatralità nella scuola, Arona,
XY.IT Editore, 2011.
Gaetano Oliva, Serena Pilotto, La Scrittura Teatrale nel
Novecento. Il Testo Drammatico e il Laboratorio di Scrittura
Creativa, Arona, XY.IT Editore, 2013.
Gaetano Oliva, Education to Theatricality inside Secondary School, Art and Body, CE Creative Education (USA),
Vol.5 No.19, November 2014, pp. 1758-1775.
Gaetano Oliva, Education to Theatricality: Creative Movement as a Training Model”, Global Journal of HUMAN-SOCIAL SCIENCE: G Linguistics & Education, Global Journals Inc. (USA), Volume 14 Issue 9, 2014, pp. 1-20.
Distinzione. Il vero amore riconosce i bisogni dell’altro.
- Razionalità. Il vero amore non va mai disgiunto dalla ragione, le
degenerazioni sono dovute ad un prevalere dell’irrazionalità.
- Oblatività. È il sentimento di comprensione e disinteressamento tipico dell’amore genitoriale.20
Flessibilità, adattabilità ed elasticità sono prerogative che
19 G. Oliva, L’Educazione alla Teatralità: il gioco drammatico, Arona
(NO), Editore XY.IT, 2010, p. 264.
20 G. Oliva, (a cura di), La pedagogia teatrale, cit., p. 41.
51
FILOLOGIA | SCIENZE E RICERCHE • N. 5 • MARZO 2015
Eterovalutazione vs autospiegazione:
nuove filologie per la divulgazione in
aree scientifiche di temi interdisciplinari
GRAZIELLA TONFONI
Dipartimento di Storia Culture Civiltà, Alma Mater Studiorum Università di Bologna
C
PREMESSA
ostantemente si notano, oggi, le conseguenze di una oggettiva difficoltà, in particolare
presso la comunità accademica italo-europea, ad affrontare, in modi consensualmente accettabili, i problemi che emergono
nella prassi di valutazione di ricerche avanzate, come tali
irrimediabilmente difficili da catalogare. Le principali cause
sono l’entropia comunicativa, la confusione informativa, la
complicazione paradossale nell’applicazione di criteri di giudizio astratti, come si notano nella compilazione della modulistica attuale. Si possono rilevare casi ‘effettivamente assurdi’ con valutazioni del tutto disomogenee, perfino opposte
in varie aree di eurozona, date le dinamiche tumultuose, le
diacronie espressive, le fasi di rendicontazione accelerate..
Si evidenzia la necessità di avviare un percorso di “storia
dei sistemi di valutazione”, attingendo anche alle ricerche
indicate in questa silloge, basata su una esperienza unica,
testimonianza singolare, ampiamente documentata in eurozona. Se ne rileva la totale differenza, la non equiparabilità,
la mancanza di equipollenza, dei casi accademici singoli, fra
loro molto diversi, che non possono, neppure devono essere
considerati sulla base di categorie omologanti.
1.UN ESEMPIO CONCRETO
La valutazione di un percorso di ricerca interdisciplinare,
che intende proporre una piattaforma didattica di ecologia
dell’informazione, di etnolinguistica per euro-zona, di antropologia della comunicazione scientifica, tecnica e letteraria,
nel secondo decennio del terzo millennio in lingua italiana,
risulta effettivamente complicata. Si rende indispensabile
ricorrere a modalità di ragionamento complesse e rigorose.
Ciò porta alla necessità di provvedere, parallelamente, sintesi e compendi, che rendano possibili usi, consensualmente
sanciti, delle nuove terminologie introdotte. Tali impianti
52
lessicali, devono essere basati sulla quotidiana disamina dei
criteri di selezione, dei parametri di valutazione in corso,
supportati dalle analisi comparative, dalle filologie contrastive, che derivano da test specificamente condotti in “aree
campione”, considerate come particolarmente significative.
Sono infatti proprio le manifestazioni espressive, le emergenze asimmetriche rilevate, che possono facilitare la progettazione di linee evolutive, per uno scenario critico equilibrato. Risulta necessario, per settori interdisciplinari a cuneo
fra raggruppamenti, tematicamente limitrofi o lontani, come
per esempio nel caso del tentativo di ridefinizione di una
nuova piattaforma didattica, scindere nettamente, sdoppiandoli con trasparenza, i rispettivi ruoli di “ricercatori pesanti”, ovvero fortemente produttivi e socialmente responsabili
di un proprio patrimonio scientifico, didattico, narrativo, assai cospicuo, da un lato, e, dall’altro di docenti regolarmente
inquadrati, cui sia proposto di diventare affidatari di tale patrimonio, da studiare con cura, comprendere, integrare, gestire didatticamente in aula. Si tratta quindi di progettare un
“sistema intercapedine”, inteso facilitare la trasmissione di
nuclei di conoscenze delicate, divenute indispensabili nella
prassi accademica, rendendo ampiamente riconoscibile, successivamente riconosciuta, una bibliografia di effettiva attualità che, quando sia effettivamente resa solido riferimento,
possa fornire le più adeguate risposte anche sul piano di una
efficace divulgazione.
Operando rigorosamente su temi emergenti, per integrare
nuove conoscenze, maturate quotidianamente, si può arrivare ad impiantare una piattaforma didattica specificamente
predisposta, illustrandone le modalità, indicandone la tempistica. Per renderla incorporabile nell’ambito di un vigente raggruppamento disciplinare, che già si presenti come un
contenitore di diverse aree come può essere appunto quello
dell’Ecologia, che accorpa anche l’Antropologia.
In tale ambito, che già promuove una particolare attenzione ai fenomeni di spreco energetico, ecco che si potrebbe più
agevolmente inserire un percorso di studio sulla attuale dis-
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | FILOLOGIA
sipazione e riciclaggio delle risorse, edite e pubblicate. Esiste infatti un vero e proprio ‘spreco nella ricerca’ che spesso
conduce ‘a scoprire più volte la stessa ruota’ come si suole
dire.
Essendo già nel settore di studio dell’Ecologia disponibile un intero vocabolario tecnico, si potrebbe più facilmente
introdurre un percorso analogico. Ampliando il concetto di
recupero ovvero di riciclaggio corretto di acquisizioni di conoscenze solide, valide, come rilancio e riproposta di articoli
e volumi, che siano stati veri e propri apripista, ma che spesso vanno perduti.
Si può così proporre una particolare attenzione sul come
sia rilevante oggi capitalizzare di tanta ricerca che, se non
ben catalogata, può andare sommersa dalla massa delle incalcolabili pubblicazioni, spesso affastellate, frettolose, per
eccesso di quantità.
2. DIVERSI PERIODI, DISTANTI PROBLEMI, DISTINTE
SOLUZIONI
Una precisa indagine su campo rivela come numerosi e variegati siano i titoli di nuovi insegnamenti, che si alternano,
si avvicendano nella realtà accademica attuale degli atenei
italiani. Si riscontra invece una ben maggiore difficoltà nella
ridefinizione interna dei vari settori disciplinari, nella selezione del solido sapere pratico, delle tecniche abilità, competenze specializzanti, che possano essere integrate in aree già
ufficialmente esistenti e ben presenziate.
La quantità di energia esplicativa da spendere annualmente, la fatica didascalica da investire quotidianamente, nella
prefigurazione di passerelle interdisciplinari di scorrimento,
che tutelino le figure accademiche dei ricercatori “stile antico”, ovvero di quelle figure accademiche, inserite in atenei
italiani già dai primi anni ottanta, regolarmente confermate,
che siano in transito fra aree del sapere accademico, soprattutto qualora tale spostamento individuale, non avvenga attraverso i regolari canali, predisposti per le idoneità, risulta
crescere esponenzialmente fino a raggiungere picchi preoccupanti, mai prima di ora rilevatisi.
Ne deriva come l’unica forma di possibile collaborazione
nei confronti di chi svolge ricerca rigorosa “all’antica”, ovvero accorpando nella stessa persona i diversi ruoli di ideatrice,
verificatrice documentatrice, presentatrice, critica severa dei
propri prodotti, sempre assai difficili da classificare, debba
essere quella di predisporre appositamente un comitato, che
riconoscendo la assoluta particolarità o anomalia, a seconda
dei pareri personali dei vari commissari, possa accreditare
il valore della testimonianza scientifica materializzandolo,
non mediante un riconoscimento tardivo di idoneità secondo
prassi concorsuale abilitativa, equiparabile alla docenza di
alcuna materia in particolare, ma indicizzando il valore dei
contenuti stabili, attraverso una espressione simbolica di apprezzamento complessivo, per la capacità di resilienza dimostrata da tale assai peculiare figura autonoma, indipendente.
Tale forma trasversale di “rivalutazione simbolica accademica interna” deve naturalmente essere adeguata rispetto al singolo profilo, rispettosa delle classificazioni vigenti,
aggiornata rispetto ai criteri attuali di merito, che sono però
di fatto continuamente cangianti, variegati, spesso in contraddizione. Si propone quindi la espressione descrittiva di
Ricercatore Professore Autocertificato, ovvero responsabile
della autovalutazione dei propri prodotti di ricerca. Tale sottotitolazione, puramente onorifica, sostanzialmente rafforzerebbe la possibile alternativa di una assai più praticabile e
più semplice espressione. Il titolo di Ricercatore Onorario,
oppure di Ricercatore a Vita, se autonomamente coniato da
un ateneo nazionale, non si sovrapporrebbe, interferendo con
le attuali categorie e classi di scorrimento accademico, perché sarebbe assegnabile come formale riconoscimento super
partes, in modalità una tantum, senza comportare ricadute
patrimoniali o incrementi stipendiali di alcun tipo.
La assoluta priorità di “una ricercatrice eccessivamente
pesante”, che ha già prodotto e costantemente produce ricerca in misura qualitativamente e quantitativamente eccedente,
rispetto ai parametri attuali previsti, allo stesso tempo occupandosi di identificare, misurare le parti di suoi manufatti di
ricerca, da redistribuire nei vari settori interessati, cercando
di calibrare le innovazioni effettivamente utili, nel rispetto di
53
FILOLOGIA | SCIENZE E RICERCHE • N. 5 • MARZO 2015
eventuali intersezioni, consiste nella mobilità editoriale assoluta e nella flessibilità interdisciplinare relativa.
Secondo alcuni algoritmi, concepiti e messi a punto nel
gennaio 2015, i rispettivi calcoli, conguagli, conteggi, portano le pubblicazioni interdisciplinari effettivamente innovative e solide a dovere ricevere comunque una valutazione
di impatto qualitativo limitato, secondo l’attuale sistema di
valutazione. Ne deriva un ovvio rallentamento anche nelle
fasi della progressiva divulgazione.
Questo limite penalizza di fatto i lettori e gli utenti finali,
che non vengono esposti a ricerche rilevanti nei tempi utili
ma solo aggiornati con consistenti ritardi.
Per quanto riguarda i settori cruciali, ovvero il cui impatto
sulla vita dei cittadini è forte, immediato, una assegnazione
di precedenza, collide evidentemente con la norma irrigiditasi progressivamente, di procedere alla submission di successivi articoli e saggi, attendendo i tempi standard, previsti
da parte di comitati di referee, secondo le prassi editoriali, le pratiche redazionali, consensualmente riconosciute, le
formattazioni imposte, che non si rivelino negoziabili, non
ammettendo alcun tipo di eccezione alla regola. Un recente conteggio rivela come il dispendio di energie richiesto ad
“una ricercatrice estesa” risulta essere almeno triplicato nel
corso dell’anno 2014. Tuttora si rileva essere in esponenziale
aumento di complessità, quando si arrivi al momento della
rendicontazione finale, come prevista nella modulistica corrente. Si può assistere al paradosso di una griglia interpretativa di valutazione, che categorizza i prodotti sintetici più
rilevanti considerandoli di “valore limitato” non riuscendo
a captarne l’essenza, non riconoscendone la classificazione,
non ammettendone la catalogazione, rendendoli paradossalmente invisibili.
3. L’AUTOFILOLOGIA DIDASCALICA E LA
ETEROVALUTAZIONE ANALITICA
Prima di ridiscutere una prassi eventuale di continuativa
auto-precisazione, che possa sfociare in un cosiddetto patto
di stabilità inter-atenei italiani, per sancire la piena accettazione, senza eccezioni, di criteri di giudizio consoni, rispetto
alle valutazioni generiche ed astratte, proposte per la intera
euro-zona, è necessario premettere che le osservazioni qui
presentate, si limitano a circoscrivere alcuni temi specifici
come quelli affrontati dalla stessa autrice. Precisamente i seguenti:
Le Patologie comunicative in era post-internet; Etno-Antropologia della Comunicazione Scientifica, Tecnica e Letteraria, nel Secondo Decennio del Terzo Millennio in Eurozona; Economia Saggistica (Tonfoni G., 2012-2013); una
divulgazione stabile per una educazione permanente. Criteri
di valutazione, analisi comparative e filologie contrastive in
‘aree campione’ di eurozona. Le manifestazioni espressive e
le emergenze informative in contesti culturali limitrofi, linguisticamente asimmetrici. Turbolenze interpretative visibili
e invisibili.
La reattività negativa che si può manifestare da parte ac54
cademica di fronte ad una oggettiva complessità, è rischio
personale ed individuale costante, che chi conduca ricerca
decisamente controcorrente, su temi controversi, corre quotidianamente.
La capacità di attivare successivi percorsi di rappezzo, basati sulla fiducia nella resilienza bibliografica, è al momento
l’unica soluzione possibile da applicare ad una scheggiata
sinopsi, per restaurare un danneggiato quadro di riferimento, riportando le sintesi di ricerca più importanti ad un certo
equilibrio interno, sia lordo che netto. La riconoscibilità di un
pareggio filologico corretto, si materializza nella selezione di
termini e titoli a cluster, ovvero brevi sintesi, che conducano
velocemente, chi intenda davvero informarsi e formarsi, a
piattaforme didattiche derivate da precise indicazioni bibliografiche, seppur siano stati tali titoli precedentemente non
considerati ottimi e spesso perfino disattesi.
La filologia attuale e futura deve prendere atto di selezioni
di qualità oggi effettuate come risultato di una procedura algoritmica. Si rende evidente la necessità di trattenere, come
dati informativi, le particolarità complessive, per potere rendere una valutazione congrua delle opere attuali. Si è comunque già determinata una svalutazione tecnica, che coloro, che
operano nel settore delle proiezioni, avevano preventivato e
previsto come possibile, ma non auspicabile effetto collaterale.
La pura e semplice applicazione di una procedura automatizzata, che non richieda necessariamente la comprensione
effettiva delle opere, nel secondo decennio del terzo millennio, risulta un meccanismo assai rischioso cui solo l’autoreferenzialità coerente può porre argine se non rimedio
Conteggi approssimativi, conti rarefatti, racconti inesatti,
tendono a fare apparire la compagine filologica italiana più
stabile di quanto effettivamente riesca a risultare alla prova
dei fatti.
Si propone che un nuovo sistema multiparametrico, flessibile, locale, possa diventare un generatore di proposte congrue, di raccolte differenziate, al fine di valutare l’impatto di
ogni paragrafo, regione per regione, ateneo per ateneo.
Permane comunque la necessità di delineare una area di interesse definibile come “Ecologia dell’informazione e della
narrazione”, da lasciare poi come materia di studio, affidabile a docenti di più settori interessati. A volere distinguere le
dicerie dai detti, le superstizioni dai fatti, le conoscenze dalle
ipotesi, per potere smaltire rifiuti semanticamente tossici, per
evitarne le pragmatiche esalazioni e contaminazioni su più
vasto raggio.
Un referendum accademico di futura realizzabilità, porterebbe alla luce l’altrettanto giusta esigenza di fare uscire la
letteratura scientifica italiana del secondo decennio del terzo
millennio da una dipendenza acritica, di matrice euro-centrica, che è comunque destinata a obliterare, sulla base di algoritmi parziali, ad una ad una, prima o poi, tutte le letterature
scientifiche europee. Invalidandone e non convalidandone
senso autonomo e significato autentico.
Una semplice autocertificazione antologica, che dimostri
la capacità della filologia italiana e della commissioni attuali
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | FILOLOGIA
di commentare la letteratura scientifica contemporanea locale, a prescindere da tali algoritmi, sarebbe un segnale coraggioso, che passerebbe alla storia di euro-zona, se avviato in
ambito accademico.
Seguirebbero, a vista, tutte le commissioni addette alle
letterature scientifiche vigenti, le cui istituzioni potranno
procedere, liberandosi da gioghi valutativi, impraticabili vincoli, che assegnano criteri provvisori, in modalità permanente, penalizzando arbitrariamente, chi dovrebbe ricevere una
valutazione di eccellenza, che risulta spesso non registrabile
secondo inderogabili criteri, meccanicamente annullandone
la validità o riconducendola ad una catalogazione in fieri,
proposta al fine di giustificare il contenimento in un giudizio,
che prescinde dall’analisi del contenuto.
Notando le evidenti discrasie, fra un giudizio automatico e
una lettura accurata da parte di esperti, si potranno, in futuro,
evitare eccessi meccanicistici, sostenendo piuttosto chi, rischiando quotidianamente l’ incomprensione e l’ostilità, costantemente si adopera, con difficoltà evidenti, per promuovere la qualità della interpretazione esatta, obiettiva, nella
ricerca precisa. Operando a favore della conservazione delle
singolarità assolute, delle atipicità, non cedibili, di fronte alle
ricadute costanti di valore, che colpiscono conseguentemente i livelli di credito degli atenei coinvolti. In un ambiente
accademico, che troppo spesso considera il valutare automatico, come unica soluzione ai limiti di precedenti prassi, in
una euro-zona confusa. In una area ormai fittamente popolata, come quella italiana già risulta, si propone il rispetto,
il ripristino della autocertificazione autoctona, nei casi di
ricerca accademicamente singolari, come può essere quello
nazionale, qui esaminato.
Dato il conteggio minuzioso, il valore scientifico intrinseco
di ogni capitolo deve potere autonomamente generare il suo
stesso spessore valutativo, secondo le nuove, eque premesse
di catalogazione coerente. La reazione accademica all’introduzione di un ulteriore titolo di insegnamento pare incerta,
lenta, oltre che assai dispendiosa, da parte di chi, intendendo
affiancare nuovi parametri, incontri ovviamente alcune resistenze. Sono difficoltà da ricondursi soprattutto alla complessità raggiunta, ai successivi percorsi di semplificazione,
volta per volta indicati, che implicano fasi di riallineamento
interno, attivano percorsi di apprendimento, che non tutti gli
esperti dei molteplici settori possono avere il tempo di seguire, con la dovuta pazienza, nelle loro diacroniche proiezioni
di massima.
Esiste già di fatto un seppur vago raggruppamento dell’Europeistica, che in fondo è una Linguistica contrastiva, una
Filologia destinata appositamente alla prassi critica di eurozona. Si tratta di un settore ampiamente presenziato, i cui
appartenenti dovranno occuparsi anche di individuare quelle
tratte morfologiche, che durante i vari percorsi semantici di
smistamento, hanno assunto significati diversi, in lingue pur
affini. L’attenzione a non dare luogo ad equivoci semantici,
deve essere esercitata collaborativamente, da parte dei vari
protagonisti accademici. In tale quadro di riferimento, si
possono individuare le confusioni comunicative, che si pro-
ducono in contesti multilinguistici, ove alcune tratte paiono
simili, ma sono invece del tutto discordanti. Ove la distanza
espressiva rischia, inosservata, di crescere in modo costante.
Creando divaricazioni di senso e di significato difficilmente
ricomponibili.
La compattazione di nuovi materiali di studio implica il
rispetto di una legge della parsimonia nella catalogazione,
nella selezione di titoli, per nuovi settori di ricerca. Si conferma che aggiungere una ulteriore denominazione potrebbe
risultare complicato, inutilmente costoso, perfino controproducente. Si ritiene opportuno seguire il motto filosofico assai
noto: Entia non sunt multiplicanda sine necessitate, estendendolo dal suo antico contesto, trasferendolo agli attuali
settori di ricerca, in via di ridefinizione, ovvero concludendo
con una riformulazione del concetto stesso: disciplinae non
sunt multiplicandae sine cura.
4. CONCLUSIONE
In questo saggio, l’autrice ha inteso prospettare alcune indicazioni precise, da lei maturate negli ultimi anni, procedendo ad una riflessione complessiva sulla valutabilità, sulla
valutazione della qualità della ricerca interdisciplinare, innovativa, tema assai trascurato, ma di effettivo rilievo soprattutto per profili di studiosi, che operino in ‘zone di confine’,
ovvero fra più aree tematiche allo stesso tempo. Interdisciplinarietà e ricerca avanzata oggi sono problemi cruciali da affrontare senza penalizzare chi abbia resa prioritaria la qualità
della ricerca, anche a scapito del proprio avanzamento di carriera accademica. Interdisciplinarietà se autentica non vuole
dire “appartenere a tutto e quindi a nulla” ma riconoscimento
di una “appartenenza speciale, singolare, unica”. Essenziale
raggiungere un efficace consolidamento dei risultati disponibili ed accertati. Si realizzerebbe un recupero di materiale di
ricerca, riutilizzabile secondo una visione responsabile, che
prevede la minuta manutenzione, il mantenimento organico
di prodotti di ricerca validi per evitare fenomeni di spreco di
una saggistica importante, Si potrebbero in tal modo recuperare nella loro significatività effettiva, alcune osservazioni,
numerose linee guida, ridistribuendole equamente sul territorio.
PER APPROFONDIMENTI:
Tonfoni G, 2014, Sistemi di Contenimento del Rischio di
Anacoluti e di Anacronismi in Una Riformattazione Redazionale Europea, Società Editrice Esculapio, Bologna, E-Pub,
pp.1- 32 (commento sintetico dell’autrice alla propria bibliografia e compendio della più recente attività didattica)
Tonfoni G., 2015, La singolarità di un caso accademico
interdisciplinare italiano: prospettive per una valutazione
equa e sostenibile di ricerche antropolinguistiche di progressiva rilevanza filologica in euro-zona in Digital Library
Ams Acta 4150, Alma Mater Studiorum Università di Bologna (versione estesa della autrice cui la stessa autrice ha
attinto per questo ben più sintetico contributo)
55
PSICOLOGIA | SCIENZE E RICERCHE • N. 5 • MARZO 2015
Errori, illusioni o incantesimi? Una
riflessione sulla gestione dei risparmi
ALESSANDRA JACOMUZZI
Università Ca’ Foscari Venezia
Aprendo i manuali psicologia generale siamo soliti leggere che ciò che contraddistingue l’uomo dalle altre specie
animali è il suo essere dotato di ragionamento e di linguaggio. Questo è vero ma esiste un’altra caratteristica, peculiare
all’essere umano: la capacità di diventare consapevole dei
propri errori.
Commettere errori non è certo un’abilità, tuttavia averne
coscienza, modificare di conseguenza i nostri comportamenti
e le nostre valutazioni costituisce una capacità che è utile acquisire. Capire quando e per quale motivo commettiamo un
errore è il primo passo per non cadere più in inganno.
Esiste un vasto filone di ricerche nell’ambito della psicologia dell’errore che mostra come la nostra mente e il nostro
corpo siano costruiti in maniera tale da trarci in inganno, in
determinate condizioni (Kanheman 2014, Kanizsa 1997).
Gli errori possono essere di diversi tipi. A volte sono i nostri stessi organi di senso che ci restituiscono un’immagine
errata della realtà. Pensate a un bastone di legno immerso
nelle acque trasparenti di un bel lago. L’immagine che ne ricaviamo è quella di un bastone storto; e nonostante le nostre
conoscenze pregresse ci possano rassicurare che qualunque
bastone, anche se visto storto perché immerso nell’acqua, è
dritto, noi continueremo visivamente a percepirlo storto.
Altre volte, invece, è la nostra mente a trarci in inganno.
Provate a fare un semplice esperimento. Mostrate a un vostro
amico quattro carte che su un lato hanno una lettera (vocale o
consonante) e sull’altro un numero (pari o dispari): la situazione che gli presentate è la seguente:
A
D
4
7
A questo punto dite al vostro amico che può girare solo
due carte per dichiarare se la seguente regole è vera o falsa:
“se una carta ha una vocale su un lato allora ha un numero
pari dall’altro”.
Se il vostro amico (e forse anche voi) pensa di girare le
56
carte che presentano il numero 4 e la lettera A si sta comportando come il 46% dei partecipanti all’esperimento che
Wason condusse nel 1968 (Wason 1968). La nostra capacità
di ragionamento ci induce in errore. Infatti, girando la carta
4 possiamo trovare una vocale o una consonante. Nel primo
caso non è detto che la regola sia confermata, la carta numero
7, infatti, potrebbe avere una vocale sul suo retro. Nel caso,
invece, in cui vi sia una consonante la regola non per questo
verrebbe confermata in quanto la regola non esclude che ci
possano essere numeri pari con una consonante sul retro. Le
carte da girare sono la carte D e la carta 7. Infatti, se girando
le carte che contengono una consonante troviamo un numero dispari allora la regola è sconfermata e allo stesso modo,
se girando la carta dispari troviamo una vocale la regola, di
nuovo, è sconfermata. Nel caso in cui invece la lettera D presenti un numero dispari e il numero 7 una consonante allora
la regola verrebbe confermata.
A questo punto un attento lettore potrebbe intervenire facendo notare che tutto sommato, percepire un bastone storto
o sbagliare a girare le carte nell’esperimento precedente non
ha grosse ripercussioni sulla vita dell’essere umano; e questo
sicuramente è un dato di fatto. Tuttavia, esiste un campo, nel
quale tutti noi prima o poi dobbiamo cimentarci nella vita, in
cui gli errori compiuti dalla nostra mente determinano conseguenze di rilievo: la gestione dei risparmi.
LA DISTRIBUZIONE DELLE RICCHEZZE DEGLI
ITALIANI
Se guardiamo ai dati pubblicati sul supplemento al bollettino statistico dedicato alle ricchezze delle famiglie italiane,
pubblicato dalla Banca di Italia nel 2014 (relativo all’anno
2013), possiamo notare un dato molto interessante. La maggior parte delle ricchezze degli italiani (si parla del 60%) è
costituita da attività reali (dove per attività reali si intendono
i beni fisici delle persone). Ancora più sorprendente risulta il
fatto che le stesse attività reali sono costituite per l’85% da
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | PSICOLOGIA
immobili.
Questa distribuzione del tutto sbilanciata determina il fatto che le ricchezze
degli italiani sono attualmente legate in
maniera indissolubile al destino del nostro paese e della nostra valuta; destino
che al momento non sembra particolarmente roseo.
Le ricchezze in immobili sono, infatti, in immobili che si trovano su territorio italiano e gli investimenti finanziari
sono perlopiù anch’essi nella stessa
valuta delle case, della retribuzione e
della pensione.
Si potrebbe pensare che questo stato di cose derivi da un diffuso senso di
patriottismo degli italiani ma le cose
non sono così semplici. L’attuale distribuzione delle ricchezze è dovuta
a un errore che la nostra mente è propensa a commettere.
Ovvero, la violazione del principio fondamentale di qualunque investimento finanziario: la diversificazione. Questo è
un principio che trova applicazione in molti altri ambiti di
vita permettendoci di essere meno vulnerabili (Legrenzi,
2014, Taleb, 2013, White et al., 2013). È sempre meglio non
mettere tutto nello stesso “paniere” soprattutto se, come nel
caso dell’Italia, il paniere non è certo quello maggiormente
efficiente e sicuro a livello mondiale. Peraltro è interessante
ricordare che, secondo i sondaggi, molte persone dichiarano
di essere consapevoli di tutto ciò: il 68% per cento afferma
di sapere che cosa sia la diversificazione di portafoglio, e il
62% vi associa qualcosa di positivo (Antonio Criscione, Una
pluralità di scelte per vincere le incertezze, Plus24 del 2.8.14,
p. 7). Eppure gli italiani nel loro complesso non si comportano così, o, per lo meno, non si sono comportati così in passato. L’apprendimento sulla base delle conseguenze non ha
funzionato, nel senso che la maggioranza degli italiani non
ha imparato a differenziare le destinazioni dei loro risparmi.
Per quale motivo? Perché quando dobbiamo prendere decisioni che riguardano il nostro patrimonio la mente ci trae
in inganno; sembra proprio che ci porti a commettere degli
errori. E tuttavia, si può davvero parlare di errore?
ERRORE O ILLUSIONE?
Alcuni ricercatori, seguendo la tradizione di studi inaugurata dal premio nobel Daniel Kanheman, ritengono che le
scelte che gli individui compiono quando si trovano a gestire
i propri risparmi siano gli esiti di noti meccanismi di scelta
sub-ottimali innescati dalla mente umana (Kanheman ,2011).
Il meccanismo di avversione alle perdita così come l’effetto
dotazione renderebbero difficile un ragionamento trasparente e chiaro sulle nostre ricchezze (Legenzi, 2014). Il nostro
sistema emotivo sembra avere il sopravvento su quello razionale. Tuttavia non è ancora chiaro se, a proposito delle
nostre scelte, si possa davvero parlare di errori.
Se facciamo un’analisi comparata
degli errori che si possono commettere nella vita quotidiana e di quelli che
commettiamo nell’ambito finanziario
possiamo notare come questi ultimi
presentino caratteristiche peculiari.
Proviamo a esaminare alcuni errori
della quotidianità. (Gli errori che seguono sono tratti da Rizzo 1995).
Devo fare una fotocopia a doppia pagina su formato A5. Preparo il foglio
e imposto la macchina in maniera tale
stampare su formato grande. Inizio la
stampa. Mi accorgo alla prima pagina
che la stampante ha stampato su un foglio grande lasciandone metà bianco.
Ripeto da capo le operazioni e il risultato di pagina semi-bianca si ripete.
Controllo meglio la programmazione
della stampante e mi accorgo che l’avevo programmata per
stampare il foglio grande ma non per la doppia pagina. Riprogrammo correttamente e stampo, senza alcun errore.
Che cosa è successo? In questo caso il processo che ha
portato alla stampa corretta si è articolato in tre fasi. 1. Incongruenza tra risultati e attese. 2. Analisi della situazione
che permette di riconoscere l’errore. 3. Correzione dell’errore.
Facciamo un altro esempio. Devo pulire a fondo il bagagliaio della nostra auto. Tolgo il pannello di appoggio sopra il quale si trovano le casse dell’altoparlante. Per farlo le
stacco. Quindi pulisco, riposiziono il pannello di appoggio e
chiudo il bagagliaio. Salgo in macchina e mi accorgo che gli
altoparlanti della radio non funzionano. Ecco che mi ricordo
di averli staccati io stesso e di essermi dimenticato di riattaccarli. Cosa è successo questa volta? Di nuovo abbiamo tre
fasi. 1. Incongruenza tra risultati e attese. 2. Analisi della situazione che fa affiorare un ricordo e permette di riconoscere
l’errore. 3. Correzione dell’errore.
Alcune volte la dimenticanza non riguarda qualcosa che
ho fatto ma qualcosa che stavo per fare. Voglio prendere
le chiavi dell’auto aziendale che si trovano in una scatola
nell’ingresso dell’ufficio. Entro in un’altra stanza e un amico
inizia a parlarmi. Mentre parlo cerco in un cassetto, non trovo le chiavi. Inizio a vagare per l’ufficio e mi rendo conto di
non sapere più cosa sto cercando. Torno alla mia scrivania,
mi siedo e d’improvviso ricordo che mi ero alzato per prendere le chiavi della macchina aziendale poste nella scatole
all’ingresso dell’ufficio.
In questo caso entra in gioco in miscuglio di distrazioni e
dimenticanze che, di nuovo, portano a una incongruenza tra
il risultato atteso e quello ottenuto; e di nuovo alle tre fasi che
determinano la correzione dell’errore.
La caratteristica degli errori che costellano la nostra vita
quotidiana è l’incongruenza tra gli elementi di una storia e
alcuni elementi interni (della mente) o esterni (del mondo).
Questo determina la nostra possibilità di risalire all’origine
57
PSICOLOGIA | SCIENZE E RICERCHE • N. 5 • MARZO 2015
dell’incongruenza per correggerla.
Proviamo ora a vedere se lo stesso criterio vale anche per
gli errori commessi in ambito finanziario. Ecco che viene in
luce la differenza abissale che sussiste tra le due tipologie di
errori. In ambito finanziario, l’errore è il pensare che ci sia
un errore e che qualcuno di più preparato, meno sbadato o
distratto di noi potesse non incorrere nell’errore.
Si tratta dunque di due fenomeni differenti in cui la nostra
conoscenza può agire in maniera diversa. Nel primo caso riducendo gli errori (dagli errori si impara, ricordate?). Nel secondo caso, invece, prevenendo gli stessi, ammortizzandoli.
Infatti, qui non abbiamo la possibilità, divenuti coscienti di
un errore, di tornare metaforicamente indietro e correggerlo.
Piuttosto abbiamo la possibilità di prevenirlo, cercando di
distribuire i nostri risparmiri in maniera tale da compensare
le oscillazioni.
Nei mercati, almeno nell’ambito dei tempi che interessano le persone comuni, regna l’incertezza: la conoscenza di
traduce in ammissione di ignoranza. L’errore, se di errore si
può parlare, non può essere corretto ma soltanto prevenuto.
Queste sono parte delle motivazioni che hanno indotto alcuni studiosi a parlare non tanto di errori quanto di illusioni
nell’ambito della gestione dei risparmi. Non di rado si trovano psicologi che iniziano il loro discorso sulle decisioni
in ambito finanziario citando le illusioni ottiche. Questo per
mostrare che ciò che sembra un errore, ovvero l’agire dei
singoli individui contrario al principio della diversificazione,
in realtà non è riconducibile a sbagli dei singoli individui ma
a illusioni cognitive.
Un’attenta analisi comparativa tra illusioni ottiche e cognitive e illusioni nell’ambito della gestione del risparmio
mostra che anche in questo caso il paragone non funziona.
Un’illusione ottica viene definita tale proprio perché permane, anche quando ne diveniamo consapevoli. Il nostro
sistema visivo è, infatti, progettato in maniera tale che non
ci fa vedere una cosa piuttosto che un’altra. E noi continueremo a vederla come tale anche quando ci sia stata svelata
l’illusione.
Facciamo un esempio. L’illusione della Muller lyer ci fa
vedere due segmenti costruiti di lunghezza uguale che differiscono solo per il verso delle freccette poste alla fine dei segmenti (in un caso rivolte all’esterno, nell’altro rivolte verso
l’interno)come differenti: l’uno più corto dell’altro. Mi è già
capitato di dover disegnare una Muller Lyer e di essere quindi assolutamente consapevole della lunghezza, identica, dei
due segmenti. Nonostante la mia conoscenza continuavo a
percepire visivamente i due segmenti di lunghezze differenti.
Nella gestione dei risparmi però le cose vanno diversamente. C’è un momento in cui in qualche modo la nebbia
si dirada e le persone riescono a vedere le cose come sono
realmente. E anche a comportarsi di conseguenza. Anche la
possibilità di parlare di illusione sembra da scartare. Ma allora, che cosa succede quando decidiamo delle nostre finanze?
58
FORSE INCANTESIMI…
Ho affermato che nell’ambito della gestione dei risparmi
c’è un momento in cui le persone riescono a vedere dove
hanno sbagliato e agiscono di conseguenza. Ecco, sembrerebbe proprio che l’uomo sia vittima di un incantesimo che
dopo anni di sonno svanisce e permette di destarsi. E di solito, almeno nelle fiabe, una volta svanito l’incantesimo le
cose vanno bene, o perlomeno meglio. Più che di errore o
di illusione sembra quindi più opportuno parlare di incantesimo; un incantesimo da cui gli italiani sembra stiano lentamente risvegliandosi se, come riportano i dati della Banca di
Italia, lentamente lo sbilanciamento della distribuzione delle
ricchezze si sta affievolendo.
Parlare di incantesimo apre uno spiraglio di speranza. Se
fossimo stati vittime di illusione difficilmente avremmo potuto cambiare le sorti delle nostre ricchezze. Certo, potendo
parlare di errore sarebbe stato forse più semplice evidenziarlo e correggerlo. Ma in fondo per ogni incantesimo esiste
una via di fuga. Il punto allora diventa capire quali possano
essere i fattori che accelerano lo svanire dell’incantesimo.
Questa però è un’altra storia.
RIFERIMENTI BIBLIOGRAFICI
Duarte, J., Crawford, J., Stern, C., Haidt, J., Jussim, L.,
Tetlock, P. (in corso di stampa), Political Diversity Will Improve Social Psychological Science, Behavioral and Brain
Sciences.
Legrenzi, P. (2013), Perché gestiamo male i nostri risparmi, il Mulino, Bologna.
Legrenzi, P. (2014), Frugalità, il Mulino, Bologna.
Legrenzi, P. (2014), Fondamenti di psicologia generale, il
Mulino Bologna.
Legrenzi, P., Jacomuzzi, A. (2014), Macchine darwiniane,
gestione del risparmio e scienze cognitive, Tavola rotonda
“Menti in crisi”, Sistemi Intelligenti, XXVI, 1, pp. 191-197.
Legrenzi, P., Umiltà, C. (2014), Perché abbiamo bisogno
dell’anima, il Mulino, Bologna.
Kahneman, D. (2012), Pensieri lenti e veloci, Mondadori,
Milano.
Pennisi, A. (2014), L’errore di Platone, il Mulino, Bologna.
Rizzo, A., Ferrante, D., Bagnara, S. (1995), Handling Human Error, in Hoc, C. Cacciabue, P., Hollnagel, E. (a cura
di), Expertise and Technology, Psychology Press, Hove Sussex.
Skinner, B. F. (1981), Selection by consequences, “Science”, 213, 501-504.
Taleb, B. (2013), Antifragile, Il Saggiatore, Milano.
White, A., Li, J Griskevicius, V., Neuberg, S., Kenrick, D.
(2013), Putting All your Eggs in One Basket: Life-History
Strategies, Bet Hedging, and Diversification, Psychological
Science, 715-722.
SCIENZE E RICERCHE • N. 5 • MARZO 2015 | STORIA
Gli alberi lungo le strade: una questione
storica e ambientale
ROSSANO PAZZAGLI
Università degli Studi del Molise
L
’aumento del traffico automobilistico, conseguenza anche del mancato potenziamento
dei trasporti pubblici che anzi stanno subendo politiche di tagli e ridimensionamenti, sta
riproponendo in misura crescente il problema della sicurezza stradale. Spesso sotto la spinta emotiva di
gravi incidenti, dimenticando la responsabilità di errate strategie gestionali della mobilità, come quella delle numerose
privatizzazioni e della progressiva introduzione dei pedaggi
sulle strade a scorrimento veloce, sono le tradizionali alberature lungo le strade d’Italia a finire sotto accusa. Qualcuno
arriva così a proporre l’abbattimento indiscriminato di interi
filari di piante, ignorando le funzioni che questi hanno a lungo svolto e che almeno in parte potrebbero ancora svolgere.
Lo stesso codice della strada, approvato nel 1992, prevede
nei successivi regolamenti di attuazione il divieto della presenza di alberi entro una distanza minima di sei metri dal
bordo stradale1.
Si tratta di un tema molto ampio e ricco di significati, che
inevitabilmente tocca diversi ambiti – dalla storia dell’architettura all’agronomia, dalle scienze forestali all’ingegneria e che ci consegna non pochi interrogativi sul nostro modo di
intendere il rapporto tra società, infrastrutture e paesaggio.
La prospettiva storica può aiutare a porre correttamente il
problema, al di fuori di scorciatoie o soluzioni irrazionali.
LE ALBERATURE STRADALI DALLE CARROZZE
ALL’AUTOMOBILE
In gran parte d’Europa i viali alberati sono la più antica
forma d’inverdimento ai bordi delle strade, marcando in
modo quasi indelebile i tragitti viari. Originariamente le alberature servivano a consolidare e a rendere permanenti e
riconoscibili le vie di comunicazione: le radici degli alberi
impedivano che la superficie stradale non pavimentata si ero1 Decreto Legislativo 30 aprile 1992, n. 285, Nuovo codice della strada.
desse, le chiome creavano una piacevole zona d’ombra attutendo il caldo estivo e proteggevano da pioggia e neve nella
stagione invernale; quando si impiegavano alberi da frutto,
questi davano nutrimento ai viandanti; inoltre fornivano legname da costruzione e legna da ardere, fascine, alimenti per
animali, miele ecc. Gli alberi più frequentemente usati per
le alberature stradali sono il tiglio, l’acero, la quercia, il platano e l’ippocastano, ma anche il noce, il carpino, il faggio,
come pure varie specie di alberi da frutto, e in certe regioni
gelsi e cipressi, fino all’impiego di piante esotiche – come
le palme - talvolta legate alle avventure coloniali. Per lungo
tempo si è usato soprattutto l’olmo, prima che una aggressiva malattia fungina (Ophiostoma ulmi) falcidiasse nel secolo
scorso gli olmi europei. Infine, a livello ambientale, i viali
alberati offrono con i loro rami, le foglie e i tronchi un habitat
adatto molte specie animali e costituiscono elementi di collegamento tra ecosistemi, configurandosi a volte come veri e
propri corridoi ecologici. Nell’age of oil, o età dell’automobile, molte di queste funzioni non risultano più compatibili
con gli stili di vita e le modalità degli spostamenti, ma non è
fuori luogo domandarsi quante e quali di esse possono essere
attualizzate o addirittura rilanciate nell’ottica di una nuova
mobilità sostenibile.
Le alberature stradali, simili per certi aspetti alle alberature che segnano i confini dei campi, hanno rivestito dunque,
nel corso del tempo, ruoli funzionali e funzioni produttive:
59
STORIA | SCIENZE E RICERCHE • N. 5 • MARZO 2015
legname, foglie, frutti, difesa dal sole, dal vento e dalla pioggia, consolidamento del suolo e creazione di un microclima
più adatto agli spostamenti degli animali e delle persone.
PAESAGGIO AGRARIO E PAESAGGIO STRADALE
Dal punto di vista visivo queste formazioni hanno sempre
teso a disegnare delle linee e delle interruzioni, in special
modo nelle zone di pianura dove prevaleva il paesaggio semplice dei seminativi o dei pascoli, inserendo elementi diversificatori che contribuito ad arricchire paesaggio rendendolo
meno omogeneo ed uniforme. Per tutti questi motivi le alberature stradali hanno rappresentato un segno quasi indelebile,
un elemento di resistenza al processo di banalizzazione del
paesaggio che ha preso piede soprattutto nell’età contemporanea.
Sotto questo aspetto si può dire che la tecnica di costruzione stradale è stata sostanzialmente mutuata dalla più
complessiva organizzazione dello spazio rurale, che soprattutto nell’Italia centro-settentrionale assegnava agli alberi un
ruolo importante, sia nella forma della piantata padana che
in quella dell’alberata toscana e umbro-marchigiana, per riprendere le classiche espressioni coniate da Emilio Sereni .
Nelle campagne le strade sterrate, che sono anche alberate, sono gene