Scienze e Ricerche n. 1 (novembre 2014)

Transcript

Scienze e Ricerche n. 1 (novembre 2014)
ISSN 2283-5873
Scienze e Ricerche
SR
NUMERO 1 - NOVEMBRE 2014
1.
1. Sommario
CONTRIBUTI E INTERVENTI
VINCENZO BRANDOLINI
Il cacao
pag.
7
pag.
12
pag.
20
pag.
22
pag.
25
pag.
34
pag.
37
pag.
40
pag.
45
pag.
52
pag.
55
pag.
63
pag.
78
pag.
83
pag.
92
pag.
99
MAURO CRISTALDI, GERMANA SZPUNAR & CRISTIANO FOSCHI
20
La componente mobile animale dell’ecosistema Roma
MARCO CAMBIAGHI
«Il decennio della coscienza». Intervista a Piergiorgio Strata
GIANFRANCO MILITERNO
Cellule, dermatologia e salute animale: un trinomio importante
per la sanità pubblica
MICHELE MOSSA
Alcune considerazioni sull’erosione costiera. Il caso della regione
pugliese
PATRIZIA TORRICELLI
Donne. E le parole per parlarne
34
ENRICO ACQUARO
La Cartagine di Elissa e le sue rifondazioni nel Mediterraneo
AGNESE VISCONTI
Da Londra 1851 a Milano 2015. Riflessioni sulle grandi
esposizioni universali
ANGELO ARIEMMA
Senza estetica non c’è etica. Per un’analisi dei tempi moderni
MARINO D’AMORE
Media, pubblico e consapevolezza del messaggio
ERIKA GIUGLIANO
63
Un classico ancora più classico tra gli altri classici
RICERCHE
SALVATORE LORUSSO E ANDREA NATALI
L’ambiente di conservazione dei documenti grafici: riferimenti normativi
e metodologie per la prevenzione del rischio
AGOSTINO GIORGIO
La tecnologia RFID a supporto della sanità: un progetto per ottimizzare
l’anamnesi e la gestione del paziente
CHIARA D’AURIA
La spedizione di Sapri nelle carte dell’Archivio Segreto Vaticano
LORENZO SCILLITANI
Diritti dell’uomo e diritto internazionale. Spunti di ricerca per una
filosofia della geopolitica
GAETANO CUOMO
Le difficoltà di finanziamento delle cooperative di produzione
ARIANNA CONSIGLIO, MARIA GUARNERA, PAOLA MAGNANO
92
n. 1 novembre 2014
La rappresentazione della disabilità nei bambini. Una verifica
dell’ipotesi del contatto a scuola
pag. 105
IL COMITATO SCIENTIFICO
pag. 115
3
N. 1 - NOVEMBRE 2014
ISSN 2283-5873
Scienze e Ricerche
n. 1, novembre 2014
Coordinamento
• Scienze matematiche, fisiche e naturali:
Vincenzo Brandolini, Claudio Cassardo, Alessandra Celletti, Alberto
Facchini, Savino Longo, Paola Magnaghi Delfino, Giuseppe Morello, Annamaria Muoio, Andrea Natali, Marcello Pelillo, Marco Rigoli,
Carmela Saturnino, Roberto Scandone, Franco Taggi, Benedetto Tirozzi,
Pietro Ursino
• Scienze biologiche e della salute:
Riccardo N. Barbagallo, Cesario Bellantuono, Antonio Brunetti, Davide
Festi, Maurizio Giuliani, Caterina La Porta, Alessandra Mazzeo, Antonio
Miceli, Letizia Polito, Marco Zaffanello, Nicola Zambrano
• Scienze dell’ingegneria e dell’architettura:
Orazio Carpenzano, Federico Cheli, Massimo Guarnieri, Giuliana Guazzaroni, Giovanna La Fianza, Angela Giovanna Leuzzi, Luciano Mescia,
Maria Ines Pascariello, Vincenzo Sapienza, Maria Grazia Turco, Silvano
Vergura
• Scienze dell’uomo, filosofiche, storiche e letterarie:
Enrico Acquaro, Angelo Ariemma, Carlo Beltrame, Marta Bertolaso,
Sergio Bonetti, Emanuele Ferrari, Antonio Lucio Giannone, Domenico
Ienna, Rosa Lombardi, Gianna Marrone, Stefania Giulia Mazzone,
Antonella Nuzzaci, Claudio Palumbo, Francesco Perrotta, Francesco
Randazzo, Luca Refrigeri, Franco Riva, Mariagrazia Russo, Domenico
Russo, Alessandro Teatini, Patrizia Torricelli, Agnese Visconti
• Scienze giuridiche, economiche e sociali:
Giovanni Borriello, Marco Cilento, Luigi Colaianni, Agostina Latino,
Elisa Pintus, Erica Varese, Alberto Virgilio, Maria Rosaria Viviano
Scienze e Ricerche
CF 97826650588
sede legale c/o Associazione Italiana del Libro
Via Giuseppe Rosso 1/a, 00136 Roma
Direttore responsabile: Giancarlo Dosi
Un numero in formato elettronico: 6,00 euro
Un numero in formato cartaceo: 9,00 euro (arretrati: 11,00 euro)
Abbonamenti in formato elettronico:
• annuale (12 numeri): 37,00 euro
• semestrale (6 numeri): 19,00 euro
Abbonamenti in formato cartaceo (comprensivo del formato elettronico):
• annuale (12 numeri): 72,00 euro
• semestrale (6 numeri): 39,00 euro
L’acquisto di estratti in formato cartaceo (min. 10 copie) va concordato
con la segreteria
Il versamento può essere effettuato:
• utilizzando il servizio PayPal accessibile dai siti
www.associazioneitalianadellibro.it
www.scienze-ricerche.it
• versamento sul conto corrente postale n. 1012061907 intestato
all’Associazione Italiana del Libro, Via Giuseppe Rosso 1/a, 00136
Roma (specificare la causale)
• bonifico sullo stesso conto dell’Associazione Italiana del Libro,
IBAN: IT39I0760103200001012061907
2
La pubblicazione di articoli su Scienze e Ricerche è aperta a tutti.
Quasi tutti i contributi, a meno che l’autore non ritenga di inibire tale
possibilità, vengono pubblicati anche online sul sito www.scienzericerche.it, in modalità open access, cioè a libera lettura.
La rivista ospita essenzialmente due tipologie di contributi:
• interventi, analisi e articoli di divulgazione scientifica (solitamente
in italiano).
• ricerche e articoli scientifici (in italiano, in inglese o in altre lingue).
Gli articoli scientifici seguono le regole della peer review.
La direzione editoriale non è obbligata a motivare l’eventuale rifiuto
opposto alla pubblicazione di articoli, ricerche, contributi o interventi.
Non è previsto l’invio di copie omaggio agli autori.
Scienze e Ricerche è anche una pubblicazione peer reviewed. Le ricerche e gli articoli scientifici inviati per la pubblicazione sono sottoposti
a una procedura di revisione paritaria che prevede il giudizio in forma
anonima di almeno due “blind referees”. I referees non conoscono
l’identità dell’autore e l’autore non conosce l’identità dei colleghi
chiamati a giudicare il suo contributo.
Gli articoli scientifici inviati per la pubblicazione vengono resi anonimi, protetti e linkati in un’apposita sezione del sito. Ciascuno dei
referees chiamati a valutarli potrà accedervi esclusivamente mediante
password, fornendo alla direzione il suo parere e suggerendo eventuali
modifiche o integrazioni. Il raccordo con gli autori sarà garantito dalla
redazione.
Il parere dei referees non è vincolante per la direzione editoriale,
cui spetta da ultimo - in raccordo con il coordinamento e il comitato
scientifico - ogni decisione in caso di divergenza di opinioni tra i vari
referees.
L’elenco dei referees impegnati nella valutazione degli articoli scientifici viene pubblicato con cadenza annuale.
Chiunque può richiedere di far parte del collegio dei referees di
Scienze e Ricerche allegando alla richiesta il proprio curriculum, comprensivo della data di nascita, e l’indicazione del settore scientificodisciplinare di propria particolare competenza.
www.scienze-ricerche.it
[email protected]
CONTRIBUTI&INTERVENTI
N. 1 - NOVEMBRE 2014
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | CHIMICA
Il cacao
VINCENZO BRANDOLINI
Dipartimento di Scienze Chimiche e Farmaceutiche, Università di Ferrara
S
econdo gli studiosi di botanica, l’albero del
cacao cresceva spontaneo già 4000 anni prima di Cristo nei bacini dell’Orinoco e del Rio
delle Amazzoni. Il naturalista svedese Carlo
Linneo nel 1775, riconoscendone le caratteristiche esclusive, diede all’albero del cacao il nome Theobroma cacao, che in greco significa “Cibo
degli Dei”. I primi popoli che coltivarono questa pianta furono probabilmente i Maya, che
lo introdussero nello Yucatan durante i loro
spostamenti durante il XVII secolo a.C. Dai
Maya la coltura del cacao si diffuse nell’attuale Messico, tramite i Toltechi, il popolo che
precedette gli Aztechi (o Tenocha) nella storia
dell’America centrale. Come tutte le piante di
elevato significato sociale e simbolico, anche
il cacao vanta origine divina. Una leggenda
azteca narra che una principessa lasciata a
guardia delle ricchezze dello sposo, un grande
guerriero partito a difendere i confini dell’impero, venne assalita dai nemici che tentarono
invano di costringerla a rivelare dove fosse
nascosto il tesoro. Per vendetta la uccisero
ma dal sangue versato dalla fedele sposa nacque la pianta del cacao il cui frutto nasconde
un “Tesoro di semi”, amari come le sofferenze dell’amore,
forti come la virtù, lievemente arrossati come il sangue. Era
il dono del Dio giardiniere Quetzalcoatl alla fedeltà pagata con la morte, la stessa fedeltà che nell’immenso impero
azteco legava i sudditi all’imperatore. La leggenda prosegue
raccontando come Quetzalcoatl insegnò agli uomini a coltivare il “Cachuaquahitl” ovvero l’Albero della forza e della
ricchezza. Usando i suoi semi, il Dio mostrò al suo popolo
come preparare il “Xocolatl” ovvero il “Nettare degli Dei”.
In quell’epoca i semi della pianta erano un bene così prezioso che si utilizzavano come forma di pagamento e/o come
unità di calcolo. Infatti con tre o quattro semi si poteva ac-
quistare una zucca, con dieci semi un coniglio mentre cento
semi permettevano di acquistare uno schiavo. Gli Aztechi
autorizzavano gli esattori armati a riscuotere i tributi dalle
popolazioni Maya e Tolteche accettando come pagamento
schiavi, cibo ma soprattutto semi di cacao. Da sempre l’utilizzo principale dei semi di cacao era quello alimentare.
Infatti dopo tostatura e macinatura venivano mescolati con
acqua e sbattuti fino a diventare spumosi quindi il cacao
veniva servito come ingrediente principale di una bevanda
schiumosa chiamata Xocolatl. Al cacao tostato e macinato
“Cacahuatl”, gli Aztechi aggiungevano anche pepe, peperoncino, cannella, semi di melone, solandra, miele, vaniglia,
purea di granoturco prima di diluire il composto con acqua.
Il preparato così ottenuto risultava amaro, pochissimo appetitoso e molto diverso dal cacao dolce e gustoso che possiamo apprezzare oggi, ma per gli Aztechi una tazza di Xocolatl
riusciva ad eliminare la fatica e stimolare le forze fisiche e
mentali fondamentali per la sopravvivenza e per la riuscita
7
CHIMICA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
delle cerimonie legate alla trascendenza.
Cortés, nel 1528, riuscì a portare in Spagna i frutti dell’albero del cacao e tutto ciò che serviva per la preparazione del
“Xocolatl”. La bevanda, cui veniva aggiunto peperoncino e
altre spezie piccanti per mascherarne il sapore amaro, ebbe
un grande successo. Il primo degustatore che provò ad aggiungere lo zucchero alla bevanda sembra sia stato il vescovo Francisco Juan de Zumàrrago nel 1590. Da quel momento
il cacao zuccherato divenne molto più gradevole e la sua popolarità aumentò diffondendosi rapidamente in tutta Europa.
Il cacao fu portato in Italia nel 1606 dal commerciante fiorentino Antonio Carletti dopo il suo ritorno da un viaggio in
Spagna. La bevanda divenne celebre anche per il suo potere
rinvigorente, molto celebrato dal Casanova, che ne faceva
uso per mantenere elevato il numero delle sue seduzioni. Il
cacao fu introdotto a Torino dal generale degli eserciti spagnoli Emanuele Filiberto di Savoia e, nel 1852, fu inventato
un nuovo prodotto a base di cioccolato realizzato con l’aggiunta di latte, zucchero, cacao e nocciole piemontesi. Questa raffinata combinazione, cui venne data la forma di piccola
imbarcazione denominata gianduiotto, fu presentata ufficialmente nel 1865 in occasione del carnevale di Torino dalla
famiglia di maestri cioccolatai Peyrano che erano importanti
confezionatori di prodotti dolciari da accompagnare al caffè.
A Torino e in Piemonte l’arte della cioccolateria continuò ad
essere fiorente e la bevanda al cacao diventò molto popolare
ed importante economicamente.
Nei primi anni del Settecento la prima colazione dei torinesi privilegiati era la bavareisa, una bevanda a base di caffè,
cioccolata e latte, che veniva servita in un bicchiere e che,
un secolo dopo, dal nome suo stesso contenitore, un piccolo
bicchiere con supporto e manico di metallo, verrà detta bicerin. Già alla fine del Seicento si producevano a Torino circa
350 kg di cioccolato al giorno ed era esportato in Austria,
Svizzera, Germania e Francia. Fino alla seconda metà del
Settecento tutta la procedura di lavorazione del cacao, dalla
raccolta dei frutti al prodotto finito, era eseguita a mano. Una
delle prime tappe del perfezionamento nella lavorazione fu la
capacità di solidificare il cioccolato per arrivare alla tavoletta. A contendersi il primato dell’invenzione di una macchina
idraulica per raffinare la pasta di cacao e miscelarla con zucchero e vaniglia (1802) furono un torinese, Bozzelli, e uno
svizzero, Cailler. L’invenzione fu in seguito perfezionata e
intorno al 1820 fu prodotta in Inghilterra la tavoletta “Fry &
Sons”, una mistura granulosa di liquore e cioccolato, zucchero e burro di cacao.
Nel 1828 un olandese, Conrad Van Houten mise a punto
un torchio speciale per spremere i grani macinati di cacao.
Con questo mezzo ottenne la separazione del burro di cacao
dalla polvere del cacao stesso, che divenne meglio amalgamabile con acqua e aromi. Van Houten eliminò l’acidità del
cacao, che tendeva a dare alla polvere un gusto acre e non
molto piacevole. I cioccolatini sembra siano una invenzione
esclusiva dei torinesi che li realizzarono, grossi come ghiande, da una pasta di cacao tirata a mano e foggiata grossolanamente. Erano detti givu, che in dialetto piemontese significa
8
“cicca”. Gli svizzeri, dal canto loro,
ottennero risultati molto importanti
perfezionando il cioccolato industriale. Il risultato più prestigioso fu l’invenzione del cioccolato al latte ad opera
di Daniel Peter che, intorno al 1875, sfruttò
genialmente la farina lattea creata e prodotta da
Henri Nestlé.
Oggi, sono molte le varietà di cacao coltivate nel mondo.
In particolare la varietà “Criollo” rappresenta la pianta del
cioccolato per eccellenza ed i cui semi furono importati in
Europa per primi. È originaria del Rio delle Amazzoni, ed
è la varietà che dà il cioccolato più pregiato, ma purtroppo
è la più delicata e quindi la meno produttiva. La varietà
“Forastero”, pianta più robusta della precedente, è originaria dell’Amazzonia ed è, attualmente, coltivata in America
centro-meridionale e in Africa. Da questa varietà si ricava la
maggiore produzione mondiale di cacao poiché cresce più
rapidamente e presenta una produttività superiore. Il gusto è
meno delicato del Criollo, tuttavia la varietà Forastero detta
“Amenolado” coltivata in Ecuador è considerata di grande
pregio. La varietà “Trinitario, che deve il suo nome al luogo
d’origine cioè l’isola di Trinidad, è un incrocio tra le due
varietà riunendone le caratteristiche positive.
Poiché il luogo di produzione influisce sul gusto del cacao,
proprio come avviene per i vini, tra gli estimatori del cioccolato, i “cru” (termine con cui si indica il cacao di particolare
qualità, prodotto da una determinata piantagione o porzione
di piantagione) più ricercati sono quelli ottenuti nelle piantagioni della regione di Chuau in Venezuela. Come per il caffè, una sola qualità di cacao non produce un buon cioccolato
ma è fondamentale miscelare qualità differenti secondo le
ricette custodite gelosamente da ogni fabbricante. Sebbene
i frutti maturino tutto l’anno, di solito si ricavano solo due
raccolti. Il baccello viene tagliato dall’albero e lasciato maturare sul suolo. Successivamente i baccelli vengono spaccati, le fave vengono rimosse e le bucce bruciate. I semi,
prima di essere seccati al sole, vengono lasciati fermentare
nei barili per 2-8 giorni. Il tempo di essiccamento cambia
in base alla colorazione, da rosso a marrone, dei semi fermentati di partenza. I semi di T. cacao sono quindi insaccati e immagazzinati in locali freschi e arieggiati dove non
possano assorbire odori. Dopo il controllo della qualità, le
fave sono sottoposte ad una ulteriore tostatura, che accresce
l’aroma del cacao e favorisce il distacco finale del seme dalla
buccia. Dopo la separazione dei semi in base alla grandezza
saranno avviati alla torrefazione. Il famoso, inconfondibile,
inebriante aroma di cacao, capace di solleticare come pochi
altri il senso dell’olfatto umano, dipende tutto dalla torrefazione, che risulta determinante per la qualità del prodotto finito. Questo procedimento favorisce lo sviluppo dei principi
aromatici eliminando l’umidità e l’acidità. Solo un esperto
però può decidere il momento dell’arresto della torrefazione senza il quale le fave carbonizzerebbero. Dopo un rapido
raffreddamento al ventilatore, le fave vengono avviate alla
raffinatrice che provvede alla degerminazione, alla separa-
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | CHIMICA
zione delle bucce e alla frantumazione in granella. Con un
sistema di setacci decrescenti si
seleziona la granella torrefatta
che, una volta macinata, produce
una pasta fluida (pasta di cacao)
contenente in media il 54-55% di
burro di cacao.
Sia il cacao in polvere, sia il
cioccolato derivano dalla pasta
di cacao solubilizzata, macinata
finissima e infine parzialmente
sgrassata attraverso la spremitura con presse
idrauliche. In tal modo il burro di cacao che
fuoriesce sotto forma di olio giallo viene filtrato, colato in pani e raffreddato. La parte
restante solida, il pannello o torta di cacao, è durissima perché solidificata a 600 atmosfere. Contiene ancora dal 8 al
26% di burro di cacao per cui deve essere frantumata e ridotta in polvere finissima. Per ottenere il cioccolato si effettua la
miscelazione di diverse qualità di paste di cacao non sgrassate, secondo criteri di scelta e dosaggi che costituiscono i
segreti di fabbricazione di ogni produttore. A queste miscele
si aggiungono i vari ingredienti previsti dal tipo di cioccolato
che si vuole ottenere come burro di cacao, zucchero, latte in
polvere, aromi. È infatti la proporzione tra cacao e zucchero
a determinare la qualità del cioccolato, in particolare quello
denominato “Fondente”. L’impasto ottenuto viene trasferito
dalla mescolatrice alla raffinatrice. Operando il concaggio
il cioccolato assume la sua “personalità” definitiva. Questa
operazione si realizza in recipienti metallici grandi come vasche da bagno dove una pasta semiliquida e bruna è mescolata per ore e ore, sbattuta e aerata a temperatura costante di
60-80 °C. Il concaggio dura ore o giorni, a seconda del gusto
del cioccolato che si vuole ottenere. Sul prodotto finito influiscono le consuetudini alimentari dei vari paesi infatti, ad
esempio, il cioccolato americano, piuttosto ruvido, subisce
un concaggio di 18 ore, mentre quello svizzero, incomparabilmente più vellutato, è sottoposto a un concaggio di 72 ore.
Segue la fase di temperaggio, in cui la pasta liquida si porta a
una temperatura tale da favorire la finissima cristallizzazione
del burro di cacao, in modo da normalizzare la consistenza
del prodotto considerati i possibili sbalzi di temperatura cui
sarà sottoposto e di modellaggio, in cui la pasta, distribuita
automaticamente in stampi di acciaio inossidabile, assume la
forma definitiva. Gli stampi, riempiti con la pasta temperata,
sono fatti avanzare su un nastro sottoposto a vibrazioni continue, che hanno lo scopo di eliminare le bolle d’aria e far
aderire perfettamente l’impasto alle pareti. Le forme attraversano poi il tunnel di raffreddamento (6 °C circa) nel quale
il cioccolato, solidificandosi, si contrae e può essere estratto
facilmente dagli stampi.
Dal cacao si possono ottenere prodotti diversi. I più importanti sono il Burro di cacao (sostanza grassa ottenuta da
semi di cacao o da parti di semi di cacao), il Cacao in polvere
(ottenuto mediante macinazione di semi di cacao puliti, de-
corticati e torrefatti e che presenta un tenore minimo di burro
di cacao del 20% e un tenore massimo di acqua del 9%), il
Cacao magro in polvere (cacao fortemente sgrassato in polvere con un tenore di burro di cacao inferiore al 20% della
sostanza secca). Per quanto riguarda il cioccolato in commercio si possono trovare il Cioccolato in polvere (miscuglio
di cacao in polvere e zuccheri, contenente non meno del 32%
di cacao in polvere), il Cioccolato comune in polvere (cacao
zuccherato, cacao zuccherato in polvere, un miscuglio di cacao in polvere e zuccheri, contenenti non meno del 25% di
cacao in polvere), il Cioccolato (ottenuto da cacao e zuccheri
con un tenore minimo di sostanza secca totale di cacao del
35%, di cui non meno del 18% di burro di cacao e non meno
del 14% di cacao secco sgrassato). Inoltre il Cioccolato al
latte (ottenuto da cacao, zuccheri e latte o prodotti derivati
dal latte). Di color marrone chiaro, lucido con profumo persistente, ricco con un aroma di caramello e cacao. Al palato ha
una buona fusibilità e una quantità percettibile di grassi con
una struttura croccante. Gusto dolce con una leggera nota di
amaro del cacao. Aroma intenso e persistente. Con la dicitura
“alla panna” il prodotto deve avere un tenore minimo di grassi del latte del 5,5%, mentre con “al latte scremato” non deve
contenere più dell’1% di grassi del latte. Il Cioccolato bianco
(ottenuto da burro di cacao, latte o prodotti derivati dal latte e
zuccheri, e che contiene non meno del 20% di burro di cacao
e del 14% di sostanza secca del latte ottenuta dalla disidratazione parziale o totale del latte intero, del latte parzialmente
o totalmente scremato, di panna, di panna parzialmente o totalmente disidratata, di burro o di grassi del latte in quantità
pari almeno al 3,5%). Di color avorio, lucido con profumo
intenso, ricco e persistente con sentori di latte, burro, vaniglia e biscotto. Ha gusto dolce molto marcato, aroma intenso
e persistente. Il Cioccolato mi-doux (miscela di cioccolato
al latte e fondente, colore marrone lucido, profumo intenso
e persistente di cacao, caffè tostato e liquirizia). Gusto dolce
con nota di amaro, intenso e persistente. Il Surfin di colore
marrone intenso, lucido con profumo intenso, forte e ampio.
Sentore di cacao tostato, liquirizia e tabacco. Struttura croccante in bocca e ottima fusibilità. Gusto dolce con una nota
media di amaro e aroma fine e molto persistente.
L’Extra-bitter, colore marrone scuro, molto lucido. Profumo fragrante, aromatico, molto intenso e persistente. Sentori
di cacao, caffè e orzo tostato. Struttura croccante, fusibilità lenta. Gusto intenso e persistente, amaro con una nota di
dolce. L’Amarissimo, colore marrone scuro tendente al nero.
Profumo forte, molto intenso, aromatico. Sentori del cacao
miscelata alla viola, al tabacco e alla liquirizia. Molto croccante al morso, fusibilità lenta in bocca, gusto amaro.
Altre tipologie sono il Cioccolato ripieno, questa denominazione non riguarda tuttavia i prodotti il cui ripieno è costituito da prodotti di panetteria, pasticceria, biscotteria o gelato. La parte esterna di cioccolato è pari al 25% almeno del
peso totale del prodotto. Il Cioccolatino o pralina, prodotto
della dimensione di un boccone costituito da cioccolato ripieno, oppure da un unico cioccolato o un miscuglio di cioccolato e di altre sostanze commestibili, purché il cioccolato
9
CHIMICA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
rappresenti almeno il 25% del peso totale del prodotto.
Il valore calorico del cioccolato è molto elevato infatti 100
g di cioccolato fondente apportano 515 kcal, 100 g di cioccolato al latte 545 kcal mentre 100 g di cacao amaro in polvere 355. Il cacao risulta meno calorico del cioccolato perché
contiene meno grassi e non ha zuccheri aggiunti. Il cioccolato, anche se non è sicuramente un alimento dietetico, ha una
composizione abbastanza equilibrata inoltre, contrariamente
a quanto si crede, il colesterolo è presente solo in quello al
latte. E’ anche molto ricco di minerali e vitamine, in particolare magnesio, potassio, calcio, ferro, sodio, rame, manganese, selenio, zinco, fluoro. Tra le vitamine sono presenti il
β-carotene (pro-vitamina A), la B1, B2, D ed E. In particolare, la vitamina E ed i tocoferoli hanno interessanti capacità
antiossidanti, mentre la nicotinammide (vitamina PP) svolge
una azione favorevole nel mantenimento dell’integrità delle
pareti dei vasi sanguigni venosi. Con 100 g di cacao si apportano acqua (3.5%), proteine (12%), lipidi (46%), carboidrati
(35%), fibra (8.5%) e minerali (3.5%). Gli acidi grassi che
compongono il burro di cacao sono: tra i saturi l’acido palmitico e acidi a corta catena (26%), stearico e acidi a lunga
catena (34%) mentre tra gli insaturi l’acido oleico (37%) e
linoleico (2.1%). L’interesse per gli acidi grassi polinsaturi
non riguarda solo l’aspetto nutrizionale in quanto essenziali,
ma anche gli aspetti legati all’integrità di tutte le membrane
biologiche, comprese quelle dei neuroni. Gli acidi grassi insaturi del burro di cacao sono quindi importanti da un punto
di vista dietetico. Infatti, sembra non innalzino i livelli delle
lipoproteine LDL (il cosiddetto colesterolo cattivo) ma aumenterebbero i livelli di HDL (colesterolo buono). Per le
dimostrate proprietà cicatrizzanti, il cacao è utilizzato per la
cura di ragadi ed è applicato a rughe e piaghe. Il burro di
cacao è usato comunemente in cosmesi come unguento e in
farmacia come rivestimento di pillole e nella preparazione di
supposte. Ha eccellenti proprietà emollienti e quindi è spesso
usato anche nella cura di screpolature delle labbra e delle
mani. Il cacao è un rimedio popolare per alopecia, ustioni,
tosse, labbra secche, febbre, indebolimento, malaria, nefrosi,
parto, gravidanza, reumatismi, morso dei serpenti e ferite.
Il cacao è noto anche per il suo contenuto in alcune sostanze psicoattive, come la teobromina (3,7-dimetilxantina)
e la caffeina (1,3,7-trimetilxantina), che svolgono un ruolo
stimolante sul sistema nervoso centrale. La teobromina ha
effetti simili alla caffeina, ma meno potenti. È invece più
pronunciato il suo effetto su muscoli, reni e cuore. Una delle
sostanze più interessanti del cacao è la feniletilammina, molecola del tutto simile alle endorfine, piccoli peptidi che il
cervello produce quando si è particolarmente felici, euforici
o in stato di serenità emotiva. Il cioccolato ha un blando effetto euforizzante “tira su il morale” quindi non sorprende, se il
desiderio di consumarlo sia più forte nei momenti di stress o
di difficoltà emotive. La feniletilammina è presente nel cacao
in elevata quantità ed ha una struttura chimica analoga alle
amfetamine, di cui condivide gli effetti neurofarmacologici
legandosi agli stessi recettori cerebrali. La feniletilammina
può potenziare gli effetti della dopamina e della noradrena10
lina, favorendo la veglia, ritardando la comparsa dei sintomi
di affaticamento e producendo quindi gli stessi effetti psicoattivi delle catecolamine. Si ritiene che sia anche in grado
di calmare lo stimolo della fame. Le persone che soffrono
di forti instabilità emotive hanno una produzione irregolare
di feniletilammina e spesso consumano quantità eccessive
di cioccolato durante i periodi di depressione. La “voglia di
cioccolato” nelle donne è spesso episodica e fluttua con le
modificazioni dei livelli ormonali, appena prima o durante il
ciclo mestruale, questo suggerisce un legame con la produzione ormonale. Il desiderio di consumare prodotti a base di
cacao è spiegato come un “effetto craving” (forte desiderio).
La ricerca scientifica ha identificato specifici neurotrasmettitori (serotonina, endorfina, anandamide, feniletilammina)
che influenzano significativamente il tono dell’umore cui
viene associato un’efficace azione antistress. Inoltre la contemporanea ingestione di carboidrati favorirebbe il trasporto
di triptofano verso il cervello, determinando l’aumento della
sintesi di serotonina cerebrale, che produrrebbe una sensazione soggettiva d’energia e di piacere. L’anandamide è invece una sostanza endogena, scoperta nell’ultimo decennio,
in grado di legarsi ai recettori per i cannabinoidi, generando
quindi effetti comportamentali anche sul tono dell’umore e
su funzioni cognitive come l’apprendimento e la memoria.
“Ananda” è una parola derivata dal sanscrito e significa felicità. L’anandamide è, infatti, in grado di stimolare le percezioni sensoriali ed indurre euforia. Altri aspetti interessanti
della neurobiologia del cacao sono legati alla presenza di
molecole come le N-aciletanolammine, in grado di innalzare
le concentrazioni di anandamide.
Tra i prodotti a base di cacao, la polvere di cacao è quella
che contiene il livello più elevato di polifenoli, seguita dal
cioccolato “scuro” e dal cioccolato al latte. A parità di peso
secco, la polvere di cacao e il tè verde hanno capacità antiossidanti simili. Il cioccolato al latte ha circa quattro volte
la capacità antiossidante delle fragole fresche, che si collocano ai primi posti tra la frutta. Una tavoletta di cioccolata
al latte di 50 g contiene circa la stessa quantità di polifenoli
di un bicchiere di vino rosso. Sono stati dimostrati, in studi
recenti, i diversi effetti dei polifenoli sulla salute. Si ritiene
che i polifenoli possano ridurre il rischio di sviluppo di cancro, malattie cardiovascolari, artrite reumatoide, e che possiedano benefici effetti antinvecchiamento. Uno studio su
volontari ha rilevato che il consumo di 35 grammi di cacao
sgrassato ha aumentato il lasso di tempo per l’ossidazione
delle LDL in vivo. Per quanto riguarda i tipi di polifenoli, nel
cacao sono presenti discrete concentrazioni di flavonoidi, soprattutto la catechina e l’epicatechina monomero. Oltre alle
loro proprietà antiossidanti, i polifenoli procurano vantaggi
al sistema cardiovascolare. Uno studio recente ha dimostrato
che il consumo di cacao sopprime l’attivazione piastrinica e
sembra avere un effetto simile a quello dell’aspirina. Questi
composti possono anche indurre rilassamento vasale endotelio-dipendente. Il cacao e il cioccolato contengono quindi
antiossidanti di natura polifenolica probabilmente essenziali
per diminuire i danni provocati dalle specie reattive dell’os-
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | CHIMICA
sigeno (ROS). I polifenoli nel cacao sono anche antimicrobici e sembra abbiano anche un effetto positivo nella prevenzione delle carie dentaria. Infatti, la frazione di polifenoli del
cacao rende inattivo un enzima che catalizza la produzione di
polisaccaridi provenienti dallo zucchero. Recentemente gli
stessi effetti anticariogeni sono stati scoperti anche in estratti
di polifenoli provenienti dal tè verde. Questi estratti vengono
ora aggiunti ad alcune gomme da masticare come ingrediente
anticariogeno.
Per scegliere un buon cioccolato occorre leggere con attenzione gli ingredienti riportati in etichetta. Il vero cioccolato è
a base di cacao, burro di cacao e zucchero ai quali si possono
aggiungere latte ed alcune golosità, come nocciole e aromi
vari. Un cioccolato di qualità deve avere una superficie lucente e liscia, non devono esserci trasudazioni biancastre di
burro di cacao. La tavoletta deve spezzarsi senza sbriciolarsi e la pasta interna deve essere omogenea e compatta. Non
deve comparire il sentore di rancido. Non deve essere eccessivamente acido. Non deve sapere di cotto o di tostato. In
bocca il cioccolato deve essere liscio, non devono sentirsi i
piccoli grumi di polvere di cacao. La differenza più evidente
tra un cioccolato di alta qualità e uno di media qualità riguarda la consistenza in bocca ed il sapore, soprattutto per il
cioccolato fondente con oltre il 70% di cacao. Aumentando
la percentuale di cacao quello di media qualità si presenta più
“polveroso” e amaro, mentre quello di alta qualità continua a
sciogliersi in bocca finemente anche con percentuali superiori all’80%. Il cioccolato, a temperatura ambiente, si conserva
anche per diversi mesi. I prodotti al cioccolato devono essere
conservati in ambienti privi di odori e ben ventilati, a una
temperatura di 18-20 °C, con una umidità relativa inferiore al 50%. Una cattiva conservazione determina la fioritura di zuccheri e grassi. La fioritura dello zucchero rende la
superficie del cioccolato grigia coperta da uno strato sottile
di sciroppo appiccicoso o di cristalli di zucchero. Ciò avviene quando il cioccolato è conservato in un ambiente con
un’umidità relativa superiore all’82-85% che causa la dissoluzione e la successiva precipitazione dello zucchero nella
condensa superficiale.
Il cioccolato è un alimento sicuro perché grazie alla sua
composizione e alla ridotta presenza di acqua, è praticamente inattaccabile dagli agenti patogeni se conservato correttamente.
BIBLIOGRAFIA
Artel G.E., Sies H. (1999). “Protection against preoxynitrite
by cocoa polyphenol oligomers”. FEBS Lett. 462, 167-170.
Bassanese T. (2001). “Cacao, così dolce, così amaro”. Ed.
EMI, Bologna, Italy.
Berger L. (1992). “Guida internazionale alle varietà del
cioccolato”. Ulissedizioni, Milano.
A.A. V.V. Brazilian Cocoa and Confectionery Manufacturers Association (1998). “Brazil: a paradise for chocolate
lovers”, Confection Magazine, London, UK.
Bruinsma K., Taren D.L. (1999). “Chocolate: food or
drug?”. J. Am. Diet. Assoc. 99, 1249-1256.
Buchanan R.L. (1979). “Toxicity of spices containing
methylenedioxybenzene derivatives: A review”, J. Food
Safety, 1, 275-277.
Karim M., McCornick K., Kappagoda C.T. (2000). “Effects of cocoa procyanidins on endothelium-dependent relaxation”. J. Nutr. 130, 2106S-2108S.
Knight P. (1998). “Brazilian Chocolate: Recession Hopes”.
Coffee & Cocoa Intern. 25, 43.
Kondo K., Hirano R., Matsumoto A., Igarashi O., Itakura
H. (1996). “Inhibition of LDL oxidation by cocoa”. Lancet,
348, 1514.
Kris-Etherton P.M., Keen C.L. (2002). “Evidence that the
antioxidant flavonoids in tea and cocoa are beneficial for cardiovascular health”. Curr. Opin. Lipidol. 13, 41-9.
Mao T., Powell J., Van de Waters J. (2000). “Effect of
cocoa procyanidins on the transcription and secreation of
interleukin-1β in peripheral blood mononuclear cells”. Life
Sci. 66, 1377-1386.
Mao T., Van de Waters J., Keen C.L. (2000). “Cocoa procyanidins and human cytokine transcription”. J. Nutr. 130,
2093S-2099S.
Massari I. (1999). “Oro colato”. Ed. Barry Callebaut, Milano, Italy.
Motamayor J.C., Risterucci A.M., Lopez P.A., Ortiz C.F.,
Moreno A., Lanaud C. (2002). “Cacao domestication I: the
origin of the cacao cultivated by the Mayas”. Heredity, 89,
380-386.
Murray M.T. (2000). “Guida medica agli integratori alimentari”, Ed. Red, Como, Italy.
Spencer S.C. (1998). “Barriers to Asian Confectionery
Market”. Chocolate and Confectionery Intern. 2, 21.
Rein D., Paglieroni T.G., Pearson D.A. (2000). “Cocoa
and wine polyphenols modulate platelet activation and function”. J. Nutr. 130, 2120S-2126S.
Sanbongi C., Osakaba N. (1998). “Antioxidative polyphenols isolated from Theobroma cacao”. J. Agric. Food Chem.
46,454-457.
Sancito M. (2004). “Il signore di Principe e São Tomé”.
Cioccolata & C. 50, 48.
Schramm D.D., Wang J.F., Holt R.R. (2001). “Chocolate
procyanidins decrease the leukotriene-prostacyclin ratio in
humans and human aortic endothelial cells”. Am. J. Clin.
Nutr. 73, 36-40.
Serafini M., Bugianesi R., Maiani G., Valtuena S., De Santis S., Crozier A. (2003). “Plasma antioxidants from chocolate”. Nature, 424, 1013.
Steinberg F.M., Bearden M.M., Keen C.L. (2003). “Cocoa
and chocolate flavonoids: implications for cardiovascular
health”. J. Am. Diet. Assoc. 103, 215-223.
Waterhouse A.L., Shirley J.R., Donovan R. (1996). “Antioxidants in chocolate”. Lancet, 348, 834.
11
La componente mobile animale
dell’ecosistema Roma
BIOLOGIA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
12
MAURO CRISTALDI,
GERMANA SZPUNAR
& CRISTIANO FOSCHI
Dipartimento di Biologia e Biotecnologie
“C. Darwin”, Università degli Studi di
Roma La Sapienza
I
L’ECOSISTEMA CITTÀ
n termini ecologici la città può
essere considerata un “Ecosistema eterotrofo incompleto,
dipendente da ampie zone limitrofe per l’energia, il cibo, le
fibre, l’acqua e gli altri materiali”1.
Proprio gli altri materiali (edilizi,
meccanici e chimici) comportano un
trasferimento continuo dall’esterno
verso l’interno di risorse naturali e/o
artificiali necessarie alle tecnologie utilizzate dalla specie umana, ma anche
un’elevata quantità di scarti da restituire all’esterno. Tali tecnologie non
comportano solo dei vantaggi per un
“Buen vivir” sensu Evo Morales2, ma
comportano numerosi svantaggi legati
a nocività, incidenti sul lavoro, dissesto
1 Odum E.P. (1983). Basi di Ecologia. Piccin,
Padova.
2 Farah H. I., Vasapollo L., Coord. (2011).
Vivir bien: ¿Paradigma no capitalista? CIDEMUMSA, La Paz (Bolivia): 439 pp.
territoriale, degrado ambientale, oltre
che alla meno conclamata diffusione
di elettrosmog3. Adottando come principio iniziale che occorre considerare
la foresta (o la città) in funzione degli
alberi (gli edifici, gli uomini e le altre
specie) che la compongono4, riprendiamo, con modifiche parziali, l’elenco
delle caratteristiche peculiari di tale
ecosistema5:
a) presenza massiccia di substrati impermeabili e ad elevata coibenza termica (asfalto e cemento);
b) produzione gas inquinanti da autoveicoli, caldaie e scarichi industriali che
modificano il chimismo dell’aria e amplificano l’effetto serra con conseguente
isola di calore6: mesoclima urbano ten3 Giuliani L., Soffritti M., Eds (2010). Nonthermal effects and mechanisms of interaction
between electromagnetic fields and living
matter. Ramazzini Institute and European
Journal of Oncology Library, ICEMS
Monograph, Mattioli 1885 S.p.A., Fidenza
(PR), 5: 403 pp.
4 Fresu G. (2008). Lenin lettore di Marx.
Collana “La Foresta e gli alberi”, 17. La città
del Sole Edizioni Sas, RC: 253 pp.
5 Tescarollo P. (2009). Basi di Ecologia
urbana. Materiale didattico.
6 Fanelli G., Testi A.M. (2012). L’isola di
calore urbana: metodi di studio attraverso le
fioriture. In: “L’automobile uccide Roma.
La privatizzazione dell’aria e la morte
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | BIOLOGIA
denzialmente più caldo e secco;
(e relativo particolato dannoso) rapc) consumo di grandi quantità di presenta l’aspetto emergente nella preenergia;
sente fase di sfruttamento energetico
d) modifiche delle morfologie territo- sopraliminare delle risorse8, creando
riali naturali e seminaturali preesistenti sia carenze di approvvigionamento che
la maggiore preoccupazione epidemiocon edificazioni e infrastrutture;
logica
attuale
e)
enormi
causata dall’inquantità di rifiuti Ogni separazione dell’uomo
quinamento prosolidi e liquidi da dalla natura è illusoria perché
dotto9.
smaltire.
ogni privazione di natura
Va sottolineaQuando si par- ritorna inesorabilmente a danno
to che i problemi
la di ecosistema
dell’uomo
legati all’ecosiin funzione della
Valerio Giacomini
stema città dicomponente mo“Perché
l’ecologia”,
1980
bile, cioè animapendono dal nule, occorre consimero di abitanti
derare non tanto le singole specie che per metro quadrato e dalla estensione
costituiscono gli alberi (o entità speci- territoriale occupata (da cittadina a mefiche, i cosiddetti taxa viventi), ma il
complesso della “foresta” cittadina codell’ecosistema urbano” (Roma, Campidoglio,
stituita in gran parte da edificazioni in- 20 Giugno 2012).
tensive, che ci permettono di considera- 8 Di Fazio A. (2000). Questioni strategicore questo insieme in funzione della sua militari, negoziati ONU e problema energetico.
In: Contro le nuove guerre. Scienziate e scienziati
composizione in corpi parzialmente se- contro la guerra. A cura di M. Zucchetti, Odradek
parati (aree verdi, corpi idrici, ambienti Edizioni SRL, Roma: 151-200.
aerei e sotterranei) . Il traffico veicolare 9 Triolo L. , Binazzi A., Cagnetti P., Carconi P.
7
dell’ecosistema urbano” (Roma, Campidoglio,
20 Giugno 2012).
7 Cristaldi M., Szpunar G. (2012). La
componente mobile, animale, dell’ecosistema
Roma. In: “L’automobile uccide Roma.
La privatizzazione dell’aria e la morte
Correnti A. De Luca E., Di Bonito R., Grandoni
G., Mastrantonio M., Rosa S., Schimberni M.,
Uccelli R., Zappa G. (2008). Air pollution
impact assessment on agroecosystem and
human health characterisation in the area
surrounding the industrial settlement of Milazzo
(Italy): a multidisciplinary approach. Environ.
Monit. Assess., 140: 191-209.
tropoli), oltre che dal rapporto tra spazi
edificati e spazi verdi10, magnificato soprattutto nelle periferie delle megalopoli5. La città di Roma ha una densità abitativa pari a 2213 ab/Km2 (www.comune.roma.it), mentre Milano pari a 6863
ab/Km2 (www.provincia.milano.it), il
che mostra come Roma sia una città
con ampie aree verdi (ville storiche, siti
archeologici, cortili, prati, pascoli, giardini, parchi, aree incolte e coltivate),
dove sovente si insedia per necessità la
marginalizzazione antropica, che viene
spesso misconosciuta nella gran parte
delle città del mondo (homeless, nomadismo, immigrazione, lenocinio, ecc.),
pur rappresentando essa, e attraverso
specie domestiche (cani, gatti, maiali,
conigli, polli) e commensali, il principale dei possibili focolai di rischio epidemico ed epizootico (e.g. tubercolosi,
salmonellosi, toxoplasmosi, virosi),
come pure un importante apporto di diversificazione fisica e culturale11,12.
10 Buscemi A., Cignini B., Contoli L. (1995).
Aspetti quali-quantitativi delle zoocenosi ad
uccelli e mammiferi nell’ambiente urbano di
Roma. SITE Atti, 16: 445-448
11 Lanzara C., coord. (1989). L’ambiente nel
Centro storico e a Roma, Rapporto preliminare:
59 pp.
12 Rivera A. (2008). Cittadini, meteci e nuovi
fantasmi. Sergiobontempelli.wordpress.com.
13
BIOLOGIA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
Ma occorre chiedersi se esista una connessione tra queste
aree marginali e le aree naturali periurbane - dove spesso si
collocano spontaneamente e inappropriatamente eterogenee
smart city (quartieri dormitorio) - in modo che possa nel tempo esser superata la diffusa concezione di spazio verde come
“giardino privato”, quale eredità minore delle esclusivistiche
ville storiche romane.
URBANIZZAZIONE DEL TERRITORIO
E AREE VERDI (SUOLO)
Il Fiume Tevere, nonostante i muraglioni di contenimento,
riesce ancora a creare paradossalmente una continuità – sicuramente degradata – passante all’interno della più diffusa
ed eterogenea muraglia costituita dall’edificato. Se infatti
prendiamo gli animali terragnoli in qualità di indicatori della
mobilità ambientale, possiamo pensare che l’attraversamento della città possa avvenire con relativa facilità solo negli
spazi verdi prospicienti l’asta fluviale. Secondo un’indagine13 svolta nei primi anni ’80 lungo il Fiume Tevere, si
possono notare tracce di Volpe (Vulpes vulpes), ma anche la
presenza molto sporadica della Nutria (Myocastor coypus),
mammifero anfibio d’ambiente dulciacquìcolo di origine sudamericana. Per altri Mammiferi occasionalmente terragnoli,
come l’ arboricolo Scoiattolo (Sciurus vulgaris), il Tevere
e l’affluente Aniene costituiscono sicuramente un impedimento al passaggio, che lo relega all’area nordorientale della
città (Villa Ada, Villa Borghese) e pone le Amministrazioni
responsabili di fronte ai limiti di sopravvivenza della componente arborea a Conifere14.
A questa poderosa muraglia costituita dall’edificato, per
gli animali terragnoli si aggiungono le strade e le ferrovie.
Più la strada è di grandi dimensioni (e.g. Tiburtina, Salaria,
Raccordo Anulare, etc.) e protetta da recinti, minore è la possibilità di attraversarla. Ogni situazione di isolamento, anche
parziale, tende a comportare fenomeni di endogamia con
formazione di metapopolazioni, le quali possono provocare
alterazioni genetiche e/o comportamentali.
Al contrario, un caso ad esito fortunoso fu il tentativo di
introduzione durante l’assessorato Angrisani (1979-81) di
alcuni esemplari alloctoni (dono del Comune di Genova) di
Scoiattolo grigio (Sciurus carolinensis), concorrente ecologico dell’autoctono Scoiattolo, detto “rosso”, che furono rapidamente eliminati dalla colonia felina insediata nella villa,
evitando così per tutto il Lazio il problema della naturalizzazione della specie, che affligge ormai il patrimonio forestale
13 Cristaldi M., Aste F., Cagnin M., Costa M., Federici R., Giombi D.
Ieradi L.A., Lentini L., Nieder L., Pacilli A.M., Paradisi S., Salucci M.P.,
Scirocchi A., Tommasi M. (1985). Le infestazioni murine. I problemi
igienico-sanitari connessi e le possibilità di limitazione del fenomeno.
Ufficio Speciale Tevere e Litorale- Settore Ambiente, Comune di Roma:
76 pp.
14 Cignini B, Cristaldi M., Sartoretti A. (1997). Lo Scoiattolo Sciurus
vulgaris L., 1758 nella città di Roma. Ecologia Urbana, 9 (2-3): 14-15.
14
dell’Italia Nord-occidentale15,16, ma anche i boschi costieri
a Pinus halepensis della Basilicata ormai invasi dall’affine
Callosciurus finlaysoniii (Aloise & Lombardi, com. pers.)
Un’unica specie di mammifero risente meno del processo di frammentazione ambientale urbana, il Riccio europeo
(Erinaceus eurpaeus), in quanto specie di medio-piccola taglia con ampia capacità di dispersione, protetto dalla legislazione internazionale IUCN, dotato della capacità di chiudersi
in una pelliccia di aculei che lo protegge da tutti i potenziali
predatori (ad eccezione del Tasso, Meles meles, inabituale in
ambienti urbani), se rapportata alla taglia e alla disponibilità di trovare opportune vie di trasferimento. La prevalente
limitazione alla diffusione di questo animale è data dalle recinzioni del territorio urbano combinata con una accresciuta
facilità di morte per schiacciamento sulle strade; ne consegue che la sua distribuzione in città è limitata ad alcune aree
verdi (e.g.: Villa Ada, Villa Torlonia), ormai prevalentemente circondate da strade17.
Le ferrovie ad alta velocità costituiscono delle strutture
invalicabili se non passano in tunnel. Ma mentre gli Uccelli non subiscono, oppure subiscono meno, tali impedimenti al passaggio, per i Mammiferi terragnoli e per altri
animali atteri18,19 il flusso genico è inesorabilmente impedito
in ambito cittadino e periferico. E’ chiaro che tutte queste
infrastrutture, che non sono mai state prese in esame nella progettistica urbana in funzione di adeguate attenzioni
ecologiche15,20, subiscono i limiti degli elevati costi aggiuntivi legati alla mancata programmazione ed i rischi generalizzati che vi si sovrappongono in particolari situazioni logistiche (ambienti poco ventilati, vie di fuga, inondazioni).
Le barriere stradali non costituiscono soltanto un problema
limitato alla velocità delle vetture che le percorrono - con i
conclamati problemi traumatologici per tutta la componente animale (uomo compreso) - ma soprattutto un fattore di
impatto legato alla frammentazione ambientale, all’inquinamento acustico e da particolato (rispettivamente importanti
dal punto di vista epidemiologico per l’induzione di nevrosi
con sordità da rumore e per l’insorgenza di cancerogenesi
soprattutto nel sistema respiratorio), alla propagazione di
specie invasive e di patologie, ai cambiamenti climatici, alle
condizioni microclimatiche dell’asfalto e all’introduzione
15 Bartolino S., Genovesi P. (2008). Sciurus carolinensis Gmelin, 1788.
In: Fauna d’Italia (Mammalia II), a cura di Amori G. Contoli L. & Nappi
A. Calderini ed., 2008
16 Cristaldi M. (1997). A un anno da L’ecosistema Roma. Verde
ambiente, anno XIII(1): 60-65.
17 - Aloise G. Scaravelli D., Bertozzi M., Cagnin M. (2003). Abbondanza
relativa del riccio Erinaceus europaeus L. 1758 (Insectivora, Erinaceidae)
in ambienti del sud e nord Italia. Hystrix 14: 109.
- Reggiani G., Filippucci M.G. (2008). Erinaceus europaeus Linnaeus,
1758. In: Fauna d’Italia. A cura di Amori G., Contoli L., Nappi A., Ed.
Calderini de Il Sole 24 Ore, Milano: 70-81.
18 Fattorini S. (2011). Insect extinction: A long-term study in Rome.
Biological Conservation, 144: 370 – 375.
19 Fattorini S. (2011b). Insect rarity, extinction and conservation in
urban Rome (Italy): a 120 - year -long study of tenebrionid beetles. Insect
Conservation and Diversity: 1- 9.
20 Cristaldi M. (1997). Le aree fluviali nella gestione della fauna della
città di Roma. Verde Ambiente, Anno XIII(6): 77-79.
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | BIOLOGIA
di specie aliene21. Su ogni direzione dello spazio che parta
dai cosiddetti “cunei verdi” si possono individuare pertanto
ostacoli insormontabili, che hanno determinato nel corso del
tempo la scomparsa di numerose specie sensibili ai fenomeni
di frammentazione dell’habitat (e.g. Topo quercino, Eliomys
quercinus, ancora presente nel 1911 presso il Fosso di S.
Agnese). Oltre al fallito “cuneo verde” del Nord-Est (sensu
arch. Vittoria Calzolari), oramai occupato dagli insediamenti
del Villaggio Olimpico e dei Parioli (ex-bosco sacro di Anna
Perenna), si citi anche a titolo di esempio l’area verde litoranea22 che avrebbe potuto rappresentare un cuneo importante
riallacciandosi alla Riserva Naturale del Laurentino-Acqua
Acetosa, ovvero la Tenuta Presidenziale di Castelporziano e
la Pineta di Castel Fusano, menomata da recenti e corposi incendi (2000 e 2008). La penultima mantiene un suo interesse
per la sua microfauna a Mammiferi (presenza in simpatria/
sintopìa delle specie sorelle di topi selvatici, Apodemus flavicollis e A. sylvaticus)23, a Cheloni (Testudo graeca, T. hermanni) e ad Anfibi (Rana esculenta complex, Bufo viridis)24;
nonostante si tratti di un’area protetta, sono stati riscontrati
in ambedue le specie di Apodemus citate numerose anomalie
mutagenetiche in atto, sintomo di inquinamento attribuibile
alla presenza di metalli pesanti originati presuntivamente da
un aeroporto militare (Pratica di Mare), numerose strade a
traffico veloce, un aeroporto civile (Fiumicino) e dall’area
industriale di Pomezia25. L’unico cuneo che si inserisce nel
contesto urbano e realmente conserva le condizioni di seminaturalità che si riallacciano all’integrità dell’antica Campagna romana, sembra condensarsi intorno al Parco Regionale
dell’Appia Antica. Di questo “cuneo verde” fa parte il Parco
della Valle della Caffarella, una delle prime aree sottoposte a
tutela da parte dei cittadini26,27. Nel Parco Regionale dell’Appia Antica sopravvivono diverse specie di Mammiferi28, ad21 Dinetti M. (2009). Le infrastrutture di trasporto: un fattore di pressione
sui mammiferi. Road Ecology, Rete IENE. In : Amori G., Battisti C.,
De Felice S. (2009). I Mammiferi della Provincia di Roma. Provincia di
Roma, Roma: 319-320.
22 De Nicola C., Guidotti S., Fanelli G., Pignatti S., Serafini-Sauli A.,
Testi A. Ecologia della vegetazione dei boschi di Castelporziano. In: Il
sistema ambientale della Tenuta Presidenziale di Castelporziano. Ricerche
sulla complessità di un ecosistema mediterraneo. Accademia Nazionale
delle Scienze, Roma, 2.s. II: 565-605
23 Amori G., Cristaldi M., Fanfani A., Solida L., Luiselli L. (2010).
Ecological coexistence of low-density populations of Apodemus sylvaticus
and A. flavicollis (Mammalia: Rodentia). Rendiconti Lincei, 21 (2): 171182.
24 Cattaneo A. (2005). L’erpetofauna della Tenuta Presidenziale di
Castelporziano. Atti Mus. Stor. Nat. Maremma, 21: 49-77.
25 Ieradi L.A., Locasciulli O., Bravo J., Annesi F., Szpunar G., Cristaldi
M. (2010). Genotoxic monitoring on wild rodents living in protected
areas. Fresenius Environmental Bulletin, 19: 2318-2323.
26 Comitato per il Parco della Caffarella. (1997). La Valle della Caffarella.
Spiccioli di Natura. Comune di Roma, Dipartimento X. Fratelli Palombi
Editori, Roma: 127 pp.
27 AA. VV. tutti aderenti all’Associazione di volontariato Comitato per
il Parco della Caffarella e all’Associazione Humus_onlus. (2013). Il sacro
Almone, da fiume a discarica. Mito, storia, scienza e impegno civile per
ridare vita al fiume del Parco dell’Appia Antica. Tipolitografia Tipostil
pp.112.
28 Piccari F., Szpunar G. (2012). I micromammiferi del Parco Regionale
dell’Appia Antica. Collana Atlanti Locali, Edizioni ARP, Roma: 68 pp.
dirittura di un certo valore conservazionistico (Istrice, Volpe,
Riccio, Talpa, Donnola, Faina, Coniglio, Arvicola del Savi,
Topo selvatico), il cui mantello può funzionare come sistema
di diffusione di sementi e/o di pollini per le Piante verdi, di
cui si avvalgono prevalentemente le specie vegetali urbanofile29.
I fattori estremi di frammentazione interessano aree verdi
isolate all’interno della città: Villa Nomentana, Villa Torlonia, Villa Albani, Cimitero di Campo Verano, Villa Lazzaroni. Tali aree, data la loro relativamente limitata estensione,
possono essere considerate enclave provvisorie e possono
quindi essere assimilate in extenso ai giardini interni di molti
quartieri concepiti col criterio della “città-giardino” (Parioli, Flaminio, Ponte Milvio, Prati, S. Lorenzo, Garbatella) e
agli “orti di guerra” ricavati nelle aree fluviali. In tali aree
l’effetto frammentazione territoriale, estremizzato e aggravato dall’uso pesante di insetticidi e di concimi azotati, quasi
sempre scorrettamente gestiti dai condomìni e/o da privati
singoli di eterogenea estrazione sociale, può riproporre in
ambito urbano e periurbano gli effetti provocati nei boschetti
di periferia30. Per i piccoli Mammiferi le strade costituiscono
senz’altro una barriera fisica alla loro distribuzione. Effetti
di mitigazione alla presenza di queste barriere potrebbero
essere rappresentati da chiusure stagionali di strade, localizzazione e design di sovrapassaggi e sottopassaggi naturalizzati. Una eventuale realizzazione di tali iniziative andrebbe
accompagnata da una appropriata connettività31 tra aree verdi
garantita da strade bianche di dimensioni adeguate. Le aree
verdi delimitate dalle rotatorie e dagli svincoli stradali, essendo strutturate come “piccoli isolati”, portano all’estremo
tali processi di frammentazione.
CORPI IDRICI
La città di Roma non è caratterizzata dalla presenza di laghi naturali, ma solo di un’area litoranea prospiciente il mare
(Ostia) e fiumi con tendenza al regime torrentizio tributari
del Tevere, il cui tratto urbano può trovarsi soggetto ad occasionali piene regolate attualmente a monte dalla diga di Castel Giubileo (Raccordo Anulare Nord). Tali piene potrebbero diventare un problema a causa dei cambiamenti climatici
in atto, i quali provocano eventi meteorici estremi concentrati nel tempo che impediscono il regolare deflusso dell’acqua
da parte dei corpi idrici32. A tali eventi corrisponde anche un
problema legato al ciclo dell’acqua, per cui eventi meteorici
29 Fanelli G.(1995 ). La vegetazione e la flora infestanti. In: Cignini
B., Massari G., Pignatti S.( a cura di) . Ecosistema Roma, Ambiente e
Territorio. Conoscenze attuali e prospettive per il 2000. Fratelli Palombi
Editori: 91-96.
30 Mortelliti A. (2009). Mammiferi e frammentazione ambientale. In :
Amori G., Battisti C., De Felice S. (2009). I Mammiferi della Provincia di
Roma. Provincia di Roma, Roma: 293-296.
31 Battisti C. (2003). Habitat fragmentation, fauna and ecological network
planning: Toward a theoretical conceptual frame work. Italian Journal of
Zoology, 70 (3): 241-247.
32 Pasini A. [a cura di] (2006). Kyoto e dintorni. I cambiamenti climatici
come problema globale. Franco Angeli Editore, Milano: 214 pp.
15
BIOLOGIA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
estremi che si verificano in tempi ridotti non consentono ai
suoli un filtraggio naturale, e quindi il conseguente arricchimento delle falde acquifere sotterranee. Tale fenomeno viene
amplificato dalla presenza di asfalto che impermeabilizza i
suoli, oltre a contribuire a creare, con il resto dell’edificato e
il vapore acqueo emesso dal terreno esposto, l’effetto “isola
di calore” magnificato in ambiente urbano33 rispetto al più
globale “effetto serra”32.
Fin dall’Ottocento l’attività di pesca effettuata sul Fiume
Tevere34,35, associata alla crescente eutrofizzazione delle acque dovuta principalmente agli scarichi civili, ha portato a un
impoverimento della fauna ittica presente nel fiume stesso.
Attualmente sono relativamente abbondanti le specie tipiche
di acque a basso tenore di ossigeno, come rovelle (Rutilus
rubilio), carpe (Cyprinus carpio), carassi (Carassius spp.),
pesci gatto (Ictalurus vel Ameiurus spp.), più recentemente
gli invasivi siluri (Silurus glanis), ma da più tempo addietro
le anguille (Anguilla anguilla) pescate allo stato di ceche e
destinate commercialmente alla vallicoltura.
Per quanto riguarda i Mammiferi, nell’area urbana del
Tevere sono segnalati insediamenti di Nutria (Myocastor
coypus) e di Volpe (Vulpes vulpes), che sfruttano il corso
d’acqua e le sue golene come vie di passaggio per la ricerca
di risorse trofiche. Una sintesi delle conoscenze acquisite nel
corso degli anni è rappresentato dal lavoro di Cristaldi et al.
(1985) che fu commissionato dall’Ufficio Speciale Tevere e
Litorale per studiare il problema delle infestazioni murine12,
in particolare per le specie infestanti Rattus norvegicus (Ratto delle chiaviche), R. rattus (Ratto dei tetti) e Mus musculus
domesticus (Topo domestico), a diverso grado considerate
commensali della specie umana e soggette a mal gestite disinfestazioni. Nonostante tale lavoro mettesse in evidenza un
elenco completo delle immissioni idriche in ambito urbano
congruenti alla necessità di effettuare tempestivi interventi
di risanamento ambientale, esso fu poco considerato dalle
successive Amministrazioni, almeno fino al Convegno del
Campidoglio “Ecosistema Roma” (2008)16,36.
Le presenze faunistiche sinora citate consentono di identificare nell’area tiberina un’importante area umida di raccordo tra entroterra e mare, che prescinde dal traffico fluviale
ormai altamente ridotto per ragioni idraulico-strutturali37: il
mantenimento di attività di pesca e di canottaggio implica un
aumento del rischio di Leptospirosi (Leptospira spp.), spirilli
contraibili attraverso microlesioni del tegumento esposte ad
acqua/fango e legati in primis alla diffusione ambientale di
33 Lin T., Yu Y., Bai X., Feng L., Wang J. (2013). Greenhouse gas
emissions accounting of urban residential consumption: a household
survey based approach.Plos One, 8(2).
34 Betocchi A. (1878). Del Fiume Tevere. Tipografia Elzeviriana del
Ministero delle Finanze, Roma: 81 pp.
35 Cataudella S. e coll.(1991). La pesca fiumarola e il mercato ittico a
Roma. Amm. Prov. Roma, Uff. Pesca: 96 pp.
36 Cignini B., Massari G., Pignatti S., a cura di (1995). Ecosistema
Roma, Ambiente e Territorio. Conoscenze attuali e prospettive per il 2000.
Fratelli Palombi Editori. 292 pp.
37 Ravaglioli A. (1995). Il Tevere fiume di Roma. Storia, curiosità,
prospettive. Tascabili Economici Newton, Trento: 66 pp.
16
urine di Ratto delle chiaviche38,39.
In conclusione, il fiume Tevere con i suoi affluenti può
rappresentare un importante corridoio biologico per specie
acquatiche (e.g. piante acquatiche, pesci, uccelli), come pure
per quelle infestanti (ratti, topi, nutrie), ma al contempo rivelarsi un’imponente barriera per specie arboricole e terricole
(e.g. Scoiattolo, Istrice, Donnola), dal momento che l’originario assetto del corso d’acqua, così come la vegetazione
arborea naturale, sono stati modificati con la costruzione di
appositi muraglioni e collettori principali destro e sinistro, a
seguito dell’eccezionale alluvione del 1870, con il pretesto
giustificativo dalla messa in sicurezza dell’area urbana.
Le numerose sorgenti acquifere presenti nella città di
Roma possono rappresentare una causa di diffusione di contaminanti alla popolazione che ne fa uso, sia a causa della
presenza sul territorio di attività non dotate di sistemi di depurazione, che a causa di elementi chimici apportati dalle
precipitazioni meteoriche e dall’attività del Vulcano Laziale
(e.g. Arsenico, Radon), soprattutto quelle abbondanti e improvvise (fenomeni sempre più frequenti in quanto conseguenti ai cambiamenti climatici in atto32). Inoltre gli organismi saprobi tendono ad aggregarsi attorno a feltri grigiastri
di Batteri coloniali - più facilmente individuabili27, anche
ad occhio inesperto, nelle acque luride - più che in quelle
potabili, per le quali occorre rilevare la pericolosità a lungo
termine nella ridistribuzione di sostanze clororganiche cronicamente accumulatesi per effetto dei composti clorurati
immessi “legalmente” nelle condotte ai fini della potabilizzazione microbiologica.
Una delle componenti idrologiche più importanti della
città, i fossi e/o le “marrane” (nomenclatura tipica dell’area
romana indicante i fossi degradati da scarichi domestici), è
stata completamente trascurata, se non occasionalmente, ma
tali corpi d’acqua dovrebbero essere sottoposti a maggiore
attenzione per le modificazioni storiche a cui sono state soggette le loro acque, tuttora in gran parte soggette a inquinamenti e a conseguenti intombamenti (e.g. Fosso dell’Acqua
Bullicante), per essere di nuovo valorizzate (e.g. Laghetto
ex-Snia Viscosa). In alcuni casi sono talmente trascurate che
costituiscono un ricettacolo di animali infestanti (ratti, topi,
tartarughe Trachemys, blatte, zanzare, mosche) e di contaminanti (metalli pesanti, composti organici), che creano fastidi,
alterazioni ecologiche e trasmettono malattie soprattutto nel
contesto delle concentrazioni antropiche suburbane. A tal
proposito va sottolineato che tutte le situazioni antropiche
cittadine, nell’attuale contesto economico-politico, restano
soggette a rischio di malattie degenerative40. Tale problema, purtroppo globale, interessa soprattutto i centri urbani
38 Cristaldi M, Ieradi LA. 1995. Infestazioni da ratti e topi. In: Cignini B,
Massari G, Pignatti S, editors. L’ecosistema Roma ambiente e territorio.
Fratelli Palombi ed.: 175-182.
39 Romi R., a cura di, 1996 – Convegno Aspetti tecnici, organizzativi
e ambientali della lotta antimurina (17 ottobre 1995, Roma). Rapporti
ISTISAN, 96/11: 126 pp.
40 Burgio E. (2007-2014). La “pandemia silenziosa”. Trasformazioni
ambientali, climatiche, epidemiche. ISDE (Medici per l’Ambiente).
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | BIOLOGIA
in cui le infestazioni vengono trattate quasi esclusivamente
con mezzi chimici che garantiscono la rapidità degli effetti
immediati, ma di cui viene ignorato l’impatto ambientale, le
possibili cadute immunitarie nelle popolazioni e gli stessi sistemi di prevenzione a rischio.
AMBIENTE AEREO
Un’altra sottovalutata fonte di contaminazione per gli abitanti è costituita dai radar militari, la cui dislocazione corrisponde generalmente tuttora agli antichi forti militari (e.g.
Forte Braschi, Forte di Monte Mario, Forte Bravetta) che
circondano la città, considerati complessivamente da Cignini
& Zapparoli (1997) come aree semi-naturali41. Se si pensa
che il campo elettromagnetico nell’area di Roma misurava
orientativamente intorno ai 0,00007 microwatt/cm2 al tempo dell’Uomo di Neanderthal (circa 125000 anni fa) e fino
all’Età moderna, oggi, al tempo delle tecnologie elettroniche
(radar, conduzione elettromagnetica senza fili e cavi elettrici
ad alta tensione, emissioni da satelliti) prodotte in meno di
un secolo dall’attuale Homo sapiens, esso è arrivato a circa 2
microwatt/cm2 (F. Marinelli, com. pers.).
I cavi elettrici possono rappresentare altresì un pericolo
meccanico per le specie ornitiche e per i pipistrelli, più che
per gli aerei che sorvolano la città a maggiori altezze abituali,
perfino quelli diretti all’aeroporto di Ciampino; tuttavia, per
alcune specie di Accipitridi (rapaci diurni) i tralicci possono
rappresentare dei siti di nidificazione, essenzialmente per la
scarsità di siti naturali e secondariamente per l’ombra prodotta dall’armatura e la conseguente ventilazione42.
Le specie ornitiche, data la capacità di volo, sono generalmente favorite negli ambienti urbani in quanto non risentono
né della pressione predatoria né delle barriere a terra, tantomeno allorché tali ambienti siano dotati, come a Roma, di
ampie aree verdi e specchi di acqua.
Negli ultimi anni è stata osservata una ripresa delle popolazioni di rapaci diurni: Gheppio (Falco tinnunculus) e Falco
pellegrino (Falco peregrinus).
Una specie ornitica che risente delle limitazioni imposte dalla presenza umana è il Gufo comune (Asio otus), il
quale è notevolmente condizionato dalla presenza di vecchi
alberi dotati di cavità, che generalmente vengono abbattuti
nella pratica di giardinaggio perché considerati antiestetici e
pericolosi per l’incolumità, ma anche fonte di guadagno per
vivaisti impegati nel continuo ricambio delle piantumazioni. Problemi simili coinvolgono i roost di Barbagianni (Tyto
alba) - formidabile specie predatrice di micromammiferi spesso sottoposti a inappropriate bonifiche del rudere occupato, che dissuadono la nidificazione dello strigiforme già
ampiamente sottoposto alla concorrenza insediativa dell’invadente Piccione domestico.
41 Cignini B., Zapparoli M. (1997). L’ “ecosistema Roma” e la sua fauna.
In: Ecologia Urbana. La fauna della città di Roma, Comune di Roma,
Ufficio Diritti Animali, 2-3: 3-4.
42 Dell’Omo G., Costantini D., Di Lieto G., Casagrande S. (2005). Gli
uccelli e le linee elettriche. Alula XII (1-2): 103-114.
Delle due specie di Piciformi stanziali segnalati a Roma
(Picchio verde, Picus viridis, e Picchio rosso maggiore, Dendrocopos mayor)43, la più diffusa è la seconda che però risente, anche in questo caso, della frammentazione dell’habitat e
della scarsità di alberi maturi e/o vecchi ad alto fusto.
Specie di particolare valore simbolico ed estetico, come
il Gruccione (Merops apiaster), uccello migratore estivo,
dovrebbero essere sottoposte a particolari attenzioni per la
salvaguardia degli ambienti dove essi nidificano in qualità di
specie fossorie: sponde dei fiumi, cave di tufo e di sabbie. In
tal senso, le cave in disuso potrebbero essere non riempite,
ma recuperate mantenendo lo stato delle pareti friabili e scavabili e utilizzandone i fondi per la coltivazione di agrumi
- proprio come le cave di pietra dell’isola di Favignana nelle Egadi - poiché si tratta di ambienti ombreggiati e ancora
ricchi di apporti idrici (e.g. Cava della Tenuta di S. Cesareo
presso il Parco Regionale dell’Appia Antica, com. pers. di F.
Piccari). Inoltre, la cementificazione delle sponde dei fiumi
dovuta al perdurante criterio di regimentazione delle acque,
favorevole essenzialmente alla crescita non regolamentata
dell’ingegneria civile, crea un notevole fattore di limitazione
per il Gruccione in quanto esso, il Topino (Riparia riparia) e
il Martin pescatore (Alcedo atthis) sono specie ornitiche che
scavano gallerie come siti di nidificazione.
In tali situazioni critiche si notano negli ultimi anni gli
insediamenti invasivi di Cornacchia grigia (Corvus corone
cornix), specie favorita dalla frammentazione, la cui diffusione è condizionata dalla crescente presenza del Gabbiano
reale (Larus michahellis) che nidifica sui più alti edifici della
città44. A sua volta la Cornacchia grigia limita la diffusione
urbana di Passeriformi come la Passera d’Italia (Passer italiae), e di Turdidi (e.g. Turdus merula), mentre apparentemente non influenza la conclamata diffusione del Piccione
domestico (Columba livia var. domestica), varietà panmittica ormai troppo ben adattata alle condizioni limite offerte
dall’ambiente urbano45, ma che può rimaner vittima, pur sopravvivente, di penose mutilazioni (ben visibili in numerose
zampe ornitiche delle conurbazioni del Veneto orientale) imputabili all’uso di spilloni acuminati (dissuasori metallici),
posizionati per impedirne lo stazionamento su superfici aggettanticfr.46: i cosiddetti “dissuasori a filo ballerino” appaiono
i più economici ed efficaci per impedirne la sosta.
Preoccupante si rivela la diffusione del Pappagallo monaco (Myiopsitta monachus), specie naturalizzata originaria
43 Sarrocco S., Battisti C., Brunelli M., Calvario E., Ianniello L., Sorace
A., Teofili C., Trotta M., Vicentini M., Bologna M.A. (2002). L’avifauna
delle aree naturali protette del comune di Roma gestite dall’ente Roma
Natura. Alula, 9: 3-31.
44 Cignini B., Zapparoli M. (1996). Atlante degli uccelli nidificanti a
Roma. Palombi Editori, Roma: 126 pp.
45 Del Lungo A. (1937). Abitatori alati dei monumenti e dei parchi di
Roma. Rassegna faunistica, 4 (XVI): 3- 33.
46 - Albonetti P. , Bozzano M., Causa A., Fidora S., Orecchia S., Petroni
P., Zanardi S., Zanoni G. (2002). Strategie di monitoraggio e contenimento
delle popolazioni di Columba livia a Genova. Biologi Italiani, 8: 58-61.
- De Vita F. (2009). L’uso dei dissuasori, leggenda e realtà. www.agireora.
org/
17
BIOLOGIA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
del Sudamerica, segnalato a Roma fin dal 1996 presso il Parco della Caffarella e successivamente diffusosi in altre aree
della città e in particolare nel suo quadrante sud-est (Appia
Antica, Farnesiana, Torricola)26,47.
Una specie ben conosciuta a Roma è lo Storno (Sturnus
vulgaris), la cui presenza, nel passato, si era ridotta a causa
dell’inquinamento prodotto dalle caldaie a carbone. La Direttiva Quadro 96/62/CE ha ripristinato le condizioni originarie di sopportabilità dell’aria per numerose specie aviarie,
favorendo il ritorno degli stormi di storni. Tali condizioni
non hanno invece permesso la diffusione della Rondine p.d.
(Hirundo rustica), più confinata ad ormai esigue stazioni nella città (e.g. la stazione di Monte Antenne in Roma è ormai
percorsa da un sostenuto traffico veicolare). Attualmente
sono invece predominanti altre specie insettivore e migratrici che occupano in parte la nicchia ecologica della Rondine,
come il Balestruccio (Delichon urbica) e il Rondone (Apus
apus).
Per quanto riguarda i Chirotteri (soprattutto Pipistrellus pipistrellus, P. kuhlii, Myotis myotis vel blythi, Hypsugo savii,
Eptesicus serotinus, Tadarida teniotis)48, comunemente conosciuti come Pipistrelli, la città sembrerebbe rappresentare
gli stessi vantaggi e svantaggi che si hanno per gli uccelli
diurni, ma, poiché si tratta di specie crepuscolari/notturne
che occupano una nicchia ecologica notevolmente differente
rispetto a quella degli Strigiformi, occorre formulare considerazioni differenti. Solo recentemente, con l’utilizzo delle
cassette nido (bat-box) questi micromammiferi volanti stanno acquisendo la giusta attenzione da parte del pubblico, il
quale sembra aver compreso l’importanza ecologica di questi animali insettivori, almeno come formidabili cacciatori di
insetti notturni, a dispetto di quanto alcune credenze, basate
sul loro naturale aspetto terrifico, abbiano nel tempo influito
negativamente sulla cultura popolare (se entrano casualmente in casa, va ricordato che non si attaccano ai capelli e che
basta spegnere la luce ed aprire le finestre per farli uscire,
in quanto essi sono guidati da un sistema sonar naturale che
impedisce loro di urtare malamente). I fattori che influiscono maggiormente sulla loro sopravvivenza in ambito urbano
sono la mancanza di idonei siti di rifugio (sottotetti, soffitte,
grotte, fessure nelle mura) e l’utilizzo di insetticidi che incide, attraverso processi di bioaccumulo e biomagnificazione,
sulla componente entomologica (loro fondamentale risorsa
trofica) e/o più direttamente su loro stessi.
47 Taffon D., Giucca F., Battisti C. (2008). Atlante degli uccelli nidificanti
nel Parco Regionale dell’Appia Antica. Gangemi Editore S.p.A., Roma:
192 pp.
48 Amori G., Battisti C., De Felici S. (a cura di) (2009). I mammiferi
della Provincia di Roma. Dallo stato delle conoscenze alla gestione e
conservazione delle specie. Provincia di Roma, Assessorato alle Politiche
dell’Agricoltura, Stilgrafica, Roma: 347 pp.
18
AMBIENTE SOTTERRANEO
Gli ambienti sotterranei costituiscono la componente ecologica più assimilabile alla condizione degli animali terragnoli, in quanto in questi ambienti, la mobilità è estremamente ridotta proprio per causa del substrato interessato,
altamente eterogeneo dal punto di vista geologico. La città di
Roma, costruita sopra e spesso con le emissioni del Vulcano
Laziale, è ampiamente caratterizzata da ambienti ipogei (collettori e fognature, condotte d’acqua, cunicoli idraulici ed
elettrici, cave, catacombe, altre cavità di interesse archeologico, sottopassaggi, gallerie, canali di servizio, fondamenta,
grotte, fungaie, intombamenti)49,50, la cui componente faunistica è scarsamente studiata: ci si limita ad interessarsi di
alcuni fenomeni infestativi in ambienti spazialmente limitati
(chiostrine) con posa in opera di sostanze repellenti, spesso ben sostituibili con la canfora del commercio; eppure tali
ambienti limitati, come gli affini ed ampi cortili, potrebbero
costituire la congiunzione tra ambienti aperti, consentendo
un parziale argine alla frammentazione faunistica. L’attenzione ai passaggi dovrebbe essere infatti un compito prioritario nell’edificazione di barriere invalicabili (TAV, linee ferroviarie, strade non sopraelevate), mentre tali accorgimenti
vengono prevalentemente ignorati, se non per strumentali
servizi per persone invalide (e.g. pericolose e inutili strutture
di attraversamento facilitato51).
A causa delle condizioni microclimatiche tipiche degli
ambienti ipogei (scarsa illuminazione, umidità elevata, frescura), la fauna presenta caratteristiche peculiari, quali lo
sviluppo limitato degli organi visivi e la specializzazione di
altri (Ortotteri Dolicopodi troglofili, sonar nei pipistrelli, olfatto nelle talpe e nei Soricomorfi, udito raffinato con bulle
timpaniche ipertrofiche nei Roditori fossori, vibrisse ad elevata sensibilità in tutti i Mammiferi fossori).
L’ambiente sotterraneo risulta sottoposto a diverse fonti di inquinamento che si accompagnano con diffusioni di
organismi patogeni e dei loro vettori: filtrazione di liquidi,
deposizione di rifiuti, polveri sottili, gas Radon e organismi
saprobi. Il complesso sistema fognario della città, soggetto a
scarsa manutenzione e a occasionali e/o sospette contiguità
con la rete potabile, rappresenta, con le sue acque a lento
deflusso ed eutrofizzate, un ricettacolo per numerose specie
infestanti e patogene. Sovente tali specie fanno da tramite o
49 Luciani R. [a cura di] (1984). Roma sotterranea. Porta San Sebastiano
15 ottobre – 14 gennaio 1985, Fratelli Palombi Editori – Roma/Cataloghi:
300 pp.
50 Cerlesi E. E. (1999). Problematiche di stabilità in reti caveali adibite a
fungaia e di reti caveali di tipo catacombale ed il loro silente ed insidioso
rapporto con le possibili costruzioni soprastanti. Atti del Convegno “Le
cavità sotterranee nell’area urbana di Roma e della Provincia. Problemi di
pericolosità e gestione” (Roma, 13/03/1999), Servizio Geologico e Difesa
del Suolo - Provincia di Roma / Società Italiana di Geologia Ambientale Sezione Lazio, Sistema Informativo Provinciale: 32-45.
51 A.C.I. (2011). Linee guida per la progettazione degli attraversamenti
pedonali.
52 Maltese C. (1986). Roma consumata, dall’Urbanistica all’Ecologia. “Il
Bagatto” Soc. Coop. Libraria a r.l., Roma: 172 pp.
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | BIOLOGIA
sono vettori di potenziali malattie emergenti in primis negli
ambienti di superficie.
CONSIDERAZIONI CONCLUSIVE
La molteplicità di condizioni a rischio e le loro possibili interazioni fanno delle città - e in generale degli ambienti urbanizzati - un coacervo di situazioni difficilmente interpretabili
da un punto di vista rigorosamente sperimentale. Ciò in parte
giustifica la scarsa diffusione di pubblicazioni scientifiche
sull’assetto ecologico cittadino, spesso limitate a rilevazioni
di carattere osservazionale, le quali dovrebbero invece costituire la base conoscitiva da cui dedurre le connessioni profondamente interattive necessarie alla ricerca ecologica negli
ambienti antropizzati, che ancora deve essere adeguatamente
sviluppata nel suo complesso. Il criterio inventariale seguito
abitualmente dai faunisti, in cui tutte le specie sembrano appiattirsi in un elenco, potrebbe essere quindi superato e reso
fruibile ai fini applicativi avvalendosi del principio di pianificazione applicato nel contesto antropico, all’interno del quale va individuato il ruolo caratteristico delle specie, sia delle
comunità vegetali (e.g. compresi licheni, funghi, micorrize)
che di quelle animali (abitualmente più mobili e pertanto apparentemente più soggette alla banalizzazione faunistica),
nonché delle rispettive compatibilità ecologiche20, anche in
relazione alla componente microrganismica, la meno percepibile ma sovente la più significativa. In tale contesto le
tecnologie di prevenzione, profilassi e recupero ambientale,
nonché di difesa dal dissesto territoriale (e.g. ecodiesel, fotovoltaico, energia da Idrogeno, prodotti biologici e/o localistici, abitazioni ecologiche, ecc.) vanno seguite con prudente
diffidenza, in quanto orientate anzitutto a soddisfare esigenze
del sistema di mercato su cui si basa la società capitalistica
tutta, cui si aggiunge il criterio di “consumo del territorio”,
sul quale – ricordando in urbanistica il cosiddetto “Sacco di
Roma” di Cederna e Insolera - si fonda la cosiddetta “Grande rete” della città interterritoriale, nella quale i sistemi di
cablaggio velocizzato tenderebbero ad evolvere, ma creando
ulteriori problemi16,50,51,52. Solo secondariamente ad una loro
seria sperimentazione preventiva alcune di tali tecnologie
“alternative” potrebbero riuscire a soddisfare i bisogni effettivi delle popolazioni conurbate con la fruizione di prodotti utili e mirati. Un cambiamento molto graduale potrebbe
essere affidato all’istruzione inferiore e superiore16, anche
attraverso le reti museali, per riuscire a collegare gli aspetti
umanistici e scientifici, in quanto questi coinvolgono tutti i
fenomeni culturali che abitualmente partono dagli stessi conglomerati urbani.
19
MEDICINA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
«Il decennio della coscienza».
Intervista a Piergiorgio Strata
MARCO CAMBIAGHI
P
iergiorgio Strata è uno dei neuroscienziati
più conosciuti d’Italia, oggi Professore Emerito all’Università di Torino. Classe 1935, il
Professor Strata si trova nel suo ufficio tutti
i giorni, se non impegnato in qualche congresso o conferenza. Neurofisiologo di fama mondiale, si è
laureato in medicina presso l’Università di Pisa e come allievo del Collegio medico-giuridico della Scuola Normale,
oggi detto Scuola Sant’Anna. Per oltre due anni (1965-67)
ha collaborato con il Premio Nobel John Eccles a Canberra
e Chicago. È anche stato Professore Associato onorario di
Neurologia alla Northwern University di Chicago. Durante
gli studi accademici ha invece lavorato presso l’Istituto di
Fisiologia Umana dell’Università diretto dal Prof. Moruzzi,
di cui la Montalcini, nel 1990, disse: “Se l’Italia è conosciuta nel mondo dal lato della biologia, e particolarmente nella
neurofisiologia, tutto questo è dovuto a un figlio di questo
paese, a Giuseppe Moruzzi”. Allievo di tali maestri, gli studi
del Prof. Strata hanno spaziato nel campo delle neuroscienze
e in particolare sui meccanismi del sonno e del funzionamento del cervelletto, sulla neuroplasticità con riferimento alla
memoria e sui meccanismi di riparazione dei danni cerebrali.
Insignito di vari premi, tra i quali il Premio Feltrinelli 2004
(Accademia dei Lincei), membro dell’Academia Europaea,
ha ricoperto ruoli direttivi in società scientifiche nazionali e
internazionali ed è anche stato Direttore Scientifico delle’EBRI (European Brain Research Institute) fortemente voluto
dalla Montalcini a Roma. Tra i diversi incarichi governativi
è stato delegato del Ministro del MURST nella Comitato di
Gestione del IV Programma quadro della Comunità Europea
e Delegato esperto nel V Programma Quadro. Inoltre, è delegato del Ministro nel Comitato dei Saggi del Human Frontier
Science Program del G7.
Parlare di scienza con il professor Strata significa anche
parlare di storia della scienza e dei grandi nomi che l’hanno fatta. Quel che colpisce, soprattutto, è la voglia di fare,
le tante idee, la passione con la quale si sentono raccontare
queste storie.
20
Professor Strata, perché la ricerca e non la medicina?
“Beh, vede, inizialmente io volevo fare un lavoro che
desse una certa tranquillità, e quindi pensai di diventare
medico. Nella commissione del concorso che affrontai per
entrare nel collegio pisano vi era il Prof. Moruzzi che di
solito invitava i vincitori ad entrare nel suo Istituto come
allievi interni”.
Cosa trovò lì?
“Trovai un ambiente ottimale e stimolante, ricco di
stranieri; era la Mecca degli studi sul sonno in quel periodo.
Abbandonai l’idea di fare il medico e abbracciai la ricerca”.
Poi ci fu l’incontro con Eccles e il periodo in cui lavorò nel
suo laboratorio.
“Sì, lo conobbi in un simposio nel 1961 e mi fece
un’impressione notevole! Nel 1965 ebbi il privilegio di
essere accettato a lavorare con lui e ci stetti per oltre due
anni prima a Canberra e poi a Chicago. Lì cominciai a
studiare il cervelletto sul quale concentrai gran parte dei
miei futuri studi”.
Cosa successe quando tornò?
“Stetti ancora a Pisa per qualche anno lavorando con
entusiasmo in maniera autonoma e pubblicando anche
un lavoro su Nature, ma poi mi fu consigliato, come si
usava allora, di andare, in vista di un futuro concorso,
in una sede provvisoria dove non potei assolutamente
organizzare la ricerca. E finalmente a Torino, dove non
trovai assolutamente nulla in termini di strutture, ma ebbi
la fortuna di reclutare moltissimi e bravissimi studenti che
mi aiutarono a ripartire. Il primo fra questi fu l’attuale Prof.
Montarolo”.
Di cosa si occupò?
“All’inizio con Piergiorgio Montarolo lavorammo
sui ratti studiando le funzioni dell’oliva inferiore che
proietta alle cellule di Purkinje del cervelletto come fibre
‘rampicanti’ dimostrando che l’oliva oltre alle sua nota
azione eccitatoria fasica possedeva una potente forma
di controllo inibitorio tonico che era fondamentale per
regolare il livello di attività dei centri che si trovano sotto
il controllo del cervelletto”. Poi le ricerche sfruttarono
la favorevole struttura cerebellare per studiare fenomeni
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | MEDICINA
di riparazione dei danni attraverso la
rigenerazione o i trapianti di cellule fetali.
Altro argomento di rilievo è stata la
dimostrazione del ruolo del cervelletto nel
controllo delle emozioni dimostrando come
esso sia coinvolto nella memoria della paura.
Cosa pensa dell’uso degli animali per la
ricerca scientifica?
“Sono fermamente convinto che si
debba limitare al massimo la sofferenza
degli animali, e per questo i controlli a cui
i progetti scientifici sono sottoposti per
legge sono molto severi. L’uso di animali
è imprescindibile per la ricerca medicoscientifica. Per il resto, un animale che
sfrutta un altro animale, magari per nutrirsi,
è qualcosa di necessario. Se domani nessun
animale si nutrisse di un altro animale, in
poche ore la vita sulla terra sparirebbe”.
Dopo il mappaggio del genoma, a che punto
siamo col mappaggio del cervello?
“Riguardo a questo argomento ci sono due
mega progetti, quello americano e quello
europeo; su questo secondo però non sono
molto ottimista: siamo troppo lontani dal riprodurre la
coscienza e la mente”.
Siamo nel secolo del cervello, o delle neuroscienze
in generale?
“Beh, dal 1990 al 2000 abbiamo avuto il decennio
del cervello proposto dagli USA al quale peraltro siamo
stati i primi ad aderire, poi c’è stato il decennio del
comportamento e ora siamo in quello della coscienza”.
Come vede il futuro della ricerca italiana?
“Molto male: sono molto critico in merito. Dobbiamo
smetterla di dire che siamo brillanti, non è sufficiente. Nella
recente assegnazione di finanziamenti internazionali quali lo
European Research Council, gli italiani si sono classificati
al secondo posto con 46 finanziamenti dietro la Germania.
Il che sarebbe buono se…immagino ci sia un se
“Esatto, infatti dei 46 italiani finanziati soltanto 20
lavorano in Italia. Se calcoliamo questi 20 successi in
Europa siamo al quinto posto. Ma se poi calcoliamo il
numero di finanziamenti per milione di abitanti scendiamo
alla quindicesima posizione. Nel campo delle scienze della
vita dobbiamo creare delle condizioni di lavoro meno
burocratizzate e con grandi centri infrastrutturali. Inoltre
dobbiamo rivoluzionare il sistema della premialità. I fondi
pubblici devono andare non soltanto all’Università ma in
buona parte ai Dipartimenti opportunamente valutati. E
infine più spazio ai giovanissimi che mostrano creatività
svincolandoli dal quel rapporto con il loro maestro che
è fondamentale per fare carriera. L’Università cambierà
quando i giovani di un laboratorio saranno ‘adescati’ da
altri laboratori”.
Capisco…
21
SCIENZE VETERINARIE | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
Cellule, dermatologia e salute animale:
un trinomio importante per la sanità
pubblica
GIANFRANCO MILITERNO
Scuola di Agraria e Medicina Veterinaria, Alma Mater Studiorum Università di Bologna
L
e cellule sono unità morfologiche e funzionali che caratterizzano organismi semplici e
complessi. La scienza che le studia è la citologia. Le cellule sono oggetto di studio da
sempre, perché siano conosciute nei minimi
dettagli per una corretta diagnosi di molte malattie dell’uomo
e degli animali.
La diagnostica citologica è la disciplina che, per mezzo
della microscopia ottica, si occupa delle cellule per la diagnosi di svariati quadri morbosi. In veterinaria è relativamente giovane, essendo nata sulla scia di quella della medicina umana ed è gradualmente decollata negli ultimi 30 anni,
perché fondata su metodi poco invasivi, rapidi, efficaci e
poco dispendiosi. Storicamente, la citodiagnostica umana ha
come punto di riferimento nascente la figura e l’attività di ricerca del medico George Papanicolaou che, negli Stati Uniti,
nei primi anni del 1900, studiò le modificazioni citologiche,
collegate al ciclo estrale, in strisci vaginali di cavia.
Nonostante lo scetticismo iniziale del mondo scientifico,
Papanicolaou propose, già nel 1928, l’osservazione di strisci vaginali per la diagnosi precoce del cancro della cervice uterina, flagello femminile anche in donne giovani ed in
età fertile. Così diventò il creatore del test per lo screening
dei carcinomi della cervice uterina, il Pap-test e una sua
monografia sulla citologia vaginale, intitolata “La diagnosi
del cancro uterino con lo striscio vaginale”, fu pubblicata nel Commonwealth Fund nel 1943. Nel 1954
pubblicò un ricco e voluminoso atlante dal titolo “Atlas of exfoliative cytology”, in grado di
fornire valido supporto diagnostico a medici e
cultori. Da quel momento la cito-diagnostica è
metodo d’indagine in svariati campi della patologia dell’uomo.
Un’allieva e collaboratrice di Papanicolaou, Irena Koprowska, assieme al medico veterinario Jeffie Roszel, prese
in considerazione le modificazioni cicliche dell’epitelio genitale nel cane e nel gatto. Roszel, all’Oklahoma State Uni22
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | SCIENZE VETERINARIE
versity, applicò in seguito il metodo citologico alla diagnosi
delle neoplasie del cane, mettendo a confronto, in particolare, l’efficacia diagnostica della colorazione di Papanicolaou
e la tricromica di Sano, che avrebbero trovato pochi sostenitori tra i veterinari degli anni successivi.
Sempre in quegli anni un veterinario patologo-clinico
dell’Università del Minnesota, Victor Perman, iniziò ad applicare le colorazioni ematologiche (Wright, May-GrünwaldGiemsa), più rapide, allo studio delle lesioni tessutali. Nel
1966 Perman pubblicò i risultati della sua esperienza su 1174
casi, arrivando nel 1979 a terminare e pubblicare il primo
testo-atlante di citologia veterinaria, seguito nel 1980 da un
famoso manuale del Dr. Alan Rebar della Purdue University.
E’ così che ebbe inizio la fortuna della citologia anche
in ambito veterinario, non senza dover abbattere e superare, almeno all’inizio, come era già accaduto nella medicina
umana, alcuni ostacoli, legati, soprattutto, alla diffidenza di
molti anatomopatologi, che consideravano la diagnostica
istopatologica come unico metodo in grado di portare ad una
diagnosi attendibile e definitiva. Attualmente la citologia è
branca dell’anatomia patologica veterinaria in ogni suo capitolo, come anche la dermatologia.
Le discipline dermatologiche hanno conosciuto una vera e
propria esplosione in campo veterinario, crescendo
per importanza ed applicazioni nell’ultimo
ventennio, sia nella medicina degli
animali d’affezione sia in quella degli animali da reddito. Veterinari,
proprietari di animali, allevatori, hanno affinato progressivamente le conoscenze su
molte lesioni dell’apparato
cutaneo, di immediata osservazione durante l’esame
clinico e facilmente campionabili. La necessità di svelare con finalità prognostiche la natura di tali disturbi
ha
incrementato l’applicazione di tecniche d’indagine più approfondite.
In quest’ottica, ha
trovato ampia diffusione il metodo d’indagine
cito-diagnostico (agoaspirativo, per impronta, scraping
o brushing), utile
a dare informazioni su lesioni cutanee potenzialmente
pericolose per gli animali e, a
volte, anche per l’uomo.
La diagnosi con la citologia si è evoluta di pari passo
all’aumento della popola-
zione animale in ambito domestico, grazie a nuove acquisizioni e scoperte in campo diagnostico ed alla crescente specializzazione. Un’indagine pubblicata poco più di dieci anni
indietro evidenziava come in Italia già vivesse in casa una
popolazione di circa 56 milioni di animali, in prevalenza cani
e gatti, seguiti da pesci, uccelli da gabbia ed una non trascurabile quota di animali, spinti verso un processo selettivo di
addomesticamento forzato, rappresentati da furetti, iguane e
pitoni. Pur in tempi di crisi economiche imperanti e di leggi
più severe, volte a ridurre i casi di abbandono di animali od
a tutelare la presenza ed il benessere negli appartamenti di
specie esotiche e/o a rischio d’estinzione, il numero di animali vicini all’uomo e “forzatamente umanizzati” rimane a
tutt’oggi alto. Su questi ruota ancora un discreto business
socio-economico e sanitario, i cui principali obiettivi sono di
garantire lo stato di salute migliore per l’animale ed anche di
scongiurare il pericolo di malattie trasmissibili dall’animale
all’uomo.
Da uno studio condotto dall’autore nel 2003, su un campione di 400 strutture sanitarie ambulatoriali variamente distribuite su tutto il territorio italiano e scelte casualmente, la
citologia agoaspirativa è risultata una tecnica applicata nel
89,25% degli ambulatori (357 su 400), di limitato aiuto diagnostico nel 10,25% (41 su 400), di nessun ausilio solo in uno 0,5%
(2 su 400); le specie animali su cui era impiegata maggiormente
erano per il 99,5% (398/400) cani e gatti, 7,5 % lagomorfi, roditori
ed uccelli, 7,5% specie esotiche o non convenzionali e solo per una
quota del 1,25% (5 su 400) cavalli ed altre specie da reddito. Era
emerso anche che il 99,5% dei prelievi citologici era stato effettuato
dalla cute, seguita dai linfonodi (80%) e dai liquidi (25%) come
urina, sangue e versamenti cavitari. Il sondaggio aveva permesso
anche di rilevare un dato interessante, ovvero che la lettura dei
preparati citologici era eseguita per il 92,5% da veterinari referenti
specializzati, per il 5% da medici anatomopatologi e per il 2,5% da
biologi. Tali dati sottolineavano, già dieci anni indietro, che la diagnostica citopatologica, coinvolgendo in ambito veterinario figure
professionali con diversa formazione, era utile, soprattutto, nella
diagnosi delle patologie nodulari cutanee dei carnivori domestici.
Un sondaggio analogo, fatto ai giorni nostri, conferma i risultati
di un decennio prima, con solo piccole e poco significative variazioni percentuali, sia nelle specie trattate, sia nei distretti indagati.
Si è annullata completamente la percentuale di chi non la applica
ed il 95% dei veterinari si occupa della lettura e della refertazione.
Le lesioni cutanee sono spesso visibili, ancor prima che al medico,
già a chi custodisce un animale e le motivazioni di un immutato
interesse professionale verso il metodo in esame sono puramente
di ordine pratico: il corretto comportamento clinico nei confronti di
una lesione cutanea, un nodulo cutaneo ad esempio, è legato spesso ad un atto chirurgico o, in maniera sicuramente meno cruenta,
all’impiego di un adeguato protocollo terapeutico farmacologico.
E’ noto che l’esame citologico può costituire un metodo affidabile
nella differenziazione tra lesioni benigne e maligne, il che permette di programmare l’eventuale intervento chirurgico in relazione
all’urgenza ed all’aggressività del quadro clinico. La citologia può,
infatti, portare alla diagnosi di patologie infiammatorie che talora
si manifestano come lesioni nodulari di sospetta natura neoplasti23
SCIENZE VETERINARIE | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
ca, ma non richiedono l’intervento del chirurgo, e anche di forme
displastiche o iperplastiche, che possono essere trattate con una chirurgia poco demolitiva e non urgente, od essere sottoposte a controlli costanti per valutarne l’evoluzione. E’ oramai fatto consolidato da una lunga esperienza che, in campo oncologico, l’esame citologico risulta un valido aiuto nella valutazione della malignità della
lesione stessa, indirizzando, quindi il chirurgo sul tipo di intervento
da attuare, anche per un prelievo bioptico per ulteriori esami istologici, e sulla possibilità di procrastinarlo, qualora l’animale non
fosse temporaneamente in grado di sopportarlo. Da un lato, quindi, la citologia, eseguita con un agoaspirato, coadiuva la diagnosi differenziale tra alcune delle neoplasie benigne più frequenti
dei carnivori domestici (adenomi sebacei e delle ghiandole
epatoidi, fibromi, istiocitomi cutanei, ecc.), forme potenzialmente più aggressive (tricoblastomi, epiteliomi sebacei,
ecc.) e neoplasie sicuramente maligne (carcinomi mammari,
carcinomi squamocellulari, sarcomi, mastocitomi, ecc.). Tali
lesioni tumorali possono essere ulteriormente distinte da lesioni simil-tumorali come granulomi, piogranulomi e cisti.
In un programma di prevenzione e di difesa della salute pubblica, la citologia, tutta, e quella agoaspirativa in particolare,
si propone come metodo per riconoscere o sospettare lesioni
nodulari di malattie a carattere zoonosico. Forme cutanee di
criptococcosi, sporotricosi, morva, tularemia, tubercolosi ed
altre micobatteriosi, leishmaniosi, toxoplasmosi devono essere diagnosticate tempestivamente od indagate ulteriormente per svelarne l’eziologia soprattutto in animali che vivono
a stretto contatto con soggetti, animali e uomini, immunodepressi (HIV-positivi ad esempio), sottoposti a terapie intensive a base di cortisonici o dal sistema immunocompetente
non ancora maturo.
E’ opportuno ricordare che il rischio di trasmissione di tali
malattie è alto anche per chi si occupa della cura e della diagnosi degli animali stessi. Tra queste, alcune trovano giusta
collocazione in alcuni riferimenti normativi che affondano
radici nel Regolamento di Polizia Veterinaria approvato con
D.P.R. 8.2.1954 N. 320 (art. 1 e successivi aggiornamenti),
dove accanto a malattie infettive e parassitarie, soggette a
denuncia obbligatoria, ne compaiono alcune trasmissibili,
caratterizzate da quadri cutanei clinicamente definiti. Lo
stesso regolamento, da sempre, dà indicazioni precise sulle figure professionali tenute a denunciare tali malattie (rif.
artt. 2, 5 e 6). Ogni corporazione con specifiche competenze
in campo bio-patologico, operativa in strutture nosocomiali
e laboratori per diagnosticare malattie animali potenzialmente pericolose per l’uomo, ha il dovere di conoscere e
segnalare la comparsa di zoonosi all’autorità sanitaria competente e, pertanto, deve essere sensibilizzata per fornire
un supporto più completo all’attività clinico-dermatologica
ambulatoriale.
24
FONTI BIBLIOGRAFICHE
Benazzi P. (2014): Il Regolamento di Polizia Veterinaria.
Approvato con D.P.R. 8.2.1954, N. 320. Annotato, integrato
ed aggiornato al 28 Febbraio 2014. A cura di Cinzia Benazzi
e Gabriella Martini, Soc. ed. Esculapio, Bologna.
Bettini G. (2003): La citodiagnostica nell’animale e
nell’uomo: analogie e differenze in due mondi paralleli. ABSTRACTS VI Congresso Nazionale S.I.Ci. DALLA CITOLOGIA ALLA PROTEOMICA: le Sfide del Futuro e Corso
di Aggiornamento sulle Nuove Prospettive Diagnostiche in
Citologia Clinica, Montegrotto Terme (PD) Italy, 26 - 27
Settembre, pagg. 81-85.
Bettini G. (2008): Diagnostica citopatologica. Citopatologia di masse palpabili e non palpabili. In: Marcato P.S.
“Patologia Sistematica Veterinaria”. Edagricole - Il Sole 24
ORE, Bologna, pagg. 1400-1405.
Marcato P.S. (2008): Dermatologia. In: Marcato P.S.
“Patologia Sistematica Veterinaria”. Edagricole - Il Sole 24
ORE, Bologna, pagg. 1-222.
Militerno G., Bettini G., Bartoli C., Bazzo R., Morini M.,
Sarli G. (2001): Diagnostica citopatologica delle neoplasie
mammarie nei carnivori domestici. Proceedings del V Congresso della Società Italiana di Citologia (S.I.Ci.), Roma 2527 ottobre, pag. 144-146.
Militerno G., Preziosi R., Bettini G. (2001): Lesioni cutanee nodulari benigne del cane e del gatto. Diagnostica citoistomorfologica comparativa. ODV, 12: 49-59.
Militerno G. (2003): Il ruolo della citologia agoaspirativa nella clinica dermatologica veterinaria. ABSTRACTS VI
Congresso Nazionale S.I.Ci. DALLA CITOLOGIA ALLA
PROTEOMICA: le Sfide del Futuro e Corso di Aggiornamento sulle Nuove Prospettive Diagnostiche in Citologia
Clinica, Montegrotto Terme (PD) Italy, 26 - 27 Settembre,
pagg. 90-93.
Tavasani M. (2003): Amici a quattro zampe. E’ un mercato da record. Il Resto del Carlino, 12 aprile, pag. 3.
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | INGEGNERIA CIVILE E ARCHITETTURA
Alcune considerazioni sull’erosione
costiera. Il caso della regione pugliese
MICHELE MOSSA
Professore ordinario di Idraulica, Politecnico di Bari, DICATECh - Dipartimento di Ingegneria Civile, Ambientale, del Territorio, Edile e di Chimica
L
1. INTRODUZIONE
’erosione costiera può essere definita in maniera semplificativa come l’invasione della
terra da parte del mare.
Il processo di erosione ed accrescimento
costiero è sempre esistito e ha contribuito a
plasmare il panorama costiero creando una grande
varietà di tipologie di coste. L’erosione è influenzata anche dall’entroterra: le piogge e l’azione
esercitata dall’acqua sul letto dei fiumi e dei torrenti hanno l’effetto di produrre un movimento di sedimenti verso la costa. Questi sedimenti forniscono
materiale essenziale per contribuire allo sviluppo
di spiagge e dune sabbiose e, più in generale, per
creare luoghi atti ad insediare attività economiche
e ricreative, proteggendo dal rischio inondazione
le aree dell’entroterra, assorbendo l’energia delle
onde più impetuose durante le tempeste, riducendo
l’eutrofizzazione delle acque costiere e favorendo
l’insediamento e la proliferazione di varie specie
faunistiche.
L’erosione costiera deve essere valutata facendo riferimento ad un lasso temporale sufficientemente lungo, tale da
permettere di eliminare, mediando, eventi estremi quali tempeste e dinamiche di sedimento a carattere locale. L’erosione
costiera implica tre differenti tipi di impatto o rischi:
· perdita di aree con valore economico;
· distruzione delle difese naturali (solitamente sistemi di
dune) anche a seguito di un singolo evento tempestoso, con
conseguente potenziale o effettiva inondazione dell’entroterra;
· distruzione delle opere di difesa artificiali, con conseguente potenziale o effettiva inondazione dell’entroterra.
L’erosione costiera è di solito il risultato di una combinazione di fattori, sia naturali che indotti dall’uomo, operanti
su diversa scala. I più importanti fattori naturali sono: ven-
ti e tempeste, correnti vicine alle spiagge, innalzamento del
livello del mare, subsidenza del suolo e apporto liquido e
solido dei fiumi a mare. I fattori indotti dall’uomo includono l’utilizzazione della fascia costiera con la realizzazione di
infrastrutture e opere per insediamenti abitativi, industriali e
ricreativi, l’uso del suolo e alterazione della vegetazione, le
estrazioni di acqua dal sottosuolo, i lavori per la regimazione
dei corsi d’acqua per la difesa del suolo e per il prelievo di
risorsa per uso potabile, irriguo e industriale, estrazione di
inerti dai fiumi, dragaggi, etc.
2. LE DIMENSIONI DEL FENOMENO
A LIVELLO EUROPEO
Come già evidenziato dal rapporto Eurosion (2004) e da
Mossa (2014), a cui si può far riferimento per maggiori dettagli, molte coste europee sono interessate dall’erosione. I
dati cambiano da paese a paese, ma sono comunque nel complesso allarmanti. Da un lato si colloca la Polonia con il 55%
delle sue coste soggette ad erosione, dall’altro la Finlandia
con appena lo 0,04%, grazie ad un litorale fatto di rocce dure.
Preoccupa il dato di Cipro, a rischio per il 37,8%, quello della Lettonia con il 32,8%, della Grecia e del Portogallo al 28,6
25
INGEGNERIA CIVILE E ARCHITETTURA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
e 28,5%, rispettivamente, del Belgio al 25,5%, della Francia
al 24,9%. Poi vi è l’Italia con il 22,8% del litorale soggetto a
erosione, in gran parte frutto dell’urbanizzazione rapida delle sue coste e spiagge. Ammontano a circa 20.000, pari al
20% dell’estensione totale, i chilometri di costa dell’Unione
Europea in cui tale problematica assume caratteri di maggior
rilievo.
L’impatto dell’erosione sui litorali è violento da qualsiasi
lato lo si guardi. Il 36% delle coste europee (47.500 km2 su
132.300 km2 di una superficie misurata su una banda di 500
metri dal litorale) è costituito da siti naturali di valore ecologico inestimabile. Ecosistemi importanti e zone di grande
biodiversità vivono in gran misura sotto la minaccia di distruzione o di forte impoverimento.
In Europa, sulla stessa banda di litorale si sviluppa un’attività economica stimata tra i 500 ed i 1.000 miliardi di euro,
fatta di turismo, agricoltura ed installazioni industriali, molte
a rischio come anche le numerosissime abitazioni. Molte di
tali zone (circa 15.100 km) si stanno considerevolmente ritirando e alcune di esse (circa 2.900 km) nonostante le opere
di difesa realizzate. Invece, sono circa 4.700 i km di costa
che proprio grazie alla realizzazione di tali opere sono stati
resi stabili.
L’area persa a causa dell’erosione, o comunque seriamente
compromessa, è stimata in circa 15 km2 all’anno. Nel periodo 1999-2002 il numero di abitazioni che sono state abbandonate in Europa a causa dell’erosione è stato di circa 300,
mentre sono circa 3000 quelle che hanno visto il loro valore
di mercato decrescere di oltre il 10% per il rischio di essere
sommerse o di precipitare in mare. Ingenti sono anche i danni alle infrastrutture viarie e alle comunicazioni. Tali perdite sono comunque insignificanti se comparate al rischio di
inondazione delle zone costiere in conseguenza della scomparsa delle difese naturali quali le dune. Questa potenziale
minaccia incombe su molte migliaia di chilometri quadrati
di territorio e, di conseguenza, su molti milioni di persone.
A dare una gran mano all’erosione è stato l’inurbamento
spesso selvaggio della costa. Negli ultimi 50 anni la popolazione che vive nelle città o nei villaggi litoranei si è più
che raddoppiata, portandosi a 70 milioni di abitanti nel 2001,
pari al 16% dei cittadini dell’UE, accrescendo notevolmente
il valore economico degli insediamenti ivi presenti.
Nel 1988 l’Organizzazione Meteorologica Mondiale
(WMO) e il Programma Ambientale delle Nazioni Unite
(UNEP) istituirono l’United Nations - Intergovernmental
Panel on Climate Change, (UN-IPCC), un’agenzia intergovernativa delle Nazioni Unite che ha lo scopo di valutare le
informazioni scientifiche, tecniche e socio-economiche atte
a comprendere il cambiamento climatico, i suoi potenziali
impatti e le opzioni per la mitigazione degli stessi. Secondo i
risultati resi noti da uno studio condotto dall’UN-IPCC viene
stimato in più di 158.000 il numero degli abitanti che nel
2020 saranno coinvolti direttamente nel problema dell’erosione costiera.
L’erosione è un fenomeno naturale e come tale la natura
stessa potrebbe trovare la sua soluzione. Sabbia, pietre e ciot26
toli strappati alle spiagge dalle onde sono infatti naturalmente sostituiti dai sedimenti fluviali, dall’erosione delle falesie
o dei banchi di sabbia marini, ma a rompere il meccanismo
talvolta interviene l’uomo, prelevando annualmente 100 milioni di tonnellate di sabbia che servirebbero a riapprovvigionare in maniera naturale gli habitat della costa e che invece finiscono per essere utilizzati nell’edilizia, per costruire
barriere fluviali o per lavori di genio civile. A questo ritmo
le zone naturali, di gran lunga le armi più efficaci per proteggerci dal mare, sono destinate a scomparire. Le barriere
artificiali non hanno, infatti, la medesima efficacia, in quanto
limitano localmente l’erosione ma, nello stesso tempo, non
fanno altro che spostare di alcuni chilometri il problema.
Le misure adottate per l’attenuazione di tali fenomeni
sono in netto aumento. Nel 2001 la spesa pubblica destinata alla protezione delle coste contro i rischi dell’erosione e
dell’inondazione si è attestata a 3200 milioni di euro, contro i 2500 milioni del 1986. Tali cifre riflettono chiaramente
l’impegno e il bisogno di dover difendere tenacemente i beni
che versano in situazioni di imminente rischio di erosione
costiera, ma ci fanno perdere di vista gli ingenti costi indotti
dall’attività dell’uomo a lungo termine.
Recenti studi dell’UN-IPCC hanno stimato che i costi relativi all’erosione saranno, per il periodo che va dal 1990 al
2020, mediamente di 5.400 milioni di euro l’anno.
3. L’EROSIONE COSTIERA IN ITALIA:
ALCUNI DATI
Dagli anni cinquanta anche lungo le coste italiane si sono
manifestati in modo palese locali e diffusi fenomeni di erosione delle coste sabbiose, sia come trend naturale sia come
fenomeno indotto dalla pressione d’uso della fascia costiera.
Erosioni locali erano state già evidenziate alcuni decenni
fa, però non erano stati effettuati studi organici, poiché non
si era ancora sviluppata una sensibilità al problema che investiva importanti aspetti sociali, economici e ambientali. Tale
sensibilità è accresciuta quando sono aumentate l’urbanizzazione, le attività commerciali ed industriali e la fruizione
turistica. Oggi in Italia il 60% della popolazione vive nella
fascia costiera.
Dal punto di vista legislativo il primo richiamo alle “opere
e lavori di costruzione e di manutenzione dei porti, dei fari
e delle spiagge marittime” è fatto nella Legge fondamentale
sui Lavori Pubblici del 20 marzo 1865, n. 2248. Però, solo
con la legge n. 542 del 14 luglio 1907 si stabiliscono i principi fondamentali delle opere di difesa delle spiagge. La legge
era la conseguenza di fenomeni erosivi che negli ultimi decenni del 1800 si erano innescati su alcuni tratti di litorale
italiano. In particolare, la legge prevedeva di “difendere gli
abitati dalla corrosione dal mare” e non le spiagge. Furono
così posti in opera svariati tipi di manufatti con lo scopo di
proteggere gli insediamenti.
I primi studi organici relativi ai problemi della dinamica e,
quindi, dell’erosione costiera sono quelli effettuati nell’ambito dei lavori della Commissione Interministeriale per lo
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | INGEGNERIA CIVILE E ARCHITETTURA
Tabella 1. Quadro dello stato dei litorali italiani suddivisi in regioni amministrative e geografiche, “Relazione sullo stato dell’ambiente del
Ministero dell’Ambiente - 1992”. Dati Atlante delle Spiagge Italiane.
Regione
Opere portuali e
banchine
Spiagge
Coste alte
In erosione
km
%
km
%
Friuli Venezia Giulia
29
28
15
14
Liguria
63
18
177
50
2
1
14
3
Marche
4
Lazio
13
Abruzzo
Molise
Veneto
Emilia Romagna
Toscana
In crescita
Stabili
km
%
km
%
km
18
11
20
13
2
3
2
3
47
40
3
31
20
122
57
Totale
Totale km
%
km
%
122
76
160
100
160
56
94
60
58
104
3
66
57
116
32
356
16
10
108
70
155
99
157
22
10
72
33
216
46
472
242
51
2
37
22
57
44
7
5
65
51
129
76
170
5
61
21
117
54
12
6
87
40
216
74
290
3
2
23
19
48
48
2
2
49
50
99
79
125
1
3
2
6
26
81
6
19
32
91
35
Campania
16
5
172
49
44
27
5
3
113
70
162
46
350
Puglia
41
5
450
57
89
30
1
0
212
70
302
38
793
19
32
40
98
1
2
41
68
60
125
17
196
32
23
4
394
64
613
82
742
Basilicata
Calabria
4
1
Sicilia
37
4
436
41
140
24
36
6
401
70
577
55
1050
Sardegna
12
1
960
71
62
17
17
4
295
79
374
28
1346
125
4
1883
53
585
39
79
5
856
56
1520
43
3528
Adriatico
63
5
353
28
242
28
48
6
555
66
845
67
1261
Jonio
51
4
483
34
212
24
39
4
636
72
887
62
1421
239
4
2719
44
1039
32*
166
5
2047
63*
3252
52
6210**
Tirreno
ITALIA
Note:
* al valore relativo alle spiagge in erosione occorre aggiungere un ulteriore 10% (oltre 300 km) per quei litoriali che sono stabili mediante opere di protezione. Pertanto le
spiagge “naturalmente” stabili costituiscono poco più del 50% del totale
** compresa l’Isola d’Elba; escluse le isole minori, i cui litorali hanno uno sviluppo di circa 1290 km
Studio della Sistemazione Idraulica e della Difesa del Suolo
(1970), nota come “Commissione De Marchi”, dal nome del
prof. Giulio De Marchi che la presiedeva. La stessa fu istituita dopo tanti anni di dibattiti parlamentari per dare una risposta alla difesa del suolo a seguito di eventi catastrofici, quale
l’alluvione del Polesine del 1951 e l’alluvione di Firenze del
1966. La Commissione era ben conscia delle difficoltà di coniugare la difesa dei territori dalle inondazioni con la difesa
dei litorali sabbiosi. Infatti, nell’ambito della Commissione,
la V Sottocommissione, presieduta dal prof. Guido Ferro,
operò sul tema “Difesa dal Mare dei Territori Litoranei”.
I lavori della Commissione furono la base di partenza della
prima Legge nazionale organica sulla Difesa del Suolo, ossia
la Legge del 18 maggio 1989, n. 183.
I lavori della Sottocommissione, con il supporto degli
uffici del Genio Civile per le Opere Marittime, portarono
alla produzione di 39 Fogli, in scala 1:250.000, ricavati dalle carte nautiche dell’Istituto Idrografico della Marina, che
coprivano l’intero territorio nazionale e riportavano lo stato
del fenomeno erosivo e delle opere a mare al 1968 - 1969.
Dall’indagine condotta risultò che i processi erosivi interessavano la maggior parte delle foci dei fiumi italiani e vasti
tratti della fascia costiera.
Questa tendenza generalizzata era imputabile principalmente alle sistemazioni idrauliche forestali delle aree interne
dei bacini idrografici italiani (rimboschimenti e sistemazioni idrauliche dei corsi d’acqua delle aree interne prealpine e
collinari degli Appennini, lavori avviati su larga scala alla
fine della seconda guerra mondiale, anche per far fronte alla
grande disoccupazione di massa esistente a quei tempi). Queste azioni furono avviate dopo tanti decenni di indiscriminato
disboscamento delle aree interne per produrre legname e per
far fronte alla forte domanda proveniente dall’industrializzazione del paese.
Questi disboscamenti avevano favorito la formazione di
ampie foci fluviali e litorali sabbiosi. Accanto a questa causa
è da evidenziare l’effetto negativo sulla stabilità dei litorali
sabbiosi delle regimazioni dei corsi d’acqua (effettuati sia
per la difesa idraulica del territorio che per l’accumulo di
acqua per la produzione di energia elettrica e per l’approvvigionamento di risorsa idrica per uso idropotabile, irriguo e
industriale), alla bonifica di vaste aree costiere e alla infrastrutturazione delle stesse aree con urbanizzazione, viabilità e opere portuali e alla estrazione di inerti dagli alvei dei
fiumi.
Nell’ambito dei lavori della Commissione fu redatta, tra
l’altro, una carta di sintesi dei tratti costieri in erosione e fu
stimato che la lunghezza dei litorali in arretramento per i
quali si rendevano necessari interventi di difesa erano pari
a 600 km. Analisi successive a livello nazionale fotografano
la situazione a distanza di 15-30 anni e ad una scala di dettaglio maggiore. In particolare l’Atlante delle Spiagge Italiane
(lavoro prodotto nell’ambito di Progetti del Consiglio Nazionale delle Ricerche e del Ministero dell’Università, della
Ricerca e dello Sviluppo Tecnologico, coordinati dal prof.
Giuliano Fierro) è formato da 108 Fogli in scala 1:100.000
in cui si sintetizza la condizione delle spiagge italiane nel
periodo 1985 - 1997. Dai fogli dell’Atlante risulta evidente
che il processo di arretramento dei litorali, trattato in termini
di tendenza evolutiva a medio periodo, si era aggravato rispetto allo studio precedente, nonostante la realizzazione di
numerose opere di difesa. Questo aspetto era stato analizzato
27
INGEGNERIA CIVILE E ARCHITETTURA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
cedure adottate per ottenerli. Un dato, tuttavia, inconfutabile,
è che tutti questi studi sono in accordo con la correlazione tra
azioni antropiche e arretramento delle spiagge sabbiose. Infatti, in generale in Italia, la gran parte delle opere che esercitano un impatto consistente sulla dinamica costiera sono
state realizzate nei primi due decenni del dopoguerra.
nell’ambito di un altro progetto CNR, che aveva portato alla
redazione delle prime raccomandazioni tecniche italiane per
la protezione delle coste (Cortemiglia et al., 1981).
Nella tabella 1 sono riportati i dati estratti dal Dipartimento di Scienze della Terra dell’Università di Roma “La Sapienza” dall’Atlante delle Spiagge Italiane e presentati nella
“Relazione sullo stato dell’ambiente del Ministero dell’Ambiente - 1992”. Dalla suddetta tabella si osserva che la lunghezza delle spiagge in erosione al 1992 era di 1.039 km,
quasi il doppio dei 600 km, stimati dalla Commissione De
Marchi nel 1970.
Nel 2006 la Segreteria Tecnica per la Difesa del Suolo
del Ministero dell’Ambiente e della Tutela del Territorio,
al fine di avere “un ordine di grandezza delle problematiche
sull’arretramento costiero in Italia”, ha eseguito un’elaborazione dei dati vettoriali disponibili riferiti alla linea di costa
tracciata sulla base delle tavolette IGMI 1:25.000 e alla linea di costa tracciata sulla base delle ortofoto aeree del Volo
IT2000 (Ministero dell’Ambiente e della Tutela del Territorio, 2006).
La sintesi regionale è riportata nelle tabelle 2 e 3, in cui
si evidenziano gli ordini di grandezza dei fenomeni di arretramento e avanzamento della linea di costa. Tuttavia, nello
studio non è stata operata nessuna distinzione fra le diverse
tipologie di costa bassa, il che non rende possibile un confronto puntuale con l’Atlante delle Spiagge italiane. Ciò
rende sicuramente difficoltosa l’interpretazione dei risultati
in termini di arretramento o avanzamento della linea di riva
rispetto agli studi antecedenti, in quanto ai fini di un corretto
confronto è opportuno considerare i dati di partenza e le pro-
Anche sulle coste della Regione Puglia, come per quelle
italiane esaminate nel paragrafo 3, negli ultimi decenni si
sono manifestati in modo palese locali e diffusi fenomeni di
erosione dei litorali sabbiosi. Per maggiori dettagli sui contenuti del presente paragrafo si può far riferimento a Castorani
et al. (2000), AA.VV. (2009; 2011).
I primi dati sono scaturiti nell’ambito della Commissione
de Marchi, di cui si è dato cenno in precedenza. Nella figura
1 è riportato un dettaglio della costa regionale estratta dalla
carta di sintesi, redatta dalla Commissione. In essa sono evidenziati i principali tratti regionali in erosione al 1968.
La figura evidenzia a nord delle criticità nei tratti adiacenti
ai fiumi Saccione e Fortore. È presumibile che tali criticità
siano da attribuire principalmente alle sistemazioni idrauliche dei corsi d’acqua e a quelle idraulico-forestali delle aree
interne della Puglia, Molise e Campania realizzate in modo
consistente dopo la seconda guerra mondiale. Infatti, all’epoca dello studio, la fascia costiera non era stata ancora interessata da significativi interventi antropici e la diga di Occhito
sul Fortore non era ancora entrata in esercizio. La conclu-
Tabella 2. Analisi della costa italiana: analisi delle superfici
(Ministero dell’Ambiente e della Tutela del Territorio, 2006).
Tabella 3. Analisi della costa italiana: analisi dei tratti lineari
(Ministero dell’Ambiente e della Tutela del Territorio, 2006).
4. ALCUNE RIFLESSIONI SULL’EROSIONE
COSTIERA IN PUGLIA
Analisi dei tratti lineari
Analisi delle superfici
Linea di costa (km)
Superficie di costa (kmq)
Regione
Abruzzo
Avanzamento
Arretramento
Bilancio
n. porti
1.8
-1.6
0.3
5
Abruzzo
Basilicata
Avanz.
Arretr.
Totale
costa
Avanz.
%
Arretr.
%
55.1
45.2
138.7
40
33
Basilicata
1.8
-1.5
0.3
1
Calabria
8.4
-12.0
-3.6
15
Calabria
Campania
2.6
-3.7
-1.1
18
Campania
Emilia Romagna
5.8
-9.5
-3.7
5
Emilia Romagna
Friuli Venezia Giulia
1.1
-0.8
0.3
1
Friuli Venezia Giulia
26.9
25.5
154.6
17
17
Lazio
4.8
-3.2
1.6
11
Lazio
134.5
84.9
308.8
44
27
26.8
19.2
65.3
41
29
222.4
310.6
726.4
31
43
86.3
97.2
420.5
21
23
63.4
62.9
153.3
41
41
Liguria
3.1
-2.2
0.9
16
Liguria
109.8
76.0
406.5
27
19
Marche
2.0
-3.4
-1.4
8
Marche
64.9
72.6
189.6
34
38
Molise
0.6
-1.2
-0.6
2
Molise
13.8
14.3
37.9
37
38
Puglia
5.3
-5.4
-0.1
22
Puglia
199.2
199.6
881.2
23
23
Sardegna
1.0
-1.3
-0.2
16
Sardegna
61.2
74.8
1530.4
4
5
Sicilia
7.4
-13.0
-5.6
43
Sicilia
231.8
373.2
1181.1
20
32
Toscana
5.2
-5.6
-0.4
15
Toscana
105.5
94.3
367.5
29
26
Veneto
Veneto
Totale complessivo
4.6
-5.6
-1.0
1
55.6
-70.0
-14.4
179
Sono escluse le variazioni sul delta del F. Po per +2.5 e -25.3 kmq
28
Regione
Totale complessivo
67.9
46.2
172.3
39
27
1469.5
1596.7
6734.2
22
24
Sono escluse le variazioni sul delta del F. Po per +6.3 e -32.3 km
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | INGEGNERIA CIVILE E ARCHITETTURA
nico pugliese che, dall’essere storicamente in avanzamento,
incominciava a manifestare fenomeni di arretramento.
Dagli studi della Commissione De Marchi non si sono
avute indicazioni sulla lunghezza dei tratti di costa pugliese
in arretramento. Tornando alla figura 1, si nota una zona di
arretramento nel tratto di costa tra il Porto di Margherita di
Savoia e Manfredonia. In questa zona il fenomeno erosivo è
certamente riconducibile alla costruzione del porto di Margherita di Savoia, avvenuta nel 1952, e, in particolare, alla realizzazione del molo di levante che, intercettando il trasporto
solido proveniente dall’Ofanto ha determinato un notevole
avanzamento del litorale ad Est del porto, in parte subito interessato da un ampliamento dell’urbanizzazione della città,
e un arretramento nella zona a ponente che, negli anni, si è
protratta fino alla zona di Siponto.
Il caso analizzato in precedenza, insieme a tanti altri che si
sono verificati in Italia e all’estero, è indicativo dell’effetto
Figura 1. Stralcio della Puglia dalla carta di sintesi dei tratti di litorale
che può avere sul territorio un’opera a mare realizzata senza
in erosione. Situazione al 31/10/1968 (dagli atti della Commissione De
aver prima condotto un accurato studio della dinamica dei seMarchi).
dimenti nell’intera unità fisiografica di interesse. Negli anni
successivi alla costruzione del porto, per contenere l’arretrasione interessante che è possibile ottenere da questo studi è mento, sulla costa tra Margherita di Savoia e Siponto sono
la contrapposizione tra gli interventi compiuti nell’entroterra state realizzate numerosissime opere di protezione, quasi
per l’uso e la difesa del suolo e la conservazione dei litorali, l’80% del totale delle opere di difesa realizzate sui litorali
pugliesi. I pennelli e le scogliere radenti hanno stabilizzato in
che, talvolta, può risentire di tali interventi.
Altre criticità isolate sono segnalate in più punti della costa parte il litorale, anche se, visto il ridotto apporto di sedimenti
pugliese sia adriatica che ionica, dal Gargano fino alle coste alla fascia litoranea, non si sono verificati gli avanzamenti
del barese e del leccese), mentre è da evidenziare la totale as- auspicati della linea di riva. La figura 2 mostra l’arretramento
senza di aree considerate a rischio erosivo sulla costa ionica della linea di riva a ponente del porto, che dal 1952 al 2005
è di circa 120 m, e l’avanzamento a levante, valutato in circa
da Taranto fino al confine con la Basilicata.
Fenomeni analoghi a quelli riscontrati in corrispondenza 210 m. Tale tendenza evolutiva è ancora in atto.
Tra l’altro, è il caso di sottolineare che il tratto di litorale
dei fiumi Fortore e Saccione sono presenti più a sud, sulla
costa lucana, in prossimità della foce del fiume Sinni. An- analizzato ha una valenza ambientale notevolissima per la
che in questo caso i fenomeni sono attribuibili a sistemazio- presenza di stagni, saline e cordoni dunari. Già allo stato atni idraulico-forestali operate nelle zone interne del bacino tuale in concomitanza di eventi meteomarini, anche non ecidrografico. Tuttavia, è il caso di segnalare che già negli anni cezionali, vaste aree e alcuni villaggi turistici realizzati sulla
immediatamente successivi ai lavori della Commissione De fascia costiera sono inondati dalle acque del mare e dei fiumi.
Successivamente ai lavori della Commissione De Marchi,
Marchi, alcuni studi (Cotecchia et al.,1971; Cocco, 1975),
mostrarono una inversione di tendenza nell’intero litorale io- un’analisi più dettagliata della costa pugliese è stata eseguita
per la redazione dell’Atlante
delle Spiagge Italiane, di cui
si è fatto cenno nel paragrafo
3. Il confronto tra i dati della
Commissione De Marchi (il
cui lavoro, si ripete, risale al
1968, ossia circa trenta anni
prima) evidenzia una situazione in ulteriore peggioramento. Infatti, i fenomeni di
arretramento della costa, per
tratti più o meno estesi, sono
notevolmente aumentati.
Per ragioni di brevità, non è
possibile presentare una trattazione circostanziata delle
Figura 2. Immagine IKONOS (maggio 2005) del litorale a levante e a ponente del porto di Margherita di
Savoia e, in rosso, la linea di costa del 1952 (Immagine acquisita nell’ambito del Progetto IMCA, 2003).
ragioni, ma certamente alcune
29
INGEGNERIA CIVILE E ARCHITETTURA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
Figura 3. Evoluzione della linea di costa in adiacenza del Fiume Fortor
considerazioni interessanti si possono trarre dal confronto
dell’evoluzione dei tratti costieri della zona del Saccione Fortore, dell’Ofanto e della costa ionica, da Taranto al confine regionale.
Nel primo tratto si nota che le criticità che nel 1968 erano
circoscritte alle foci del Fortore e del Saccione, nel 1997 si
erano allargate all’intero tratto di costa, situazione, questa,
che permane ancora oggi, come si vede dalla figura 3 nella
quale è riportata l’evoluzione storica della foce del Fortore
dal 1970 al 2005; l’arretramento della linea di riva a ponente
è di circa 146 m e a levante di circa 154 m.
Le cause di tale situazione possono essere ricercate in numerosi fenomeni, di seguito richiamati, che sono tutti intervenuti negli anni, e che certamente hanno contribuito alla
determinazione delle condizioni attuali anche se in misura
diversa. Per esempio, nella zona vi è certamente stata una
urbanizzazione della fascia costiera, ma i dati indicano che
essa non è stata particolarmente consistente. Nella piana alluvionale, inoltre, sono state eseguite sistemazioni del suolo
ed è stata avviata una agricoltura intensiva, a cui si sono accompagnati consistenti emungimenti di acqua dal sottosuolo
che potrebbero aver determinato dei fenomeni di subsidenza,
anche se dati specifici significativi a tal riguardo non sono
stati reperiti. Infine in trenta anni (ordine di grandezza del
tempo nell’ambito del quale si hanno informazioni di questo genere) non si è avuto un forte sollevamento del livello
del mare. Pertanto, la causa che maggiormente ha inciso è la
drastica riduzione di sedimenti trasportati dai fiumi a mare,
a seguito di azioni antropiche e delle sistemazioni idrauliche nel bacino idrografico. Inoltre, nel caso del Fortore si è
accompagnata la realizzazione dell’invaso di Occhito, una
diga in terra del volume di 250.000.000 mc. A tale diga E’
inoltre da evidenziare che, in anni recenti, sul fiume Biferno
è entrata in esercizio la diga Guardialfiera, circa 50.000.000
di mc di acqua invasata.
La figura 3 indica l’andamento dell’arretramento.
Al fine di un’analisi attendibile dell’evoluzione del litorale
risulta indispensabile un adeguato e continuo monitoraggio.
I dati dell’Atlante delle Spiagge mostrano anche una nuova
criticità sia alla foce dell’Ofanto che nel tratto di litorale tra
30
l’Ofanto e Barletta. Gli arretramenti in
questo ultimo tratto sono in parte dovuti
ad una precedente deviazione artificiale
della foce del corso d’acqua e, principalmente, alla riduzione dell’apporto solido
dal fiume dovuto sia alle azioni antropiche nel bacino idrografico che alla realizzazione di diversi invasi e traverse lungo
l’asta fluviale. Ci si riferisce alle dighe di
Conza, Saetta, Rendina, Marana Capacciotti e Locone oltre alla traversa di Santa
Venere, grazie alle quali teoricamente la
quantità di acqua regimabile ammonta a
circa 310.000.000 mc l’anno.
Per quanto riguarda la costa ionica,
da Taranto al confine regionale (Ginosa
Marina - sponda sinistra del fiume Bradano) l’Atlante delle Spiagge, a differenza dello studio della
Commissione De Marchi, indica che tutta la fascia costiera
nel 1997 presentava una tendenza all’arretramento. La Commissione De Marchi aveva segnalato l’erosione alla foce del
Sinni, però, come già detto, non vi erano indicazioni particolari, anche perché non si erano verificati fenomeni erosivi
vistosi e il litorale presentava limitati insediamenti.
Le spiagge presenti sono quasi ovunque di tipo basso e
sabbioso, delimitate verso l’entroterra da vaste zone umide o
da cordoni dunari con altezza variabile da pochi metri, nella
zona più ad Ovest, fino a raggiungere i 10-12 metri in quella
più ad Est.
Le cause della sensibilità del litoraneo risalgono a molti anni addietro e sono imputabili all’azione antropica. La
realizzazione della linea ferroviaria, il massiccio intervento di bonifica delle aree paludose e malsane presenti nella
piana costiera, risalente ai primi decenni del ‘900, avviarono le prime trasformazioni della fascia costiera. La ripresa
economica del secondo dopoguerra vide poi la crescita del
turismo di massa e di conseguenza una consistente domanda
di utilizzo delle aree adiacenti il mare per la costruzione di
abitazioni, stabilimenti balneari, accessi alle spiagge e aree
di campeggio. Tale attività, favorita da una mancanza e insufficienza di normative a favore della protezione delle aree
ambientali, ha determinato in molti casi la distruzione delle
dune. Ciò ha comportato l’attuale presenza di resti di banchi
dunari appiattiti e affetti da numerose falle che certamente
non riescono a rifornire le spiagge antistanti e a proteggere
le aree retrodunali.
Le sistemazioni idraulico forestali nei bacini idrografici
prima e i numerosi invasi realizzati sui vari corsi d’acqua
poi hanno ridotto drasticamente il quantitativo di sedimenti
veicolato verso il mare. Da notare che in tale area vi sono due
schemi idrici di fondamentale importanza per l’approvvigionamento di risorsa idrica (per uso irriguo, idropotabili e industriale) per le Regioni Basilicata e Puglia. Esistono infatti
due schemi fondamentali: Basento – Bradano e del Sinni Agri, dai nomi dei quattro fiumi. Nel primo schema sul fiume
Bradano vi sono le dighe di Acerenza, Genzano, Basentello,
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | INGEGNERIA CIVILE E ARCHITETTURA
Capodacqua, Pentecchia, Gravina
e San Giuliano, mentre sul fiume
Basento vi è la diga del Camastra
e la traversa di Trivigno. Lo schema può regimare una quantità di
acqua di circa 175.000.000 mc
l’anno. Nel secondo schema, sul
fiume Agri, vi sono le dighe di
Marsico Nuovo e del Pertusillo
e le traverse sul Sauro e sull’Agri; sul fiume Sinni vi è la diga di
Monte Cotugno e la traversa sul
fiume Sarmento. Lo schema può
regimare una quantità di acqua di
circa 1.000.000.000 mc l’anno.
Il trasporto di sedimenti a mare
è stato poi ridotto anche dall’incontrollata estrazione di ingenti Figura 4. Veduta aerea del porto industriale di Taranto con elementi strutturali in fase di costruzione.
Si nota la foce del fiume Tara ancora all’interno del bacino e che successivamente sarà deviato ad
quantitativi di ghiaia e sabbia da- Ovest, in aderenza alla diga di sottoflutto.
gli alvei.
Tutte queste cause antropiche
hanno determinato una forte erosione prima delle foci dei fiumi e
del litorale lucano per poi interessare la costa pugliese verso cui da
ovest arriva il trasporto prevalente
netto dei sedimenti. E’ da considerare che sul litorale pugliese, a
meno della realizzazione di alcune
foci armate e delle opere per l’ampliamento del porto di Taranto di
cui si dirà di seguito, non sono
state eseguite opere a mare significative.
Nella zona più ad Est del tratto
di costa ionico ha avuto un’influenza rilevante la costruzione
del Molo Polisettoriale del nuovo Figura 5. Zona a nord del molo polisettoriale del Porto di Taranto.
porto industriale della città di Taopere che si realizzano possono provocare delle conseguenze
ranto (figura 4). La realizzazione
della diga di sottoflutto, lunga 1.500 m, e la deviazione verso negative difficilmente valutabili aprioristicamente senza un
est della foce del fiume Tara, hanno modificato la dinamica dettagliato studio preliminare.
Di fatto il tratto di litorale analizzato resta fra quelli ad
dei sedimenti per cui a ridosso del molo si è avuto un forte
avanzamento della linea di riva, mentre più a ovest si innescò alta sensibilità ed è necessaria una riduzione della pressione
un processo erosivo, mitigato in parte dalla realizzazione di antropica oltre che un monitoraggio continuo. Quest’ultimo,
in particolare, permette di distinguere tra i fenomeni di arreopere di protezione parallele alla linea di costa.
Si osserva che quella zona (figura 5) aveva una certa voca- tramento reali, che denotano situazioni patologiche dei litozione turistica, come testimoniato dalla presenza di un alber- rali, da altri che, seppure indicativi di un arretramento della
costa, in realtà, possono essere classificati come estempogo, l’Hotel Tritone, ormai non più operante.
Dopo la realizzazione del Molo Polisettoriale del Porto di ranei, in quanto ritraggono una situazione fotografata in un
Taranto è avvenuto un processo di arretramento delle linea determinato momento. A quest’ultima categoria, per esemdi riva a ridosso dell’ex albergo (figura 6) e di ripascimen- pio, le variazioni stagionali della linea di riva, che vanno
to nell’intorno del molo, che, di fatto, ha funzionato come considerati come fenomeni del tutto naturali, che in litorali
una sorta di pennello. L’esempio riportato, che da un punto sabbiosi molto bassi, come appunto quelli dell’arco ionico,
di vista di analisi causa-effetto meriterebbe ulteriori detta- possono provocare variazioni anche di alcune decine di metri
gli rispetto a quelli qui descritti, vuole evidenziare come le fra una stagione e l’altra, oppure le variazioni dovute alla si31
INGEGNERIA CIVILE E ARCHITETTURA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
Figura 6. L’Hotel Tritone e la costa prossima ad esso, ormai erosa.
Figura 7. Andamento delle line di riva a nord-ovest del molo
polisettoriale del Porto di Taranto.
Figura 8. Un esempio di modello fisico di opera di difesa costiera
realizzato presso il LIC del Politecnico di Bari.
stemazione delle spiagge da parte dei gestori all’inizio della
stagione balneare. Tutti aspetti che devono essere inquadrati
nel giusto contesto temporale mediante un attento e continuo
monitoraggio.
Nello studio dell’Atlante delle Spiagge, oltre alla tendenza
32
evolutiva dei litorali, è infine riportato
anche il dato relativo alla costa sabbiosa
pugliese che risulta in arretramento per
un totale di 89 km ed in avanzamento
per solo 1 km. Quindi al 1997 in Puglia
la percentuale di costa bassa sabbiosa
pugliese con tendenza all’arretramento
rapportata alla lunghezza totale di tale
tipo di costa era di circa il 29%, valore appena inferiore a quello nazionale,
che, come si è detto innanzi, è del 32%.
Più recentemente la Regione Puglia
ritenendo importante il monitoraggio
della fascia costiera, nell’ambito del
P.O.R. Puglia 2000 - 2006, ha previsto una serie di azioni di monitoraggio
fra cui quella degli interventi di difesa
costiera già finanziati e realizzati. In
particolare, per la redazione degli studi preliminari per la redazione dei Piani di Bacino, la Regione Puglia si è avvalsa
della collaborazione di enti di ricerca, i quali hanno redatto il “Progetto Esecutivo del Monitoraggio” delle azioni a
salvaguardia delle coste. Tale progetto prevedeva numerose
azioni. Per esempio, alcune delle attività previste consistono
nell’installazione di attrezzature fisse in grado di fornire dati
in modo continuo nel tempo (quali anemometri, boe ondametriche, telecamere) o nei rilievi in situ, ripetuti a cadenza
prefissata in modo da poter verificare l’evoluzione del litorale (rilievi planimetrici e batimetrici della fascia costiera,
voli per rilevare la cartografia della fascia costiera sabbiosa e
ricognizioni aeree visive con foto e video).
Per quanto riguarda l’aspetto specifico dell’evoluzione dei
litorali lo studio in fase di redazione del Progetto Esecutivo
del Monitoraggio aggiornò le informazioni disponibili fino
ad allora, producendo una “Carta della costa pugliese: geomorfologia e opere di difesa”, costituita da 21 fogli ed aggiornata al 2003. Da essa si ricava che la lunghezza dei tratti
di costa sabbiosa in arretramento è circa 117 km e quella
dei tratti in avanzamento è di circa 10 km. Di fatto, tali dati
portano a concludere che la costa sabbiosa in erosione è aumentata rispetto all’Atlante delle Spiagge italiane, passando
da 89 km a 117 km, con una percentuale aumentata dal 29%
al 39%.
Successivamente al 2003, come si è detto al paragrafo 3,
vi sono gli studi a livello nazionale del 2006 del Ministero dell’Ambiente e della Tutela del Territorio (Ministero
dell’Ambiente e della Tutela del territorio, 2006) e dell’APAT, Agenzia per la protezione dell’ambiente e per i servizi
tecnici, (Barbano et al., 2006).
Sebbene nel complesso le zone critiche siano le stesse
individuate negli studi precedenti, vi sono alcune modificazioni locali di non poco conto. In particolare, per la costa
ionica emergono alcune criticità sui litorali a levante di Taranto, non riscontrate in precedenza. Inoltre, fatta eccezione
per l’arretramento a ovest del Molo Polisettoriale, la restante
parte della costa pugliese risulta in avanzamento o in situa-
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | INGEGNERIA CIVILE E ARCHITETTURA
zione di stabilità, mentre nei due studi precedenti tutto il tratto era stato classificato in arretramento. Sull’arco ionico sono
prevalenti i tratti in arretramento, anche se, però, ve ne sono
alcuni in avanzamento.
I risultati dello studio dell’APAT danno la stessa tendenza
evolutiva di quello del Ministero dell’Ambiente, salvo le lunghezze dei tratti di costa bassa in avanzamento o in erosione.
Più recentemente, nell’anno 2009, la Regione Puglia ha
predisposto per la tutela e la difesa dei litorali della Puglia, il
Piano Regionale delle Coste, diretto a tutte le amministrazioni comunali pugliesi, che dovranno attenersi ai criteri e agli
obiettivi fissati nel documento regionale. Il Piano Regionale
delle Coste, come tutti i piani e programmi che coinvolgono
a vario livello la pianificazione del territorio e dell’ambiente,
deve essere sottoposto a Valutazione Ambientale Strategica,
secondo la Direttiva 2001/42/CE, con la “finalità di garantire
un elevato livello di protezione dell’ambiente e di contribuire
all’integrazione di considerazioni ambientali all’atto dell’elaborazione e dell’adozione di piani e programmi al fine di
promuovere lo sviluppo sostenibile”.
5. CONSIDERAZIONI FINALI
Quanto riportato nei precedenti paragrafi ha potuto evidenziare l’importanza della risorsa mare, come componente di
un ecosistema di cui la fascia costiera è un elemento essenziale. Il mare, da sempre fonte di vita e di ricchezza, come
testimoniato dalla storia, è sempre più utilizzato, sia come
recapito finale degli sversamenti delle acque reflue, sia come
fonte di ricchezza per le spiagge e per l’intero ecosistema
mare-costa e per la fauna ittica. Di qui l’esigenza di preservare tale risorsa, che va utilizzata in modo oculato. A tal riguardo il contributo tecnico e scientifico alla salvaguardia di
questa risorsa è di fondamentale importanza.
Alla luce dei casi brevemente illustrati in precedenza,
preme sottolineare il possibile contributo scientifico a sostegno di una corretta pianificazione degli interventi di salvaguardia costiera. In particolare presso appositi laboratori
di ingegneria marittima, come il Laboratorio di Ingegneria
Costiera (LIC) del Politecnico di Bari, è possibile realizzare
dei modelli fisici delle opere di protezione costiera, al fine di
verificare ante operam la loro efficacia. A titolo di esempio,
la figura 8 riporta un modello fisico di un’opera di difesa costiera: si tratta delle barriere frangiflutti di Marina di Massa,
che sono state testate con un modello fisico presso il LIC
preliminarmente ad una loro possibile realizzazione, proprio
al fine di verificarne l’efficacia e i possibili effetti collaterali.
In particolare dall’analisi dei paragrafi precedenti si evince
l’importanza di alcune attività di ricerca o di supporto agli
enti territoriali sul tema dell’erosione costiera e degli interventi antropici, con particolare riguardo ad aree molto sensibili. Il contributo scientifico alla risoluzione delle problematiche della risorsa mare è di sicuro rilievo e ausilio anche
per le decisioni che gli enti pubblici devono assumere ai fini
della pianificazione del territorio costiero.
6. BIBLIOGRAFIA
AA.VV. (2009), Monitoraggio fisico degli interventi di
difesa delle coste già finanziati e realizzati, misura 1.3 –
Azione 2b e 4 del POR Puglia 2000-2006. Rapporto interno
Regione Puglia.
AA.VV. (2011), Redazione di uno studio tecnico scientifico relativo ai fenomeni di erosione del mare ed inondazioni
della riviera sud di Manfredonia e per l’individuazione dei
possibili rimedi. Relazione di sintesi, a cura del Politecnico
di Bari e dell’Autorità di Bacino della Puglia.
Barbano A., Corsini S., Mandrone S., Paone M., Rotunno
M. (2006), APAT, Dipartimento Tutela delle Acque Interne
e Marine - Servizio. Difesa delle Coste, Roma.
Castorani A., Petrillo A., Pennetta L., Caldara M. (2000).
Studi preliminari per la redazione del Piano di Bacino Regionale – 5.4. “Geofisica relativamente allo studio della dinamica costiera per aree critiche” – Relazione finale di sintesi,
Dipartimento di Ingegneria delle Acque del Politecnico di
Bari, Dipartimento di Geologia e Geofisica dell’Università
degli Studi di Bari, Regione Puglia.
Commissione Interministeriale per lo Studio della Sistemazione Idraulica e della Difesa del Suolo (1970), Atti della
Commissione – Relazione conclusiva, Roma, ristampa anastatica digitale a cura del CeNSU – Centro Nazionale di Studi Urbanistici.
Cocco E. (1975), Interpretazione aerofotografia delle variazioni della linea di costa tra Capo Spulico e Taranto. Appunti di Geologia Applicata e Idrogeologia. Vol. X, 1975,
parte I.
Cotecchia V., Dai Pra G., Magri G. (1971), Morfogenesi
litorale olocenica tra Capo Spulico e Taranto, Appunti di Geologia Applicata e Idrogeologia. Vol. VI, 1971.
Cortemiglia G. C., Lamberti A., Liberatore G., Lupia Palmieri E., Stura S., Tomasicchio U. (1981), Raccomandazioni
tecniche per la protezione delle coste, Consiglio Nazionale
delle Ricerche, pp. 81.
IMCA “Integrated Monitoring of Coastal Areas” (2003).
Progetto PON finanziato dal MIUR in data 26/06/2003 ai
sensi dell’art. 5 del DM 593 del 8/8/2000. Partecipano al
Progetto PLANETEK ITALIA S.r.l., Bari; COASTAL
CONSULTING & EXPLORATION S.r.l., Bari; SPACEDAT S.r.l., Lecce; POLITECNICO DI BARI: Dipartimento.
Interateneo di Fisica (DIF); Dipartimento di Ingegneria delle
Acque e Chimica (LIC);UNIVERSITA’ DEGLI STUDI DI
BARI: Dipartimento di (UNIBA ZLG).
EUROSION (2004). Il sito web di EUROSION http://
www.eurosion.org
Ministero dell’Ambiente e della Tutela del Territorio
(2006), Le principali variazioni della linea di costa dal 1960
al 2000.
Mossa M. (2014), Il contributo dell’idraulica alla salvaguardia dell’ambiente marino, Geologia dell’Ambiente, SIGEA, Supplemento al n. 2/2014, Anno XXII - aprile-giugno
2014.
33
LINGUE E LETTERATURE MODERNE | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
Donne. E le parole per parlarne
PATRIZIA TORRICELLI
Dipartimento di Civiltà Antiche e Moderne, Università degli Studi di Messina
L
e parole con cui si parla delle cose sono importanti per almeno due ragioni. La prima, è
che esse rivelano la mentalità di chi ne parla.
Quindi, ci avvertono che bisogna tener conto
di ciò che dicono per conoscerla. La seconda è che, per la stessa ragione, ci ammoniscono di non prender troppo sul serio ciò che dicono, perché ogni mentalità è
frutto di una cultura e la cultura è figlia solo degli uomini, del
loro pensiero e della storia.
Parliamo della prima ragione d’importanza.
Le parole sono segni usati per comunicare. Esse assolvono
questo compito usando una dinamica semiotica per la quale
una serie di suoni – tecnicamente detta significante - provoca
nella mente l’insorgenza di un’immagine del mondo esperito, detta idea, e racchiusa linguisticamente in quello che si
chiama normalmente un significato. Perciò, le parole – opportunamente lette, usando le tecniche della linguistica - ci
rivelano qual è l’idea delle cose riferite che i parlanti hanno
in mente quando le usano per parlare del mondo in cui vivono.
La somma delle idee che si hanno in mente costituisce –
schematizzando un po’ l’esposizione - quella che si chiama
una mentalità: ossia, l’immagine del mondo che è nella testa
di ognuno di noi, con le regole di comportamento individuale
e collettivo che ne derivano – e che costituiscono i cosiddetti
valori in cui crediamo e dai quali ci facciamo quotidianamente condizionare l’esistenza trasformandoli in stereotipi
di pensiero.
Vediamo, allora, di capire quale mentalità traspare dalla
somma di parole con le cui immagini si declina oggi l’idea
di un mondo femminile e qual è la loro storia, a ritroso nel
tempo, poiché le nostre parole, prima di essere italiane erano
latine - e indoeuropee prima ancora - e da queste ideologie
storiche le nostre, moderne, sono nate e si sono sviluppate,
cambiandole o conservandole.
Femminicidio, usata a emblema di una tragica situazione dei nostri giorni – alla quale le cronache ci hanno tristemente abituato nonostante i numerosi appelli di civiltà - è
parola dotta, coniata su l’it. femmina aggiunto al lat. caedo
secondo una prassi derivativa usuale in italiano, sul modello
di omicidio, uxoricidio e significa “uccisione di donne”. A
34
dire il vero dovrebbe significare “uccisione
di femmine”, ma l’accezione sarebbe inesatta per il genere d’immagine mentale
che femmina e donna, rispettivamente,
richiamano oggi.
L’italiano femmina infatti è la continuazione del latino femina. In latino la
parola evoca una qualità imprescindibile
dell’essere femminile - che è il seno per
l’allattamento - perché essa appartiene
formalmente alla stessa serie lessicale di
fecundus, detto di ciò che è ben nutrito,
e di filius, il cui significato etimologico
è “colui che viene allattato”. La stessa
forma, nel gr. antico, aveva il significato di “nutrice” oltre a quello generico di
essere femminile. Questo era l’aspetto
della donna che risaltava, fra le immagini mentali suscitate dalla parola, sia per
gli antichi Greci che per i Romani, quando
parlavano della donna usando tale termine.
In italiano femmina e femminile hanno perso
memoria lessicale dell’antica idea di nutrimento
al seno, ma conservano un’accezione legata al genere
specifico opposto a quello maschile. La donna diventa femmina quando sono messi in risalto i suoi attributi di sesso. È
questo l’ascendente immaginifico che determina le implicazioni sessuali di ogni genere – anche negative, come in certi
ambiti religiosi medievali, per i conflitti della tentazione - poi
assunte dalla parola in conformità alla rappresentazione ideale della sessualità, maschile e femminile, che si è sviluppata
durante i secoli della nostra storia.
Il francese, per esempio, ha fatto del latino femina la sua
parola per donna: femme, che non cela alcun pudore o reticenza espressiva nei confronti degli attributi femminili della
donna rispetto all’uomo. Indice di un trascorso linguistico
che ha seguito altri cammini culturali, oggi appena visibili
nella parola, diventata un termine generico del francese comune.
Diversa la dimensione di donna. La sua forma linguistica ci mostra che essa è la versione italiana del lat. domina. La parola, in latino, è stata coniata prendendo spunto da
domus che significa “casa”. L’immagine evocata è dunque
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | LINGUE E LETTERATURE MODERNE
quella della padrona di casa che affianca in
veste femminile il dominus maschile. La
manzoniana Donna Prassede esemplifica
perfettamente la continuazione di questa
immaginazione di ruolo più che di persona. Nel tempo, naturalmente, la parola si è
prestata ad altre accezioni complementari.
Ma la sua originaria dimensione ideale è
dimostrata dal fatto che deve, in questi
casi, essere accompagnata da specifiche
apposizioni: donna di servizio, donna di
malaffare, donna di strada, primadonna.
migenia dell’uomo fra gli esseri viventi, se pensiamo al racconto biblico della creazione del mondo e dell’argilla con cui
questo rappresentante della nostra specie è stato fatto.
Ma torniamo alla moglie e al latino mulier che la parola
italiana ripete, implicandone le accezioni sessuali ma relegandole in un ambiente domestico e nella dimensione sociale
della legalità. Scegliendo per la “moglie” la parola latina che
indicava la donna in senso lato, l’italiano dimostra di aver inconsapevolmente obbedito a un dettato culturale storico che
ha fatto della moglie la figura femminile più rappresentativa,
la donna accreditata dalla nostra società, quindi la donna per
definizione rispetto a ogni altra.
Anche madonna (mea domina) fa trasparire, la stessa idea di rispetto, declinata nel senso di donna d’alta condizione,
sia in versione laica – come le madonne
fiorentine del Duegento – che in versione
religiosa, come Signora del cielo già nella
stessa epoca.
Il francese madame ne è la versione in
questa lingua. Così come rammenta una simile immagine di donna il greco antico damar che
usa lo stesso etimo di “casa”, detta in gr. domos, per
indicare la padrona della casa, in questo caso la sposa
legittima rispetto alle concubine: ossia le donne che dividevano il letto del padrone, dal lat. cum-cubare. Le altre mogli,
insomma, nell’accezione moderna di poligamia.
Compagna, oggi simbolo di un femminismo gratificante,
era nel lat. tardo cum-panem, e si applicava a chi “condivideva il pane” con qualcuno, accontentandosi di un poco,
compensato forse dai sentimenti. Il pane non s’intravede più
e sono rimasti sottintesi solo i sentimenti, nella parola moderna.
Moglie, è il termine per indicare la consorte di un uomo,
la sua sposa. Figura femminile per eccellenza, evidentemente, se già in latino il termine mulier era l’appellativo stesso
per donna, così chiamata, appunto, genericamente; mentre la
condizione sociale e legale della moglie era espressa da uxor
parola che non ha continuato a esistere in italiano se non nei
latinismi dotti: uxoricidio, o more uxorio.
Nel mondo ideale latino mulier è il contrario femminile di
vir - che significa “uomo” - ma che non si è replicato in italiano se non nell’aggettivo virile con le stesse connotazioni
d’immagine. Mentre uomo continua il latino homo il quale a
sua volta continua l’i.e. *hom- che ha la stessa etimologia
del lat. humus il cui significato è “terra”. Così, l’uomo è concepito, fin dalla cultura indoeuropea della preistoria, come
“il terrestre” o “colui che sta sulla terra”. Un’idea forse pri-
Sposa, coniuge, consorte sono termini meno consueti.
Risentono della loro origine latina e della provenienza dal
diritto romano. Sposa è la voce italiana di lat. sponsa che è
sostantivo del verbo spondeo “impegnarsi, promettere”. Per i
Romani la nostra sposa era piuttosto la fidanzata, la promessa
sposa. Oggi, dalla parola traspare l’immagine di una donna
nel periodo delle nozze.
Coniuge è, come il lat. coniux, sostantivo derivato dal verbo coniungo “congiungo” che ha dato forma linguistica all’idea di congiunto/i per parentela e coniuge per matrimonio.
Consorte viene dal lat. cum-sortem, che significava “colei
che condivide lo stesso patrimonio” perché per i Romani fra
la sorte e le risorse non c’era molta differenza.
Una curiosità: Etaira, cioè un’etera, era Aspasia per Pericle nell’Atene del V secolo a.C. definita da una parola che
è la variante al femminile di etairos, il cui significato era
“compagno d’armi, amico”. Donna colta, influente, Aspasia
esercitava una professione che nel mondo classico era praticata sia da ragazzi che da fanciulle e perfettamente tollerata.
Perciò “compagna, amica” con termini perfettamente in linea
con la visione del mondo che tale cultura possedeva. Equiparando la battaglia e l’amore, evidentemente, una coincidenza
plausibile in una società, quella greca classica, che con la
guerra si cimentava frequentemente.
35
LINGUE E LETTERATURE MODERNE | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
Signora, è oggi un termine che esprime deferenza generica. La sua immagine mentale è quasi irriconoscibile nella moderna espressione di cortesia formale che la parola è
diventata. All’origine, infatti, l’idea che veniva in mente ai
parlanti era di una persona anziana cui si doveva rispetto per
l’età e l’esperienza: senior “anziano” è il termine latino da
cui deriva la forma al femminile seniora poi signora. Quali
viaggi nella storia la parola abbia fatto per arrivare fino a noi
carica di un’immagine così diversa – la Francia dei baroni
medievali o la Spagna del Cinquecento con la sua opulenza
verbale pre-barocca – poco conta qui. La signora di oggi è
una donna di alta condizione sociale, educata e raffinata e,
nello stesso tempo, è qualunque persona di genere femminile verso cui si voglia usare semplicemente un appellativo di
cortesia, segno di buona educazione. Ogni altra connotazione si è persa.
Curiosamente, il Senato della Repubblica, con i suoi limiti
di età impliciti nell’etimologia della parola, derivata dal lat.
Senior - così come il Senato Romano antico - oggi rispecchia
ancora nel suo nome l’antica immagine che la parola signora
sottintende per la sua origine. Ma presto l’idea resterà solo
nella storia linguistica del termine, celata dietro una semplice
etichetta.
Madre, è l’unica parola presente in tutte le lingue indoeuropee rimasta immutata o quasi nella forma linguistica fin
dalle più lontane origini. Testimonianza di una cultura che
si perde nella preistoria dell’umanità per via d’un ruolo genetico insostituibile in natura, qualunque sia il posto che la
società poi assegna alla figura della madre e qualunque sia
l’immagine materna che ogni figlio ha concepito dentro di sé.
Donne, mogli, madonne, signore o femmine, le raffigurazioni delle donne trasmesse dalle parole appartengono a un
variegato universo d’immagini che le culture hanno elaborato, nel corso della storia, sul loro essere - o meglio, sul loro
apparire - siccome donne, nella società. Immagini che sono
diventate le idee attraverso il cui filtro mentale ci accostiamo
alla loro conoscenza. Idee che rappresentano, insieme alle
parole da cui sono espresse, la nostra comune mentalità al
riguardo.
Torniamo allora, brevemente al discorso d’inizio, per riflettere sulla mentalità e sulla lingua che la esprime con i
significanti e i significati delle parole, aggiungendo, ora, solo
un piccolo particolare.
Fra il significante e l’idea – quindi fra il significante e il
significato che tale idea rappresenta - non c’è alcuna motivazione reciproca, nessun legame vero. Le parole che usiamo per parlare del mondo reale non sono affatto imposte dal
mondo reale di cui parlano.
La mela non si chiama così perché il suo colore è identico
alla m, il suo sapore alla e, i suoi semi alla l e la polpa alla
a o viceversa. Tant’è vero che gli inglesi chiamano lo stesso
frutto apple, i francesi la chiamano pomme e i tedeschi apfel.
La mela si chiama così solo perché così è stata denominata
36
quando la sua immagine ha dovuto trovar posto nel sistema
d’idee già posseduto dagli uomini che le hanno dato il nome.
I quali, per farlo coerentemente a tali idee – cioè per rispondere alla domanda: che cos’è - hanno dovuto pensare
a quali di esse assomigliasse di più e hanno dovuto cercare
il materiale linguistico per rappresentarla fra quello già impiegato, e riusarlo, così che fosse più semplice riconoscere
subito che cos’era la cosa nuova, dal loro punto di vista.
Ecco perché la cosiddetta etimologia – ricerca dell’origine
delle parole, che abbiamo sommariamente esemplificato con
i termini citati - ci racconta questo percorso di scoperta delle cose da parte degli uomini restituendoci le tracce lasciate
nella lingua.
Ma è solo una scoperta mentale, guidata e controllata dalle
idee che già si possiedono, cioè dalla cultura che abbiamo
appreso e della quale abbiamo imparato a condividere il punto di vista.
Dunque, tutti i significati, palesi o reconditi, sono idee che
la nostra cultura ci ha messo in mente, e la loro realtà è solo
apparente, perché è solo una realtà supposta essere tale da
una cultura che la immagina in questa maniera, adottando il
proprio punto di vista.
E arriviamo, così, alla seconda ragione d’importanza delle
parole: il loro ammonimento a non prenderle troppo sul serio.
La mentalità è – lo abbiamo già detto - una serie d’idee,
diventate reali per la mente umana e affidate alle parole: innocenti, queste ultime, rispetto alla realtà - di cui sono segni
assolutamente arbitrari e inconsapevoli - colpevoli rispetto
alla cultura.
Perché finché esistono e continuano a essere usate, rispettando esattamente le idee che le hanno autorizzate, continuano a esercitare sui parlanti il loro potere coercitivo che ne
condiziona i comportamenti mostrando loro immagini della
realtà che sembrano vere, mentre non lo sono, probabilmente, nell’ontologia del mondo. Ma l’immaginario che evocano richiama una gamma di altre immagini complementari
– con altre parole a loro sostegno – la cui pressione emotiva,
se le parole sono vissute come una verità senza rimedio, può
provocare derive individuali e sociali incontrollabili. Come,
appunto, il femminicidio: l’uccisione della femminilità sessualmente implicita nell’idea di donna dotata di un seno,
comunque tale idea sia vissuta nell’immaginario maschile e
nella storia.
Occorre, allora, sapere esattamente che cosa sono le parole, per renderle innocue. Esse sono parvenze foniche d’idee
che nascono solo dalla mente degli esseri umani e soltanto
qui, nella loro mente, esistono. Figlie della storia, del pensiero, della cultura. Perciò affidate all’intelligenza umana
che della storia, del pensiero e della cultura è la sola artefice.
E affidate al suo costante esercizio, in modo che ci possano
in futuro parlare di un mondo sempre umanamente e culturalmente migliore.
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | SCIENZE DELL’ANTICHITÀ
La Cartagine di Elissa
e le sue rifondazioni nel Mediterraneo
ENRICO ACQUARO
Presidente del Centro internazionale per gli studi fenicio-punici e romani
L’articolo propone una lettura rivisitata del ruolo politico
di Cartagine d’Africa, fondazione tiria nel Mediterraneo.
I
l mito di fondazione di Cartagine nella versione
dell’epitomatore Giustino del II secolo1 è stato oggetto di ripetute analisi in questi ultimi anni, mie2
e di altri studiosi3, analisi che hanno contribuito a
dare credibilità al contesto storico di riferimento.
Diversi sono gli eventi che il testo di Giustino propone al
lettore in un tessuto narrativo che non manca in alcuni passi
di una certa suspence, in particolare per quanto attiene alle
vicende personali della protagonista Elissa/Didone riprese in
tutte le letterature4 (Fig.1). In questi eventi rientra la contrattazione con la controparte libica, contrattazione in cui dovettero essere di conforto, anche politico, l’intervento e la probabile mediazione dei compatrioti uticensi. Così la striscia di
1 Cfr. http://www.fenici.unibo.it/Fonti/Autori%20latini/Giustino%20-%
20Storie%20filippiche.htm.
2 Cfr. ad esempio, E, Acquaro, Giustino XVIII, 4-7: riletture e considerazioni, in R. Rolle - K. Schmidt - R. Docter (edd.), Archäologische Studien
in Kontaktzonen der antiken WeltId (= Verõffentlichungen der Joachim
Jungius. Gesellschaft der Wissenchaften, 87), Göttingen 1998, pp. 1317; Id., Cartagine. I fondamenti di un progetto mediterraneo (= Quaderni
di archeologia e antropologia. Temi di archeologia punica - I), Lugano
2006.
3 Cfr. ad esempio, P. Bernardini, Giustino, Cartagine e il tofet, in Rivista
di studi fenici, 24.1 (1996), 27-45.
4 Cfr. ad esempio, E. Acquaro, Dall’Elissa di Giustino alla Didone di
Leopardi, in E. Acquaro - D. Ferrari (edd.), Le antichità fenicie rivisitate.
Miti e culture, in E. Acquaro - D. Ferrari (edd.), Le antichità fenicie rivisitate. Miti e culture (= Biblioteca di Byrsa. Rivista semestrale di arte,
cultura e archeologia del Mediterraneo punico, 5), Lugano 2008, pp. 2548; S. Ribichini, Didone l’errante e la pelle di bue, in I.E. Buttitta (ed.),
Miti mediterranei. Atti del convegno internazionale (Palermo-Terrasini,
4-6 ottobre 2007), Palermo 2008, pp. 102-14: T. Clavier, L’exemplarité
de Didon dans les “Vies” de femmes illustres à la Renaissance, in Clio.
Histoire, femmes et sociétés, 30 (2009), pp. 153-68; C.O. Santos Pinheiro,
O percurso de Dido, rainha de Cartago, na literatura latina (= Varia,
75), Coimbra 2010; H. Lovatt, The eloquence of Dido: exploring speech
and gender in Virgil’s Aeneid, in Dictynna: revue de poétique [En ligne],
10 (2013).
Tharros. Veduta aerea dell’area di su muru mannu
bue utilizzata come aspetto particolare di quella fides punica
che caratterizzerà ogni vicenda cartaginese nel confronto con
altre etnie sino ad Annibale5, delimiterà la Byrsa dei primi
grandi scavi coloniali francesi6.
La storia degli studî dagli anni ‘60 agli anni ‘90 ha, a mio
parere, non sempre tenuto presente la complessa azione politica che la Cartagine d’Africa dovette seguire per le fondazioni fenicie d’Occidente. Azioni che portarono fra l’altro in
Sicilia, in Sardegna, nelle Baleari e nella Penisola Iberica a
vere e proprie «rifondazioni» con la ridefinizione dell’intero
tessuto urbano, l’importazione del tofet, espressione dell’identità della comunità civica7 (Figg. 2-4) e di tutti gli aspetti
5 Cfr., fra gli altri, J. Svenbro – J. Scheid, Byrsa. La ruse d’Élissa et
la fondation de Carthage, in Annales. Économies, Sociétés, Civilisations,
40.2 (1985), pp. 328-42; J.H. Starks, ‘Fides Aeneia’: The Transference of
Punic Stereotypes in the ‘Aeneid’, in The Classical Journal, 94.3 (1999),
pp. 255-83; G.H. Waldherr, «Punica fides». Das Bild der Karthager in
Rom, in Gymnasium, 107.3 (2000), pp. 193-222.
6 Cfr. fra gli altri, M. Pinard, Sur le nom de Byrsa donné à la citadelle de
Carthage, bâtie par Didon, in Mémoires de l’Académie des inscriptions et
belles-lettres, 1 sett. (1708), p. 150.
7 Cfr. E. Acquaro, Il tofet santuario comunitario, in C. González Wag37
SCIENZE DELL’ANTICHITÀ | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
Fig. 1. La morte di Didone (particolare). Peter Paul Rubens. 1630.
Paris. Musée du Louvre.
Fig. 2. Cartagine. Il tofet.
Fig. 3. Sant’Antioco. Sulci. Il tofet.
liturgici proprî della Qart Hadasht dei coloni tirî. L’eparchia
ed epicrazia cartaginese8 del VI secolo a.C. non si limitarono
alla ridefinizioni più o meno traumatiche delle antiche colonie fenicie d’Occidente, ma anche alla riqualificazione dei
ner – L.A. Ruiz Cabrero (edd.), Molk als Opferbegriff im Punischen und
Hebräische und das Ende des Gottes Moloch, Madrid 2002, pp. 87-92 e,
da ultimo, A. Campus, Costruire memoria e tradizione: il tofet, in Vicino
Oriente, 17 (2013), pp. 135-52.
8 Cfr., da ultimo per la Sicilia, S. Cataldi, Alcune considerazioni su eparchia ed epicrazia cartaginese nella Sicilia occidentale, in A. Corretti (ed.),
Atti delle Quarte giornate internazionali di studi sull’area elima, Erice 1-4
dicembre 2000, Pisa 2003, pp. 217-52.
38
territori e delle funzionalità dei diversi centri di riferimento. Funzionalità fra loro interagenti, come il caso in Sicilia
dell’attuale territorio trapanese, in cui la componente elima
dovette svolgere un ruolo importante, non sempre a pieno
considerato, e condizionare per molti aspetti la stessa trasmissione di cultura materiale greca negli insediamenti fenici9.
Qui i tre centri occupati da Cartagine, Erice, Lilibeo, Mozia
restituiscono documenti specifici. Si passa dalla «vocazione»
santuariale di Erice elima con il tempio di Astarte/Venere10,
a quella demografica di Lilibeo11 cui dovettero contribuire i
Moziesi dopo la conquista siracusana e la successiva riconquista cartaginese, alla stessa Mozia che i nuovi scavi stanno
sempre più qualificando come un centro di interculturalità
«elitario», fra Grecia e Fenicia12 (Figg. 5-6). In questa sistematica ridefinizione politico-territoriale riemergono in alcuni
casi quegli stessi sostrati locali occidentali che l’archeologia
non ha sempre adeguatamente indagato e che hanno accolto
le prime frequentazioni vicino-orientali13 ed i primi insediamenti coloniali fenici. L’azione cartaginese di controllo territoriale non si limitò a recepire i precedenti nuclei abitativi
o di interesse economico, ma in molti casi dislocò diversamente gli impianti abitativi ed economici, come nel caso di
Sa Caleta ad Ibiza14 e di Cartagena nel territorio iberico fra il
Levante e il litorale Andaluso, un territorio quest’ultimo di
una notevole complessità etnica15. È in quest’ultima regione
tartessica che i Barcidi, Amilcare e i suoi figli allevati dal padre «come leoncini per la rovina di Roma»16, misero in atto
9 Cfr. ad esempio, S. Tusa, La «problematica elima» e testimonianze archeologiche da Marsala, Paceco, Trapani e Buseto Palizzolo, in Sicilia
archeologica, 25. 78-79 (1992), pp. 71-102, e, da ultimo, S.N. Consolo
Langher, Gli Elimi tra Greci e Cartaginesi nella storia della Sicilia occidentale e nei trattati interstatali tra VI e IV secolo a.C., in Guerra e
pace in Sicilia e nel Mediterraneo antico (VIII-III sec. a.C.). Arte, prassi
e teoria della pace e della guerra. Quinte Giornate Internazionali di studi
sull’Area Elima e la Sicilia occidentale nel contesto mediterraneo, 12-15
ottobre 2003, Pisa 2006, pp. 191-206.
10 Cfr. fra gli altri, L.A. Ruiz Cabrero, La devoción de los navegantes. El
culto de Astarté ericina en el Mediterràneo in E. Acquaro - A. Filippi - S.
Medas (edd.), La devozione dei naviganti. Il culto di Afrodite Ericina nel
Mediterraneo. Atti del convegno di Erice, 27-28 novembre 2009 (= Biblioteca di Byrsa,7), Lugano, pp. 97-135.
11 Cfr. fra gli altri, E. Caruso - A. Spanò Giammellaro (edd.), Lilibeo e il
suo territorio. Contributi del Centro Internazionale di studi fenici, punici
e romani per l’archeologia marsalese, Marsala 2008.
12 Cf, da ultimo, Mozia: scavi e ricerche. Dalle ‘Lokalsagen’ eraclidi
a San Pantaleo, passando da Cartagine, in Rivista di studi fenici, 40.1
(2011), 67-74.
13 Cfr. ora per la Sardegna M.A. Fadda, S’Arcu e is Forros: il più importante centro metallurgico della Sardegna antica (con una Appendice
epigrafica di Giovanni Garbini), in Rendiconti dell’Accademia nazionale
dei Lincei, Classe di scienze morali, storiche e filologiche, ser. 9, v. 23
(2012), pp.197-234.
14 Cfr. da ultimo, J, Ramón Torres, Excavaciones arqueológicas en el
asentamiento de Sa Caleta (Ibiza) (= Cuadernos de Arqueología Mediterránea, 16), Barcelona 2007; Id., La ciudad púnica de Ibiza: estado de
la cuestión desde una perspectiva histórico-arqueológica actual, in Mainake, 32..2 (2010), pp. 837-66.
15 Cfr. da ultimo, E. Prados Pérez, Bastetanos y Bástulo-Púnicos. Sobre
la complejidad étnica del sureste de Iberia, in Anales de prehistoria y arqueología, 17-18 (2001-2002), pp. 273-82.
16 Valerio Massimo, Factorum et dictorum memorabilium libri novem, 9,
3ext2: Quam vehemens deinde adversus populum Romanum Hamilcaris
odium! Quattuor enim puerilis aetatis filios intuens eiusdem numeri catu-
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | SCIENZE DELL’ANTICHITÀ
una sistematica ridefinizione territoriale che suscitò in patria
l’accusa fatta alla famiglia di Amicare Barca di voler perseguire un progetto «regale»17, progetto di cui doveva far parte
anche l’emissione con tipi eraclidi di monete in argento18.
Analoga pianificazione il demo di Cartagine d’Africa dovette
operare dal VI secolo a.C. in Sardegna, e in particolare nel
Sinis, con Tharros (riprodotto nella figura di apertura) che
per il suo profilo socio-economico ebbi a definire più volte
«Cartagine di Sardegna»19. Una «città cartaginese» quella del
Sinis che impiantò il suo tessuto urbano, dal tofet di su muru
mannu20 a Capo San Marco su resti di strutture nuragiche21.
Recenti ricerche ancora in corso nel Sinis, a Monte Prama22,
saranno in grado di meglio storicizzare e contestualizzare in
quel territorio il rapporto fra Paleosardi, Fenici già frequentatori dalla seconda metà dell’VIII secolo a.C. e Cartaginesi,
proponendo letture che tengano in adeguato conto le emergenze archeologiche di tutto il territorio che comprende San
Salvatore23, Santa Giusta24 e la stessa Cornus25. Un territorio
quello del Sinis, è bene ricordarlo, che si pone sulle due grandi vie naturali di penetrazione verso l’interno, il Campidano
verso sud-est e la valle del Tirso verso nord-est26. I lacerti
di queste rifondazioni furono sostanzialmente ripristinati da
Roma, che ne mantenne e in qualche caso potenziò il profilo
strategico nelle singole regioni27.
los leoninos in perniciem imperi nostri alere se praedicabat.
17 Cfr. da ultimo A. Prego de Lis, El reino Bárquida de Cartagena, in
Cartagena histórica, 13 (2005), pp. 5-10.
18 Cfr. fra gli altri, E. Acquaro, Su i «ritratti barcidi» delle monete
puniche, in Rivista storica dell’antichità, 13-14 (1983 - 1984), pp. 83-86.
19 Cfr. da ultimo, E. Acquaro, Tharros, Cartagine di Sardegna, in E. Acquaro - M.T. Francisi - G.M. Ingo - L.I. Manfredi (edd.), Progetto Tharros,
Roma 1997, pp. 19-21.
20 Cfr. V. Santoni, Tharros – XI. Il villaggio nuragico di Su Muru Mannu,
in Rivista di studi fenici, 13.1 (1983), pp. 33-140.
21 Cfr. E. Acquaro - M.T. Francisi - T.K. Kirova - A. Melucco Vaccaro
(edd.), Tharros nomen (= Studi e ricerche sui beni culturali, 1), La Spezia
1999.
22 Cfr. fra gli altri, C. Tronchetti, La statuaria di Monte Prama nel contesto delle relazioni tra Fenici e Sardi, in P. Bernardini - M. Perra (edd.), I
Nuragici, i Fenici e gli altri. Sardegna e Mediterraneo tra Bronzo Finale
e Prima Età del Ferro. Atti del I Congresso Internazionale in occasione
del venticinquennale del Museo “Genna Maria” di Villanovaforru 14-15
dicembre 2007, Sassari 2012, pp. 181-92 e il vivace dibattito riportato in
http://monteprama.blogspot.it/
23 Cfr. ad esempio, A. Donati - R. Zucca, L’ipogeo di San Salvatore (=
Guide e itinerari, 21), Sassari 1992.
24 Cfr. da ultimo, C. Del Vais, Tomba ad inumazione di età arcaica nella
necropoli di Othoca (loc. Santa Severa, Santa Giusta-OR), in C. Del Vais
(ed.), EPI OINOPA PONTON. Studi sul Mediterraneo antico in ricordo di
Giovanni Tore, Oristano 2012, pp. 457-72.
25 Cfr. da ultimo, C. Blasetti Fantauzzi - S. De Vincenzo, Indagini archeologiche nell’antica Cornus (OR). Le campagne di scavo 2010 – 2011, in
Fasti Online Documents & Research, 275 (2013).
26 E. Acquaro, s.v. Tharros, in Enciclopedia Italiana - V Appendice,
Roma 1995.
27 Cfr. fra gli altri, E. Acquaro, L’eredità di Cartagine: tra archeologia
e storia, in A. Mastino (ed.), L’Africa Romana. Atti del VII Convegno di
studio (Sassari, 15-17 dicembre 1989), Sassari 1990, pp. 73-79; Id., Note
d’archeologia punica: questioni d’eredità, A. González Blanco - J.P. Vita
- J.Á. Zamora (edd.), De la Tablilla a la Inteligencia Artificial, Zaragoza
2003, pp. 327-30.
Fig. 4. Mozia. Il tofet.
Fig. 5. Mozia. Il mosaico a ciottoli.
Fig. 6. Mozia. Porta Orientale.
39
STORIA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
Da Londra 1851 a Milano 2015.
Riflessioni sulle grandi esposizioni universali
AGNESE VISCONTI
Il presente articolo riprende, in forma ridotta e modificata, il saggio Dalla grande Esposizione di Londra del 1851
all’Expo di Milano del 2015, pubblicato in http://www.semidicultura.beniculturali.it/
È
da tener presente anzitutto che le expo sono
nella storia una novità che ha inizio nel 1851
e che continua ancor oggi. Esse si distinguono dalle fiere precedenti che erano perlopiù
fenomeni locali, e anche dalle manifestazioni finalizzate a far conoscere gli oggetti esposti. Mentre le
expo ebbero fin da subito lo scopo di far progredire: inizialmente si trattò dell’idea di progresso dell’industria e delle
manifatture, e in breve anche di altre questioni: il lavoro, il
benessere, la cultura, fino ai grandi tempi globali che caratterizzano le expo degli ultimi anni. Agli oggetti esposti si
accompagnarono fin dalle prime expo congressi e dibattiti su
temi importanti: temi che in parte rispecchiavano il mondo in
cui si svolgevano, in parte lo anticipavano, in parte si trovavano invece a non comprenderlo: temi sul lavoro, la salute,
la Dichiarazione dell’indipendenza americana, la presa della
Bastiglia, la costruzione del Canale di Panama, le colonie. E
molto presto, già a Vienna nel 1873, vennero inclusi i divertimenti e in seguito oggetti non industriali.
Un tratto comune a tutte le esposizioni fu quello di sottolineare l’immagine nazionale: di qui l’apporto finanziario
pubblico.
Ancora possiamo dire, scorrendo l’elenco delle expo, che
inizialmente si trattò di un fatto europeo, poi nella prima
metà del Novecento, molte sono le expo negli Stati Uniti, e
infine dopo la Seconda Guerra Mondiale il ventaglio si allarga all’Oriente.
Infine per quanto riguarda delle strutture per ospitare le
expo, esse furono inizialmente temporanee: l’effimero è un
elemento comunicativo efficace e persuasivo. Realizzazioni
effimere si accompagnavano al potere: archi, drappi, panneg40
gi, ecc. Effimero implica spesso l’uso di strutture smontabili,
e perciò di grande libertà espressiva. Anche la Tour Eiffel
(Expo di Parigi 1889) era nata per essere effimera e poi è
rimasta ed è diventata l’emblema di Parigi; effimero il padiglione della Germania di Ludwig Mies van der Rohe, tra i
maestri del Movimento Moderno, per l’Expo di Barcellona del 1929: fu
demolito, ma
poi ricostruito nel 1986 da
un gruppo di
architetti spagnoli. In altri
casi all’effimero si sostituisce
un’architettura stabile: tale
all’Expo di Genova del 1992
la soluzione di
Renzo
Piano
che prevedeva
un nuovo assetto della città,
rimasto anche
dopo
l’expo.
Passiamo ora a
illustrare alcune
delle principali
expo e a mostrarne le caratteristiche, cercando di collegarle
sia tra loro sia con il contesto storico all’interno del quale si
svolsero.
La prima expo è a Londra nel 1851. Era stato il principe
consorte Alberto che nel 1849 nel suo ruolo di presidente
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | STORIA
della Royal Society of Arts aveva deciso di promuovere l’organizzazione di una grande esposizione universale dell’industria. L’area sarebbe stata quella del prato di Hyde Park
in Kensington Street. Le difficoltà iniziarono subito: fu indetto un concorso, nessun progetto fu giudicato adatto, tanto che l’idea del principe Alberto di attirare a Londra tutte
le ricchezze e le industrie del mondo e soprattutto mostrare
la ricchezza e la grandezza delle industrie britanniche sembrava fallire. La soluzione venne infine dal progetto di un
giardiniere, John Paxton, che progettò molto rapidamente un
edificio provvisorio come sede dell’esposizione, il Crystal
Palace che riprendeva la forma di una serra. Nel giro di pochi
mesi fu montato un edificio di tre livelli: l’intelaiatura era in
ferro, la copertura in vetro. Era l’emblema della vittoria del
ferro, ossia dell’industria, e però nello stesso tempo la forma
della serra ricordava quanto ancora la produzione manifatturiera fosse legata alla natura. Il palazzo fu smontato alla fine
dell’expo.
Ad attirare l’attenzione furono soprattutto i padiglioni esotici: quelli legati agli esploratori e alle colonie, mondi immaginati per i visitatori europei, di cui per la prima volta potevano farsi una visione, ancorché piuttosto approssimativa.
E naturalmente il ristorante, chiamato Gastronomic Symposium of all Nations, dove si potevano gustare cibi provenienti da tutti i paesi del mondo.
Anche questa
era una novità
per i visitatori
europei.
Diversa l’esposizione di
Parigi del 1867
che si tenne nel
Palazzo ovale
di vetro e ferro
(il vetro era con
le manifatture
Saint Gobain
la vera gloria francese)
del Champ de
Mars. A fianco
dello scopo industriale, vi era
quello di decretare il trionfo
di Napoleone
III. E inoltre il
tema della pace
e dell’armonia
universale per il genere umano. Si noti il termine universale che ci rimanda agli enciclopedisti. I più eminenti scrittori
francesi, tra i quali Victor Hugo che scrisse l’introduzione
alla Guida, contribuirono con le loro penne a inneggiare alla
gloria di Francia. Intorno al palazzo era stato allestito un par-
co per i divertimenti illuminato fino a mezzanotte, i concerti,
un pallone che permetteva di vedere l’expo dall’alto e naturalmente ristoranti internazionali di ogni genere. Parigi era
prospera e l’imperatore vittorioso. Ma le nubi si addensavano su questa expo trionfale che non seppe né rispecchiare né
prevedere i tempi: erano in arrivo la guerra prussiana. l’esilio
di Napoleone III, i massacri della Comune.
La presenza dei regnanti fu molto alta: i visitatori furono
circa 15 milioni L’expo ebbe un grandissimo successo, pari
a quello di Londra.
Napoleone III si dimostrò interessato al bene del suo popolo con due padiglioni sulle condizioni di igiene e di benessere, presentando anche un progetto di abitazioni operaie.
Dal punto di vista produttivo, l’elemento che regnò incontrastato fu il vetro, come si è visto la vera gloria delle manifatture francesi. E numerose furono le serre che, con le loro
piante esotiche alimentari e non, segnavano l’epopea della
concentrazione in Europa delle ricchezze della natura di tutto
il globo, iniziata dopo la scoperta dell’America
Sull’altro fronte, a contraddire il progetto di armonia e di
pace universale troneggiavano i cannoni di Krupp della Prussia: un monito alla guerra franco-prussiana del 1870.
L’esposizione successiva si tenne a Vienna nel 1873. Essa
ebbe luogo a Prater nell’edificio appositamente costruito,
la Rotunde, e fu inaugurata alla presenza di Francesco Giuseppe con lo scopo di festeggiare il suo venticinquesimo anniversario di regno e anche con quello di ridare splendore
all’immagine indebolita dell’Impero austro-ungarico.
Furono presenti e destarono stupore India e Giappone, più
ancora della Gran Bretagna e della Francia. L’Italia fu presente soprattutto con opere d’arte.
L’expo ebbe un buon successo: i visitatori furono più di
7 milioni anche se l’ingresso e i ristoranti erano carissimi.
Tra i divertimenti vi era un orchestra di Strauss che ininterrottamente intratteneva con musica, operette, walzer. E intorno alla Rotunde un grande parco divertimenti per quando i
visitatori erano stanchi: giostre, caroselli, altalene.
La Germania ripresentò i cannoni di Krupp, che questa
volta non si limitavano a una minaccia, ma che si erano dimostrati arma reale e letale.
L’Italia fu presente con il grande plastico della Galleria
Vittorio Emanuele II, la più imponente del mondo. Sembrava che ormai il ferro avesse sostituito in tutto il legno. In
parte era così, soprattutto nei paesi che come Regno Unito,
Francia e Germania erano ricchi di miniere di carbone. E
però non per altri: si pensi all’Italia, che nonostante il plastico della Galleria Vittorio Emanuele II, stentava ad avviare la
propria industrializzazione per l’alto costo del combustibile
che veniva importato via mare dalla Gran Bretagna. La legna
era ancora utilizzata (con tutti i danni legati al diboscamento)
e anche l’acqua che muoveva i mulini, consentendo la possibilità di alcune manifatture.
Passiamo ora a Philadelphia dove nel 1876 si svolse la
prima esposizione statunitense. Essa aveva per tema il Centenario dell’indipendenza americana. Si svolse a Fairmount
Park, ancora oggi il cuore del sistema dei parchi municipali
41
STORIA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
di Philadelphia che comprende anche uno zoo. È il più grande parco cittadino del mondo.
I lavori tardarono a finire e nelle ultime settimane gli operai lavorarono giorno e notte sotto la pioggia. Ma alla fine
il risultato fu splendido. Il giardino era pieno di piante esotiche. Un grande richiamo alla natura. È l’epoca in cui gli
scritti di Thoreau, Perkins Marsh ed Emerson cominciavano
a penetrare nella cultura americana. Il meraviglioso parco di
Fairmount e la successiva attenzione e cura al suo incremento e abbellimento sono un esempio della sensibilità di un largo settore dell’opinione pubblica verso la natura.
Un altro centenario fu festeggiato a Parigi nel 1889, quello della Presa della Bastiglia, e, nella tradizione delle expo,
anche questa non era pronta per il giorno dell’inaugurazione.
Qui, a differenza che a Philadelphia, non trionfò la natura, ma la costruzione. In primo luogo la Tour Eiffel, eretta
dall’ingegnere Alexandre-Gustave Eiffel, specialista in strutture metalliche, per essere smontata, ma che ebbe un tale successo (per salire fino in cima si pagava) che non solo rimase,
ma divenne da allora l’emblema di Parigi.
Di grande rilievo, ma non ancora trionfale, fu la presentazione della prima automobile a benzina: una Benz costruita
dall’ingegnere tedesco Carl Friedrich Benz. L’invenzione
era rivoluzionaria: alla macchina a vapore si sostituiva il motore a scoppio, e cioè al carbone si sostituiva il petrolio. Una
nuova fonte energetica destinata a ridisegnare la vita dell’umanità intera. La Benz, a ben guardare, rappresentava il nuovo, il petrolio, il futuro, mentre la Tour Eiffel il carbone e il
ferro: un presente destinato a passare il testimone. La Tour
Eiffel ebbe successo. La Benz lo avrebbe avuto in seguito,
ancora maggiore.
Altra grande novità fu la presentazione dell’elettricità in
tutti i suoi usi. Edison stesso si presentò con un suo padiglione. Il pubblico ne fu molto attratto.
E arriviamo finalmente in Italia: a Milano nel 1906, quando fu organizzata l’expo per festeggiare il traforo del Sempione che significava commercio, ferrovia, apertura all’Europa. Si era in piena Belle Epoque e il mondo guardava con
fiducia al nuovo secolo.
Caratteristica di Milano fu l’effimero. Tutti i padiglioni furono costruiti per non durare oltre il tempo dell’expo, tranne
l’Acquario realizzato su progetto dell’architetto Sebastiano
Locati e situato accanto all’arena, di cui riproduce l’architettura ellittica. Era allora il padiglione dedicato alla piscicoltura. Oggi è uno dei più significativi edifici liberty di Milano.
L’expo fu sistemata in due luoghi distinti: il primo fu il
Parco situato tra il Castello e l’Arena, il secondo la Piazza
d’Armi, collegati da un treno elettrico. Fu una mostra ferroviaria importantissima, ma il nuovo si era fatto strada rispetto all’expo di Parigi del 1889: apparvero le automobili di
varie case costruttrici con i loro primi modelli e la Daimler
Benz. Dietro al petrolio e al motore a scoppio avanzava anche l’elettricità, la fonte energetica che aveva consentito e
stava consentendo, con le dighe che si stavano realizzando in
Valtellina e nel Bergamasco, il processo di industrializzazione della Lombardia.
42
Di grande rilievo anche il padiglione dell’industria serica,
importantissima per l’economia lombarda: tutto il processo
manifatturiero della seta diventò spettacolo con la ricostruzione di una filanda e l’esposizione di una grande varietà di
tessuti. Ma non solo: prevalsero le arti grafiche, le industrie
della carta, della ceramica e del vetro.
Dall’Europa torniamo negli Stati Uniti: a San Francisco
che celebra nel 1915 l’apertura del Canale di Panama, la cui
costruzione era stata resa possibile dal medico dell’esercito
statunitense William Crawford Gorgas che era riuscito a prevenire la diffusione della malaria intervenendo sulle acque
stagnanti, affumicando le abitazioni e rendendo obbligatorio
l’uso delle zanzariere. Il suo sistema fu controverso e costoso, ma, una volta messo in atto, portò a un rapido abbassamento, e infine ad un totale annullamento del rischio di contrarre la malaria per le migliaia di operai, ingegneri, tecnici
che lavorarono alla costruzione del canale.
L’expo ebbe molto successo: si contarono 18 milioni di
visitatori.
La maggior attrazione, oltre ai congressi, ai ristoranti e
all’illuminazione, fu il modello funzionante del Canale di
Panama. Oggi sono in corso lavori di ampliamento del canale
per consentire il passaggio di navi di maggior tonnellaggio e
più numerose. Inoltre si discute di un grande progetto sinonicaraguense che prevede l’escavazione di un canale lungo il
confine sud del Nicaragua.
Tornando all’expo, essa mostrò l’importanza ormai assunta dalla California e dal West americano lungo tutta la costa
pacifica.
Intanto il numero di paesi che aspiravano ad essere sede
di un’expo aumentava, al punto che si rese necessario fondare un ente che esaminasse e valutasse le richieste. Così
venne fondato il Bureau International des Expositions, organizzazione intergovernativa istituita tramite la Convenzione
concernente le esposizioni internazionali conchiusa a Parigi
nel 1928.
La prima expo che seguì fu quella di Parigi del 1931. Fu
l’expo delle Colonie. La Prima Guerra Mondiale aveva cambiato la carta geografica del mondo, in particolare dell’Africa
che era stata spartita quasi interamente fra Francia e Regno
Unito. La fiera rappresentò il nuovo ordine coloniale.
Gli inglesi non parteciparono, pertanto l’expo fu mutilata
del grande affresco dell’impero britannico: si temeva che la
manifestazione potesse trasformarsi in terreno di coltura per
i germi anticolonialisti. Le altre potenze coloniali parteciparono tutte. Ma nessuna con un impegno forte come l’Italia.
Al centro del grande padiglione costruito dall’architetto Armando Brasini era stata posta la Venere acefala rinvenuta nel
1913 a Cirene, oggi tornata in Libia. Altre sculture classiche
scandivano il perimetro della sala.
Ogni colonia aveva il suo spazio e i visitatori compivano il
giro del mondo, dai mari del Sud, ai Caraibi, dall’Africa, al
Madagascar, al Tonchino. E a ricordare il ruolo delle missioni nel programma di civilizzazione del colonialismo furono
costruite due chiese una protestante e una cattolica. Anche
qui, come a Milano per l’acquario, un edificio fu costruito
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | STORIA
per durare: il Palais de la Porte Dorée, oggi Cité nationale
della storia dell’immigrazione, situato a est di Parigi e aperto
al pubblico nel 2007.
La sinistra aveva attaccato l’expo su “L’Humanité” con
una dura requisitoria sui suoi significati, invitando a non visitarla e a visitare invece la contro-esposizione organizzata in
una sede del sindacato.
Arriviamo così all’Expo di Chicago del 1933, ideata per
la celebrazione dei cent’anni della creazione della municipalità di Chicago e nello stesso tempo per infondere allegria
e speranza in quegli anni bui della Grande Depressione. Le
difficoltà indotte dalla crisi sconsigliarono a molti governi
di affrontare le spese per presentarsi al Chicago. Non fu così
per l’Italia che decise di impegnare il meglio delle sue forze
per mostrare che gli italiani erano non solo artisti, ma anche
scienziati.
L’aviazione fu il fulcro della fiera: in cielo si svolsero
competizioni ed esibizioni aree di ogni tipo. Molto ammirate
le evoluzioni dell’aereonautica italiana di Italo Balbo
A monito di un futuro tutt’altro che allegro stavano però
il dirigibile tedesco Zeppelin con le svastiche e l’assenza
dell’Unione Sovietica.
Le minacce che si avvicinavano al mondo furono ancora
più tangibili a Parigi nel 1937. Questa expo fu infatti l’ultimo
atto del rituale della pace e del progresso prima del disastro.
I padiglioni dominanti furono quelli della Germania e
dell’Unione Sovietica che si fronteggiavano l’un l’altro. In
una posizione infelice si trovava invece il piccolo padiglione
repubblicano spagnolo, opera dell’architetto Josep Luis Sert,
rifugiatosi a Parigi per sfuggire alla guerra civile, che ospitava il dipinto Guernica di Picasso, eseguito appena dopo i
bombardamenti tedeschi e italiani sulla cittadina. Guernica,
che Picasso non volle andasse in Spagna prima della fine della dittatura di Franco, fu ospitato al Moma di New York dove
rimase fino alla morte di Franco (1975), quando fu portato
in Spagna.
Torniamo ora in Italia, a Roma, per l’expo che non ebbe
luogo. Nel 1935 la delegazione italiana presso il Bureau International des Expositions chiese di poter organizzare l’expo a Roma nel 1941. L’idea era di fare una esposizione fuori
della città, su un terreno da recuperare, tra Roma e il mare, il
polo dell’espansione a sud ovest della città. Si voleva il primato della vastità e un’esposizione non effimera, bensì stabile: ovvero edifici costruiti in materiali durevoli. In proposito
ricordo che il progetto di esposizione durevole verrà ripreso
dopo la Seconda guerra mondiale: a cominciare soprattutto
dalle esposizioni di Genova 1992 e Lisbona 1998.
A Roma i lavori procedettero a ritmo sostenuto. Ma l’expo, venne spostata al 1942, e infine sospesa per la guerra.
L’area interessata prese il nome di EUR e agli edifici costruiti se ne aggiunsero altri dopo la guerra. Attualmente l’EUR
è zona residenziale e sede di uffici pubblici e privati, tra cui
il Ministero della Salute, quello delle Comunicazioni, quello
dell’Ambiente, la Confindustria, la sede centrale dell’Eni e
quella delle Poste Italiane.
Situazione incerta, al pari di quella dell’Expo di Roma,
sembrò avere l’Expo di Bruxelles che avrebbe dovuto tenersi nel 1955, ma che fu spostata al 1958 a causa della Guerra
di Corea e della prima fase della Guerra fredda. Tema dominante dell’Expo fu l’energia atomica, l’energia che, utilizzata contro il Giappone in guerra, avrebbe dovuto diventare
energia di pace. Era un’illusione che durò qualche decennio
(atom for peace, atomo per la produzione, per uso economico, produttivo), illusione che portò alla costruzione di centrali nucleari per la produzione di energia elettrica, soprattutto
negli Stati Uniti, in Unione Sovietica, nel Regno Unito e in
Francia. Una forma energetica molto discussa fin dall’inizio
e ancor più oggi, dopo i gravi incidenti di Cernobyl nel nord
dell’attuale Ucraina e di Fukushima.
E ora vale la pena di soffermarsi su di un’expo di grande
interesse, quella di Spokane, Washington del 1974: la prima che abbia avuto per tema l’ambiente. Era uscito due anni
prima il Rapporto dell’MIT per il Club di Roma, I limiti dello sviluppo, che prevedeva un declino per l’umanità entro
cento anni nel caso in cui non fossero stati ridimensionati
tasso di crescita della popolazione, dell’industrializzazione, dell’inquinamento e delle risorse. E nello stesso 1972 le
Nazioni Unite avevano decretato il 5 giugno giornata mondiale dell’ambiente. Si tenga presente che la decisione della
cittadina di Spokane di tenere l’expo era stata fatta prima
dell’uscita del volume del Club di Roma e che fu il comune
di Spokane a sospingere le Nazioni Unite a decretare il 5
giugno giorno dell’ambiente. L’Expo di Spokane dunque si
pose all’avanguardia per quanto concerne le questioni ambientali. Aggiungo ancora che lo studio del Club di Roma è
stato aggiornato nel 2004 da Donella e Denis Meadows che
ne hanno confermato le previsioni, mettendo in particolare
risalto il degrado ambientale e la finitezza delle risorse.
L’expo si tenne sulle rive del fiume Spokane che era stato
disinquinato allo scopo. Nel corso dei numerosi congressi
sull’ambiente che ebbero luogo fu messa per la prima volta
in discussione la concezione, fino ad allora predominante,
che bigger is better.
I temi ambientali furono ripresi all’Expo di Okinawa nel
1975. L’expo fu organizzata per la difesa del mare e della
fauna marina e nello stesso tempo per ricordare la riconsegna
dell’isola di Okinawa al Giappone da parte degli americani
(1972), restituzione che avrebbe dovuto placare l’inimicizia
tra i due paesi, inimicizia che invece durò ancora a lungo:
un esempio di come le questioni legate alla Seconda guerra
mondiale continuavano ad agitare il mondo, e come intanto si
affacciassero, e non certo timidamente, quelle dell’ambiente e della finitezza delle risorse. Come si può immaginare i
padiglioni dell’expo furono un susseguirsi di fauna marina,
navi, barche, scienza e tecnologia. Il successo maggiore lo
ebbe Aquapolis, la futura città sul mare, la più grande struttura galleggiante del mondo.
I temi dell’ambiente non furono invece i principali a Genova nel 1992, sebbene ormai fossero questione ampiamente
dibattuta in tutto il mondo: si pensi al Rapporto Brundtland
(dal nome della signora norvegese Gro Brundtland presidente della Commissione Mondiale sull’Ambiente e lo Svilup43
STORIA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
po), pubblicato nel 1987 con il titolo Our common future.
Nel rapporto Brundtland venne per la prima volta formulato
il concetto di sviluppo sostenibile, ossia un concetto relativo
non solo all’ambiente ma anche, meglio soprattutto ai rapporti tra uomini e ambienti. Il concetto di sviluppo sostenibile
metteva in luce un significativo principio etico: la responsabilità delle generazioni di oggi nei confronti di quelle future,
toccando quindi almeno due aspetti delll’ecosostenibilità: il
mantenimento delle risorse e l’equilibrio ambientale. E ancora ricordo che il 1992 fu l’anno del Summit di Rio de Janeiro,
la prima Conferenza mondiale dei capi di stato sull’ambiente. Rio siglò un accordo sui cambiamenti climatici che portò,
a sua volta, alla stesura del Protocollo di Kyoto, sottoscritto
nel 1997 ed entrato in vigore nel 2005.
Genova fu soprattutto la celebrazione del cinquecentenario
della scoperta dell’America, anche se portava un messaggio
ambientale: proteggere le acque del mondo. Tutti i paesi
esposero imbarcazioni o modelli di imbarcazioni, antiche
carte nautiche, sottomarini. L’expo si svolse al Porto antico e
permise la ristrutturazione della zona e della parte retrostante, su progetto dell’architetto genovese Renzo Piano. Le due
principali attrazioni furono l’acquario e il grande bigo che
fu inteso con una duplice funzione: da un lato di immagine
e dall’altro strutturale (sostiene il tendone della piazza delle
feste, situata nelle vicinanze). Il recupero dell’area è poi continuato negli anni seguenti.
Un’altra expo in occasione del cinquecentenario della scoperta dell’America si tenne a Siviglia.
Alle questioni ambientali tornò invece a rivolgersi l’Expo
di Lisbona, 1998 che toccò, al pari di quella di Genova, anche la risistemazione di parte della città e la costruzione di
molte infrastrutture. Il sito fu scelto nella parte orientale di
Lisbona. Rappresentò un passaggio dall’uso del territorio a
scopo industriale a quello residenziale e ricreativo. La concezione di effimero che, come abbiamo visto, aveva dominato
a lungo nelle expo precedenti, veniva ora sostituita da quella
della stabilità. Il tema ufficiale fu: un patrimonio per il futuro, con lo scopo di celebrare gli oceani nel mondo e però
anche il ruolo storico del Portogallo nell’età delle scoperte e
l’arrivo in India di Vasco da Gama.
Molte delle infrastrutture costruite per l’expo sono state
riconvertite. L’area utilizzata da Expo ha assunto il nome di
Parco delle Nazioni, all’interno del quale è stato costruito un
parco fieristico internazionale. Rimasto è l’Oceanario formato da 5 ambienti marini, la Torre di Vasco da Gama e infine
un complesso di reti di trasporto. Queste strutture hanno modificato la città, dotandola di un profilo più internazionale e
avvicinandola al mercato globale, rispecchiando così un nuovo aspetto del mondo moderno: quello della globalizzazione.
Grande successo ebbe anche l’expo di Aichi, 2005, dove si
aspettavano 15 milioni di visitatori, e ne vennero 22 milioni,
tra i quali moltissimi giapponesi. Il tema scelto era formulato in modo semplice e lineare: la saggezza della natura. Fu
un’expo verde, all’insegna del ridurre, riutilizzare, riciclare.
Le attività organizzate furono perlopiù ambientali e globali e
diedero la conferma definitiva dell’importanza del Giappone
44
in Oriente. Questo da un lato, dall’altro si facevano notare
per la loro mole i due padiglioni del gruppo Toyota e del gas
in netta contraddizione con il tema di expo verde.
Restiamo in Oriente con l’expo di Shangai, 2010. È quello
che precede Milano, 2015. Anche nel caso di Shangai, come
ad Aichi, abbiamo un tema formulato in modo semplice: better city better life, ovvero migliorare la qualità della vita in
ambito urbano. L’intento era di discutere del problema della
pianificazione urbana e dello sviluppo sostenibile nelle nuove aree cittadine, nonché quello del come effettuare le riqualificazioni nel tessuto urbano esistente. La tematica partiva
dal presupposto che dal secolo scorso ad oggi la popolazione
che vive nelle città è aumentata dal 5%a più del 50%. Alcuni padiglioni particolarmente attraenti furono quello degli
Emirati arabi, le cui forme curvilinee riprendevano le dune
del deserto; quello del Regno Unito fatto di migliaia di fili
acrilici trasparenti che di giorno incanalavano la luce verso
l’interno, e di notte verso l’esterno; e il Padiglione italiano
costruito in cemento trasparente.
Sottolineo ancora che a Shangai, come ad Aichi,si è trattato di un tema solo, a differenza di quello di Expo 2015
Milano, che è duplice e molto complesso (nutrire il pianetaenergia per la vita) e che si propone di includere tutto ciò
che riguarda l’alimentazione e l’energia, dal problema della
mancanza di cibo per alcune zone del mondo, a quello dello
sfruttamento delle risorse naturali e dell’inquinamento dei
suoli e dell’acqua, a quello dell’educazione alimentare, fino
alle tematiche legate agli Ogm, nonché quelle legate alla finitezza delle fonti energetiche fossili, alla ricerca nel settore
delle energie rinnovabili. Forse troppo. Si vedrà.
BIBLIOGRAFIA
Aimone Linda e Olmo Carlo, Le esposizioni universali.
1851-1900 il progresso in scena, Torino, Allemandi, [1990]
Allwood John, The Great Exhibitions, London, Studio Vista, 1977
Dall’Osso Riccardo, Expo da Londra 1851 a Shangai
2015, Milano, La Rovere, 2008
Findling John (ed.), Historical Dictionary of World’s Fairs
and Expositions, N. Y, Greenwood Press, 1990
Fusina Sandro, Expo: le esposizioni universali da Londra
1851 a Roma 1942, Milano, Il Foglio, 2011
May Trevor, Great Exhibitions, Oxford, Shire, 2010
www.expo2015.org/it/cos-e/la-storia/il-bie-e-le-esposizioni-universali
www.expo.rai.it/storia-expo
www.musee-orsay.fr/en/.../universal-exhibitions.ht
www.uzexpocentre.uz/index.php?
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | SCIENZE POLITICHE E SOCIALI
Senza estetica non c’è etica.
Per un’analisi dei tempi moderni
ANGELO ARIEMMA
Centro di documentazione europea Altiero Spinelli, c/o Università degli Studi di Roma La Sapienza
Mi propongo di analizzare le nuove
modalità di conoscenza e di pensiero
che il mondo contemporaneo ha sviluppato. Parlo a ragion veduta di “contemporaneo” e non di “moderno”, perché
credo che la parabola del “moderno”,
iniziatasi con la rivoluzione scientifica
del 1600, si chiuda con la caduta del
Muro di Berlino. Allora si parlò di fine
della Storia, ma la Storia ci ha dimostrato, con tutta la sua crudezza, di non
essere affatto finita. Però è finita la storia del “moderno”, se per “moderno”
intendiamo il pensiero verticale, che
scava nel profondo, e riflette se stesso
e la realtà circostante; se intendiamo il
valore della conoscenza del passato; se
intendiamo l’approccio estetico che ha
impregnato la società europea, dal volgo analfabeta ai colti e ai potenti.
I
FILOSOFIA
l pensiero debole e il postmoderno hanno voluto leggere il
nichilismo di Nietzsche e il
conservatorismo di Heidegger
come rivoluzionari, portatori
di valori nuovi e libertari, perché hanno
preteso liberarsi della realtà fattuale, in
nome delle interpretazioni soggettive;
però questa libertà interpretativa ci ha
portato al populismo mediatico, al reality, al talk show, dove ognuno può dire
tutto e il contrario di tutto, eludendo
qualsiasi dimostrazione veramente conoscitiva.
Come sostiene il filosofo Maurizio
Ferraris1 si è voluto negare l’esistenza
di una realtà oggettiva al di fuori delle
nostre percezioni, identificando così essere e sapere: esiste solamente ciò che
sappiamo. Invece la realtà fuori di noi
esiste, non appartiene solo ai concetti e
al linguaggio, e dobbiamo considerarla
nel nostro valutare e agire; facendo an1 Maurizio Ferraris, Manifesto del nuovo realismo, Roma-Bari, Laterza, 2012.
45
SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
che la debita distinzione tra positivismo, che delega tutto al
sapere scientifico, e realismo, come quella filosofia che possa dare risposte inglobando anche i saperi non propriamente
scientifici: arte, storia, diritto, economia, ecc.
In questo senso viene meno il postulato del postmodernismo secondo cui accertare una realtà equivale ad accettarla
così com’è. Niente di tutto questo, che ci ha deviato nel senso
di o accettare supinamente i dati o di cercare la libertà nel
pensiero avulso dai dati. “Il realismo, per come lo propongo,
è una dottrina critica in due sensi. Nel senso kantiano del giudicare cosa è reale e che cosa non lo è, e in quello marxiano
del trasformare ciò che non è giusto (...). Così, l’argomento
decisivo per il realismo non è teoretico bensì morale, perché
non è possibile immaginare un comportamento morale in un
mondo senza fatti e senza oggetti”2 .
Dunque, stabilita l’esistenza di una realtà oggettiva fuori di
noi e indipendente da noi, occorre ora distinguervi gli oggetti
sociali, come quegli oggetti che, reali fuori di noi, sono però
da noi emendabili, trasformabili, attraverso il nostro agire
etico.
“Se l’Illuminismo collegava il sapere all’emancipazione,
nel post-moderno è prevalsa la visione nietzschiana secondo
cui il sapere è uno strumento di dominio e una manifestazione della volontà di potenza. A questo punto il solo sapere
critico è una forma di contropotere che si impegna a dubitare
sistematicamente del sapere, esercitando per l’appunto una
decostruzione senza una ricostruzione”3. Così, il semplice
sapere è stato additato come fattore di dominio e di violenza,
e si è perso il vero senso della critica a chi usa violenza: “La
giusta risposta a chi manifestasse il desiderio di compiere
una strage in nome della verità non sarebbe attaccare la verità additandone i pericoli sociali, ma, semmai, osservare che
certezze non suffragate dai fatti possono sortire esiti disastrosi, il che non è per nulla un argomento contro la verità,
ma, proprio al contrario, il più forte argomento a favore della
verità e della realtà”4.
TELEVISIONE
Qui ci misuriamo con quanto male questo pensiero di
decostruzione della realtà abbia fatto proprio nella lettura socio-politica di questi anni. Si è costruita una ‘fabbrica
del consenso’ basata sulla semplice adesione a un dire che
non avesse nessuna base di verità, di oggettiva dimostrazione della realtà. Questo è stato il populismo mediatico di chi
agitava lo spettro del comunismo, quando questo era ormai
finito. Questo è l’attuale populismo che proclama sue contro
verità, senza un briciolo di dimostrazione. Questo è il vacuo blaterare dei talk show, dove ognuno dice il suo parere,
senza che ci siano fatti da mostrare, senza che il giornalista,
che dovrebbe rappresentare il controllo dell’opinione pubblica, porti dati di verità; ma, come non possiamo dubitare che
“La televisione ha avuto un ruolo centrale nel plasmare la
coscienza politica delle persone e per formare la nostra opinione pubblica. Non tanto per i contenuti (...) quanto perché
un concetto di maggioranza come democrazia, maggioranza come verità, maggioranza come bene sociale, ha preso
il sopravvento su quei concetti illuministici e moderni, che
vedevano nella tutela dei diritti delle minoranze la vera missione della democrazia, nella divisione dei poteri la garanzia
essenziale contro il totalitarismo, nella ricerca della verità,
anche in contrapposizione all’opinione più diffusa, una necessità e un dovere”6.
Il libro di Feccero ci permette di tornare, da un’altra prospettiva, al discorso che contrappone il moderno, come quella visione razionale e illuminista che nel pensiero ricercante
la verità trova la sua ragion d’essere, e il postmoderno, il
quale ha preteso di spazzare via questi concetti, accusati di
essere borghesi e repressivi, in favore di una supposta libertà
del pensiero laterale, che invece ci ha portato a non saper più
distinguere i dati dalle opinioni, e a dover dare ragione a colui che sa alzare la voce più forte, “e attribuiamo al concetto
di maggioranza e non di verità, un valore essenziale”7.
La televisione pedagogica della RAI pubblica con un solo
canale, che ha cercato finalmente di unificare il paese, nella
sua lingua, insegnata, attraverso il video, ai tanti rimasti ancora analfabeti; nella sua cultura, con gli sceneggiati tratti
dai grandi romanzi italiani ed europei, e il teatro di Pirandello e di Eduardo, e il melodramma, allestito appositamente
2 Ivi, p. 63.
3 Ivi, p. 87.
4 Ivi, p. 91.
5 Ivi, p. 112.
6 Carlo Freccero, Televisione, Torino, Bollati Boringhieri, 2013, p. 11-12.
7 Ivi, p. 14.
POLITICA
46
2+2=4, allora non possiamo più ascoltare il ministro uscente
che ci dice che i conti sono in ordine e il ministro entrante
che invece parla di buco nel bilancio, lasciandoci in balia di
verità che nessuno controlla e adusi al consenso verso chi
‘parla meglio’.
Del resto, anche i maggiori fautori di questo pensiero decostruzionista, Lyotard Derrida Foucault, che voleva essere
liberatorio, alla fine hanno visto l’abisso in cui si era gettato
il post-moderno, e sono tornati all’Illuminismo, alla verità
socratica contro il mito nietzchiano, al sapere aude kantiano, perché solamente chi avrà ansia di conoscenza potrà dire
“quel re è nudo”. L’emancipazione, da cui era partito il pensiero post-moderno, ci ha condotto a un mondo indistinto,
dove, in mancanza di una realtà conoscibile, prevale qualsiasi fascinosa mitologia. “Dire addio alla verità è non solo
un dono senza controdono che si fa al ‘Potere’, ma soprattutto la revoca della sola chance di emancipazione che sia
data all’umanità, il realismo, contro l’illusione e il sortilegio.
Ecco l’importanza del sapere: (...), il non volersi rassegnare
a essere minorenni (indipendentemente dall’età anagrafica),
per quanto, come scriveva ancora Kant, sia tanto comodo
essere minorenni”5.
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | SCIENZE POLITICHE E SOCIALI
negli studi televisivi, e gli show, che presentavano il meglio
di quanto l’arte attoriale e canora producessero. Una dimensione che ha sempre distinto la televisione europea da quella americana, da subito nata come televisione commerciale.
Ora però, e soprattutto in Italia, “l’aspetto più evidente della
televisione generalista di oggi è il suo interesse ossessivo per
la futilità del quotidiano, l’abbandono totale dell’informazione a favore del gossip: in breve, il suo passaggio dalla dimensione pubblica alla dimensione privata”8.
La fase di passaggio è stata rappresentata dall’apertura
del mercato televisivo. Sostanziale è la parola mercato: un
prodotto culturale è stato commercializzato, ed è divenuto
funzionale a quel sistema economico liberista che dagli anni
ottanta si è affermato come pensiero unico nel mondo. Illusoria è stata l’idea che il concetto predominante fosse quello
di libertà: alla fine degli anni settanta sono nate le televisioni
“libere”, ma subito si è visto che la loro controinformazione non ha fatto altro che dare voce a miriadi di imbonitori
di vario genere (il web sta percorrendo lo stesso solco? ai
posteri l’ardua sentenza!); finché il grosso della torta è stato
fagocitato da chi aveva i mezzi economici e gli appoggi politici per appropriarsene, e divenire un grande monopolista,
in barba alle sentenze della Corte costituzionale, del mercato
concorrenziale, e della libertà.
Il liberismo economico rompe la centralità della produzione e del lavoro, per puntare tutto sui consumi: l’individuo
diventa un consumatore, estraneo alle logiche del gruppoclasse, ma pienamente integrato nella maggioranza omologata, dall’alto al basso, dagli stessi identici consumi, che la
televisione, e la pubblicità che la condiziona, trasformano in
valori. E la tv verità, che prende piede dopo la caduta del
muro di Berlino e l’inchiesta mani pulite, piano piano si
trasforma nel talk show, nell’inutile vaniloquio di politici e
non, che possono dire tutto e il contrario di tutto, senza preoccuparsi di smentite o contraddittori, comunque vanificati
in quell’unica melassa televisiva. “In questo modo l’istanza
di rinnovamento espressa dalla maggioranza del paese viene
strumentalizzata per conseguire il risultato opposto. Sul modello dell’audience e della maggioranza è costruito anche il
populismo politico berlusconiano”9.
Si arriva quindi al reality. La televisione diventa autoreferenziale: non guarda più al mondo esterno, guarda a se stessa, l’unica realtà “vera” è quella che appare in televisione, e
l’individuo perde la dimensione dell’essere, la dimensione
del limite, e sogna di poter anche lui “apparire” in tv e svoltare la propria esistenza. L’argomentazione di Freccero ha
già trovato anche le sue icastiche rappresentazioni nei film
Videocrazy10 e Reality11, che mostrano proprio come il sogno
di “apparire” distrugga infine l’esistenza delle persone. Fino
alla distruzione del pensiero ‘politico’: ormai “la politica non
parla alla ragione, ma all’emotività. Non richiede un proces8 Ivi, p. 23.
9 Ivi, p. 67.
10 Regia di Erik Gandini, 2009.
11 Regia di Matteo Garrone, 2012.
so di comprensione, ma di identificazione. Il politico si trova
a svolgere un ruolo di star, condiviso con altri figuranti del
mondo dello spettacolo”12, e ogni possibilità di autonomia
critica si perde tra le urla che caratterizzano i talk show.
La notizia si consuma rapidamente e non viene approfondita; sono “reali” solamente le notizie di cui parla la tv, e
chi ne detiene i meccanismi determina anche le priorità di
quello di cui si discute e di quello che “deve” essere percepito come fondamentale; alla verità, al sapere, si sostituiscono l’opinione e il sondaggio, questi determinano il discorso
politico, questi rendono l’uomo politico non più portatore di
valori “convincenti”, ma succube a sua volta dell’opinione
della maggioranza, a cui tutti si adeguano, una volta che è
stata “formata” da chi gestisce la “verità” televisiva; si perde
la dimensione storica, e chi perde il passato perde anche il
futuro, e si finisce col vivere in questo eterno presente privo
di senso. Tutto questo non può non incidere sul modello di
democrazia, che si svuota dei suoi valori dialettici; tutto questo è stato determinato dalla televisione e da chi ha “saputo”
impossessarsene, a dispetto di chi ieri ne ha sottovalutato le
potenzialità, e di chi oggi sogna il grande balzo nella rete; ma
la rete come tale non esiste: i dibattiti e i modelli della rete
sono quelli proposti dall’agenda televisiva.
“Ho sempre pensato che la spinta decisiva a scavalcare
il muro e poi ad abbatterlo, fosse costituita per i cittadini
dell’Est non tanto dal desiderio di libertà, quanto dall’avvento della televisione commerciale. Il muro separava fisicamente e materialmente due modelli di vita. Da un lato il
modello comunista in cui erano garantiti i bisogni essenziali,
ma non c’era possibilità di accedere al superfluo, dall’altro il
liberismo occidentale in cui il minimo non è garantito, ma in
cui tutti possono aspirare al massimo dei consumi”13.
1. Provocazione:
Il crollo del Muro e dell’Unione sovietica e di regimi che
abbiamo avversato, salutato con entusiasmo come apertura
verso libere democrazie, ha di fatto aperto altri mercati, altre
possibilità di speculazione finanziaria e di arricchimento selvaggio e corrotto.
2. Provocazione:
battere così ossessivamente sulla crisi economica, addirittura paragonata alla grande crisi del 1929, sta diventando
(esprimo questo dubbio dopo anni di ‘campagne mediatiche’
rivelatisi quanto meno superficiali) il cavallo di Troia per
distruggere l’Unione europea, perché un’Europa che diventi
una vera forza tra le altre dà fastidio; dà fastidio il suo modello, che ha saputo coniugare il mercato con la solidarietà, con
il wellfare. In fondo, l’attacco a questo modello parte da lontano, dall’epoca della Teacher e di Reagan, che hanno imposto l’assoluta libertà del mercato, la deregulation, riportando
la teoria economica alla ‘mano invisibile’ di Adam Smith,
che da sola “saprebbe” regolare il benessere di ognuno.
12 Ivi, p. 86.
13 Ivi, p. 126.
47
SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
EROI DEL NUOVO MILLENNIO
Parliamo di eroi, come ha fatto anche Umberto Eco14, il
quale affronta la questione di come l’immaginario collettivo,
che prima si fondava su testi e personaggi letterari (Ulisse,
Gulliver, Madame Bovary, Werther), ora si fonda sui personaggi che appaiono in tv. Quando ancora la nostra televisione svolgeva un servizio pubblico di formazione e di trasmissione di valori culturali fondativi della civiltà, le giovani
generazioni di allora, ma anche quegli adulti, che, per ragioni
storico-sociali, non avevano avuto la possibilità di istruirsi,
hanno potuto avvicinarsi a tutto un materiale storico-culturale, dal quale altrimenti sarebbero rimasti esclusi. Così tutti,
senza distinzione di classe o di reddito, per la prima volta (e
purtroppo anche l’ultima), hanno conosciuto le storie della
grande letteratura attraverso gli sceneggiati televisivi, si sono
avvicinati al teatro di Shakespeare o di Eduardo, hanno preso
visione della storia del cinema, dai film muti all’attualità. Ma
ora che la televisione è diventata puro intrattenimento, spesso becero e idiota, chi non si avvicina a tutto questo per sua
propria spinta e passione, ne rimane irrimediabilmente fuori.
Soprattutto l’immaginario che viene veicolato è che basta azzeccare la scatola giusta per diventare ricchi, basta apparire
in tv per diventare famosi; zittiti i valori del sano lavoro, delle competenze specifiche, della fatica per arrivare al successo
o accontentarsi dei propri limiti; e vediamo queste scorciatoie dove ci hanno portato. Proprio recentemente mi è capitato
di vedere, in una delle tante stazioni d’Italia, un mendicante
racimolare i pochi spiccioli faticosamente elemosinati per
acquistare cosa? un gratta e vinci! Ci sembra questa la giusta
conclusione per un paese che ha voluto perdere la propria
capacità propulsiva e si è lasciato abbagliare dal messaggio:
arricchitevi tutti, è facile, basta solamente un po’ di fortuna!
Così anche la mitologia dell’eroe appare completamente
mutata. Distinguiamo alcuni eroi dell’immaginario collettivo
anni ‘60. Primo fra tutti 007, il James Bond di Sean Connery:
un personaggio di classe, esperto viveur, che ha cognizioni
dei gusti della vita maggiori del suo capo M, che nella sua
lotta contro il male non perde mai il senso della misura e
dell’humour britannico, che, certo è esperto di lotta e di arti
marziali, ma sconfigge giganti più forti di lui con la “scienza”
e l’intelligenza. Esempio topico in Goldfinger la lotta dentro
il caveau di Fort Knox con il servo coreano armato di una
bombetta a lame taglienti. Il coreano è chiaramente più forte,
di stazza e di potenza fisica, inoltre ha questa arma micidiale
che lancia a tagliare la testa del nostro eroe: una volta taglia
un cavo elettrico ad alta tensione, un’altra si incastra nelle
barre di ferro del caveau. Ecco, ora la sequenza che propone
il regista è di chiara evidenza: Bond è steso a terra, colpito
per l’ennesima volta dalla massa del gigante, che tutto baldanzoso si avvicina sorridente al suo cappello incastrato tra
le sbarre di ferro; ma un lampo divampa negli occhi di 007:
si slancia sulla gomma del cavo elettrico che manda scintille
e lo avvicina alle sbarre nel momento in cui il coreano afferra
14 Selvaggia contro Sciuellen, in “L’Espresso”, 4 ottobre 2012.
48
il suo cappello metallico e resta così fulminato! Bond sa che
il metallo è un conduttore elettrico, circostanza che evidentemente il coreano, che confida unicamente sulla sua forza
fisica, ignora, e con quel suo scatto di intelligenza (la famosa
lampadina di Archimede Pitagorico) dimostra che la cultura
può avere la meglio sulla forza bruta. Il Biondo della trilogia
del dollaro di Sergio Leone, si batte, è vero, per denaro, ma
contro i “cattivi”, e sempre si concede gesti di umanità: salva
la donna messicana dalle grinfie di Ramon (Per un pugno di
dollari); si allea con il vecchio colonnello che deve vendicare la giovane sorella (Per qualche dollaro in più); si allea
con il rubagalline, nonostante abbia cercato di farlo crepare
nel deserto, contro il perfido Sentenza (Il buono, il brutto, il
cattivo).
Eroi dello sport: Mazzola, Rivera, Riva, sono stati i simboli viventi delle loro squadre: per es. Riva non ha mai lasciato
Cagliari, pur avendo offerte molto allettanti da società più
blasonate.
Ma oggi? L’ultimo James Bond è un personaggio caduco,
corre, suda, perde tutto il suo storico aplomb, e sconfigge i
nemici con la loro stessa brutalità. La critica sostiene che è
un personaggio più umano, più proletario; in realtà sembra
solamente un personaggio che riproietta certa brutalità, quella privazione di cultura (un non-valore) che oggi sperimentiamo quotidianamente.
Anche i Bastardi senza gloria e Django di Quentin Tarantino, sono “buoni” non meno crudeli e spietati dei “cattivi”.
Nello sport guardiamo la storia di Armstrong: il grande
eroe. Per un decennio ha riempito le cronache con l’immagine del giovane eroe che, sconfitta la malattia, ha saputo
dominare la scena ciclistica con imprese da record. Tutto
cade. L’eroe ha compiuto le sue imprese solamente grazie a
dosi massicce di doping. E il caso Pistorius, il giovane atleta che correva con delle protesi, improvvisamente spara alla
sua donna.
Fatti che lasciano stupefatti, basiti. Fatti che ci inducono a
pensare che si è perso il senso del limite. Anche per chi non
ha avuto una vita facile, ma ha dovuto lottare contro le avversità, sembra non bastare la vittoria sul male, ma si vuole
di più, si pretende di più e pur di averlo si supera ogni limite.
Tanto più questo meccanismo può colpire chi, per un caso
fortunato, si ritrova improvvisamente sulla ribalta, senza veri
meriti e senza background culturale. P.es. Taricone, il primo
vincitore del Grande fratello: improvvisamente famoso, improvvisamente riconosciuto, improvvisamente attore senza
alcuna preparazione specifica; improvvisamente si schianta
su una montagna, nel fare uno di quegli sport estremi tanto di
moda; forse perché ha perso il senso del limite, il limite delle
sue possibilità, il limite della realtà con cui ci si confronta,
quel limite che invece un Messner aveva sempre presente
quando preparava e affrontava le sue imprese al limite della
sopravvivenza.
Allarghiamo il discorso. come accade che giovani sportivi,
i quali hanno già la fortuna di lauti guadagni, siano poi disposti a truccare le partite per guadagnare ancora di più? Ancora
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | SCIENZE POLITICHE E SOCIALI
la perdita del senso del limite: bisogna guadagnare sempre di
più, bisogna avere sempre di più, bisogna apparire sempre e
comunque in forma e vincenti, non importa come!
“In primo luogo, il potere mediatico accentua le differenze
nel potere sportivo, laddove la bellezza della competizione
sportiva richiederebbe che non ci sia troppo squilibrio di
forze in campo. In secondo luogo, c’è un problema di corretto funzionamento dell’informazione sportiva. Sarà un
caso, ma in Italia le denunce di comportamenti illeciti e di
frodi calcistiche (a partire dallo scandalo di Calciopoli) non
vengono quasi mai dal giornalismo sportivo. I giornalisti tv
sono specializzati per squadra, anziché per attività sportiva,
e avendo il potere di influenzare le opinioni dei tifosi, in
qualche caso hanno pensato bene di usarlo per convincere gli
arbitri a non essere troppo severi con la ‘propria’ squadra di
riferimento”15.
Il discorso di Tito Boeri è totalmente trasferibile alla situazione socio-politica: un potere mediatico in mano a un’unica persona (il famigerato conflitto d’interessi mai sanato);
un’informazione quasi totalmente asservita a quei poteri che
la finanziano e la fanno sopravvivere: tutto mischiato in un
unico calderone, dove politica, informazione, affari, si tengono la mano per convincere il popolo, disinformato e diseducato, a seguirli in scelte che sono state a vantaggio solo di
pochi “eletti”; mentre l’intera società si è impoverita economicamente, culturalmente, moralmente.
Gli altri punti evidenziati da Boeri nel calcio, ma tranquillamente traducibili all’intera società, sono: la disattenzione
verso i giovani e il ricambio generazionale, come nel calcio
le società hanno abbandonato le loro scuole calcio per affidarsi ai grandi campioni stranieri, che richiamano gli abbonamenti alla pay-tv, così la scuola e l’università sono stati
impoveriti di valori formativi e culturali; ci troviamo così
nel paradosso, già in fondo denunciato da Pasolini (che con
la sua sensibilità aveva visto più lontano di tutti noi), di una
scolarità di massa che rende le persone più “ignoranti” di
quanto fossero i nostri genitori quasi analfabeti.
L’eccessiva sperequazione di trattamento economico tra
persone che esercitano lo stesso lavoro e tra persone che lavorano nella stessa azienda: si crea così disagio e inefficienza
a tutti i livelli, dagli amministratori, spesso divenuti tali non
per propri meriti, e che mai subiscono le conseguenze delle
loro scelte, anzi vengono premiati con ricche buonuscite; a
tutti gli altri che lavorano in condizioni disagiate e senza prospettive di valorizzazione del proprio lavoro.
Gli organi di controllo che dipendono dalle stesse società
che dovrebbero controllare: questo tanto più evidente nel settore economico, dove le stesse persone siedono nei consigli
di amministrazione e nelle istituzioni di controllo.
Tutto si riduce a una mancanza di misura: “la misura è
un’arte, e richiede una visione d’insieme a largo spettro.
Intanto si misura, sì; ma rispetto a che cosa? Per misurare si richiede uno strumento e soprattutto è essenziale un
15 Tito Boeri, Parlerò SOLO di calcio, Bologna, Il Mulino, 2012, p. 3839.
riferimento”16. Questo oggi manca. Punti di riferimento. Intanto la figura del padre, come garante di un “sapere” di una
“forza” di una “etica”, che formano il fanciullo, a cui l’adolescente avrà il “dovere” di ribellarsi, facendo suoi altri punti
di riferimento, primi fra tutti quelli che ci fornisce la storia
e la cultura. In questo eterno presente in cui oggi viviamo i
giovani non conoscono più la storia, quindi non apprendono più da essa, anzi continuano a ripercorrere gli errori dei
padri: schifati da un certo populismo, cadono nelle braccia
di un populismo opposto, che altro non è se non il rovescio
della stessa medaglia. In un mondo in cui l’essenziale è apparire, sempre e comunque, sembrare giovani (anche se si
ha il viso deturpato dal botulino), i giovani non possono più
appropriarsi di quegli strumenti di misurazione che li aiutino a crescere e a “misurarsi” con la realtà. Come abbiamo
visto, oggi, perfino gli eroi cadono miseramente “all’apparir
del vero”.
NATIVI DIGITALI
Già da diverso tempo si è aperto il dibattito sul significato
contingente e allo stesso tempo epocale della cultura digitale. Franco Ferrarotti17 analizza con crudezza la situazione
dei nativi digitali, non più educati alla cultura della lettura
analogica, sequenziale e quindi storicamente determinata;
ma invasi e succubi della cultura dell’immagine, immediata,
sempre presente, priva di passato e di futuro, perché immediatamente fagocitata da nuove immagini, quindi le informazioni, pletoriche, non sono filtrate dal sapere ‘riflesso’ dentro
di sé, nelle memoria storica, che irrimediabilmente si perde.
In questa riflessione nulla si salva, anzi, proprio il web, con
la sua straripante ricchezza informativa, viene additato come
primo responsabile di questa privazione di concentrazione
critica, di memoria, di responsabilità individuale.
Invece Francesco Tissoni18 cerca di capire cosa sia e rappresenti questo nuovo web, a cui non si risparmiano critiche,
perché nella facilità di interfaccia e nella velocità di ricerca,
si nasconde la trappola della scarsa pertinenza e della poca attendibilità dei risultati. L’analisi si sofferma allora sulle nuove forme di web, che cercano di superare questa primigenia
passività. Il web 2.0, che include i vari socialnetwork, i blog,
tutto questo mondo in cui ognuno può immettere testi, foto,
video ecc., condividendoli con i suoi ‘amici’ e comunque con
l’intera rete, si propone di sfruttare l’intelligenza collettiva,
senza un controllo editoriale, senza una catalogazione vera
e propria, ma con semplici tag apposti dagli utenti; tuttavia
il controllo dai contenuti si è spostato alla piattaforma, e la
piattaforma è tale da condizionare anche il contenuto.
Una soluzione sembra essere il web semantico (o web 3.0):
una infrastruttura pensata per il recupero intelligente delle
informazioni, dove i dati vengono messi in relazione fra loro,
16 A. Pascale-L. Rastello, Democrazia: cosa può fare uno scrittore, Torino, Codice edizioni, 2011, p.13.
17 Franco Ferrarotti, Un popolo di frenetici informatissimi idioti, Chieti,
Solfanelli, 2012.
18 L’editoria multimediale nel nuovo web, Milano, Unicopli, 2010.
49
SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
attraverso metadati, ontologie, mappe mentali, tutto un sistema di organizzazione del flusso informativo della rete, che
sembra aver trovato un reale sviluppo nella tecnologia dei
linked data, in grado di costruire una reale rete di contenuti
interconnessi.
Un’altra soluzione la propone Roberto Casati19. Il quale ha
ragione nel sostenere che si esagera quando si parla di mutazione antropologica, però non possiamo negare che siamo
di fronte a un cambiamento socio-culturale, che ci investe
tutti, proprio perché questi mezzi sono talmente pervasivi da
non poterli ignorare. Però, quando parliamo di “nativi digitali” dobbiamo fare riferimento a chi è ancora infante, a chi
nasce in questo momento; per gli altri, per gli adolescenti,
a cui soprattutto pensiamo quando facciamo questi discorsi,
dobbiamo ancora parlare di “migrazione” al digitale, da un
mondo ancora dominato dalla televisione e dal libro.
Noi, probabilmente ultima generazione nutritasi di libri e
formatasi attraverso il discorso lineare, profondo, restiamo
spiazzati di fronte alla nuova modalità reticolare, dove sembra non ci sia più bisogno di connessioni interne, profonde,
poiché tutte le connessioni sono nella rete, a portata di click.
Per capire questo valga l’esempio dei bambini bilingui. Chi
impara una seconda lingua da adulto deve sempre resettare
la sua “coscienza” per passare da una lingua all’altra, mentre per i bambini bilingui è naturale e spontaneo fare questo
passaggio, in realtà sono in possesso di due lingue-madri:
questa non è una mutazione antropologica, ma sicuramente è
un radicale cambiamento socio-culturale.
Negli ultimi cento anni la velocità del progresso tecnologico è stata tale che anche i nostri genitori hanno dovuto riparametrare il loro approccio al mondo che si riempiva di oggetti
prima sconosciuti (automobili, televisione, telefono…). Tuttavia questi oggetti non intaccavano la sfera dell’apprendimento, che restava legata alla linearità del discorso argomentativo. Anzi, la televisione che abbiamo conosciuto noi ha
dato la possibilità di apertura conoscitiva, culturale, anche a
chi non aveva avuto la fortuna di poter studiare: emblema di
questo è la trasmissione Non è mai troppo tardi, che alfabetizzava i tanti analfabeti che, ancora negli anni ’50-’60, erano
presenti in Italia. Oggi si parla di analfabetismo di ritorno:
adulti che pur essendo andati a scuola, perdono le cognizioni
acquisite e la capacità di comprendere discorsi complessi20.
Ma questo non attiene alla digitalizzazione, attiene piuttosto
a chi da 40 anni subisce una televisione volgare e diseducativa.
La difficoltà odierna è invece proprio quella di trovarsi in
una fase di passaggio: in cui i più sono “migranti” digitali,
hanno imparato una seconda lingua, ma la usano in alternativa alla prima, senza reali scambi tra l’una e l’altra; così siamo tentati, come propone anche Casati, di trovare degli escamotage per riportare i nostri adolescenti sulla via maestra
del discorso lineare e profondo. E sicuramente, le proposte
di Casati di investire la scuola del suo compito primario di
educare all’attenzione e all’apprendimento in profondità, ci
19 Contro il colonialismo digitale, Roma-Bari, Laterza, 2013.
50
trovano assolutamente d’accordo, in quanto si rivolgono a
quei “migranti” digitali abbagliati e succubi passivi delle
nuove tecnologie.
Ma la questione dei veri “nativi digitali” ancora non l’abbiamo davanti: come affronteremo le problematiche di chi sa
maneggiare con disinvoltura questa seconda lingua? Forse
non sarà più possibile cercare di riportarli alla nostra modalità di apprendimento, ma dovremo farci carico di saper
intercettare la loro, che si muoverà nella rete, tra “connessioni neurali” esterne, diffuse, orizzontali. Questa sarà la
vera sfida. La peculiarità dell’uomo è sempre stata quella di
trasmettere alle generazioni future le conoscenze, i valori,
acquisiti nel passato (in questo trovano senso le biblioteche,
gli archivi, la storia); come continuare a farlo con chi guarderà ai padri come meno “sapienti”, perché in possesso di
una sola lingua?
1. CONCLUSIONE: MULTITASKING
Un ragazzo di 12 anni che sul PC fa una ricerca scolastica e nello stesso tempo sul Tablet gioca con un videogioco,
quali svantaggi e quali vantaggi potrà avere rispetto al nostro
antico modo di apprendimento?
Gli svantaggi mi sono chiari: manca la profondità di qualsiasi genere. La profondità storica: si vive in un eterno presente continuamente mutabile, che mai si deposita in una
costruzione consistente. La profondità geografica: si vive il
qui e ora e molto poco si conosce del resto del mondo. La
profondità interiore: si vive il carpe diem, il piacere qui e
ora è giocare con un videogioco, e poiché ho gli strumenti
a portata di mano faccio anche la mia ricerca scolastica con
internet e software complessi; ma cosa me ne resta?
Più difficile per chi appartiene alla generazione del pensiero profondo è interpretare i vantaggi di questa nuova modalità di apprendimento. Forse il nostro compito di “padri”
dovrebbe essere quello di aiutarli a sviluppare comunque un
pensiero capace di analisi, magari non quell’analisi verticale
a cui siamo abituati, ma un’analisi orizzontale, che sappia
sfruttare le potenzialità del web per crescere una propria
conoscenza e coscienza critica, senza perdersi e affogare
nell’immenso mare informativo privo di significato.
2. CONCLUSIONE: SENZA ESTETICA NON
C’È ETICA
“Cominciavamo a capire che la lettura non era una scampagnata in cui si coglievano quasi a caso, or qui or la, i ranuncoli o i bianco spini della poesia, annidata tra il letame
delle zeppe strutturali, ma si affrontava il testo come cosa
intera, animato di vita a diversi livelli. Pareva che anche la
nostra cultura lo avesse imparato.
Perché se ne sta dimenticando, perché si sta insegnando ai
giovani che per parlare di un testo non occorre un forte armamentario teorico, e una frequentazione a ogni livello? Che la
lunga e diuturna fatica di un Contini era dannosa (...) mentre
l’unico ideale critico ormai celebrato (di nuovo!) è quello di
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | SCIENZE POLITICHE E SOCIALI
una mente libera che liberamente reagisce alle sollecitazioni
occasionali che il testo provvede?
Personalmente vedo in questa tendenza un riflesso di altri
settori della comunicazione, l’adeguarsi della critica ai ritmi
e alla rata d’investimento di altre attività che si sono dimostrate di reddito sicuro. Perché la recensione, che obbliga a
leggere il libro, se vende di più sulla pagina culturale il commento all’intervista rilasciata dall’autore a un altro giornale?
Perché mettere in scena l’Amleto per la TV, come faceva la
deprecata TV degli anni sessanta, quando si ha una udienza
maggiore facendo partecipare, a pari merito, lo scemo del
villaggio e lo scemo del consiglio di facoltà allo stesso talk
show? E perché dunque leggere un testo per anni se si può
ottenere l’estasi del sublime masticando alcune foglie, senza
perdere le notti e i giorni a scoprire il sublime della foglia
nelle sublimi macchinazioni della fotosintesi clorofilliana?
Perché è questo il messaggio che viene quotidianamente
lanciato dagli psicopompi della Nuova Critica Post-Antica:
ci ripetono che chi conosce la fotosintesi clorofilliana sarà
per tutta la vita insensibile alla bellezza di una foglia, che chi
sa qualcosa della circolazione del sangue non saprà più far
palpitare d’amore il suo cuore. E questo è falso, e bisognerà
dirlo e ridirlo ad alta voce”20.
Sbaglio o siamo tornati alla diatriba tra realismo e postmoderno? Al contrasto tra una realtà oggettiva e fattuale, e la
pura sensazione, la soggettiva ‘immagine’ del mondo, all’apparenza liberatoria e ‘democratica’, in verità, nuova forma di
assoggettamento ai tanti pifferai magici che da varie tribune
ci ammanniscono la loro verità, priva di reali riscontri?
Si giustifica così anche il titolo del nostro saggio: senza
estetica non c’è etica: una etica laica, che si fondi sulla realtà oggettiva, sulla interoperabilità tra soggetti diversi, sulla
vera libertà democratica nel rispetto della libertà dell’altro
e dei diritti delle minoranze, non può darsi senza la competenza e la capacità estetica dove essa realmente è, competenza e capacità che accomunavano l’intera Polis greca nelle
tragiche rappresentazioni, o l’intera popolazione dei Comuni
italiani di fronte alle opere di Raffaello o Michelangelo, o
la Londra elisabettiana accalcata nel Globe Theatre per le
rappresentazioni shakespeariane, o la Milano dell’Ottocento
che applaudiva o fischiava i grandi melodrammi nostrani, o i
fumosi cinema romani degli anni sessanta dove le immagini
di Fellini o Sordi o Visconti ammaliavano gli spettatori, o
quelle stanze condominiali dove il popolo si è appassionato
ai grandi sceneggiati e show televisivi.
Che fare? Siamo ancora nel pieno di quella Sfida al labirinto21 di cui parlava Italo Calvino, e la sconfitta dell’intellettuale che chiude il suo percorso narrativo con le deluse pagine di Palomar22, come la sconfitta di un Pasolini cha abiura
la Trilogia della vita23 per chiudere nell’abnorme disumanità
20 Eco, Sulla letteratura, Milano, Bompiani, 2008, p. 185-186.
21 Saggio pubblicato in “Menabò”, 1962.
22 Torino, Einaudi, 1983.
23 Film che caratterizzano la sua produzione degli anni ’70; l’abiura data
1975.
delle 120 giornate24, non deve scoraggiarci oltremodo. Forse
non a caso questi due intellettuali, in fondo antitetici nelle
loro analisi del presente, concludono la loro umana vicenda
nella predizione di una disfatta. Allora mi soccorre la ‘storia’ di un altro intellettuale sempre “sconfitto” nella realtà:
Altiero Spinelli25, che però nella sua visione del futuro ha
“visto” la giusta strada da percorrere: lavorare incessantemente, costantemente per la Federazione Europea, anche se
non se ne vedrà il risultato, perché la storia umana è come
una staffetta: da loro abbiamo raccolto il testimone, e quel
testimone, arricchito, rinnovato, vogliamo trasmettere alle
future generazioni.
24 Salò o le 120 giornate di Sodoma, 1975.
25 Fondamentale la sua autobiografia per potenza narrativa e lucidità di
pensiero: Come ho tentato di diventare saggio, Bologna, Il Mulino, 1988
51
SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
Media, pubblico e consapevolezza
del messaggio
MARINO D’AMORE
Libera Università degli Studi di Scienze Umane e Tecnologiche di Lugano L.U.de.S.
L
a comunicazione caratterizza fortemente la
nostra quotidianità, il ritmo delle nostre vite,
la nostra conoscenza del mondo, azzerando
tempi e distanze. Un processo continuo, progressivo che, soprattutto oggi, vede i destinatari del messaggio mediatico assurgere ad un nuovo ruolo
più consapevole e attivo: quello dei prosumer, attori mediali
che personalizzano l’informazione che ricevono e creano
contenuti mediatici propri attraverso aggregatori di contenuti (Youtube, Blip, Brightcove) e social network (Facebook,
Twitter, ecc.).
Un tale scenario vede la leadership dei vecchi broadcaster
generalisti minacciata dalla comparsa improvvisa e dalla
proposta innovativa dei nuovi operatori, figlia di contingenze
tecnologico-evolutive tanto imprevedibili quanto inarrestabili nel loro imporsi nel panorama mediatico. Tuttavia, almeno
per il momento, i primi continuano ad esercitare un’egemonia mediatica, da un punto di vista giornalistico-informativo,
soprattutto nei confronti di uno specifico target di pubblico,
quello più anziano, numericamente cospicuo legato al mondo televisivo analogico e ancora poco alfabetizzato a quello
digitale.
In una sorta di divisione socio-mediatica tra apocalittici e
integrati (Eco 1964), questa tipologia di audience si colloca
tra i primi, tra coloro che, nonostante le innovazioni sopracitate continuano a intrattenere con la comunicazione e l’informazione, sia televisiva sia giornalistica, un rapporto passivo,
meramente spettatoriale, connotato da istanze voyeuristiche
che, con le dovute eccezioni, finalizzano il consumo al puro
gossip, alla chiacchiera da bar, allo stereotipo sociale secondo dinamiche connotate da un provincialismo anacronisticamente obsoleto.
Il palesarsi di una tale tendenza ricettiva acritica e superficiale del messaggio mediatico invece di ricevere una
censura da parte delle emittenti del medesimo, catalizza un
cambiamento sostanziale in questo senso della loro agenda
mediatica e dei criteri di notiziabilità con cui selezionare
52
gli avvenimenti da sottoporre al pubblico. Secondo precise
e opportune operazioni di marketing gli operatori generalisti tentano in questo modo di
tamponare
quell’emorragia
di pubblico in atto da diverso
tempo, migrante verso altri lidi
mediatico-comunicativi personalizzati sia a livello contenustico sia a livello temporale,
perché ognuno vede quello che
vuole quando vuole. Gli ultimi
baluardi di una vetero-comunicazione, soprattutto in ambito
televisivo, tentano in questo
modo di rinnovarsi, di ritagliarsi un’isola felice metabolizzando, almeno apparentemente, la
perdita di un’egemonia fino a
poco tempo fa incontrastata e
lo fanno facendo appello però
ad istanze spettatoriali interne legate ad un passato non
troppo remoto, racchiuse in un
convivio di comari di provincia fatto di giudizi stereotipati
e discrezionali, proprio come
avveniva e talvolta avviene ancora oggi in alcuni paesi della
nostra penisola quando nel cortile di un’abitazione si parla di
un tradimento tra coniugi, di un
tracollo finanziario di qualche
sfortunato o degli abiti succinti
di qualche ragazza troppo allegra. Per quanto l’analisi possa
apparire semplicistica, il meccanismo che si pone alla base
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | SCIENZE POLITICHE E SOCIALI
di questo tipo di comunicazione è questo, segue le medesime
dinamiche, gli stessi rivoli per sfociare nel flusso mediatico
generalista che si pone quotidianamente davanti ai nostri occhi, un flusso come vedremo eticamente condannabile, ma
redditizio, alla luce del nuovo panorama formatosi, sia da un
punto di vista economico sia da quello, parlando di pubblico,
numerico.
Tale tendenza si palesa attraverso varie evidenze che, a
loro volta si sostanziano sul versante televisivo nei reality e
su quello puramente giornalistico nella vendita sempre costante di giornali di gossip che passano con disinvoltura dal
parlare del passato torbido e del nuovo amore di una velina
all’intervista con il testimone o il parente dell’autore di un
efferato delitto. In questo modo non solo si fa cattiva comunicazione, finalizzata non all’informazione ma al mero rendiconto personale, ma si volgarizza inevitabilmente la decodifica del pubblico, depauperandolo degli strumenti necessari
ad una consapevole e critica comprensione del messaggio
ricevuto. Ciò che appare palese anche agli osservatori privi
di rudimenti cognitivi sociologici, dotati unicamente di buon
senso, frutto di mere contingenze esperienziali, è il modo in
cui quelle che dovrebbero essere inchieste di cronaca subiscono un tacito processo evolutivo
che le modifica sia nella loro
morfologia esteriore sia nella
sua essenza, in puro e semplice
intrattenimento contestualizzato in un semplicistico ambito
semantico del gossip fine a se
stesso. Così si mistifica quello
che è il vero scopo della comunicazione, una comunicazione
che viene delegittimata e spogliata di due delle componenti
del credo reithiano: educare, informare, intrattenere, postulato
che costituisce la finalità prima
del servizio pubblico televisivo
generalmente inteso, ma che si
rende estendibile alla missione
comunicativa tout court di cui
i media hanno inderogabile responsabilità. Il disattendere in
modo tanto evidente le finalità
precipue del messaggio comunicativo comporta una distorsione denotativa e connotativa
dello stesso, ma soprattutto una
recrudescenza di codifiche e
decodifiche aberranti, parafrasando Eco e il suo modello semiotico – informazionale (Eco,
Fabbri 1965): una distorsione
non del messaggio in quanto
tale ma della realtà racconta-
ta. Infatti vi è una perfetta corrispondenza fra le intenzioni
comunicative dell’emittente e ciò che comprende il destinatario, ma una parziale o totale distorsione del contenuto
di quello che viene raccontato e quindi interpretato conducendo quindi ad una proporzionale mistificazione semantica
del fatto. Tale considerazione evidenzia, qualora ce ne fosse
bisogno, che la comunicazione rappresenta un potere, come
ha evidenziato Orson Welles in “Quarto Potere”, un potere,
appunto, che cresce parallelamente rispetto all’evoluzione
della tecnologia che lo caratterizza, racchiuso, almeno fino
a poco tempo fa, nelle mani dei detentori di tale tecnologia,
strutturati in una sorta di classe dirigente mediatica. Ora tale
scenario sembra cambiare, destinato all’obsolescenza per
abbracciare un futuro di condivisione e democratizzazione.
Come detto ogni grande potere comporta grandi responsabilità e quello mediatico soprattutto se elargito dall’alto,
secondo dinamiche top/down, viene accolto dalle audience
in modo fideistico e acritico.
Qualsiasi inferenza o generalizzazione in questo senso risulta fuorviante e inattendibile, tuttavia per aver meglio chiaro il quadro appena descritto occorre considerare 2 aspetti:
- A dispetto di audience alfabetizzate al linguaggio e ai codici mediatici e quindi in possesso di strumenti di decodifica
più o meno efficaci, ve ne sono altre che per contingenze
culturali non posseggono tali strumenti e che quindi sono
maggiormente influenzabili da ogni tipo di messaggio, non
essendo in grado di valutarlo criticamente;
- Anche le audience alfabetizzate se sottoposte ad un tipo di
comunicazione che cela alcuni aspetti denotativo-connotativi del messaggio per evidenziarne altri, saranno evidentemente influenzate a privilegiare questi ultimi nella
comprensione del messaggio costruendo una valutazione
del suo contenuto se non faziosa quantomeno parziale.
Un esempio chiarirà quanto appena esposto: pensiamo
alla propaganda di regime del ventennio fascista. I filmati
di guerra dell’Istituto Luce tentavano con successo di celare,
nel loro racconto dei fatti, le sconfitte sul campo relegandole
allo stato di meri intoppi temporanei di un cammino glorioso
costellato di vittorie. In questo modo una popolazione poco
acculturata, fiaccata dal dolore e dai sacrifici della guerra
si aggrappava, per andare avanti, alla fiducia in un futuro
migliore, una fiducia velleitaria alimentata da false notizie.
Tutto questo sottolinea il caratterizzarsi ineluttabile del fenomeno comunicativo come vero e proprio potere, o quanto
meno come una declinazione di quello istituzionale, come
testimoniato dai regimi totalitari della prima metà del XX
secolo, che utilizzarono media giovani, come il cinema, o appena nati come la radio per costruire e, in seguito, rafforzare
il consenso delle masse. Tutto ciò avvenne pianificando strategie comunicative gonfie di retorica, finalizzate allo scopo e
gestendo il flusso comunicativo ufficiale grazie addirittura a
dei ministeri creati ad hoc: Quello della propaganda in Germania e quello della cultura popolare (minculpop) in Italia.
Ora lo scenario è inevitabilmente cambiato, a causa di con53
SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
tingenze storico-culturali e di una maggiore consapevolezza
del pubblico come attore attivo nel processo comunicativo,
tuttavia la comunicazione continua a rappresentare un potere
che ancora oggi, a volte, se strumentalizzato, riesce a creare
una realtà alternativa, quasi mai migliore ma sempre fittizia.
Le attuali possibilità comunicative a nostra disposizione
sono suscettibili di un impetuosa e imprevedibile evoluzione, caratteristica che costituisce la loro essenza, la loro cifra
tecnico-strutturale: ad una improvvisa imposizione nelle scenario comunicativo corrisponde un’altrettanto rapida obsolescenza, secondo dinamiche che seguono percorsi diversi e
che riducono progressivamente il lasso di tempo che intercorre tra le due fasi. Oggi la figura spettatoriale è mutata:
l’attore passivo e inconsapevole che, fino a qualche lustro
fa, guardava tv, ascoltava radio o leggeva giornali accettava
i contenuti che consumava in una sorta di religiosa rassegnazione, senza mai metterli in discussione sta scomparendo.
Tale tipologia di spettatore si nutriva di essi incondizionatamente, come se provenissero da una divinità mediatico-pagana che elargiva il suo verbo ai suoi adepti, legittimato dal
valore e dalla credibilità intrinseca della sua fonte. Il senso
di questa modus consumandi si racchiudeva sinteticamente,
ma al tempo stesso in modo esaustivo, in un espressione che
abbiamo sentito tante volte dai nostri genitori o dai nostri
nonni: lo ha detto la televisione! Ora non è più così, o quanto
meno il sistema mediatico sta mutando rapidamente e con
esso i suoi interpreti. La spettatorialità sta abbandonando
quella passività che l’ha connotata trasversalmente per abbracciare una nuova stagione che la vede attiva nel concepire
e nel comprendere i propri consumi come mai in passato,
all’interno di una consapevolezza che è culturale e sociale e
che è racchiusa nella figura dei già citati prosumer: crasi comunicativa tra le figure dei produttori e dei consumatori dei
contenuti. Ovviamente una tale investitura presuppone una
maggiore alfabetizzazione al panorama mediatico, anche in
quello giornalistico sia esso televisivo o meramente cartaceo,
frutto di istanze autodidattiche o di corsi di studio di stampo
accademico dedicati. Una tale gamma di nuove possibilità
comunicative implica, tuttavia, anche nuove responsabilità
nei modi e nei contenuti in cui si declinano, responsabilità
che costituiscono un denominatore comune per i vecchi e i
nuovi operatori del settore, contestualizzata in una sorta di
deontologia sia formalizzata in regole precise sia caratterizzata da mere esigenze di buon senso, finalizzate a garantire
una comunicazione puntuale, informativa, attendibile, e che
risponda positivamente ai criteri di veridicità senza offendere la sensibilità degli utenti. Tale impianto regolatore non
sempre viene rispettato e quando viene disatteso da luogo
ad aberrazioni comunicative esecrabili e degne di censura da
un punto di vista etico-morale. Il riferimento è diretto verso
tutte quelle forme d’informazione che antepongono il guadagno, il lucro, e la conquista di un vasto bacino d’utenza alla
missione principale per cui sono concepite: rendere edotto
su un determinato argomento il destinatario del messaggio.
Occorre fare un distinguo. Le generazione mediatiche maggiormente alfabetizzate a questo tipo di comunicazione sono
54
quelle più giovani e in possesso di una proporzionale coscienza critica in grado di discriminare varie tipologie d’informazione e discernere il loro grado di veridicità. Quelle
invece che sono più permeabili all’influenza dell’emittente
e del messaggio che intende veicolare sono quelle più anziane, gli apocalittici (Eco,1964), infatti un deficit culturale
del genere comporta una minore disponibilità di codici per
interpretare il messaggio stesso e una conseguente maggiore
fiducia, nella sedicente autorevolezza della fonte, che a sua
volta investe molto e in modo consapevole, specie in alcuni
tipi di giornalismo televisivo, su tale deficit.
Tale è la potenza dello strumento comunicativo (McLuhan
1967), una potenza declinabile in maniera benigna, secondo
istanze deontologiche, o consapevolmente malevola e sensibilmente decurtata di fondamenti di veridicità. Quest’ultima
risulta più vicina a quella sorta di proto-comunicazione mediatica messa in atto dai regimi totalitari del secolo scorso
finalizzata alla creazione e alla stabilizzazione di un roccioso
consenso popolare, vera base della loro sopravvivenza dopo
l’ascesa al potere. Una giornalismo che non è libero ma diventa di regime e che come tale deve evidenziare solo gli
accadimenti che contribuiscono all’apologia del regime stesso, celando io suoi insiti elementi di debolezza. Tutto deve
essere finalizzato al radicamento e all’esponenziale crescita
di quel potere non ottenuto democraticamente e come tale
mantenuto: le notizie non devono essere vere ma funzionali
a tale scopo. L’informazione, e con essa la comunicazione
tout court devono essere libere oltreché conformi al reale e
soprattutto coscienti dell’immenso potere che possono esercitare in diversi contesti e nei confronti dei diversi pubblici.
Tale potere dovrebbe essere utilizzato responsabilmente per
munire le audiences di tutti gli strumenti e i codici necessari
a comprendere un determinato messaggio, in modo, secondo
le più disparate contingenze, quasi pedagogico, affrontando
il futuro mediale con uno sguardo al passato, tentando un
rinnovamento anche culturale basato sull’abbattimento di
qualsiasi barriera che si opponga ad un proficuo scambio dialogico e ad un’interpretazione critica del messaggio, evitando che l’invasività dei media e la loro malcelata persuasione
operata in alcuni casi sugli utenti, di influenzare quest’ultima. La comunicazione, oggi più che mai, rappresenta un’arma molto potente nelle mani di chi può gestirla, un’arma che
anche quando sembra essere giunta al suo massimo compimento, strutturale e semantico, ha ancora, insite in sé, una
miriade di potenzialità pronte ad esplodere e ad imporsi in
qualsiasi momento, secondo contingenze evolutive imprevedibili, fagocitando vecchie tecnologie e contenuti, relegate
all’obsolescenza in breve tempo, aprendosi continuamente e
con trepidante rapidità al futuro.
In virtù di queste sue immense potenzialità deve essere utilizzata con cognizione, responsabilità e buon senso, rispettando le sue finalità precipue: informare il pubblico in modo
esaustivo, dettagliato, non fazioso, nel rispetto dei canoni di
deontologia e correttezza generalmente intesi.
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | RECENSIONI
Un classico ancora più classico
tra gli altri classici
ERIKA GIUGLIANO
Lorenzo Rocci
Vocabolario Greco - Italiano
(con Web-CD)
Società Editrice Dante Alighieri, 2011
D
IL NUOVO ROCCI
opo
settant’anni
dalla sua prima edizione, era il 1939,
la Società Editrice
Dante Alighieri ha
riunito un agguerrito team di grecisti,
lessicologi e storici che per cinque anni
hanno lavorato a rinnovare e valorizzare il Rocci. Tra le notizie culturali è senza dubbio una delle più belle e serie di
questo decennio e un sintomo di vitalità
e proiezione intelligente verso il futuro
della parte migliore del nostro Paese.
Insieme al celeberrimo Georges - Calonghi per il latino, il Rocci non ha bisogno di essere presentato alla cultura
italiana. È stato e resta il ‘vocabolario
di greco’ per eccellenza e in questo
senso appartiene alla categoria dei fatti classici, imperituri, una di quelle
presenze che sembrano non conoscere
la corruzione del tempo, non risentire
dell’avanzare delle mode passeggere,
non essere toccato dalle fluttuazioni del
pensiero e delle tendenze storiche, ma
anzi esserne lei condizione della loro
stessa possibilità. Il Rocci è stato e resta
lo strumento indispensabile sia per chi
si avvicina per la prima volta allo studio
della lingua greca sia per chi ne ha già
una certa padronanza o ne è addirittura
uno specialista. È il compagno di tante
ore passate dagli studenti sulle versioni,
bersaglio di imprecazioni quando sembra non dare ‘quella parola’ di cui proprio non si riesce a carpire il senso, adulato e vezzeggiato quando invece ci fornisce la ‘formula magica’ che permette
di risolvere intricati enigmi linguistici
dandoci in citazione proprio la frase
che abbiamo sotto i nostri occhi e
che ci sta facendo
dannare. Un tutor fondamentale
insomma, soprattutto quando la
lingua in questione, ovviamente a
torto, ha la fama
di essere tremendamente difficile,
come il greco antico. Eppure questa lingua ‘difficile’, complicata
e ‘contorta’ (e
secondo alcuni
addirittura inutile) è una delle lingue
che più efficacemente assicura a tutti
noi un’alta qualità della vita.
Non tutti infatti sanno che nel nostro
lessico le parole che hanno a che fare
con il greco sono 8.354 (13 esotismi
non adattati, 3.891 etimi diretti di parole italiane e 4.451 etimi di parole latine
diventate poi italiane). Di conseguenza
pochi sanno che queste cifre fanno del
greco la lingua straniera quantitativamente più rilevante tra quelle che hanno
dato parole all’italiano (l’inglese, per
esempio, che egemonizza, senza colpa,
l’immaginario dei puristi, si colloca solo
al secondo posto, a più di 2000 parole di
distanza) e non è difficile considerare il
ruolo qualitativo che i derivati dal greco
hanno sulla natura profonda stessa del
sapere e della cultura italiana e, di fatto, mondiale. E non si tratta di vantare
termini della filosofia, della letteratura o
della psicologia o parole imprescindibili anche ai livelli elementari del sapere
come atmosfera, entusiasmo, epoca,
epidemia, farmacia, igiene, guscio,
analfabeta, scheletro, tegame, a tacere
del comunissimo e discorsivissimo magari. Si tratta invece di sapere che è nei
secoli XIX e XX, cioè oggi, che il greco
(classico, attenzione) ha dato tantissime
parole all’italiano e al mondo, perché
è in questi anni che abbiamo assunto
55
RECENSIONI | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
circa 3.000 dei 3.891 lessemi citati più
su (il che, se è permesso, per una lingua ‘morta’ è una bella performance).
E che parole. Perché, ancora una volta a
dispetto dei falsi sapienti, il greco classico non ci fornisce parole ‘languide’
o ‘soft’ ma parole che fanno il nucleo
delle hard sciences, quei saperi che ci
permettono le attuali condizioni di vita
progredita (per dire, il telefonino - e la
matematica e la fisica che ci permettono
di averlo a disposizione). Sta anche qui
la ragione per cui quando constatiamo
che il greco viene messo in discussione invece di essere valorizzato negli
ordinamenti scolastici viene in mente
l’Urlo di Munch o il cristiano ‘Dio perdona loro perché non sanno quello che
fanno’ e ci si sente in dovere di riprendere e rilanciare quanto osserva Tullio
De Mauro quando scrive che «bisogna
ammettere che il businness dictionary
o l’academic word list parlano greco
e parlano latino in Italia e nel mondo,
oggi come nei secoli passati, nelle fabbriche e negli uffici, nei laboratori e
nella comunicazione, assai più di quanto il mediocre stato degli studi scolastici classici in Italia e in altri paesi possa
far pensare. E, si aggiunga, assai più di
quanto sospettano coloro che predicano
l’abbandono a ogni attenzione alla classicità» (Storia linguistica dell’Italia repubblicana. Dal 1946 ai nostri giorni,
Laterza, Roma-Bari, 2014: 136)
Non ci sono dubbi sul fatto che la
sensibilità culturale di Lorenzo Rocci
avvertisse quanto il greco stava dando
all’italiano e all’Europa e quanto importante fosse che questo patrimonio
entrasse il più in profondità possibile nella coscienza di tutti. Era il 1939
quando Rocci portò a termine la prima
edizione del suo vocabolario (poi concluso nel 1943) dopo venticinque anni
di lavoro alla macchina da scrivere nel
collezionare, ordinare, tradurre circa
centomila lemmi del primo vocabolario
per lo studio del greco antico completamente concepito in italiano e destinato a
diventare il classico che tutti conosciamo.
56
LA NUOVA EDIZIONE
La caratteristica della nuova edizione
è che segue con grande acume una linea
di ideale continuità con l’opera di Rocci, conservandone alcune peculiarità e
adeguandone alcuni aspetti alle nuove
esigenze dettate dai moderni orientamenti dello studio delle lingue e alle
nuove acquisizioni in fatto di fruizione
e comprensibilità connessi alla impaginazione e alla grafica dei testi a stampa. Esaminiamo nei dettagli l’entità di
questi interventi di ‘restauro’ e moderna
riproposizione.
Lemmi. L’edizione del 2011 ha conservato il caratteristico raggruppamento
dei vocaboli per famiglie, che era uno
dei tratti peculiari dell’ordinamento seguito da Rocci nel suo vocabolario. I
lemmi all’interno delle famiglie, prima
abbreviati, vengono ora riportati tutti in
forma integrale. Maggiore attenzione è
stata riservata tanto alla verifica delle
varianti dialettali quanto all’esatta definizione della natura morfologica della
voce, ammettendo come lemmi solo le
forme effettivamente attestate. Dove
presente, la forma dorica delle voci è
stata estesa nella sua completezza e
collocata dietro l’articolo, in modo da
rendere quest’ultimo più evidente e immediatamente riconoscibile.
Traduzione dei lemmi. Le traduzioni
dei lemmi, prima difficilmente distinguibili dalle traduzioni di esempi e citazioni a causa del comune uso del carattere corsivo chiaro, ora sono evidenziate
in neretto. Sono state sistematicamente
aggiornate in modo da eliminare quella
patina di arcaismo che spesso rendeva
ardua la comprensione dell’enunciato in
chiave moderna. Il lessico aggiornato e
fluido però non rinnega completamen-
te la facies di elegante letterarietà che
è unanimemente riconosciuta come una
sorta di “valore aggiunto” dell’opera di
Rocci.
Citazioni. Le traduzioni delle citazioni, che nella vecchia edizione venivano
spesso omesse o fornite solo parzialmente, abbreviate con i puntini di sospensione, vengono riportate in maniera
completa, almeno per quanto concerne
gli autori più letti nella scuola. Anche
queste traduzioni sono state sottoposte a
un sistematico aggiornamento linguistico per favorire la chiarezza e la facilità
di comprensione.
Didascalie. Con un ampio lavoro di
integrazione, le didascalie esplicative
prestano ora maggiore attenzione alle
note morfosintattiche, all’analisi delle forme verbali e all’indicazione di
costrutti e reggenze. È invece rimasto
pressoché inalterato il ricco apparato di
didascalie storico-antiquarie, che fa del
Rocci un dizionario quasi enciclopedico, capace di soddisfare anche eventuali curiosità sulla cultura e sulla civiltà,
non strettamente legate quindi alla comprensione della lingua.
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | RECENSIONI
Abbreviazioni. Un analogo intervento
di razionalizzazione ha riguardato le abbreviazioni: sono state evitate sovrapposizioni e incoerenze con numerosi
casi di sigle usate come abbreviazioni
di più termini. Per evitare confusione e
ambiguità si è adottato il criterio della
corrispondenza univoca, per cui oggi ad
ogni sigla corrisponde un solo termine.
Un classico che si rinnova dunque,
ma senza lasciare che l’irruenza dionisiaca del moderno stravolga completamente quei tratti apollinei di eleganza e
raffinatezza che hanno reso questo vocabolario un must per intere generazioni, accompagnando milioni di studenti
nel loro iter di formazione sui testi di
una civiltà che non smette di parlare e
di affascinarci ancora oggi. Siamo convinti che anche Padre Rocci, se vedesse
come è stata riplasmata e rinfrescata la
sua opera, darebbe la sua benedizione.
IL GRECO ANTICO DALLA A
ALLA Z
Grafica. Notevolissimi sono stati infine gli interventi sulla grafica, che costituiva il principale motivo di critica da
parte degli studenti e che ora si presenta
completamente rinnovata, adeguata a
più moderni standard, con l’adozione di
un carattere più chiaro e più leggibile e
con dei parametri di impaginazione più
vicini al gusto e alle esigenze degli attuali fruitori.
Versione elettronica. In ogni copia
del nuovo Rocci è presente il bollino
con un codice unico che inserito sul sito
“Dante Alighieri” dà la possibilità di
accedere ai contenuti digitali, mettendo
tutti i lemmi del Rocci a portata di un
clic.
Accanto all’edizione maggiore, la
Società Editrice Dante Alighieri ha realizzato anche un dizionario predisposto
specificamente per i principianti, come
risulta evidente dal titolo stesso: Rocci
Εσαγογή - Starter edition (già affettuosamente ribattezzato “il Roccino”), uno
strumento di consultazione destinato
agli studenti del biennio ginnasiale, soprattutto a quelli del primo anno. Il formato ‘rimpicciolito’ però non ridimensiona né svilisce i pregi dell’edizione
principale; sono state conservate infatti
tutte le caratteristiche del Rocci maior,
dalla grafica ai contenuti: l’accorpamento dei lemmi in famiglie, l’evidenziazione dei significati, l’indicazione
delle reggenze, l’impaginazione su due
colonne.
Padre Rocci non aveva nessuna precedente pubblicazione lessicografica
greca di matrice esclusivamente italiana a cui rapportarsi: la mancanza di un
diretto antecedente ci fa capire la mole
del lavoro che ha svolto per circa venticinque anni, un’impresa quasi titanica (gemella solo all’impresa di Nicola
Zingarelli per l’italiano) considerando
che agli inizi del XX secolo non c’era
la possibilità di reperire informazioni e
dati con la facilità di oggi. La sua opera
però ha fatto da capostipite a una serie
di dizionari che rivelano espressamente
il loro debito nei confronti del lavoro
decennale svolto dall’infaticabile gesuita.
Il primo a proporsi come valida alternativa al vocabolario ‘canonico’ è
stato il GI - Vocabolario di greco antico di Franco Montanari, uscito in prima
edizione nel 1995 per la Loescher. L’opera è stata accolta subito con favore
da parte di chi lo preferiva al vecchio
Rocci per la grafica più chiara e l’impaginazione più snella. Lo stesso professore pavese, che ha coordinato un team
di trenta collaboratori, ha ribadito la sua
riconoscenza verso l’illustre predecessore, che ha rappresentato un punto di
riferimento imprescindibile. L’ultima
edizione è del 2013, ulteriormente ampliata e rinnovata sotto la veste grafica
soprattutto mediante l’uso dei colori e
di una simbologia interna volta a rendere più semplice e intuitiva la ricerca e
l’individuazione delle accezioni. In appendice sono riportate 15 tavole a colori
con piccoli glossari suddivisi per temi
(riguardanti alcuni aspetti della cultura
e della civiltà greca) e carte geografiche
sui periodi della colonizzazione, la dislocazione dei dialetti e i regni ellenistici. Viene inoltre proposto un lessico
di base, indispensabile per i principianti, arricchito da una parte pratica che
propone una serie di lezioni sull’uso
del dizionario e alcuni esercizi che l’insegnante può assegnare agli alunni da
svolgere a casa o in classe. Un CD-rom,
già presente nella seconda edizione del
2004, completa l’equipaggiamento del
GI di questa terza edizione.
Per il particolare criterio metodologico adottato si distingue anche il
dizionario Greco antico di Renato Romizi, edito nel 2007 da Zanichelli, che
struttura il lemmario secondo una scansione etimologica. Come ormai appare
fondamentale per ogni pubblicazione
di questo tipo, la grafica è stata particolarmente curata per rendere più facile
e immediata la consultazione. Il metodo adottato dall’autore prevede che
ogni parola venga ‘sezionata’ nei suoi
57
RECENSIONI | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
elementi costitutivi che, analizzati singolarmente, conducano il fruitore al significato della parola stessa, guidandolo
attraverso un percorso logico ed etimologico che gli faciliti anche la memorizzazione del lessico. L’altra particolarità sta nelle fonti adoperate, costituite
esclusivamente dai testi in prosa. Anche
qui è stata riservata una particolare attenzione al lessico di base, di cui vengono evidenziate 2600 voci.
Se invece si desidera ampliare ulteriormente i propri orizzonti di ricerca
in ambito linguistico e si preferisce un
approccio di tipo comparativo, segnaliamo Greco antico, neogreco e italiano. Dizionario dei prestiti e dei parallelismi, a cura di Massimo Peri e Amalia
Kolonia, sempre per Zanichelli (2008).
Il dizionario comprende circa 12.000
vocaboli greci che ‘inconsapevolmente’ sono già noti al pubblico italiano in
quanto si tratta sia di prestiti forniti all’italiano dal greco antico nelle sue varie
fasi storiche sia di prestiti che l’italiano
stesso ha ceduto al greco (in modo speciale attraverso il dialetto veneto) sia di
termini scientifici che si sono ‘infiltrati’
in greco e in italiano mediante altre lingue (francese e inglese in massima parte). Per questo suo carattere composito
che abbraccia anche le lingue moderne
è un’opera che si rivolge a un pubblico molto vario: dai filologi agli studiosi
di storia europea, da chi usa linguaggi
specialistici che presentano termini
derivanti in gran parte dal greco (medicina, giurisprudenza) a chi si reca in
Grecia semplicemente per lavoro o per
vacanza.
Per Vallardi segnaliamo il Dizionario greco antico plus (2000) a cura di
Nedda Sacerdoti e Vittorio Sirtori, con
oltre 12.000 voci e 20.000 traduzioni,
spiegazioni, precisazioni e indicazioni
d’uso, utile per chi ama la sinteticità
dell’esplicazione che non rinuncia alla
completezza. Ciascun lemma è corredato da esempi esaurienti e articolati che
mostrano con immediatezza la parola
‘in azione’ all’interno dell’ enunciato.
In più ci sono schede didattiche dedicate all’alfabeto greco, tavole dei numeri, un elenco dei tempi principali dei
verbi, l’indicazione dei casi retti dalle
preposizioni e delle costruzioni sintat58
tiche particolari e un ampio repertorio
alfabetico di personaggi mitologici.
Del dizionario è stata realizzata anche
una versione tascabile (edita nel 2012)
che include 7.000 voci e un repertorio
di 4.000 vocaboli dall’italiano; proprio
la presenza della doppia sezione grecoitaliano e italiano-greco rende questi dizionari particolarmente adatti ai neofiti.
Sulla scia del ‘Roccino’ si pone infine la pubblicazione di Angelo Cardinale Nulla di troppo. Dizionarietto, edito
nel 2011 dai Fratelli Ferraro. Questo
piccolo lessico essenziale raccoglie in
sole 96 pagine i termini di maggiore frequenza che uno studente ginnasiale incontra più spesso in versioni ed esercizi,
dando anche la possibilità di consultare
una sezione italiano-greco.
IL GRECO ONLINE
Oggi il web appare una risorsa irrinunciabile per la ricerca di dati e informazioni di svariato tipo e anche la
linguistica antica non poteva restare
indifferente di fronte ai nuovi strumenti
messi a disposizione dalle nuove tecnologie della comunicazione. Tuttavia,
per quanto riguarda il greco, c’è ancora
molto lavoro da svolgere sul versante
italiano che presenta ancora progetti in
fase di completamento: d’altronde per
un ambito così vasto e complesso è impossibile pretendere una piena esaustività, così come non si può fare a meno
di prendere atto che anche gli studi linguistici antichi hanno in comune con internet l’inglese come lingua dominante.
Questo aspetto però non costituisce un
ostacolo nello studio delle lingue classiche, anzi favorisce un incontro culturale
da cui scaturiscono ottime prospettive
che arricchiscono la didattica delle lingue straniere moderne e quella delle lingue antiche.
Di portata monumentale per la
ricchezza dei contenuti è sicuramente
Perseus [http://www.perseus.tufts.edu/
hopper/], che trasferisce sulla rete il
contenuto di quattro CD-rom dedicati
allo studio della lingua e della cultura
greca antica. Il fornitissimo database
contiene:
• il testo greco e la traduzione inglese
di 31 autori della grecità classica, dai
•
•
•
•
•
•
lirici ai tragici agli storici, con alcuni
passi commentati;
un repertorio di 25.000 immagini collegate a diversi articoli di approfondimento;
un atlante interattivo della Grecia antica e moderna;
una versione elettronica dell’Intermediate Greek-English Lexicon di Liddell e Scott;
un’enciclopedia ipertestuale sul mondo antico;
una collezione di studi moderni sul
mondo greco;
una bibliografia di oltre 2.600 titoli.
La forma ipertestuale consente di
passare da un argomento all’altro in
maniera agevole e immediata.
La consultazione del Greek-English
Lexicon evidenzia in modo chiaro i
vantaggi, sia in termini di economicità
che di intuitività d’uso, dell’impiego del
supporto elettronico rispetto a quello
tradizionale: la finestra che si apre cliccando su un lemma del dizionario riproduce fedelmente la pagina dell’edizione
a stampa; da qui, cliccando sui termini
evidenziati in blu, si accede a una scheda morfologica che fornisce tutte le informazioni grammaticali riguardanti la
parola selezionata. Tramite il dizionario
inoltre si ha la possibilità di accedere
ad altri sussidi messi a disposizione dal
sito. Partendo da un testo in prosa, ad
esempio, è possibile aprire strumenti
di consultazione come grammatiche,
articoli, commenti di altri autori in cui
compare la citazione di quel passo.
Questa rete di collegamenti rende pertanto il sito fruibile da una vasta gamma di utenti, dallo studente in difficoltà
a individuare una data forma verbale o
flessiva allo specialista impegnato nella ricerca di parallelismi contestuali e
morfosintattici.
L’unico dizionario online concepito in italiano è Greco Antico [http: //
www. grecoantico. com], che raccoglie
oltre 15.000 vocaboli e 1000 frasi idiomatiche e modi di dire. Il lemmario si
è definito grazie al contributo di alcuni
classicisti coordinati dal dott. Enrico
Olivetti che collaborano a titolo gratuito. Di ogni lemma viene fornito il significato principale ed è presente anche la
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | RECENSIONI
sezione dall’italiano, risultando quindi
particolarmente adatto ai principianti.
LA LESSICOGRAFIA
SCIENTIFICA
La problematicità del rapporto tra
mezzi di comunicazione e messaggi da
essi veicolati non è oggetto di ricerca
esclusivo dei linguisti moderni: ne discutevano già Tucidide e Platone, con
quest’ultimo in particolare che aveva
forti riserve sui testi scritti, ma non si
può negare che il passaggio dalla cultura orale a quella scritta sia stata vissuta come una vera e propria rivoluzione
tecnologica. I mezzi di comunicazione e
di trasmissione della cultura che ci mette a disposizione il progresso moderno
hanno rappresentato anche per noi una
rivoluzione che è giunta a un ulteriore
stadio: si è passati dal supporto cartaceo
a quello ottico, elettronico e ipertestuale. Ogni trasformazione indubbiamente
comporta delle perdite che vengono tuttavia compensate da alcuni vantaggi: lo
stesso Platone, pur avversando la produzione scritta, se ne servì per trasmettere
i contenuti del suo sistema filosofico.
In origine la grammatica nel mondo
greco si trovava in una posizione subordinata rispetto alla filosofia e alla
retorica fino a quando non ha raggiunto
lo status di disciplina autonoma in età
alessandrina, quando gli studi filologici
subirono uno sviluppo notevolissimo e
si avvertì la necessità di studiare e conservare il patrimonio letterario dei secoli precedenti sentito come un valore
da tutelare e tramandare. Durante l’età
ellenistica gli orizzonti culturali si ampliano, si entra in contatto con realtà linguistiche diverse grazie ai nuovi mondi
aperti dalle conquiste di Alessandro, il
greco classico del V secolo si modifica
e diventa κοινή, mentre i dialetti vanno
scomparendo. L’obiettivo dei grammatici ellenistici era quello di definire i canoni dell’έλλενισμός cioè della corretta
espressione della lingua greca, offuscata dal trascorrere dei secoli.
Pfeiffer affermava che la propensione a riflettere sulle parole e la loro
origine era “una tendenza innata della
mente greca”, pertanto il lavoro svolto
dai grammatici per recuperare il signifi-
cato originario dei testi dell’età classica
era avvertita come un’esigenza assolutamente naturale dettata dal mutato
contesto storico. Anche se la riflessione sul significato delle parole a la loro
origine sembra riguardare solo l’ambito
poetico, storiografico e filosofico, c’è
motivo di credere che la speculazione
metalinguistica possa collocarsi anche
in epoche ancora più antiche, come dimostrano alcuni studi sul sillabario della lineare B che conterrebbe un sillabogramma di origine artificiale, mentre gli
altri segni erano connessi al patrimonio
culturale e all’ambiente naturale cretese
ed egeo. I nuovi indirizzi di ricerca linguistica non si pongono in rottura con
l’esperienza degli antichi, anzi li proseguono ponendosi in una linea di ideale
continuità.
Nel XX secolo un nuovo filone degli
studi etimologici è inaugurato da Boisaq
con il DELG (Dictionnaire étymologique de la Langue grecque) improntato
ai principi della linguistica comparativa
che fa risalire l’origine di alcune parole
ad ambienti semitici o egiziani. I nuovi esiti di questa ricerca non dovevano
però essere scissi dallo scrupolo filologico nel vaglio delle fonti. Il dizionario
di Boisaq apparve solo un anno prima
che Padre Rocci portasse a termine il
suo dizionario.
Le proposte etimologiche non selettive di Boisaq hanno rappresentato un
punto di rifermento anche per i lavori di
Hjalmar Frisk e Pierre Chantraine, attivi
negli anni ’50, cui si aggiunge la pubblicazione di Robert Beekes del 2010,
disponibile parzialmente online sul sito
degli Indo-European Etymological Dictionaries (http://www.ieed.nl/). Frisk
pensa all’etimologia del greco in chiave
indoeuropea, Chantraine segue la storia
di ciascun termine all’interno della tradizione linguistica greca senza trascurare anche gli esiti riscontrabili nel neogreco. Beekes si focalizza sull’aspetto
etimologico in chiave indoeuropea con
attenzione alla fonologia e alla morfologia delle parole pre-greche.
Il miceneo verrà decifrato solo due
anni dopo la morte di Padre Rocci
(1952) e la linguistica comparativa era
agli albori quando intraprese la sua opera. La scarsa conoscenza dell’inglese
non gli permise di consultare il LiddellScott-Jones; un altro lessico molto diffuso agli inizi del ‘900 era il Dictionnaire grec-français di Bailly, che tuttavia
rimase uno strumento inadeguato fino
alla revisione curata da Chantraine negli anni ’50. In Italia le opere che precedono la pubblicazione del dizionario di
Rocci sono tutte ricalcate su pubblicazioni straniere, soprattutto tedesche, di
cui costituiscono adattamenti o traduzioni: segnaliamo in particolare il vocabolario di greco di Francesco Ambrosoli (edito per la prima volta da Loescher
nel 1866) che per circa un ventennio fu
il più usato dagli studenti dei licei classici del Regno d’Italia; negli anni ’80
tuttavia fu scalzato dall’opera di Benedetto Bonazzi, monaco benedettino
campano, autore di un dizionario grecoitaliano che arrivò a venticinque edizioni; nel 1923, a cura di Emidio Martini e
Domenico Bassi, apparve una versione
italiana del dizionario scolastico realizzato dal filologo tedesco Friedrich
Wilhelm Carl Gemoll, edito nel 1908.
Rispetto ai suoi predecessori, l’opera
di Padre Rocci tende a essere maggiormente indipendente dalle pubblicazioni
estere, pur senza respingere i nuovi contributi provenienti dalla lessicografia
straniera. Questo era dunque lo scenario in cui operò Rocci negli anni in cui
andava realizzando il suo dizionario:
un’opera che inquadrata nel contesto
dell’epoca rivela immediatamente tutta
la sua grande originalità.
59
N. 1 - NOVEMBRE 2014
RICERCHE
Le ricerche e gli articoli
scientifici ospitati in
questa sezione sono
sottoposti prima della
pubblicazione alle
procedure di peer review
adottate, che prevedono
il giudizio in forma
anonima di almeno due
“blind referees”.
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | CHIMICA
L’ambiente di conservazione dei
documenti grafici: riferimenti
normativi e metodologie
per la prevenzione del rischio
SALVATORE LORUSSO E ANDREA NATALI
Dipartimento di Beni Culturali, Alma Mater Studiorum Università di Bologna (sede di Ravenna)
Fra i compiti essenziali dello Stato vi è la conservazione
dei beni culturali, una parte dei quali è costituito da documenti grafici (essenzialmente materiale cartaceo e membranaceo) collocati in biblioteche e archivi. Per la conservazione di questi documenti occorre attuare una serie di misure
anche per impedirne il deterioramento. Un approccio recente
è fondato sulla prevenzione dei rischi (risk
management) a cui questi beni sono esposti, alla base delle ricerche sul “sistema:
manufatto-ambiente-biota” del Laboratorio
Diagnostico per i Beni Culturali del Dipartimento di Beni Culturali dell’Università di
Bologna. Questi studi (in particolare quelli
relativi ai documenti grafici dell’Archivio
di Stato di Roma, Firenze, Rimini, dell’Archivio della Camera di Commercio di Ravenna, delle Biblioteche statali di Roma,
della Biblioteca Classense di Ravenna),
hanno contribuito a fornire una definizione più chiara e affidabile sulla valutazione
ambientale in tali unità culturali ma, più in
generale, in tutti gli ambienti “indoor” dove
è fondamentale affrontare le problematiche
relative al benessere del sistema manufattoambiente-biota anche in termini di ricadute
economiche.
1. L’AMBIENTE CONFINATO
È
noto come il benessere del bene culturale,
nel caso specifico dei documenti grafici, dipenda dall’ambiente di collocazione-conservazione.
In un ambiente confinato, come appunto
un archivio o una biblioteca (e più specificamente le sale
di consultazione, le sale espositive, i depositi, le teche per i
manufatti di particolare pregio), i fattori che maggiormente
influenzano lo stato di conservazione del manufatto sono essenzialmente: l’illuminazione, l’umidità, la temperatura e la
qualità dell’aria (1-5).
I materiali di natura organica risultano essere i meno resistenti di fronte ad ambienti molto aggressivi. A parità di con-
dizioni esogene, la resistenza dei manufatti varia in funzione
della composizione chimica e della struttura del materiale
costituente.
Una distinzione fra fattori ambientali di degrado di origine
naturale e fattori di origine antropica non può considerarsi
valida in assoluto, in quanto il clima «naturale» è continuamente alterato dalle attività umane, come pure lo sono le interrelazioni tra i diversi fattori ambientali.
I beni conservati in luoghi chiusi o confinati non sono
esenti dai fattori di degrado esterni, ma li subiscono in maniera indiretta. L’aggressione dovuta agli inquinanti atmosferici dipende prevalentemente dalla velocità di scambio
63
CHIMICA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
Tab. 1. Parametri ambientali
parametro ambientale
unità di misura
dove effettuare la misura
intervallo di misura
temperatura
°C
sale di consultazione, sale
espositive, depositi, teche,
scaffalature, armadi
- rilevazione continua:
acquisizione dati ogni 30’
- rilevazione istantanea:
controllo periodico
umidità relativa
%
umidità specifica
g/kg
sale di consultazione, sale
espositive, depositi, teche ,
scaffalature, armadi
- rilevazione continua: acquisizione dati ogni 30’
- rilevazione istantanea:
controllo periodico
livello di illuminazione
lux
sale di consultazione, sale
espositive, depositi, teche,
scaffalature
- rilevazione continua o
istantanea a seconda del caso
d’aria esterno-interno e dall’affluenza dei visitatori (6).
Lo studio del microclima non può prescindere dall’analisi dei dati climatici esterni. Inoltre non si può non tener
conto dei fattori geografici come l’ubicazione sul territorio e
l’esposizione della struttura architettonica di conservazione,
all’interno della quale è opportuno effettuare un’indagine relativa a: dimensione, forma e materiali edilizi usati; tipologia
costruttiva e soprattutto tecnica degli impianti (7).
La comparazione delle variazioni climatiche esterne con le
condizioni e l’orientamento dei locali, i materiali costitutivi
usati e, in genere, la possibilità di scambio di flussi d’aria
interna ed esterna rilevano il grado di protezione offerto dalla
struttura architettonica stessa nonché il livello di coibentazione termica.
2. IL CONTROLLO DELL’AMBIENTE
Come si è fatto presente in precedenza, fra i parametri
ambientali che vanno ad influenzare nel tempo le condizioni
di un manufatto cartaceo conservato in ambiente confinato,
causandone il deterioramento, vi sono: la temperatura, l’umidità, la ventilazione, la luce.
I fenomeni fisici che hanno luogo nei microambienti comportano:
• il trasferimento di energia termica per convenzione;
• il trasferimento di energia termica per irraggiamento;
• il trasferimento di massa;
• gli scambi radioattivi prodotti da sorgenti luminose.
Le grandezze fisiche che normalmente vengono controllate sono dunque (tab. 1)
• la temperatura dell’aria;
• l’umidità relativa dell’aria1;
• l’umidità specifica2;
1 L’umidità relativa è il rapporto percentuale fra la quantità di vapore contenuto in una massa d’aria e la quantità massima di vapore che la stessa
massa può contenere a parità di temperatura e pressione. È opportuno far
presente che la percentuale di umidità relativa dipende dalla temperatura.
Un esempio numerico può servire a chiarire il fenomeno: un metro cubo
d’aria alla temperatura di 20°C, contenendo 10 grammi di vapore, ha un
umidità relativa del 50%. Lo stesso metro cubo di aria contenente gli stessi
10 grammi di vapore, se portato alla temperatura di 10°C diventa saturo,
cioè la sua umidità relativa diventa del 100%.
2 L’umidità specifica è la quantità di vapore, espressa in grammi, contenuta in un chilogrammo di aria. È ottenuta dal rapporto tra la massa di vapore
acqueo e la massa di aria umida che lo contiene. È espressa in g di vapore
64
• il livello di illuminazione.
Da quanto precedentemente accennato, risulta fondamentale, al fine di contenere il degrado fisico dei materiali costituenti i documenti grafici, mantenere costantemente sotto
controllo i principali parametri ambientali.
2.1. Parametri termoigrometrici
Il monitoraggio microclimatico, all’interno degli ambienti
destinati alla conservazione del materiale archivistico, è una
delle operazioni fondamentali da compiere al fine di attuare
una idonea opera di prevenzione.
A tal riguardo è necessario effettuare il controllo strumentale dei parametri ambientali, allo scopo di individuare e
modificare, nel caso, quelle situazioni microclimatiche che
influiscono negativamente sullo stato di conservazione dei
libri e dei documenti. Ne deriva l’importanza di indicare valori microclimatici appropriati.
D’altra parte la metodica di un progetto per lo studio del
microclima non può prescindere dall’analisi dei valori atmosferici esterni durante le escursioni giornaliere, stagionali e
annuali.
L’installazione di apparecchiature per l’acquisizione continua dei dati deve essere rivolta alla misura della temperatura, dell’umidità relativa e dell’energia raggiante per
permettere una visione completa nel tempo dell’andamento
microclimatico degli ambienti in esame (7).
L’acquisizione continua consiste in una registrazione dei
dati misurati ad intervalli di tempo indicati dalla normativa
vigente.
La misurazione istantanea dei parametri ambientali consiste invece nella rilevazione dei dati nella fase iniziale del
monitoraggio per stabilire quali parametri siano suscettibili
di modifica e per verificare periodicamente l’idoneità di siacqueo per kg di aria umida. La misura di questa grandezza fisica è molto
importante in particolare per quanto riguarda i materiali cartacei e membranacei che costituiscono i documenti oggetto della sperimentazione. Questi
materiali possiedono strutture di tipo poroso e/o natura idrofila tali da risultare profondamente sensibili agli effetti dell’umidità. Essa può essere causa o costituire concausa di alterazioni/degradazioni fisiche (rigonfiamenti,
deformazioni, cambiamenti della flessibilità e della resistenza meccanica),
chimiche (reazioni dovute ai gas acidi inquinanti dell’atmosfera, reazioni
di idrolisi e la maggior parte di quelle di ossidoriduzione, di scambio, ecc)
e biologiche (sviluppo di muffe, batteri e microrganismi in genere).
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | CHIMICA
tuazioni microclimatiche di cui è nota una certa stabilità.
Le escursioni annuali, caratterizzate da variazioni lente e
diluite nel tempo, possono determinare modificazioni meno
traumatiche sul materiale librario rispetto alle più rapide
escursioni diurne e stagionali (causate, ad esempio, da una
violenta illuminazione artificiale o da un eccessivo riscaldamento e raffreddamento dell’ambiente): se nella prima eventualità il materiale può riuscire ad adattarsi gradualmente alle
variazioni del microclima, nella seconda si possono determinare gravi modificazioni di carattere chimico-fisico.
Nel caso di locali ampi o di interi edifici risulta anche indispensabile la conoscenza del tasso di umidità presente nelle
murature.
Un controllo completo del microclima deve quindi prevedere tutte le comparazioni tra clima esterno e clima interno,
il monitoraggio dei valori ambientali costante nel tempo, la
rilevazione dei valori termoigrometrici all’interno delle scaffalature e nondimeno la misurazione della percentuale di acqua presente nel materiale cartaceo.
Per quanto riguarda i valori di umidità, va detto che esistono fondamentali differenze tra costruzioni antiche e moderne: negli edifici antichi l’umidità rilevabile tende ad essere
costantemente di invasione e presenta carattere cronico; negli edifici nuovi, per contro, la tendenza è verso una umidità
di costruzione che ha carattere transitorio.
L’umidità presente negli edifici antichi può provenire sia
dal sottosuolo per ascensione capillare che dall’aria per condensazione.
L’umidità per ascensione capillare risulta caratterizzata da:
• indipendenza dalle stagioni;
• ridotta capacità di ascendenza sulle murature;
• impregnazione dell’intero spessore della muratura, da una
parete all’altra;
• assorbimento dell’acqua dal terreno;
• eliminazione relativamente rapida.
L’umidità per condensazione ha invece le seguenti caratteristiche:
• si manifesta ogni anno alla medesima stagione;
• si verifica a qualsiasi altezza dell’edificio;
• bagna le pareti in superficie e si combina con elementi inquinanti;
• assorbe vapore acqueo dall’aria per raffreddamento del vapore contenuto;
• si può eliminare velocemente producendo calore e ventilazione, ma si ripresenta.
La soluzione più efficace per garantire la conservazione di
qualsiasi materiale organico, quindi anche i documenti grafici, appare l’installazione di un impianto di climatizzazione
in grado di assicurare la stabilità dei valori termoigrometrici. Ma se tale soluzione è facilmente praticabile negli edifici
moderni, per quelli di antica costruzione risulta notevolmente problematica, sia perché assente dalla progettazione originaria, sia per i vincoli di tutela cui sono sottoposti gli edifici
storici (7).
Anche nel caso in cui l’installazione potrebbe essere effettuata, le spese correnti annuali si dimostrano troppo alte per
i bilanci della maggior parte degli archivi e delle biblioteche.
Lo spegnimento dei sistemi ad intervalli, usato per risparmiare, provoca grossi danni microbiologici. In ogni modo,
l’esperienza fatta nei musei e nelle gallerie, così come in
alcune biblioteche, ha dimostrato come un controllo soddisfacente possa essere ottenuto solo in edifici progettati per
tale scopo.
Ciò nonostante, alcune precauzioni possono contribuire
a migliorare le condizioni effettive, al fine di preservare le
collezioni:
a) la struttura dell’edificio deve godere di una buona manutenzione, in modo tale da eliminare problemi dovuti ad
infiltrazioni d’acqua attraverso pareti e finestre o alla risalita
dell’umidità dai piani umidi;
b) nel caso di variazioni pronunciate delle condizioni termoigrometriche, l’edifico dovrebbe essere isolato termicamente per ridurre tali oscillazioni. Tale isolamento è d’obbligo prima di pensare all’installazione di un sistema totale
di condizionamento;
c) l’impiego di armadi a freddo, del tipo di quelli impiegati nell’industria alimentare, può servire per creare dei locali
freddi per l’immagazzinamento dei materiali trattenuti dopo
il trasferimento su altri supporti, del materiale poco consultato, ecc..
2.2. Illuminazione
In relazione all’irraggiamento (naturale ad opera del sole
ed artificiale a causa delle varie fonti di illuminazione), si fa
presente la necessità di proteggere il materiale cartaceo dai
raggi ultravioletti, dagli infrarossi e dalle radiazioni visibili
(4,7).
A tal fine la carta va esposta a intensità luminose piuttosto
basse, comprese fra 50-150 lux3 a secondo dei casi (1), e
vanno inoltre rispettate le seguenti condizioni:
• non esporre direttamente gli oggetti ad alcuna radiazione;
• eliminare, per quanto possibile, le radiazioni UV con idonei filtri;
• mettere filtri UV su tutte le finestre, comprese quelle dei
laboratori di restauro;
• effettuare un immagazzinamento perpendicolare alle finestre, in modo tale che la luce non colpisca direttamente i
materiali posti sugli scaffali e, quando è possibile, eliminare completamente la luce del giorno;
• usare lampade fluorescenti a catodo freddo4;
• fornire tutte le finestre di tende avvolgibili o adoperare altri sistemi, per ridurre l’intensità di illuminazione;
• usare interruttori a tempo nei magazzini al fine di evitare
illuminazioni non necessarie;
• non porre mai fonti luminose all’interno delle teche;
• filtrare con idonee schermature la luce solare.
3 Il lux (lumen/m3) è l’unità di misura di illuminamento. Nel rilevare che
i dati della letteratura indicano fondamentalmente i valori massimi di illuminamento, e che l’intensità del sole in estate è pari a 60.000 lux, l’intensità pari a 50 lux risulta molto ridotta.
4 Ovvero al sodio, ad alogeni o ad alogenuri.
65
CHIMICA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
Quando il manufatto viene conservato in teche espositive
con superfici vetrate, generalmente, si produce il cosiddetto
“effetto serra”, derivante dall’imprigionamento dell’energia
raggiante che colpisce le superfici vetrate all’interno delle
bacheche. In questi casi è opportuno attenersi alle seguenti
precauzioni (3,7):
• usare lampade fluorescenti a catodo freddo posizionate in
modo che il flusso luminoso abbia un’incidenza molto lieve sul materiale esposto;
• schermare il flusso luminoso con una lastra di plexiglas di
almeno 1 cm di spessore;
• assicurare la ventilazione all’interno della bacheca tramite
fori praticati sul piano di appoggio orizzontale;
• realizzare dei fori laterali per l’inserimento dei cilindri di
spugna opportunamente bagnati al fine di umidificare, ove
necessario, l’ambiente interno;
• controllare il microclima nelle teche espositive;
• ridurre il tempo di accensione dei corpi illuminati, limi•
tandolo al periodo di effettiva fruizione;
controllare costantemente il clima delle sale.
2.3. La qualità dell’aria
2.3.1. La polvere
E’ inoltre fondamentale, per una corretta conservazione,
effettuare periodicamente le operazioni di spolveratura, volte
a rimuovere sia dai documenti e dai libri sia dagli ambienti
di conservazione, la polvere che vi si è depositata e tutto ciò
di cui essa può essere veicolo. Non pochi sono infatti i danni
causati dalla polvere che si deposita sui manufatti: essa ha
una composizione molto eterogenea e variabile, a seconda
dell’ubicazione degli archivi e delle biblioteche e in relazione alle condizioni stagionali. E’ noto che la polvere può
contenere anche del ferro e, in presenza di elevati valori di
umidità o di acqua allo stato liquido, questo metallo può portare alla formazione di macchie giallo-brune, spesso visibili
sui bordi superiori dei documenti.
Particolarmente problematiche per la conservazione del
materiale archivistico e bibliografico sono le zone urbane e
industriali per la presenza di gas carbonici, solforati e azotati
nonché di cenere, fuliggine, particelle di catrame, sali, ecc.
L’esame microbiologico della polvere rivela, inoltre, il
suo elevato contenuto di spore batteriche e fungine e di uova
di insetti. La spolveratura permette l’allontanamento degli
agenti microbiologici e, talvolta, l’interruzione del ciclo vitale delle specie entomatiche arrestandone così l’azione dannosa. Per questo motivo essa dovrebbe essere eseguita possibilmente in primavera, stagione di maggiore vulnerabilità
degli agenti biologici. Tale operazione, oltre ad eliminare un
pericoloso veicolo di alterazioni fisiche, chimiche e biologiche, permette di eseguire uno scrupoloso e periodico controllo dei singoli documenti e volumi, un’accurata ispezione dei
locali e il tempestivo rilevamento dei danni incipienti.
In Italia esistono due D.P.R. che, nell’ambito del Regolamento delle Biblioteche Pubbliche e Statali, si occupano
della questione della spolveratura (4):
66
il D.P.R. n.1501 del 5 settembre 1967, che fissa i tempi di
esecuzione di questo tipo di intervento (ogni due anni per gli
archivi e le biblioteche minori e cinque per quelli più grandi);
il D.P.R n. 417 del 5 luglio 1995, che non contempla una
periodicità per la spolveratura ma bensì per i controlli sul
materiale conservato.
In ogni caso, per stabilire la periodicità e le modalità della
spolveratura, occorre tenere conto dei seguenti fattori:
a) ubicazione dell’archivio o della biblioteca (zona industriale, campagna, centro urbano, ecc..);
b) dimensioni dell’archivio o della biblioteca;
c) intensità delle attività che si svolgono nell’Istituto di
conservazione (più intensa è l’attività, maggiore è l’apporto
di agenti inquinanti);
d) esistenza e tipologia di sistemi di aerazione dei locali e
presenza o meno di sistemi di filtrazione dell’aria;
e) eventuale presenza di materiale documentale o librario
infetto che potrebbe contaminare l’aria circostante;
f) tipologia degli arredi e delle scaffalature (scaffali aperti
o chiusi, lignei o metallici, alti fino al soffitto o bassi fino a
toccare terra).
Come misura preventiva è opportuno che vengano eseguiti, da parte del personale addetto, regolari controlli del materiale e degli ambienti di conservazione allo scopo di evidenziare situazioni a rischio (attacchi microbici, infestazioni,
condizioni di elevata umidità, ecc..) per le quali è necessario
intervenire tempestivamente.
Si deve inoltre fare attenzione alla presenza, sugli scaffali
e sotto i documenti ed i libri, di polvere di rosura che è indice
di una infestazione in atto e all’esistenza di macchie colorate
e/o di formazioni polverulente sintomi probabili, invece, di
infezioni microbiche. E’ opportuno anche verificare la presenza di danneggiamenti alle scaffalature (alterazioni nella
verniciatura, ossidazioni di elementi metallici, fori di sfarfallamento, ecc..) e alle murature (presenza di fessure nelle quali potrebbero annidarsi insetti o topi, macchie sull’intonaco
che potrebbero essere indice di infiltrazioni d’acqua, ecc..).
Per la spolveratura si possono prevedere due tipi di intervento:
• uno ordinario, a frequenza biennale che non prevede il
prelevamento dei documenti o dei libri dalle scaffalature
e che può essere eseguito, meglio se dallo stesso personale dell’Istituto di conservazione, manualmente, con panni
morbidi e pennelli, o meccanicamente tramite piccoli aspirapolvere;
• uno straordinario, che viene eseguito dopo un’accurata verifica da parte dell’Amministrazione che ne deve accertare
la necessità; è opportuno che tale verifica avvenga almeno,
e non oltre, ogni 5 anni. Questo tipo di spolveratura deve
essere molto accurato ed effettuato sia manualmente, dove
necessario, che meccanicamente.
Il personale incaricato dell’archivio o della biblioteca deve
segnalare quanti e quali documenti o libri devono essere sottoposti a spolveratura manuale o meccanica. I criteri da seguire per selezionare tale materiale sono:
• controllo dello stato di conservazione fisica dei documenti
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | CHIMICA
in tutte le loro parti costitutive: carte, piatti della legatura, coperte, cuciture, capitelli, sigilli, filze, ecc... Se anche
uno solo di questi elementi si trova in precarie condizioni5, è necessario considerare l’opportunità di ricorrere a
una spolveratura manuale o di segnalare il reperto per un
suo restauro. Materiale particolare (codici miniati, mappe,
mappamondi, ecc..), anche se in ottime condizioni di conservazione ma comunque impolverato, va sempre sottoposto ad una spolveratura manuale;
• segnalazione e verifica, da parte di tecnici esperti, dello
stato di conservazione dal punto di vista biologico. Se materiali infetti vengono sottoposti a trattamenti di disinfezione/disinfestazione, è necessario far sempre seguire la
spolveratura a queste operazioni;
• controllo preventivo del materiale documentale o librario
pervenuto tramite acquisti, donazioni, lasciti, ecc..;
• valutazione delle condizioni igrometriche dei documenti.
Se il contenuto percentuale d’acqua dei materiali risulta
superiore al 10% è necessario far seguire una deumidificazione, poiché con tali percentuali di umidità potrebbe
esserci il rischio di una insorgenza di fenomeni di biodeterioramento.
La spolveratura, tenendo presente la delicatezza e il valore
del materiale da trattare, deve essere effettuata possibilmente
all’interno dell’archivio o della biblioteca, in un locale appositamente predisposto, al fine di evitare l’insorgere di traumi
fisico-meccanici durante gli eventuali spostamenti dei documenti o dei libri da un luogo all’altro. Il trasferimento del
materiale dagli scaffali al locale predisposto deve avvenire
in carrelli o contenitori chiusi per evitare la dispersione di
polvere e di eventuali agenti biologici.
Qualora il materiale debba essere spostato per interventi di
disinfezione, la spolveratura può essere effettuata presso sedi
diverse da quella dell’Istituto di conservazione.
Durante le operazioni di spolveratura devono essere effettuati controlli da parte del personale tecnico dell’archivio o
della biblioteca al fine di verificare l’efficacia e la corretta
esecuzione dell’intervento (4).
E’ auspicabile che ogni volta che un operatore prelevi un
documento o un libro dallo scaffale riscontrando la presenza
di polvere, si intervenga tempestivamente con una spolveratura superficiale eseguita manualmente (7).
2.3.2. Le sostanze inquinanti aerodisperse
Gli ambienti destinati alla conservazione del materiale archivistico e librario, come si è precedentemente detto, devono essere tutelati e controllati anche per quanto riguarda
le sostanze inquinanti aerodisperse, tenendo presente, come
peculiarità sostanziale, che in questi ambienti si ha la presenza discontinua e talvolta massiccia di fruitori e visitatori
5 Il concetto di precarietà può essere meglio spiegato menzionando evenienze quali: carte feltrose o palesemente fragili; elementi della cucitura
(catenelle, nervi, capitelli, filze) spezzati o staccati dal corpo del documento o del libro che possono determinare la sfascicolazione e/o la perdita di materiale; carte e coperte che presentano accentuate lacerazioni e
fessurazioni; documenti con cuciture talmente serrate e rigide da rendere
difficoltosa la loro apertura e così via.
ai quali non è possibile imporre determinati comportamenti,
come può accadere in altri settori, come ad esempio quello
industriale. Devono inoltre essere garantite condizioni sufficientemente confortevoli dal punto di vista del ricambio
d’aria e di benessere per i materiali da conservare. Infatti numerosi inquinanti hanno la possibilità di interagire con essi
a concentrazioni inferiori e per tempi superiori a quelli che
in genere si considerano accettabili per la salute umana: ciò
richiederebbe standard di qualità dell’aria particolarmente
vincolanti.
Mentre è possibile in linea generale stimare le sostanze inquinanti qualitativamente, la loro concentrazione negli ambienti confinati può risultare estremamente variabile a seconda delle diverse zone e/o situazioni strutturali degli edifici.
In linea di massima si possono avere inquinanti aerodispersi,
come già accennato in precedenza, costituiti da (6-7):
• materiale particellare di varia origine e natura (PST);
• gas e vapori, organici e inorganici (SO2, NOx, CO, CO2,
O3, formaldeide, composti organici volatili);
fibre, pollini, batteri, spore fungine.
In un ambiente confinato, alle sostanze indesiderate provenienti dall’aria esterna si aggiungono quelle dovute alla
presenza dei visitatori: ad esempio il vapore d’acqua, dovuto
sia alla respirazione che alle funzioni fisiologiche di termoregolazione mediante traspirazione.
Esaminando le possibili veicolazioni di inquinanti all’interno dell’ambiente, si possono distinguere vari meccanismi.
L’accumulo di inquinanti sarà dovuto al bilancio di diversi
fattori:
• apporto dall’esterno, ovvero ricambio d’aria, infiltrazioni,
ingresso di visitatori;
• apporto dall’interno, ovvero cessione dai materiali, attività
di visitatori, attività interne;
• rimozione, ovvero ricambio d’aria, ex filtrazioni, deposizione, trasformazioni o reazioni di sostanze, azione dei
sistemi di pulizia e/o filtrazione.
Le soluzioni tecniche per il contenimento delle concentrazioni degli inquinanti aerodispersi dovranno tener conto
delle loro caratteristiche chimico-fisiche. Data la possibile
variabilità spaziale e temporale della presenza di inquinanti, può risultare necessario prevedere sistemi aventi tempi
di funzionamento e di potenzialità variabili al fine di ottimizzare le efficienze di abbattimento e contenere i consumi
energetici.
In linea di massima, privilegiando soluzioni semplici e
di facile applicabilità, si possono schematizzare le seguenti
possibilità:
• azioni di prevenzione, scelta dei materiali di rivestimento
degli ambienti, particolari modalità di accesso, ambienti
tecnologici attrezzati di entrata, minimizzazione di disomogeneità termiche e di correnti d’aria, ecc..;
• azioni di rimozione, captazione e abbattimento, mediante
sistemi di filtrazione ad alta efficienza, del PST; sistemi di
adsorbimento degli inquinanti gassosi; sistemi combinati.
67
CHIMICA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
Tab. 2. Condizioni climatiche per ambienti di conservazione di documenti grafici e caratteristiche degli alloggiamenti (UNI 10586)
Materiale
Documento grafico:
informazione
registrata su un
supporto costituito
essenzialmente da materiale
cartaceo e
membranaceo
Tipologia di locale
Valori termoigrometrici e massime escursioni
giornaliere
illuminazione
Locale di deposito
14-20 °C
75 lx di media e
minore di
150 lx durante
l’accesso
50-60 %
2°C
50-65 %
qualora la differenza
tra i valori presenti in
tali locali ed i locali di
deposito sia maggiore di
4 °C per la temperatura
e del 5 % per l’umidità
relativa, i documenti
grafici devono essere
preventivamente
acclimatati con
gradualità
Minore di
150 lx per la lettura
e minore di 50 lx per
l’esposizione
(in ogni caso vanno
eliminate le radiazioni
UV e IR)
Locale di
consultazionelettura
ed esposizione
18-23 °C
Locale di
fotoriprodu-zione e
di restauro
Per i valori termoigrometrici e di illuminamento vale quanto indicato per i
locali di consultazione.
Sono ammesse deroghe solo per il tempo necessario alle operazioni
Locale di accesso e
di servizio
Le condizioni ambientali devono essere tali da non influenzare
negativamente quanto richiesto per le altre tipologie di locale, anche in
condizione di massimo afflusso di personale e visitatori
3. RIFERIMENTI NORMATIVI PER LA
CONSERVAZIONE DEI DOCUMENTI GRAFICI
3.1. Evoluzione nel tempo degli intervalli ottimali relativi ai
valori termoigrometrici per la conservazione dei documenti
grafici
Prima di trattare in maniera approfondita le indicazioni termoigrometriche presenti nella normativa vigente, si è
ritenuto opportuno presentare un breve percorso “storico”
riguardante le indicazioni relative agli intervalli ritenuti ottimali dei valori termoigrometrici per la conservazione dei
documenti grafici succedutesi nel tempo (8).
In una lettera ai Direttori delle Biblioteche Pubbliche Governative datata 30/12/1941 Gallo, Direttore del Regio Istituto di Patologia del Libro, consigliava come limiti minimi e
massimi per la corretta conservazione dei materiali all’interno delle biblioteche6 valori di “umidità relativa compresi fra
il 40 ed il 65% a condizione che la temperatura media non
superi i 18 o 20°”. Inoltre si consigliava di “Lasciare piuttosto bassa, durante l’inverno, la temperatura dei magazzini
librari e comunque di non superare col riscaldamento artificiale i 14° allo scopo di compensare le più alte temperature
delle altre stagioni entro i limiti prossimi ai 18-20°” .
L’indicazione riprendeva le conclusioni degli studi svoltisi
a Londra negli anni precedenti che consigliavano di mantenere l’umidità relativa sotto il 72% e riadattava, alle nostre
latitudini, i valori indicati nel 1936 dalla Guida di uno dei più
autorevoli corpi tecnici americani che si occupava di condizionamento atmosferico (The American Society of Heating
and Ventilatine Engineers) che consigliava valori di umidità
relativa compresi fra 40-70%.
Più recentemente, nell’Allegato E della Carta della Con-
6 Quanto fatto presente è applicabile anche agli archivi.
68
5%
Condizionamento e
ventilazione
Devono essere
assicurati da
5 a 7 ricircoli
d’aria ogni ora
Qualità dell’aria
La concentrazione
delle seguente
sostanze deve
essere mantenuta
entro i seguenti limiti:
SO2 < 10 μg · m-3;
NOX < 10 μg · m-3;
O3 < 2 μg · m-3;
Polvere < 50 μg · m-3
servazione e del restauro degli oggetti d’arte e di cultura7 del
1987 relativo a “La conservazione e il restauro del libro” (9),
vengono indicati i valori termoigrometrici ambientali e, in
particolare, i limiti considerati per la conservazione dei beni
librari quali oggetti composti da vari materiali (carta, pergamena, papiro, legno, metallo, cuoio, cartone, spago, pelle
allumata, tessuti, ecc…):
T = 16 - 20°C;
UR = 40 - 65%
Nel 1995, nell’ambito di una ricerca su alcune biblioteche statali romane (10), si è fatto presente l’opportunità di
indicare la media dei valori massimi e minimi, presenti in
un numero significativo di pubblicazioni scientifiche sullo
specifico argomento relativo alla conservazione dei manufatti cartacei.
Infine nel documento redatto dal Gruppo di studio, coordinato dall’estensore del presente documento, su “Prevenzione” nell’ambito della Commissione Ministeriale nominata
nel 1997 su “La conservazione del patrimonio librario nazionale”, vengono riportati – quali valori per la conservazione
del patrimonio librario – i seguenti valori ottenuti effettuando la media dei dati massimi e minimi riscontrati in pubblicazioni scientifiche a livello internazionale :
T = 16 - 21°C
UR = 44 - 54%.
3.2. La norma UNI 10586 “Condizioni climatiche
per ambienti di conservazione di documenti grafici e
caratteristiche degli alloggiamenti”
Per quanto riguarda i riferimenti normativi inerenti alla
7 Nella Carta della Conservazione e del restauro degli oggetti d’arte e di
cultura del 1987 è presente anche un Allegato F “La conservazione e il
restauro dei beni archivistici”, nel quale sono fornite indicazione riguardanti gli interventi di restauro dei documenti d’archivio (9).
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | CHIMICA
conservazione dei supporti scrittori, si prendono in considerazione le normative stabilite dall’Ente Italiano di Unificazione-UNI e, in particolare, la norma UNI 10586 “Condizioni climatiche per ambienti di conservazione di documenti
grafici e caratteristiche degli alloggiamenti” (1) del settembre 1997 (tab.2).
La UNI 10586, che è una norma specifica per gli ambienti
di conservazione dei documenti grafici e si riferisce ai materiali cartacei e membranacei conservati in archivi, biblioteche ed altri luoghi preposti alla conservazione, indica le condizioni ambientali di conservazione per i depositi (destinati
essenzialmente alla conservazione e alla custodia abituale
dei manufatti, non aperti al pubblico, ma solo a personale
addetto) e quelle per i locali di consultazione, di lettura e di
esposizione, in cui la presenza del manufatto si suppone occasionale e di breve durata. Tale norma, quindi, distingue le
condizioni di conservazione in base alla destinazione d’uso
dei locali8: deposito, consultazione ed esposizione, fotoriproduzione e restauro, accesso e servizio.
Indica, inoltre, che nei locali di deposito devono essere attuate tutte le misure di prevenzione e manutenzione adeguate ad evitare infezioni, infestazioni ed accumulo di polvere;
vieta che in tali locali siano presenti condutture idrauliche
esposte al fine di evitare condensazioni ed eventuali perdite.
Proibisce l’apertura di porte o finestre per effettuare il ricambio d’aria salvo condizioni di emergenza: cioè quando, per
avaria dell’impianto di ventilazione e condizionamento, la
temperatura del locale dovesse superare i 25 °C e la temperatura esterna fosse compresa tra 15-25 °C.
3.2.1. L’alloggiamento dei documenti
Per quanto riguarda l’alloggiamento dei documenti sono
fornite delle indicazioni generali che riguardano le scaffalature che devono avere i seguenti requisiti:
• resistenza meccanica adeguata al carico, in particolare il
carico deve essere maggiore del 75% del massimo carico
ammesso in condizioni di servizio continuo ed in generale
non eccedere 1 kN per singolo ripiano;
• mancanza di particolari costruttivi potenzialmente dannosi
per i documenti (spigoli taglienti, ostacoli);
• i documenti per i quali è prevista la collocazione eretta
devono essere mantenuti verticali mediante l’utilizzo di
fermalibri o sostegni, la pressione laterale sui singoli documenti non deve essere superiore ai 350 Pa9;
• consentire con facilità l’estrazione e il reinserimento dei
documenti grafici evitando sollecitazioni meccaniche agli
stessi;
• dimensioni tali da contenere interamente i documenti senza farli sporgere;
• realizzate con materiali che non rilascino, per evaporazione o contatto, sostanze che possano essere dannose per i
documenti conservati, in particolare sostanze acide e/o ossidanti;
• non ostacolare la ventilazioni, in particolare la distanza
minima delle scaffalature dalle murature deve essere di 25
cm;
• i documenti non provvisti di legature o la cui legatura richieda protezione a causa di particolare pregio e/o cattive condizioni di conservazione devono essere conservati
all’interno di contenitori di forma adeguata che permettano
l’inserimento e l’estrazione dei documenti senza produrre
apprezzabili sollecitazioni meccaniche. Le superfici destinate a venire a contatto con i documenti devono essere
costituite o rivestite di carta la cui composizione chimica
corrisponda a quella indicata dalla Normativa UNI 10333.
Per quanto riguarda l’illuminazione, la norma sottolinea
che il danno causato dalla luce è cumulativo e, quindi, devono essere considerati l’intensità, la durata e la distribuzione
spettrale delle fonti di illuminazione nei locali di deposito.
Deve essere esclusa l’illuminazione solare diretta. Gli impianti di illuminazione devono essere preferibilmente a fluorescenza, con filtri in grado di eliminare le radiazioni con
lunghezze d’onda minori di 400 nm e maggiori di 760 nm.
L’impianto di condizionamento e ventilazione nei locali
di deposito deve continuamente assicurare, come indicato in
tabella, da 5 a 7 ricircoli d’aria orari, in ogni punto dei locali
stessi. Il ricambio dell’aria deve essere compreso tra il 1020% della massa circolante. L’impianto deve essere munito
di indicatori ed attuatori che possano segnalare e correggere
eventuali scostamenti.
Per quanto attiene alla qualità dell’aria, la concentrazione delle sostanze ritenute dannose per i documenti presenti nell’aria deve essere mantenuta entro i limiti indicati in
tabella. L’impianto di condizionamento e ventilazione deve
essere in grado di mantenere continuamente tali livelli mediante dispositivi filtranti rispondenti alle norme UNI mantenuti efficienti (1).
8 La norma 10586 indica anche gli intervalli in cui devono essere registrati i valori termoigrometrici (<30 min) e fornisce in Appendice le modalità
da tener presente per misurazioni e registrazioni.
9 La pressione di 350 Pascal corrisponde orientativamente a quella che si
esercita su di un libro poggiato orizzontalmente, sovrapponendovi un libro
di identico formato dello spessore di 45 mm.
Si fa presente che, dal confronto dei valori relativi ai diversi ambienti di collocazione, si ricavano valori termoigrometrici comuni. È possibile, quindi, indicare per i documenti
grafici, prescindendo dalle destinazioni d’uso dei locali o
qualora tale distinzione non fosse attuabile, le seguenti condizioni ambientali di conservazione (8):
per tutte le tipologie di locali
→
T=18-20 °C, UR =50-60%, ΔT=2°C,
ΔUR=5%
(valori comuni UNI 10586 per locali di deposito, consultazione ed esposizione, fotoriproduzione e restauro, accesso
e servizio)
La norma inoltre stabilisce i valori relativi all’illuminazione, ai ricambi d’aria ed alle concentrazioni massime di sostanze ritenute dannose per la conservazione dei documenti
grafici.
69
CHIMICA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
4. RIFERIMENTI NORMATIVI PER LA
SICUREZZA IN ARCHIVI E BIBLIOTECHE
4.1. La sicurezza dei beni culturali
La necessità di offrire agli addetti ai lavori indicazioni e
suggerimenti per la più completa applicazione delle numerose e articolate norme in materia di sicurezza nei luoghi di
lavoro ed i “recepimenti” delle direttive europee nel settore
hanno prodotto numerose norme tecniche
L’applicazione, in particolare, delle norme sulla sicurezza dei lavoratori agli edifici che ospitano beni culturali quali
musei, gallerie, archivi ha comportato e comporta, come è facile immaginare, ulteriori difficoltà in relazione alla duplice
istanza che tali istituti devono soddisfare: la conservazione
del materiale collocato e la fruizione da parte del pubblico
e degli operatori. Tali difficoltà si accrescono quando, ed è
molto frequente nel caso di archivi e biblioteche, tali istituti
sono ospitati in edifici storico-artistici che, per struttura e per
vincoli storico-artistici, non possono essere oggetto di particolari e significativi interventi di ristrutturazione e rifunzionalizzazione (10).
In Italia le disposizioni relative alla salute e la sicurezza
sul lavoro sono regolamentate dal Decreto Legislativo n. 81
del 9 aprile 2008, noto come Testo unico in materia di salute
e sicurezza sul lavoro, entrato in vigore il 15 maggio 2008,
e dalle relative disposizioni correttive, ovvero dal Decreto
legislativo 3 agosto 2009 n. 106 e da successivi ulteriori decreti. In questo documento si presentano le norme che riguardano in maniera più diretta la sicurezza negli archivi,
riportando i vari titoli del Decreto Legislativo 19 settembre
1994, n. 626, Attuazione delle direttive 89/391/CEE, 89/654/
CEE, 89/655/CEE, 89/656/CEE, 90/269/CEE, 90/270/CEE,
90/394/CEE, 90/679/CEE riguardanti il miglioramento della sicurezza e della salute dei lavoratori sul luogo di lavoro
ed entrando nello specifico in alcune parti, ritenute più significative, del D.P.R. 30 giugno 1995, n. 418, Norme di sicurezza antincendio per i edifici di interesse storico-artistico
destinati a biblioteche ed archivi (11-12).
4.2. Il Decreto Legislativo 19 settembre 1994, n. 626
Al fine di fornire, in maniera non esauriente, una idea
sulle argomentazioni affrontate nel Decreto Legislativo 19
settembre 1994, n. 626, precedentemente nominato, le quali
rappresentano campi da tenere in considerazione quando si
affrontano tematiche inerenti alla sicurezza, di seguito sono
indicati i vari titoli in cui si suddivide tale Decreto (11):
• servizio di prevenzione e protezione;
• prevenzione incendi, evacuazione dei lavoratori, pronto
soccorso;
• sorveglianza sanitaria;
• consultazione e partecipazione dei lavoratori;
• informazione e formazione dei lavoratori;
• disposizioni concernenti la pubblica amministrazione;
• statistiche degli infortuni e delle malattie professionali;
70
•
•
•
•
•
•
•
•
•
•
•
•
luoghi di lavoro;
uso delle attrezzature di lavoro;
uso dei dispositivi dì protezione individuale;
movimentazione manuale dei carichi;
uso dì attrezzature munite di videoterminali;
protezione da agenti cancerogeni;
obblighi del datore di lavoro;
sorveglianza sanitaria;
protezione da agenti biologici;
obblighi del datore di lavoro;
sorveglianza sanitaria;
sanzioni.
Negli allegati al decreto vengono inoltre forniti elenchi,
specifiche e misure che regolano i vari aspetti delle attività
svolte negli istituiti soggetti al decreto10.
4.3. La sicurezza antincendio
Per quanto riguarda la sicurezza antincendio si prende in
considerazione il D.P.R. 30 giugno 1995, n. 418, Norme di
sicurezza antincendio per gli edifici di interesse storico-artistico destinati a biblioteche ed archivi (Gazzetta Ufficiale 7
ottobre 1995, n.235).
Il decreto individua cinque obiettivi prioritari (12):
1) l’incolumità dei visitatori;
2) la salvaguardia del materiale conservato;
3) l’integrità dell’immobile rispetto alle ipotesi di incendi
e l’impossibilità di decise trasformazioni dell’identità storico-artistica dell’immobile stesso;
4) l’identificazione dei responsabili per le attività e per la
sicurezza;
5) la formazione del personale addetto alla sicurezza.
I fondamentali obiettivi sopracitati si possono raggiungere
con interventi finalizzati a:
• non alterare l’identità storico-artistica dell’immobile con
la realizzazione di murature taglia fuoco, porte antincendio, scale di sicurezza interne ed esterne;
• salvaguardare l’immobile e tutelare il patrimonio conservato con l’eliminazione e/o la riduzione delle possibili cause di incendio attraverso la razionalizzazione e il
controllo periodico degli impianti elettrici, l’eliminazione
di centrali termiche interne, l’istallazione di impianti di
protezione dalle scariche atmosferiche, l’installazione di
sistemi di rilevazione dei fumi;
• garantire la sicurezza degli utenti attraverso la limitazione
10 Tali specifiche riguardano: casi in cui è consentito lo svolgimento diretto da parte del datore di lavoro dei compiti di prevenzione e protezione
dai rischi; prescrizioni di sicurezza e di salute per i luoghi di lavoro; schema indicativo per l’inventario dei rischi ai fini dell’impiego di attrezzature
di protezione individuale; elenco indicativo e non esauriente delle attrezzature di protezione individuale; elenco indicativo e non esauriente delle
attività e dei settori di attività per i quali può rendersi necessario mettere a
disposizione attrezzature di protezione individuale; elementi di riferimento; prescrizioni minime; elenco di sistemi, preparati e procedimenti; elenco
esemplificativo di attività lavorative che comportare la presenza di agenti
biologici; segnale di rischio biologico; elenco degli agenti biologici classificati; specifiche sulle misure di contenimento e contenimento; specifiche
per processi industriali
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | CHIMICA
della presenza nelle sale, facendo riferimento alla disponibilità delle vie di fuga, e attraverso l’ideazione e la realizzazione di piani di evacuazione.
Nel decreto sono state codificate le figure del responsabile
delle attività e del responsabile tecnico addetto alla sicurezza
(12).
In appendice sono riportate alcune parti ritenuti particolarmente importanti del decreto.
5. IL PERCORSO METODOLOGICO
SPERIMENTALE PER LO STUDIO
DELL’INFLUENZA DELLE VARIABILI
AMBIENTALI IN AMBIENTI CONFINATI
(BIBLIOTECHE, ARCHIVI)
5.1. Le direttive della ricerca
A conclusione di questa prima parte della presente monografia e in procinto di trattare nella seconda parte specifici
casi di studio, di seguito viene tracciato e descritto il percorso
metodologico sperimentale messo a punto nelle biblioteche
e negli archivi presi in esame. Si fa presente comunque che
tale metodologia può ritenersi applicabile al controllo delle
variabili ambientali in qualsiasi ambiente confinato (13-14).
Le direttive tracciate e seguite nel corso della ricerca sono:
A. la valutazione storico-strutturale dell’edificio, contenitore
di manufatti;
B. la conoscenza dei manufatti;
C. il controllo dell’ambiente;
D. l’analisi del benessere del sistema “manufatto-contenitore-fruitore”.
Ci si prefigge così di fornire, quale obiettivo della ricerca,
per ciascuna tipologia di edificio/contenitore di documenti
grafici, indici di attenzione e di rischio in base ai quali tracciare la sequenza degli interventi da effettuare in base alla
gravità delle situazioni riscontrate nonché opportune raccomandazioni intese al raggiungimento e al mantenimento di
un alto livello di qualità di vita e di lavoro nelle Unità Culturali oggetto di indagine.
5.2. Gli stadi metodologici
A. La valutazione storico-strutturale dell’edificio
Per quanto riguarda il controllo della stabilità strutturale
dell’edificio sono stati presi i seguenti aspetti analitico-conoscitivi:
• Individuazione
La fase preliminare riguarda l’individuazione delle Unità Culturali (biblioteca, archivio) e i corrispondenti dati dal
punto di vista logistico, tipologico e dell’afferenza.
• Analisi storico-strutturale
L’analisi storico-strutturale, a sua volta, è correlata a diversi tipi di indagine che prendono in considerazione il manufatto dal punto di vista sia storico che strutturale.
Riferimenti storici e contestualizzazione urbana
L’analisi storico-urbanistica ha come obiettivo la contestualizzazione del monumento (biblioteca, archivio) nel tempo e nello spazio, fornendo una immagine d’insieme della
sua evoluzione storica e delle sue principali trasformazioni
in relazione al contesto urbano.
In questo senso si è proceduto allo studio della collocazione del monumento nella gerarchia urbana (anche in prospettiva diacronica), alla valutazione del suo rapporto con il
potere cittadino e/o ecclesiastico e, infine, all’analisi dello
sviluppo dell’abitato in relazione alle trasformazioni del monumento (e viceversa), dal punto di vista strutturale, architettonico e funzionale.
Cronologia delle variazioni/modifiche nel corso del tempo
Al fine di fornire un quadro il più possibile completo degli interventi architettonici subiti dall’edificio nel tempo e di
caratterizzare i materiali e le tecniche costruttive utilizzate
nei vari periodi storici, viene condotto uno studio storicoarchivistico.
Documentazione grafica
La documentazione grafica risulta essere un semplice supporto, puramente indicativo dello sviluppo planimetrico di
ogni biblioteca e/o archivio.
B. La conoscenza del manufatto
• Individuazione del patrimonio documentale
In questa fase della ricerca si individua il patrimonio documentale di contenuto nell’unità culturale; si elencano i fondi
e le acquisizioni che costituiscono tale patrimonio.
• Caratterizzazione del materiale documentale
«Il bene culturale, oltre il suo valore artistico e il suo contenuto culturale, si qualifica con il materiale di cui è costituito» (3).
Per questo motivo i materiali che costituiscono i beni culturali in generale e, nella fattispecie, i beni archivistico-librari, possono essere raggruppati per settori merceologici, in
funzione della tipologia materica che li compone. La caratterizzazione del materiale, della sua origine e delle sue caratteristiche intrinseche diventano essenziali per il successivo
studio volto alla conservazione del bene.
• Valutazione dello stato di conservazione
Più in particolare, per quanto concerne la conoscenza dei
documenti grafici conservati, vengono svolte su documenti
opportunamente scelti, con l’impiego di tecniche non distruttive, non invasive e non manipolative11, alcune indagini diagnostiche al fine di valutare le eventuali alterazioni-degradazioni dei manufatti e la loro leggibilità corrispondentemente
alle condizioni dell’ambiente di conservazione (13-14).
C. Il controllo dell’ambiente
• Monitoraggio microclimatico
Il monitoraggio microclimatico serve a valutare le condizioni di conservazione dei materiali costituenti i manufatti
che sono oggetto di fruizione da parte del pubblico e di lavo11 Corrispondentemente alle varie problematiche che si presenteranno,
di seguito si fa cenno ad alcune di esse: fotografia analogica e digitale,
riflettografia, colorimetria, analisi d’immagine.
71
CHIMICA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
ro per i dipendenti. Esso si compone di diversi tipi di indagini
volte a verificare il rispetto dei valori registrati in riferimento
alle normative che riguardano la conservazione dei suddetti
materiali e la salute dei frequentatori della biblioteca.
Il monitoraggio delle condizioni ambientali viene effettuato sia nei locali destinati alla lettura e alla consultazione sia
in quelli destinati alla conservazione dei manufatti.
E’ fondamentale, infatti, in generale per la corretta conservazione di beni di interesse storico-artistico ed in particolare
per i materiali delle raccolte e delle collezioni, per lo più costituiti da sostanze organiche e perciò intrinsecamente deperibili, l’osservanza di condizioni ambientali tali da limitare i
processi di degrado.
La regolazione e il controllo della temperatura e dell’umidità dell’ambiente svolgono un ruolo determinante al fine
della corretta conservazione del patrimonio documentale e
librario.
Vengono svolte, quindi, campagne di misurazione di temperatura e umidità relativa, effettuando rilevamenti ogni
trenta minuti. Gli andamenti nel tempo sono rappresentati
in grafici e i valori ottenuti vengono confrontati con quelli
riportati dalla normativa UNI 10586 del 1997 “Condizioni
climatiche per ambienti di conservazione di documenti grafici e caratteristiche degli alloggiamenti”.
Nel caso di ambienti di grandi dimensioni si effettua una
verifica preliminare dell’uniformità dei parametri oggetto di
indagine mediante misure istantanee e, successivamente, si
individuano i punti in cui effettuare le misure in continuo.
• La qualità dell’aria
Il particellato sospeso totale (PST)
Fra i vari agenti relativi alla qualità dell’aria, risulta particolarmente importante il particellato (16-17): al riguardo,
viene effettuato il prelievo e la quantificazione del Particellato Sospeso Totale (PST) e della frazione PM10 mediante due
prelevatori di polveri:
il primo, fisso, per valutare la quantità di PST in locali opportunamente scelti;
il secondo, portatile, è collegato ad un operatore e permette
di valutare la quantità di polveri inalata.
Analizzando le polveri presenti nei filtri è anche possibile
fornire una valutazione qualitativa delle stesse.
Gli aspetti biologici
La valutazione delle concentrazioni dei singoli contaminanti biologici (virus, batteri, funghi e attinomiceti in forma
vegetativa e sporale, cellule algali, polline, insetti, acari con i
loro frammenti ed escrementi) avviene attraverso la messa a
punto di sistemi di monitoraggio ambientale che consistono
nella raccolta sistematica di campioni ambientali a cui seguono analisi colturali quantitative e qualitative per l’identificazione delle specie biologiche presenti. In generale, il
prelievo di queste particelle biologiche è basato sugli stessi
principi che regolano il campionamento del particellato chimico-fisico.
72
D. L’analisi del benessere del sistema “manufatto-contenitore-fruitore”
• La valutazione dei consumi energetici
La valutazione dell’efficienza degli impianti tecnici all’interno delle biblioteche e degli archivi è effettuata sulla base
di sopralluoghi nei locali aperti al pubblico e nei locali tecnici, finalizzati sia a valutare visivamente lo stato degli impianti stessi che a raccogliere informazioni riguardanti la loro gestione e il loro utilizzo da parte degli operatori degli archivi
e del personale incaricato della manutenzione.
Sulla base degli elementi raccolti, utilizzando anche dati
medi provenienti dalla letteratura tecnica specializzata, vengono valutati i consumi medi degli edifici ed analizzata, con
l’ausilio delle campagne di misure termoigrometriche e di
qualità dell’aria interna, l’adeguatezza degli impianti esistenti (a livello di potenzialità, regolazione, manutenzione)
alle esigenze del pubblico, del personale e dei manufatti contenuti.
• Il controllo delle condizioni di sicurezza degli ambienti
L’analisi valuterà la rispondenza dei vari sistemi alle normative vigenti. In particolare la valutazione è indirizzata al
rispetto delle norme inerenti la sicurezza antincendio per gli
edifici di interesse storico-artistico destinati a biblioteche ed
archivi (D.P.R. 30 giugno 1995, n. 418) e la sicurezza e la
salute dei lavoratori sul luogo di lavoro (Decreto Legislativo
19 settembre 1994, n. 626).
5.3. Analisi dei risultati
• Valutazione complessiva di carattere qualitativo e semiquantitativo
Dalle analisi e dai controlli effettuati è possibile pervenire alla valutazione complessiva dello stato di conservazione
della biblioteca e/o archivio, facendo riferimento sia al contenitore (edificio) e contenuto (manufatto conservato) sia alle
condizioni ambientali.
• Indici di attenzione e indici di rischio
Al fine di poter fornire una immediata valutazione dei vari
aspetti riconducibili ai diversi campi di indagine, si è ritenuto
opportuno stabilire una sequenza di valori di gravità (da 0 a
3) evidenziati mediante un indice di attenzione (IA):
• valore 0 = valore di attenzione nullo: la situazione al momento non richiede controlli né approfondimenti strumentali;
• valore 1 = valore di attenzione medio: la situazione richiede controlli periodici, anche se al momento non vi
sono segnali di pericolosità;
• valore 2 = valore di attenzione elevato: si richiedono
analisi ulteriori;
• valore 3 = valore di attenzione elevatissimo: si richiedono interventi immediati, data la criticità della situazione
rilevata.
La suddetta indicazione (IA) conduce, quando le indagini
analitiche risultano significative, alla formulazione di un indice di rischio (IR) secondo tale sequenza crescente:
• valore 0 = condizioni di rischio nullo
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | CHIMICA
• valore 1 = condizioni di rischio possibile: interventi di
mitigazione/attenuazione
• valore 2 = condizioni di rischio grave: interventi urgenti
di attenuazione
• valore 3 = condizioni di rischio gravissimo: pronto intervento.
Il quadro totale di tali indici permetterà, inoltre, di indirizzare eventuali interventi rivolti alla prevenzione ed alla
tutela del sistema manufatto/contenitore/fruitore verso le situazioni più gravi (13).
• Correzioni e raccomandazioni
Sulla base della valutazione complessiva dello stato di
conservazione della biblioteca e/o archivio e della formulazione dei relativi indici di attenzione e di rischio, vengono indicate le opportune correzioni e raccomandazioni rivolte alla
tutela dei manufatti e alla salvaguardia del biota nell’ambito
dell’intero sistema oggetto di studio.
6. LA PREVENZIONE DEL RISCHIO
Fra i compiti essenziali dello Stato, come stabilisce l’Art.
9 della Costituzione: “La Repubblica promuove lo sviluppo
della cultura e la ricerca scientifica e tecnica. Tutela il paesaggio e il patrimonio storico e artistico della Nazione”, vi è
la conservazione dei beni culturali. “I beni culturali – come
fatto presente, nel 1967, dalla “Commissione di indagine
parlamentare per la tutela e la valorizzazione delle cose di
interesse storico, artistico e del paesaggio” (Commissione
Franceschini) – sono testimonianza materiale avente valore
di civiltà e strumento di umana elevazione”. Una parte cospicua di tali beni, collocato in Archivi e biblioteche, pubblici e
privati, è costituito da documenti grafici che, quindi, devono
essere idoneamente conservati. La conservazione dei beni
culturali e, in questo caso, delle informazioni registrate su
un supporto costituito essenzialmente da materiale cartaceo e
membranaceo (come stabilisce la Norma UNI 10586), comporta il mettere in pratica le attività “necessarie per assicurare
la conservazione ed impedire il deterioramento” come riporta il “Codice dei Beni Culturali e del Paesaggio” (D.Lgs. n.
42/2004) e quindi: “una coerente, coordinata e programmata attività di studio, prevenzione, manutenzione e restauro”.
In particolare la coerente, coordinata e programmata attività
di studio, presente nella definizione di conservazione, è collegata alle attività di conoscenza storico-materica del bene e,
quindi, riguarda sia la formazione che la ricerca1.
Ne deriva l’importanza del corretto intervento conservativo che prevede: la classificazione e la catalogazione, l’anamnesi storica, le indagini diagnostico-analitiche, il monitoraggio ambientale e, nel caso, gli interventi di prevenzione,
manutenzione, restauro.
In particolare si ritiene fondamentale far presente che la
prevenzione diventa, quindi, basilare nella programmazione
di tutte le operazioni finalizzate alla conservazione del bene
stesso mediante opportuni trattamenti, progetti o piani di intervento.
Un approccio recente per la risoluzione di tali problema-
tiche si basa sull’utilizzo della prevenzione dei rischi (risk
management) cui i beni culturali sono sottoposti. Si riducono
così i conseguenti rischi, agendo prima che un evento traumatico per i beni culturali possa verificarsi e assicurando al
bene culturale un ambiente di conservazione idoneo e condizioni adeguate alla sua fruizione (15-26).
Un aspetto che risalta particolarmente è che la prevenzione
e, quindi, la sicurezza ha sempre fatto fatica a concretizzarsi
nel tessuto italiano, dando maggiore spazio e visibilità all’intervento sul singolo oggetto.
Nel 2001 l’ “Atto di indirizzo, sui criteri tecnico-scientifici
e sugli standard di funzionamento e sviluppo dei musei” (D.
Lgs. n.112/98 art. 150 comma 6), ha definito la sicurezza
come:
“Un approccio pragmatico integrato che, [...], si basa su
una analisi del rischio mirata ed una conseguente strategia
di sicurezza che comprende misure preventive, protettive ed
organizzative capaci di perseguire quegli obiettivi, anche
in occasione delle emergenze correlate alle situazioni di rischio considerate.”
Tale approccio è alla base delle ricerche riconducibili allo
studio del “sistema: manufatto-ambiente-biota” che, da anni,
vengono svolte nel Laboratorio Diagnostico per i Beni Culturali del Dipartimento di Beni Culturali dell’Università di
Bologna (16-26).
I suddetti studi, in particolare quelli relativi ai documenti
grafici collocati in Archivi (Archivio di Stato di Roma, Firenze e Rimini, Archivio della Camera di Commercio di Ravenna) e Biblioteche (8 Biblioteche Statali di Roma, Biblioteca
Classense di Ravenna) hanno contribuito a fornire una definizione più chiara ed affidabile sulla valutazione ambientale
in tali Unità culturali ma, più in generale, in tutti gli ambienti
“indoor” dove è fondamentale affrontare le problematiche
relative al benessere del sistema: manufatto-ambiente-biota.
In definitiva, nei tre casi di studio si è dimostrato che una attività di controllo, prevenzione e manutenzione assicura una
gestione efficace degli impianti energetici, limita gli sprechi
ed evita situazioni di rischio per i beni esposti senza influire
sul benessere dei visitatori.
Si fa presente, in conclusione, che il rispetto dei valori
stabiliti dalla Normativa e, quindi, l’osservanza di idonee
politiche di conservazione possono comportare anche un risparmio energetico per l’Unità Culturale nella quale il bene
culturale è collocato e, quindi, ricadute economiche positive.
BIBLIOGRAFIA
UNI 10586, 1997, Condizioni climatiche per ambienti di
conservazione di documenti grafici e caratteristiche degli
alloggiamenti
Bernardi A.,2004, Conservare opere d’arte. Il microclima
negli ambienti museali, Il Prato
LORUSSO S. 2000, Conservazione e trattamento dei materiali costituenti i Beni Culturali, Bologna, Pitagora Editrice
LORUSSO S. 2006, Caratterizzazione, tecnologia e conservazione dei manufatti cartacei, Bologna, Pitagora Editrice
73
CHIMICA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
MINISTERO PER I BENI E LE ATTIVITÀ CULTURALI, Ufficio Centrale per i Beni Librari, Istituti Culturali e Editoria, 1997, Gruppo di Studio su «La prevenzione»
nell’ambito della commissione per la Conservazione del Patrimonio Librario Nazionale
CAMUFFO D., FASSINA V., HAVERMANS J., 2010,
Basic environmental mechanism. Affecting cultural heritage,
Nardini
LORUSSO S. 2000, L’ambiente di conservazione dei beni
culturali, Bologna, Pitagora Editrice
LORUSSO S., NATALI A. 2002, La conservazione dei
documenti grafici: alcune considerazioni sui parametri climatici secondo la normativa vigente, Scienza e Tecnica,
383-384, 2-7
MINISTERO PER I BENI CULTURALI E AMBIENTALI, 1987, Carta della conservazione e del restauro degli oggetti d’arte e di cultura.
GENOVA M., LORUSSO S. 1994, Biblioteca Nazionale
Centrale e Biblioteca Casanatense a Roma: valutazioni ambientali ed energetiche, Rapporto finale CISE- DSM-95-78.
CENTRO REGIONALE PER LA PROGETTAZIONE
ED IL RESTAURO E PER LE SCIENZE NATURALI ED
APPLICATE AI BENI CULTURALI, 2002, La sicurezza
dei beni culturali nel Decreto Legislativo 19 settembre 1994,
n. 626, Palermo, Edizioni Guida
CENTRO REGIONALE PER LA PROGETTAZIONE
ED IL RESTAURO E PER LE SCIENZE NATURALI ED
APPLICATE AI BENI CULTURALI, 2002, Norme di sicurezza antincendio per gli edifici di interesse storico-artistico
destinati a biblioteche ed archivi D.P.R. 30 giugno 1995, n.
418, Palermo, Edizioni Guida
LORUSSO S., et al. 2002, Indagine sulle biblioteche pubbliche statali in Roma, Accademie e Biblioteche d’Italia,
1-2, 127-145
LORUSSO S. 2002, La diagnostica per il controllo del sistema: manufatto-ambiente. Alcune applicazioni nel settore
dei beni culturali, Bologna, Pitagora Editrice
LORUSSO S.; NATALI A.; MATTEUCCI C.; PALLA
F., 2014, La gestione del rischio nel settore dei beni culturali: musei, biblioteche, archivi. Milano Mimesis Editore.
NATALI A., LORUSSO S., Le polveri presenti in ambienti confinati: gli archivi, Atti Convegno Nazionale AIAr, Innovazioni tecnologiche per i beni culturali in Italia, Caserta,
16-17-18 Febbraio 2005
GIGLIONI C., NATALI A., 2009, Laser scattering methodology for measuring particulates in the air. CONSERVATION SCIENCE IN CULTURAL HERITAGE. vol. 9, pp.
157-169 ISSN: 1974-4951
LORUSSO S., NATALI A., MATTEUCCI C., L’ambiente di conservazione dei documenti grafici: il caso di studio
dei codici veneziani e ravennati inediti, Atti del 11° Congresso Nazionale sulle Prove non Distruttive Monitoraggio
Diagnostica, Milano 13-14-15 ottobre 2005
BRUCKLE I., 2001, The practice of looking in paper conservation, The Paper Conservator, 25
LORUSSO S., NATALI A., La qualità dell’aria in am74
bienti confinati, “Quaderni di Scienza della Conservazione”
n. 4, Pitagora Editrice, Bologna, 2004, 215-238
LORUSSO S., NATALI A., MATTEUCCI C., SAVIGNI R. 2008. Diagnosis and digitization of Dantesque Code
“Phillipps 9589”. CONSERVATION SCIENCE IN CULTURAL HERITAGE, vol. 8-08; p. 49 – 63
FABBRI B., 2012, “Science and Conservation for Museum Collections”, Nardini editore
LORUSSO S.; MATTEUCCI C.; NATALI A. 2007.
Anamnesi storica, indagini analitico-diagnostiche e monitoraggio ambientale: alcuni casi di studio nel settore dei
beni culturali. BOLOGNA: Pitagora Editrice. (vol., pp. 288)
PALLA F, 2013, Bioactive molecules: innovative contributions of biotechnology to the restoration of cultural heritage, CONSERVATION SCIENCE IN CULTURAL HERITAGE, n. 13. Mimesis editore Milano.
LORUSSO S., NATALI A.,. 2007. Lo studio e il controllo
del “sistema: ambiente/manufatto di interesse storico-documentale” Casi di studio. In: MARIAGRAZIA PLOSSI;
ANTONIO ZAPPALA’ A CURA DI. Libri e Documenti /
Le scienze per la conservazione e il restauro. MARIANO
DEL FRIULI: Edizioni della Laguna.
MITSUSHIMA KEIES K., 1978, The unique qualities of
paper as an artifact in conservation treatment, in The Paper
Conservator, 3
APPENDICE
In appendice si riportano alcuni articoli ritenuti significativi del D.P.R. 30 giugno 1995, n. 418, Norme di sicurezza
antincendio per gli edifici di interesse storico-artistico destinati a biblioteche ed archivi (Gazzetta Ufficiale 7 ottobre
1995, n.235).
PRESCRIZIONI TECNICHE
Art. 3
1. È vietato, nei locali di cui all’ art.l12, tenere ed usare
fiamme libere, fornelli o stufe a gas, stufe elettriche con resistenza in vista, stufe a kerosene, apparecchi a incandescenza
senza protezione, nonché depositare sostanze che possono,
per la loro vicinanza, reagire tra loro provocando incendi e/o
esplosioni
2. Il carico d’incendio delle attività di cui all’art. 1, certificato all’atto della richiesta del certificato di prevenzione
12 L’art. 1. fa riferimento ai beni immobili soggetti alla legge 1 giugno
1939, n. 1089 che nelle Disposizioni Generali all’art. 1 indica:
“Sono soggette alla presente legge le cose, immobili e mobili, che presentano interesse artistico, storico, archeologico o etnografico, compresi:
- le cose che interessano la paleontologia, la preistoria e le primitive civiltà;
- le cose di interesse numismatico;
- i manoscritti, gli autografi, i carteggi, i documenti notevoli, gli incunaboli, nonché i libri, le stampe e le incisioni aventi carattere di rarità e di
pregio.
Vi sono pure compresi le ville, i parchi e i giardini che abbiano interesse
artistico”.
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | CHIMICA
incendi, non può essere incrementato introducendo negli ambienti nuovi elementi di arredo combustibili con esclusione
del materiale librario e cartaceo la cui quantità massima dovrà essere in dimensionati, in ogni caso predeterminata.
3. Negli atri, nei corridoi di disimpegno, nelle scale e nelle
rampe il carico d’incendio esistente costituito dalle strutture,
certificato come sopra, non potrà essere modificato con l’apporto di ulteriori arredi e di materiali combustibili.
4. Per le attività di cui al comma l dell’art.l13 di nuova
istituzione o per gli ampliamenti da realizzare negli edifici
sottoposti nella loro globalità a tutela ai sensi della legge n.
1089/1939, il carico d’incendio relativo agli arredi e al materiale depositato, con esclusione delle strutture e degli infissi
combustibili, non dovrà superare i 50 kg/m2 in ogni singolo
ambiente.
5. Gli elementi di arredo combustibili introdotti negli ambienti successivamente alla data di entrata in vigore della
presente norma, con esclusione del materiale esposto, debbono risultare omologati nelle seguenti classi di reazione
al fuoco: i materiali di rivestimento dei pavimenti debbono
essere di classe non superiore a 2.IM14; gli altri materiali
di rivestimenti e i materiali suscettibili di prendere fuoco su
ambo le facce debbono essere di classe 1.IM; i mobili imbottiti debbono essere di classe 1 IM.
Art. 4. Sale di consultazione e lettura
1. Gli ambienti destinati a sala di consultazione e lettura
devono essere provvisti di un sistema organizzato di vie di
uscita per il deflusso rapido ed ordinato degli occupanti verso
spazi scoperti o luoghi sicuri in caso di incendio o di pericolo
di altra natura.
2. A tal fine deve essere realizzato il percorso più breve per
raggiungere le uscite: tale percorso deve avere in ogni punto
larghezza non inferiore a 0,90 m, essere privo di ostacoli, segnalato con cartelli conformi al decreto del Presidente della
Repubblica 524/1982 e provvisto, ad intervalli regolari, di
cartelli recanti le istruzioni sul comportamento che in caso di
incendio dovranno tenere gli occupanti, così come specificato al successivo art. 10.
3. I percorsi di esodo, di lunghezza non superiore a 30 m,
devono essere dimensionati, in funzione del massimo affollamento ipotizzabile, per una capacità di deflusso non superiore a sessanta persone.
13 Ci si riferisce alle attività svolte nei locali degli edifici adibiti ad archivi e biblioteca.
14 Il valore della classe è determinato tramite prove di resistenza a combustione del manufatto effettuate con tempi di contatto rispettivamente di
20 secondi, 80 secondi, 140 secondi. Al manufatto è attribuita la classe
3.IM se si ha esito positivo solo per la prima prova; la classe 2.IM se si ha
esito positivo per le prime due prove; la classe 1.IM se si ha esito positivo
a tutte e tre le prove.
Se una delle prove dà esito negativo, non si procede all’effettuazione della/e successiva/e. Se il manufatto non supera la prima prova (20 secondi.)
non va classificato. L’attribuzione della classe viene data sulla base dello
stesso risultato ottenuto su due serie di provette. Nel caso in cui si abbiano
risultati discordi viene effettuata una prova su una terza serie di provette.
L’attribuzione della classe viene data sulla base del peggior risultato ottenuto nelle tre serie.
4. Il conteggio delle uscite può essere effettuato sommando la larghezza di tutte le porte (di larghezza non inferiore
a 0,90 m) che immettono su spazio scoperto o luogo sicuro.
La misurazione della larghezza delle uscite va eseguita nel
punto più stretto dell’uscita.
5. Ove il sistema di vie d’uscita non risponda alle anzidette
caratteristiche dimensionali si deve procedere alla riduzione
dell’ affollamento eventualmente con l’ausilio di sistemi che
limitino il numero delle persone in ingresso.
Art. 5. Depositi
1. Nei depositi il materiale ivi conservato deve essere posizionato all’interno del locale in scaffali e/o contenitori metallici consentendo passaggi liberi non inferiori a 0,90 m tra i
materiali ivi depositati.
2. Le comunicazioni tra questi locali ed il resto dell’ edificio debbono avvenire tramite porte REI15 120 munite di
congegno di autochiusura.
3. Nei depositi il cui carico d’incendio è superiore a 50 Kg/
m2 debbono essere installati impianti di spegnimento automatico collegati ad impianti di allarme16.
4. Nei locali dovrà essere assicurata la ventilazione naturale pari a 1/30 della superficie in pianta o n. 2 ricambi ambiente/ora con mezzi meccanici.
Art. 6. Impianti elettrici
1. Gli impianti elettrici devono essere realizzati secondo
le prescrizioni della legge 1 marzo 1968, n. 186 (pubblicata
nella G.U.R.I. del 23 marzo 1968, n. 77) e della legge 5 marzo 1990, n. 46 (pubblicata nella G.U.R.I. del 12 marzo 1990,
n. 59) e rispettive integrazioni e modificazioni.
2. Nelle sale di lettura e negli ambienti, nei quali è prevista
la presenza del pubblico, deve essere installato un sistema di
illuminazione di sicurezza per garantire l’illuminazione delle
vie di esodo e la segnalazione delle uscite di sicurezza per il
tempo necessario a consentire l’evacuazione di tutte le persone che si trovano nel complesso.
3. L’edificio deve essere protetto contro le scariche atmosferiche17.
Art. 7. Ascensori e montacarichi
1. Gli ascensori e montacarichi di nuova installazione
debbono rispettare le norme antincendio previste nei decreti
del Ministro per il coordinamento delle politiche comunitarie del 28 novembre 1987, n. 586 e del 9 dicembre 1987, l.
587 (pubblicato nella Gazzetta Ufficiale del 25 marzo 1988,
n. 71) e, per quanto compatibile, nel decreto del Ministro
dell’interno del 16 maggio 1987, I. 246 (pubblicato nella
15 La dizione “REI” identifica l’attitudine di un elemento da costruzione
a conservare, sotto l’azione del fuoco per un tempo determinato, la stabilità
(R), la tenuta (E) e l’isolamento termico (I).
16 Nel decreto è riportato il simbolo mq per metro quadrato e non m2
come la simbologia riconosciuta prevede
17 Le installazioni ed i dispositivi di protezione contro le scariche atmosferiche devono essere periodicamente controllati e comunque almeno una
volta ogni due anni, per accertarne lo stato di efficienza.
75
CHIMICA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
Gazzetta Ufficiale del 27 giugno 1987, n. 148) e successive
integrazioni e modificazioni.
Art. 8. Mezzi antincendio
1. Deve essere prevista l’installazione di un estintore portatile con capacità estinguenti non inferiore a 13 A ogni 150
m2 di superficie di pavimento; gli estintori debbono essere disposti in posizione ben visibile, segnalata e di facile accesso.
2. L’impianto idrico antincendio deve essere realizzato da
una rete, possibilmente chiusa ad anello, dotata di attacchi
UNI 45 utilizzabili per il collegamento di manichette flessibili o da naspi18. La rete idrica deve essere dimensionata per
garantire una portata minima di 240 l/min per ogni colonna
montante con più di due idranti e, nel caso di più colonne, per
il funzionamento contemporaneo di 2 colonne. L’alimentazione idrica deve essere in grado di assicurare l’erogazione
ai due idranti idraulicamente più sfavoriti di 120 l/min. cadauno, con una pressione residua al bocchello di 2 bar per un
tempo di almeno 60 minuti.
Gli idranti di regola devono essere collocati ad ogni piano
in prossimità degli accessi, delle scale, delle uscite, dei locali
a rischio e dei depositi; la loro ubicazione deve comunque
consentire di poter intervenire in ogni ambiente dell’attività.
Nel caso di installazione di naspi, ogni naspo deve essere
in grado di assicurare l’erogazione di 35 l/min. alla pressione di 1,5 bar al bocchello; la rete che alimenta i naspi deve
garantire le predette caratteristiche idrauliche per ciascuno
dei due naspi in posizione idraulicamente più sfavorevole
contemporaneamente in funzione, con una autonomia di 60
min. Deve essere inoltre prevista una rete di idranti UNI 70
esterna al fabbricato. In prossimità dell’ingresso principale,
in posizione segnalata e facilmente accessibile dai mezzi di
soccorso dei Vigili del Fuoco, deve essere installato un attacco di mandata per autopompe.
3. Devono essere installati impianti fissi di rivelazione automatica di incendio. Questi debbono essere collegati mediante apposita centrale a dispositivi di allarme ottici e/o
acustici percepibili in locali presidiati.
4. Nei locali deve essere installato almeno un sistema di
allarme acustico in grado di avvertire i presenti delle condizioni di pericolo in caso di incendio. Tale sistema deve
essere attivato a giudizio del responsabile dell’ attività o di
un suo delegato. I dispositivi sonori devono avere caratteristiche e sistemazioni tali da poter segnalare il pericolo a
tutti gli occupanti. Il comando del funzionamento dei dispositivi sonori deve essere sistemato in uno o più luoghi posti
sotto il controllo del personale. Nei locali aperti al pubblico
deve essere previsto un impianto di altoparlanti da utilizzare
in condizioni di emergenza per dare le necessarie istruzioni
ai presenti. È ammessa l’assenza di detto impianto in attività che occupano un unico piano, in cui l’affollamento, il
numero dei locali e le loro caratteristiche siano tali da permettere altre soluzioni egualmente affidabili. Gli impianti
devono disporre di almeno due alimentazioni elettriche, una
di riserva all’altra. Un’alimentazione almeno deve essere in
18 Macchine che servono ad avvolgere le tubature degli idranti
76
grado di assicurare la trasmissione da tutti gli altoparlanti
per 30 minuti consecutivi come minimo. Le apparecchiature
di trasmissione devono essere poste “in luogo sicuro” noto
al personale e facilmente raggiungibile dal personale stesso.
PRESCRIZIONI PER LA GESTIONE
Art. 9. Gestione della sicurezza
1. Il soggetto che, a qualsiasi titolo, ha la disponibilità
di un edificio disciplinato dal presente regolamento, deve
nominare il responsabile delle attività svolte al suo interno
(direttore della biblioteca, dell’archivio o dell’istituto) e il
responsabile tecnico addetto alla sicurezza.
2. Il responsabile dell’attività deve provvedere affinché nel
corso della gestione non vengano alterate le condizioni di
sicurezza e in particolare:
- non siano superati gli affollamenti massimi previsti per gli
ambienti destinati a sale di consultazione e lettura;
- siano mantenute sgombre da ogni ostacolo ed agibili le vie
di esodo;
- siano rispettate le disposizioni di esercizio in occasione di
manutenzioni e sistemazioni.
3. Il responsabile tecnico addetto alla sicurezza deve intervenire affinché:
a) siano mantenuti efficienti i mezzi antincendio e siano eseguite con tempestività le manutenzioni o sostituzioni necessarie. Siano altresì condotte periodicamente verifiche
degli stessi mezzi con cadenza non superiore a sei mesi ed
annotate nel registro dei controlli di cui al punto 4.;
b) siano mantenuti costantemente in buono stato tutti gli impianti presenti nell’edificio. Gli schemi aggiornati di detti
impianti nonché di tutte le condotte, fogne e opere idrauliche, strettamente connesse al funzionamento dell’ edificio,
ove in dotazione all’Istituto, devono essere conservati in
apposito fascicolo. In particolare per gli impianti elettrici
deve essere previsto che un addetto qualificato provveda,
con la periodicità stabilita dalle specifiche normative CEI,
al loro controllo e manutenzione ed a segnalare al responsabile dell’ attività eventuali carenze e/o malfunzionamento, per gli opportuni provvedimenti. Ogni loro modifica
o integrazione dovrà essere annotata nel registro dei controlli e inserita nei relativi schemi. In ogni caso tutti gli
impianti devono essere sottoposti a verifiche periodiche
con cadenza non superiore a tre anni;
c) siano tenuti in buono stato gli impianti di ventilazione,
di condizionamento e riscaldamento ove esistenti, prevedendo in particolare una verifica periodica degli stessi con
cadenza non superiore ad un anno. Le centrali termiche e
frigorifere devono essere condotte da personale qualificato
in conformità con quanto previsto dalle vigenti normative;
d) sia previsto un servizio organizzato composto da un numero proporzionato di addetti qualificati, in base alle dimensioni e alle caratteristiche dell’attività, esperti nell’uso
dei mezzi antincendio installati;
e) siano eseguite per il personale addetto all’attività periodiche riunioni di addestramento e di istruzioni sull’uso
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | CHIMICA
dei mezzi di soccorso e di allarme, nonché esercitazioni di
sfollamento dell’attività.
4. Il responsabile tecnico addetto alla sicurezza di cui al
comma 1 deve altresì curare la tenuta di un registro ove sono
annotati tutti gli interventi ed i controlli relativi all’efficienza
degli impianti elettrici dell’illuminazione di sicurezza e dei
presidi antincendio, nonché all’osservanza della normativa
relativa ai carichi d’incendio nei vari ambienti dell’edificio e
nelle aree a rischio specifico.
Art. 10. Piani di intervento e istruzioni di sicurezza
1. Nelle attività di cui al comma 1 dell’art.l devono essere
predisposti adeguati piani di intervento da porre in atto in occasione delle situazioni di emergenza ragionevolmente prevedibili. Il personale addetto deve essere edotto sull’intero
piano e, in particolare, sui compiti affidati ai singoli.
2. Detti piani, definiti caso per caso in relazione alle caratteristiche dell’ attività, devono essere concepiti in modo che
in tali situazioni:
- siano avvisati immediatamente i presenti in pericolo evitando, per quanto possibile, situazioni di panico;
- con l’ausilio del personale addetto, sia eseguito tempestivamente lo sfollamento dei locali secondo un piano prestabilito nonché la protezione del materiale bibliografico;
- sia richiesto l’intervento dei soccorsi (Vigili del Fuoco,
Forze dell’ ordine, ecc.);
- sia previsto un incaricato che sia pronto ad accogliere i soccorritori con le informazioni del caso, riguardanti le caratteristiche dell’ edificio;
- sia attivato il personale addetto, secondo predeterminate sequenze, ai provvedimenti del caso, quali interruzione dell’
energia elettrica e verifica dell’intervento degli impianti
di emergenza, arresto delle installazioni di ventilazione e
condizionamento, azionamento dei sistemi di evacuazione
dei fumi e dei mezzi di spegnimento e quanto altro previsto nel piano di intervento.
3. Le istruzioni relative al comportamento del pubblico e
del personale in caso di emergenza vanno esposte ben in vista in appositi cartelli, anche in conformità a quanto disposto
dal decreto del Presidente della Repubblica 8 giugno 1982, n.
524 e successive modifiche e integrazioni.
4. All’ingresso di ciascun piano deve essere collocata una
pianta d’orientamento semplificata che indichi tutte le possibili vie di esodo.
5. All’ingresso dell’attività va esposta una pianta dell’edificio corredata dalle seguenti indicazioni:
- scale e vie di esodo;
- mezzi di estinzione;
- dispositivi di arresto degli impianti di distribuzione del gas,
dell’energia elettrica e dell’eventuale impianto di ventilazione e di condizionamento;
- eventuale quadro generale del sistema di rivelazione e di
allarme;
- impianti e locali a rischio specifico.
6. A cura del responsabile dell’ attività dovrà essere predisposto un registro dei controlli periodici relativo all’efficien-
za degli impianti elettrici, dell’illuminazione di sicurezza,
dei presidi antincendio, dell’ osservanza della limitazione dei
carichi d’incendio nei vari ambienti della attività e delle aree
a rischio specifico. Tale registro deve essere mantenuto costantemente aggiornato e disponibile per i controlli da parte
dell’ autorità competente.
DISPOSIZIONI TRANSITORIE E FINALI
Art. 12. Norme transitorie
1. Gli edifici storici ed artistici di cui al precedente art. 1,
punto 1, sono tenuti ad adeguarsi alle presenti disposizioni
non oltre tre anni dalla pubblicazione del presente regolamento nella Gazzetta Ufficiale (12).
77
INGEGNERIA DELL’INFORMAZIONE | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
La tecnologia RFID a supporto
della sanità: un progetto per ottimizzare
l’anamnesi e la gestione del paziente
AGOSTINO GIORGIO
Dipartimento di Ingegneria Elettrica e dell’Informazione, Politecnico di Bari
L’
avvento dei sistemi informatici a
supporto delle procedure medicosanitarie, ha contribuito a migliorare significativamente la qualità
dei servizi limitando sprechi
e inefficienze, per aumentare la qualità di vita del paziente. Non sempre, però, questi benefici si riflettono
direttamente sulla salute di quest’ultimo. Ad esempio, nel caso di un soccorso d’urgenza ad un ferito o
ammalato in condizioni gravi e privo di coscienza, è
fondamentale accertarsi tempestivamente della storia
clinica pregressa del paziente, al fine di evitare ritardi
nella diagnosi o la erogazione di cure non idonee che
potrebbero aggravare ulteriormente il quadro clinico.
In questo contesto si colloca un progetto avviato
presso il Laboratorio di Elettronica dei Sistemi Digitali
del DEI presso il Politecnico di Bari, che si propone,
attraverso il supporto della tecnologia RFID, di snellire
drasticamente le procedure di acquisizione dei dati anamnestici, per fronteggiare con più efficacia anche le situazioni
più gravi; senza dimenticare, tra l’altro, aspetti importanti
come l’integrazione in un sistema informatico preesistente
ed il fattore economico. La prima fase del progetto, relativa
allo sviluppo del dimostratore ed alla sua validazione tecnica, si è conclusa con successo poiché l’idea progettuale si è
dimostrata fattibile, valida ed efficace per gli scopi prefissati.
Seguirà una fase di sperimentazione su larga scala, in fase di
pianificazione, all’esito della quale sarà possibile individuare ulteriori miglioramenti e perfezionamenti da apportare al
sistema.
1. INTRODUZIONE
L’effetto dell’informatica e dell’automazione sulle procedure medico-sanitarie si sta manifestando in maniera sempre
più ampia, portando notevoli vantaggi per la salute e il bene
di tutti i pazienti; si pensi alle applicazioni già oggi sotto gli
78
occhi di tutti: dalla possibilità di prenotare un esame via internet all’uso di tecniche diagnostiche sempre più sofisticate
(TAC, Risonanza Magnetica, PET,…), dalla telemedicina
alla possibilità di eseguire interventi minimamente invasivi
con tecniche endoscopiche.
Tra queste innovazioni, un aspetto fondamentale per la
cura del paziente è sicuramente il trattamento dei dati.
Infatti, la gestione e il controllo della salute sono basati
sull’uso, la trasmissione e il confronto di una grande quantità di dati, informazioni e conoscenze eterogenee. Tuttavia,
negli ultimi anni il bisogno di scambiare dati è aumentato
vertiginosamente, sia all’interno di una struttura sanitaria (tra
i diversi soggetti e tra unità operative specializzate), sia tra
strutture geograficamente distanti. Tra l’altro, con l’innalzamento dei costi e la complessità dell’organizzazione, ormai
è impensabile prescindere da un adeguato sistema informativo, costituito da software di gestione e basi di dati complesse, che garantisca il controllo e l’ottimizzazione dell’organizzazione [1].
Sebbene l’informatizzazione aumenti drasticamente l’efficienza e l’efficacia delle procedure di trattamento dei dati,
non ha uguale impatto in termini di miglioramento della qualità delle cure, ovvero della qualità della vita dei pazienti,
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | INGEGNERIA DELL’INFORMAZIONE
soprattutto anziani, ammalati cronici e pazienti soggetti ad
incidenti e bisognosi di soccorsi urgenti.
Allo scopo di far fronte a questa carenza, è stato avviato
presso il Politecnico di Bari il progetto di un sistema basato
su tecnologia RFID (Radio Frequency IDentification), costituito da una parte hardware ed una parte software in grado di
migliorare la qualità dell’assistenza sanitaria e perfettamente
integrabile in qualsiasi sistema informatizzato sanitario preesistente.
Infatti, utilizzando la tecnologia RFID per l’identificazione
del soggetto (paziente), è stato implementato, come primo
passo del progetto, l’accesso o (qualora non già esistente)
la creazione di un suo database, consentendo la reperibilità
quindi, di tutte le informazioni cliniche-anamnestiche pregresse del paziente, senza necessità di una descrizione da
parte del medesimo soggetto interessato.
L’importanza di poter disporre della storia anamnestica del
paziente è cruciale anche per accelerare i tempi di cura e talvolta per ridurne il rischio di vita.
Si pensi, per esempio, ad un paziente che deve essere operato d’urgenza e non sa o non può riferire tutte le informazioni anamnestiche che lo riguardano, che sono necessarie
prima dell’intervento; tale paziente dovrebbe essere prima
sottoposto ad una serie di accertamenti utili a delinearne il
quadro clinico (allergie, HIV, epatite, interventi subiti, diabete, cardiopatie, broncopatie, ecc.) e poi subire l’intervento,
oppure subire l’intervento senza raccogliere tutte le informazioni di cui sopra – se particolarmente urgente - ma con un
elevatissimo rischio anche di mortalità.
Le esigenze a cui si va incontro, e quindi i vantaggi offerti
dal sistema proposto, spaziano dal semplice snellimento delle procedure di acquisizione dei dati clinici dell’individuo,
al poter disporre di tutti i dati clinici/anamnestici relativi a
pazienti non in grado di esporli (perché soccorsi e privi di conoscenza oppure perché molto anziani e non ricordano, non
autosufficienti, ecc.), alla creazione automatica ed intelligente di un database, in adempimento alle più moderne esigenze
di informatizzazione del servizio sanitario.
Di seguito verranno descritte le tecnologie a supporto ed,
in particolare, le caratteristiche del progetto.
2. CENNI SULLA TECNOLOGIA RFI
L’acronimo RFID indica una tecnologia wireless che rappresenta una soluzione innovativa nel campo dell’automazione dei processi [2 – 4]. Sebbene la sua origine non sia
recente, è destinata a provocare nei prossimi anni una vera e
propria rivoluzione in ogni settore produttivo.
Il motivo per cui solamente negli ultimi anni l’RFID si è
diffusa è perché nel corso del tempo il suo utilizzo si è modificato e, se fino a poco tempo fa poteva essere considerata
una tecnologia ancora in piena evoluzione, attualmente può
essere considerata una tecnologia matura e dalle applicazioni
davvero numerose ed in molteplici ambiti [5, 7].
La definizione stessa dell’acronimo, “Radio Frequency
IDentification” (Identificazione a Radiofrequenza), è molto
chiara nel precisare e limitare la tecnologia in questione:
• E’ una tecnologia che permette l’identificazione (ossia il
riconoscimento univoco) di un oggetto o di un essere vivente.
• E’ una tecnologia che sfrutta la radiofrequenza.
Alla base del suo funzionamento vi è l’idea di poter identificare, attraverso delle etichette “intelligenti” (dette “tag”,
“transponder” o “data-carrier device”) e senza alcuna necessità di collegamento fisico, qualunque oggetto, sia esso un
prodotto, un animale o una persona. Tali transponders, a differenza dei predecessori codici a barre, hanno la capacità di
memorizzare su di un chip informazioni che possono essere
trasmesse, tramite onde radio, ad opportuni dispositivi di lettura (reader o interrogator). I dati vengono infine inviati ad
un computer centrale per essere interpretati ed elaborati [2].
Per comprendere la portata di questo meccanismo basti
pensare che su di un singolo chip è possibile inserire svariate
informazioni (dal codice identificativo seriale, al nome, al
cognome, ecc…) e che i reader, a seconda delle applicazioni,
sono in grado di captare tag a distanza variabile tra pochi
centimetri e qualche metro.
3. CARATTERISTICHE E FUNZIONALITÀ DEL
SISTEMA PROPOSTO
L’idea alla base del progetto prevede che ad ogni utente
(paziente potenziale o effettivo) sia consegnato un tag RFID
in formato tessera (come il trasponder in fig. 1), nel quale
sono memorizzati i suoi dati anagrafici e clinici [8].
Figura 1: Trasponder RFID in formato tessera utilizzato nel progetto.
Sullo sfondo l’antenna del reader in forma circolare.
Ipotizzando l’uso del sistema in una postazione di accettazione all’ingresso dell’infrastruttura sanitaria, qualora
l’utente sopraggiunga con il tag indosso entro la distanza di
rilevamento (meno di un metro nel nostro caso specifico), il
sistema avvia una serie di procedure automatiche rapidissime per il riconoscimento univoco dell’individuo e per la ricerca dei suoi dati all’interno del database centrale, dati che,
poi, sono visualizzati a video per la fruizione da parte degli
operatori sanitari.
Per assolvere questi compiti, il sistema è stato ideato secondo lo schema a blocchi in fig. 2.
79
INGEGNERIA DELL’INFORMAZIONE | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
Infatti, assumendo che tipicamente il personale sanitario
abbia
un livello medio di conoscenza degli strumenti inforINPUT/
OUTPUT
mativi, si rende necessaria un’impostazione razionale che
ANTEN
NA
CONTROLLO
privilegi gli automatismi piuttosto che il controllo totale delDATABASE
lo strumento senza, però, sacrificarne le funzionalità.
MODULO
RS232
READER RFID
INTERFACCIA
Nella finestra principale sono condensati tutti i controlli
PRINCIPALE
necessari alle funzionalità messe a disposizione dal software,
come la tabella per la visualizzazione dei dati, i pulsanti per
DETTAGLI
CARTELLA
la gestione dei record e delle informazioni a loro connesse.
ANAGRAFICI
CLINICA
Questi controlli riproducono le funzionalità tipiche di ricerca, eliminazione, modifica, creazione di nuovi record di un
Figura 2: schema a blocchi del sistema.
database, prescindendo dal particolare formato delle tabelle
(Access, SQLServer, MySQL) connesse al sistema. Infatti la
Come precedentemente accennato, il sistema è costituito progettazione della classe di controllo tramite i metodi ADO.
da una architettura mista hardware/software. La componente NET ed il linguaggio SQL, permette una certa indipendenza
hardware è rappresentata da un kit in tecnologia RFID com- dalla fonte dei dati, che in questo ambito si traduce in una
prensivo di etichette intelligenti (tags) e un ricevitore (rea- ottima facilità di integrazione con database preesistenti [9].
In aggiunta si contano i pulsanti di connessione e disconder), la cui interazione a distanza, a radiofrequenza, consente
il rilevamento (in questo caso il riconoscimenti di persone) nessione dal database e dal dispositivo RFID, come mostrato
in fig. 3 e 4.
in modo univoco.
I pulsanti di controllo del lettore RFID sono solamente
Il software, invece, nella sua versione di prova sviluppato in ambiente Visual Studio, si compone in primo luogo di due, e consentono la connessione e la disconnessione dal diun database relazionale che costituisce la banca dati di una spositivo. Le procedure di lettura dei tag, riconoscimento e
struttura sanitaria avente all’interno i dati anagrafici e clini- visualizzazione delle informazioni sullo schermo sono gestici dei pazienti, e in secondo luogo di un’interfaccia grafica te autonomamente dal software, il quale richiede al reader di
molto intuitiva, per la gestione sia del dispositivo RFID, sia effettuare ciclicamente letture ogni due secondi.
A queste interrogazioni il dispositivo risponde essenzialdel data base.
Lo schema in fig. 2 rende tecnicamente l’idea del progetto: mente in tre modi differenti:
1. tag non rilevato
partendo da sinistra della figura 2 abbiamo la presenza del
2. tag rilevato
tag RFID assegnato a ciascun paziente, che si interfaccia al
3. tag non valido o non riconosciuto
reader tramite l’apposita antenna; a sua volta il modulo reaUna risposta del tipo “tag non rilevato” si verifica in assender è collegato al PC ed il collegamento è controllato da una
za di un trasponder entro la distanza di rilevamento.
classe software dedicata.
Un messaggio del tipo “tag rilevato”, invece, avvia le proIl flusso di informazioni passa direttamente nel form principale, che provvede poi alla gestione e alla visualizzazione cedure per il riconoscimento e l’eventuale prelievo dei dati,
le quali impiegano circa un secondo di elaborazione. Il terzo
dei dati attraverso dei form dedicati.
Infine, lo stesso modulo principale provvede all’interfaccia messaggio (“tag non valido o non riconosciuto”) comporta la
visualizzazione di avvisi di allerta in circostanze di tag codigrafica per l’input/output con l’operatore sanitario.
Nonostante il software abbia allo stato attuale un’impo- ficati non correttamente o parzialmente danneggiati.
Anche nel caso in cui venga rilevato un tag valido a cui
stazione puramente dimostrativa, poiché non ancora sottoposto a sperimentazione su larga scala, l’interfaccia utente non corrisponde nessun riferimento nel database, ovvero nel
è stata ideata con l’intento di offrire la massima semplicità caso in cui il paziente venga inserito per la prima volta nella
base di dati, quest’ultimo viene aggiornato in modo del tutd’uso e la massima fruibilità delle informazioni.
to automatico dal sistema creando, senza
alcun intervento umano, un nuovo record
che contiene i dati prelevati direttamente
dal tag ed, eventualmente, visualizzando
le nuove informazioni acquisite.
Questa importante caratteristica permette di creare una base dati dinamica
che si aggiorna senza l’ausilio di alcun
operatore e che rende immediatamente
disponibili agli operatori sanitari (medici, paramedici, ecc.) tutte le informazioni aggiornate relative al paziente: dati
Figura 3: interfaccia principale dalla quale è possibile controllare tutto il sistema.
anagrafici, anamnesi, incluse terapie in
TAG RFID
80
DATABASE
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | INGEGNERIA DELL’INFORMAZIONE
Figura 4: finestre per esplorazione e la modifica dei dati anagrafici e clinici.
corso, patologie, storia clinica, referti degli esami eseguiti,
referti specialistici e tutto quanto si ritiene utile inserire nel
data base.
Inoltre, la rapidità dello scambio dati, insieme all’efficacia di un buon sistema RFID consente al possessore del trasponder, innanzitutto di evitare l’esibizione della tessera, ma
anche di soffermarsi nei pressi della postazione di riconoscimento, a tutto vantaggio della tempestività d’intervento nei
casi di urgenza
Infine, è bene evidenziare che il sistema prevede anche
la possibilità di scrittura delle informazioni sui trasponder,
quindi qualsiasi nuovo intervento, esame o un più generico,
aggiornamento dei dati clinici-anamnestici, può essere sempre registrato sulla tessera in dotazione al paziente.
4. CONCLUSIONI E SVILUPPI FUTURI
Il sistema descritto, che intende applicare in maniera efficace la tecnologia RFID alla sanità, è stato progettato, nella
sua versione dimostrativa, e testato con successo in tutte le
funzionalità previste dalle specifiche comportamentali. Esso
è evidentemente suscettibile di perfezionamento a seguito di
una fase di sperimentazione su ampia scala, ad oggi in fase
di pianificazione, adatta anche a raccogliere dati statistici
sull’affidabilità del funzionamento e sull’indice di gradimento da parte degli operatori sanitari, gradimento basato anche
sulla facilità d’uso. Peraltro, anche le indicazioni di progetto
ottimizzato dei sistemi basati su tecnologia RFID sono ad
oggi ancora oggetto di studio e ricerca [10, 11] per cui è sempre opportuno un adeguamento dell’hardware utilizzato alle
più attuali specifiche e regole di progetto.
Con il dimostratore progettato è stato verificato con successo che il data base è auto-aggiornante, il riconoscimento
dei tag avviene in modo sicuro ed affidabile e che effettivamente viene resa disponibile in tempo reale al medico l’anamnesi di qualunque paziente, anche non in grado di riferire
o di riferire correttamente circa la sua storia clinica e la sua
condizione attuale: terapie in corso, patologie, ecc.
Dalle verifiche effettuate in termini di tempi di riconoscimento dei tag e di accesso al data base ovvero alla cartella
clinica virtuale con tutti i dati generici e clinici del paziente, risulta che l’utilizzo del sistema descritto consente una
drastica diminuzione dei tempi di acquisizione della cartella
clinica virtuale da parte del medico, rispetto alla prassi ancora diffusa di acquisire le informazioni generiche ed anamnestiche tramite colloquio con il paziente ovvero con i suoi
familiari, e visita medica generica, fasi che richiedono tempi
dell’ordine delle varie decine di minuti, fino a 30-40 circa in
base alla complessità del paziente. Questa importante agevolazione è possibile in virtù di una pressoché immediata
disponibilità dei dati contenuti nella cartella clinica virtuale,
consentita dalla tecnologia RFID opportunamente applicata.
I tempi necessari per disporre a monitor di tutti i dati
anagrafici, clinici, anamnestici e generici del paziente sono
dell’ordine di uno/due secondi al più.
E’ evidente anche che in una situazione di urgenza, l’immediata disponibilità dell’anamnesi del soggetto garantisce
la scelta di una cura efficace e soprattutto tempestiva.
Inoltre, la particolare architettura del sistema, nonchè l’estrema semplicità e l’alta automatizzazione dei metodi di riconoscimento del paziente, non sottraggono tempo utile al
personale sanitario per l’assimilazione di nuove procedure
informatiche, contribuendo ad una integrazione efficace in
ogni sistema informativo esistente nella struttura sanitaria.
Aspetto da non sottovalutare è anche quello economico.
Infatti, i costi dei dispositivi RFID per questo tipo di applicazioni è, tutto sommato, abbastanza contenuto grazie a recenti fenomeni di economia di scala, oltre che da un continuo
progresso tecnologico; basti pensare che ormai il prezzo dei
trasponder varia da pochi centesimi a qualche euro a seconda
della quantità di memoria o della complessità del circuito
integrato. Quindi un sistema così concepito è capace di coniugare uno snellimento delle procedure informative con una
politica di contenimento dei costi.
In definitiva il sistema, perfezionato e diffuso su larga scala, permetterebbe di gestire in modo semplice ed efficace i
flussi di dati generici e clinici dei pazienti, affinché siano
immediatamente disponibili e sempre aggiornati, apportando un sicuro vantaggio sia per il personale medico sia per i
pazienti stessi.
Risulta, altresì, evidente che il passaggio dall’attuale prassi ad una gestione del paziente, ed in generale del cittadino
avente diritto all’assistenza sanitaria, basata sulla tecnologia
RFID secondo lo schema applicativo descritto, può essere
ostacolato o almeno rallentato da diverse problematiche che
una svolta di questo tipo inevitabilmente pone.
81
INGEGNERIA DELL’INFORMAZIONE | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
Innanzitutto, la necessità di dotare di una connessione a
larga banda sia gli ospedali (case di cura, ecc., in generale) sia gli ambulatori di medicina generale. I medici di base,
peraltro, devono prendersi cura di dotare i pazienti dei tag
RFID, di memorizzare i dati necessari per il riconoscimento
e di “aprire” la cartella clinica virtuale mantenendola aggiornata. Stessa cura nella manutenzione/aggiornamento delle
cartelle cliniche individuali deve essere adottata da qualunque centro medico specialistico o ospedale o casa di cura che
sia, presso cui il cittadino/paziente riceve cure, esegue visite,
presenti, insomma, motivi di aggiornamento delle informazioni medico-cliniche che lo riguardano.
Altro problema evidentemente collegato al precedente è la
necessità di creare un data base, possibilmente internazionale ma almeno nazionale, adatto allo scopo, anche se in questo viene in aiuto la moderna tecnologia cloud che permette
l’immagazzinamento di dati in ampi data base accessibili via
web browser. Un esempio molto recente è il servizio Healthvault messo a disposizione da Microsoft, che potrebbe
ben attagliarsi alle esigenze poste dal nostro sistema e, comunque, vi sono in letteratura studi inerenti l’applicazione
della tecnologia cloud in sinergia con quella RFID [12].
A tutto questo si aggiunga la necessità di formare il personale sanitario, ospedaliero e non (vedi medici di base) all’utilizzo di questi nuovi strumenti hardware e software.
Infine, tra le problematiche di maggior rilievo, va menzionata anche la necessità che il cittadino/paziente al momento
del suo ingresso nella struttura ospedaliera debba indossare il
tag RFID e questo deve essere in buone condizioni affinchè
avvenga il riconoscimento da parte del reader.
La soluzione a questo problema può essere agevolata dalla
varietà di dimensioni e forme che può avere un tag RFID e
dei materiali con cui può essere realizzato [13] rispetto, per
esempio, alla tessera sanitaria/codice fiscale. Resta, tuttavia,
un problema da risolvere e di non banale soluzione.
Queste problematiche rappresentano sfide per il futuro, da
affrontare con determinazione, forti dell’incoraggiamento
proveniente dai risultati certamente positivi relativi all’uso
della tecnologia RFID in sanità, in termini di miglioramento
della gestione del paziente e di qualità dell’assistenza medica, specialmente quella di urgenza.
RIFERIMENTI BIBLIOGRAFICI
[1] Rossi A., Mori A., Ricci F., Maceratini R., (2001),
“Manuale di informatica medica,” Verduci editore, ISBN
8876205756.
[2] Want, R, (2006), “RFID Explained: A Primer on Radio Frequency Identification Technologies” DOI: 10.2200/
S00040ED1V01200607MPC001 Morgan and Claypool eBooks
[3] Pathak, R. ; Joshi, S., (2009), “Java based software framework and its integration in Mobile Phones using RFID
technologies” Internet Multimedia Services Architecture and
Applications (IMSAA), IEEE International Conference on
DOI: 10.1109/IMSAA.2009.5439467 Page(s): 1 – 6
82
[4] Jia Gao ; Fangli Liu ; Huansheng Ning ; Baofa Wang,
(2007), “RFID Coding, Name and Information Service for
Internet of Things”, Wireless, Mobile and Sensor Networks,
2007. (CCWMSN07). IET Conference on, Page(s): 36 – 39
[5] Po Yang ; Wenyan Wu ; Moniri, M. ; Chibelushi, C.C.
(2013) “Efficient Object Localization Using Sparsely Distributed Passive RFID Tags” Industrial Electronics, IEEE
Transactions on Volume: 60 , Issue: 12 DOI: 10.1109/
TIE.2012.2230596 Page(s): 5914 – 5924
[6] Pathak, R. ; Joshi, S., (2009), “Recent trends in RFID and
a java based software framework for its integration in mobile phones AH-ICI 2009. First Asian Himalayas International
Conference on Internet DOI: 10.1109/AHICI.2009.5340296
Page(s): 1 – 5
[7] Boaventura, A.J.S. ; Carvalho, N.B., (2013), “A Batteryless RFID Remote Control System”, Microwave Theory
and Techniques, IEEE Transactions on , Volume: 61 , Issue:
7 DOI: 10.1109/TMTT.2013.2262688 Page(s): 2727 – 2736
[8] Giorgio A., “Innovative medical devices for telemedicine applications”, (2011) chapter in the book “Telemedicine:
techniques and applications”, In Tech Editor, ISBN 979-953307-008-6
[9] Vaughn W. R., (2004), “Accesso ai dati con Visual Basic,” Mondadori informatica (CD Rom).
[10] Hong Cheng ; Wancheng Ni ; Na Li, (2014), “A systematic scheme for designing RFID systems with high object
detection reliability Information Science, Electronics and
Electrical Engineering (ISEEE), 2014 International Conference on Volume: 3 DOI: 10.1109/InfoSEEE.2014.6946175
Page(s): 1521 – 1526
[11] Dingwei Wang; Ip, W.H., (2013), “Review on modeling and optimization problems about
RFID technology and applications” Control and Decision Conference (CCDC), 2013 25th Chinese
DOI: 10.1109/CCDC.2013.6561118 Page(s): 1258 – 1263
[12] Wei Xie ; Lei Xie ; Chen Zhang ; Quan Zhang ;
Chaojing Tang, (2013), “Cloud-based RFID authentication RFID (RFID), IEEE International Conference on DOI:
10.1109/RFID.2013.6548151 Page(s): 168 - 175
[13] Fernandez Salmeron, J. ; Molina-Lopez, F. ; Rivadeneyra, A. ; Vasquez Quintero, A. ; Capitan-Vallvey, L.F.;
de Rooij, N.F. ; Banqueri Ozaez, J. ; Briand, D. ; Palma,
A.J., (2014), “Design and Development of Sensing RFID
Tags on Flexible Foil Compatible With EPC Gen 2”, Sensors Journal, IEEE Volume: 14 , Issue: 12 DOI: 10.1109/
JSEN.2014.2335417 Page(s): 4361 – 4371
SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | STORIA
La spedizione di Sapri nelle carte
dell’Archivio Segreto Vaticano
CHIARA D’AURIA
Dipartimento di Studi Umanistici, Università degli Studi di Salerno
L’
indagine storica
sull’Impresa di
Sapri tra le carte dell’Archivio
Segreto Vatica1
no trae origine dall’intenzione di verificare quanto e come fosse stata avvertita
e percepita la Spedizione di Carlo Pisacane negli ambienti diplomatici pontifici nella penisola italiana. Pur provenendo da una fonte “periferica”, certamente
marginale rispetto a quella costituita dai
rapporti tra la segreteria di Stato pontificia e le rappresentanze diplomatiche
1 ASV, nel testo.
italiane ed europee2, i documenti storici
2 Cfr. P. Pirri, Pio IX e Vittorio Emanuele II
dal loro carteggio privato, Roma, Miscellanae
Historiae pontificiae, 1941-1961; Commissione
Reale Editrice (a cura di), La questione romana
negli anni 1860-1861: il Carteggio del conte
di Cavour con D. Pantaleoni, C. Passaglia,O.
Vimercati, Bologna, Zanichelli, 1929, voll.
1 e 2; M. Gabriele (a cura di), Il carteggio
Antonelli-Sacconi (1858-1860), Roma, Istituto
per la Storia del Risorgimento italiano, 1962 C.
Verducci, Il carteggio Antonelli-Barili, 19591861, in C. Rostagni, Roma, 1973, Rassegna
Storica del Risorgimento, 66 (1973) 467-468;
R. Ballerini, Pio IX e Napoleone III, in “Civiltà
cattolica”, 1889, vol. VIII, 257-269, pp. 402417; N. Bianchi, Storia della diplomazia
europea in Italia dall’anno 1814 al 1861 (n.
8 voll.), Unione tipografico-editrice torinese,
Torino-Roma-Napoli, 1869-1872; A. Lumbroso,
delle nunziature apostoliche consentono la ricostruzione di un contesto ricco
di dettagli e notizie, offrendo un’ulteriore conferma circa la propria capillare
e meticolosa capacità di informazione
alle autorità centrali pontificie, soprattutto relativamente agli eventi considerati pericolosi e rivoluzionari3.
Nel loro insieme queste fonti presentano un carattere talvolta molto specifiVittorio Emanuele e Pio IX. Il loro carteggio
inedito, in “La tribuna”, Roma, 5 e 11 settembre
1911, nn. 248-253.
3 Così dalla titolazione dei rapporti riservati
ufficiali dalle nunziature apostoliche alla
segreteria di Stato pontificia in cui sono raccolti
i fascicoli sulla Spedizione di Sapri.
83
STORIA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014
co, legato alla funzione principale delle nunziature e al loro
ruolo di rappresentanza diplomatica. Sono citati rapporti personali dei delegati apostolici con personalità politiche locali.
Numerose sono le descrizioni circa le condizioni, i problemi,
le necessità e gli interessi della comunità religiosa, delle congregazioni religiose e degli ordini monastici. Sono trattate
questioni di carattere legale e finanziario attinenti le diocesi
locali e la sede apostolica centrale. Ma è anche descritto, in
un quadro vivace e ricco di riferimenti, il contesto diplomatico della sede della nunziatura: visite, partenze e arrivi di
ambasciatori, ministri, alti ufficiali; talvolta, ancora, sono
contenute le personali considerazioni sul quadro politico,
sull’attività dei movimenti rivoluzionari, della stampa ufficiale e clandestina.
Nell’ambito dei rapporti tra nunziature e consolati da una
parte e Stato Pontificio dall’altra, spesso si istauravano relazioni caratterizzate da una costante diatriba, a causa dei numerosi contrasti tra Roma e le rappresentanze pontificie in
merito alla definizione delle regole cui dovevano attenersi i
consoli e i nunzi apostolici.
Le loro figure e i loro compiti, infatti, sono oggetto di
un’ulteriore indagine storica, poiché gli argomenti trattati nei
rapporti riservati ufficiali così come nelle altre missive alla
Segreteria di Stato consentono solo ex post di stabilire quali
fossero le funzioni, i margini operativi e i privilegi assicurati
al personale delle nunziature e dei consolati generali4.
In genere queste sedi erano deputate all’organizzazione
di una rete di informazioni e di monitoraggio costante sulle
attività politiche e diplomatiche del regno presso cui erano
accreditate; erano altresì incaricate di dare notizia a Roma
circa la diffusione di stampa tendenziosa; infine erano istruite per informare la Segreteria di Stato su eventuali movimenti politici contrari al governo dello Stato presso cui erano
accreditate.
Lo Stato Pontificio solo nella seconda metà dell’Ottocento
aveva stabilito, attraverso una cospicua produzione normativa, gli scopi e le funzioni dei consolati e delle nunziature
apostoliche5. In merito ai primi, i consoli generali ed il personale da questi dipendente non erano rappresentanti della
Sua Maestà Pontificia. Non godevano perciò di alcuna immunità, ma erano soggetti alla giustizia della nazione in cui
operavano.
Erano altresì patrocinatori di cittadini stranieri che potevano aver bisogno di assistenza nello svolgimento delle attività
connesse al commercio ed all’espatrio; potevano, infine, essere chiamati a svolgere le funzioni di consoli in territorio
4 Cfr. A. Silvestro, Nota sul traffico mercantile tra lo Stato Pontificio
e la costa istriano-dalmata e sui consolati pontifici in Istria e Dalmazia
nel’800 , in “Grada i prilozi za povijest Dal macie” 15, Split 1999, pp. 221246; Notizie sulle sedi consolari nelle Marche pontificie nel
secolo 19, in “Quaderni dell’Archivio storico arcivescovile di Fermo”,
1993, n. 13, suppl., parte I e II.
5 Cfr. G. Moroni, Dizionario di erudizione storico-ecclesiastica da S.
Pietro sino ai nostri giorni, Venezia, Tipografia emiliana, vol. XVII, voce
“consoli pontifici”, pp. 42-51; vol. XLVIII, voce “nunzi apostolici”, pp.
151-155.
84
romano sia sudditi pontifici sia cittadini esteri6.
Nel caso delle nunziature, invece, il personale intero era considerato a tutti gli effetti in qualità di
corpo diplomatico pontificio, con tutti i privilegi e le immunità concernenti tale incarico.
Nelle sedi italiane i consolati generali
pontifici (soprattutto quelli sull’Adriatico,
il Tirreno ed, in generale, in prossimità
dei porti) erano incaricati soprattutto del
disbrigo di pratiche concernenti il commercio e le persone e i mezzi con cui esse
venivano svolte.
Già prima della sosta di Pisacane presso
l’isola di Ponza (con il vapore Cagliari che imbarcava il Pisacane stesso e i suoi compagni),
le nunziature apostoliche italiane svolsero una
consistente attività di informazione alla
Segreteria di Stato pontificia e le
sedi di Genova e Napoli costituiscono una fonte interessante.
Secondo
gli
indici
dell’ASV tutta la documentazione della nunziatura di Napoli era separata
da quella della Segreteria di Stato fino all’anno
1860. Poiché la Spedizione
di Pisacane si svolse nel
1857, sono stati consultati
tutti gli indici tra il 1760
e il 1860, come da catalogazione dell’Archivio,
provnienti da Napoli.
Infatti l’Archivio della
Nunziatura di Napoli è ordinato
non secondo la data ma secondo la
provenienza dei documenti (quindi secondo i nomi
delle città) o l’argomento7.
6 G. Moroni, cit.
7 Cfr. G. Gualdo, Sussidi per la consultazione dell’ASV. Lo schedario
Garampi, registri vaticani e lateranensi, in “Rationes Camerae”, Archivio
Concistoriale Nuova riveduta e ampliata, CdV, 1989, Collectanea Archivi
Vaticani; P. P. Piergentili, I consolati pontifici e le nunziature apostoliche
in Italia dalla pace di Zurigo alla presa di Roma (1859-1870). Note di storia
degli archivi, acquisizioni, dispersioni archivistiche, in Dall’Archivio
Segreto Vaticano. Miscellanea di testi, saggi e inventari, I, Collectanea
Archivi Vaticani, n. 6,1Città del Vaticano, 2006; G. Gualdo, Sussidi per
la consultazione dell’Archivio Vaticano, Collectanea Archivi Vaticani,
n. 17, Città del Vaticano, 1989; A. Mercati, La Biblioteca Apostolica
e l’Archivio Vaticano Segreto, in Vaticano, a cura di G. Fallani e M.
Escobar, Firenze, 1996; Bibliografia dell’Archivio Vaticano, a cura della
Commissione Internazionale per la Bibliografia dell’Archivio Vaticano,
I-VIII, Città del Vaticano, 1962-2001; Il Libro del Centenario. L’Archivio
Vatic