Scienze e Ricerche n. 1 (novembre 2014)
Transcript
Scienze e Ricerche n. 1 (novembre 2014)
ISSN 2283-5873 Scienze e Ricerche SR NUMERO 1 - NOVEMBRE 2014 1. 1. Sommario CONTRIBUTI E INTERVENTI VINCENZO BRANDOLINI Il cacao pag. 7 pag. 12 pag. 20 pag. 22 pag. 25 pag. 34 pag. 37 pag. 40 pag. 45 pag. 52 pag. 55 pag. 63 pag. 78 pag. 83 pag. 92 pag. 99 MAURO CRISTALDI, GERMANA SZPUNAR & CRISTIANO FOSCHI 20 La componente mobile animale dell’ecosistema Roma MARCO CAMBIAGHI «Il decennio della coscienza». Intervista a Piergiorgio Strata GIANFRANCO MILITERNO Cellule, dermatologia e salute animale: un trinomio importante per la sanità pubblica MICHELE MOSSA Alcune considerazioni sull’erosione costiera. Il caso della regione pugliese PATRIZIA TORRICELLI Donne. E le parole per parlarne 34 ENRICO ACQUARO La Cartagine di Elissa e le sue rifondazioni nel Mediterraneo AGNESE VISCONTI Da Londra 1851 a Milano 2015. Riflessioni sulle grandi esposizioni universali ANGELO ARIEMMA Senza estetica non c’è etica. Per un’analisi dei tempi moderni MARINO D’AMORE Media, pubblico e consapevolezza del messaggio ERIKA GIUGLIANO 63 Un classico ancora più classico tra gli altri classici RICERCHE SALVATORE LORUSSO E ANDREA NATALI L’ambiente di conservazione dei documenti grafici: riferimenti normativi e metodologie per la prevenzione del rischio AGOSTINO GIORGIO La tecnologia RFID a supporto della sanità: un progetto per ottimizzare l’anamnesi e la gestione del paziente CHIARA D’AURIA La spedizione di Sapri nelle carte dell’Archivio Segreto Vaticano LORENZO SCILLITANI Diritti dell’uomo e diritto internazionale. Spunti di ricerca per una filosofia della geopolitica GAETANO CUOMO Le difficoltà di finanziamento delle cooperative di produzione ARIANNA CONSIGLIO, MARIA GUARNERA, PAOLA MAGNANO 92 n. 1 novembre 2014 La rappresentazione della disabilità nei bambini. Una verifica dell’ipotesi del contatto a scuola pag. 105 IL COMITATO SCIENTIFICO pag. 115 3 N. 1 - NOVEMBRE 2014 ISSN 2283-5873 Scienze e Ricerche n. 1, novembre 2014 Coordinamento • Scienze matematiche, fisiche e naturali: Vincenzo Brandolini, Claudio Cassardo, Alessandra Celletti, Alberto Facchini, Savino Longo, Paola Magnaghi Delfino, Giuseppe Morello, Annamaria Muoio, Andrea Natali, Marcello Pelillo, Marco Rigoli, Carmela Saturnino, Roberto Scandone, Franco Taggi, Benedetto Tirozzi, Pietro Ursino • Scienze biologiche e della salute: Riccardo N. Barbagallo, Cesario Bellantuono, Antonio Brunetti, Davide Festi, Maurizio Giuliani, Caterina La Porta, Alessandra Mazzeo, Antonio Miceli, Letizia Polito, Marco Zaffanello, Nicola Zambrano • Scienze dell’ingegneria e dell’architettura: Orazio Carpenzano, Federico Cheli, Massimo Guarnieri, Giuliana Guazzaroni, Giovanna La Fianza, Angela Giovanna Leuzzi, Luciano Mescia, Maria Ines Pascariello, Vincenzo Sapienza, Maria Grazia Turco, Silvano Vergura • Scienze dell’uomo, filosofiche, storiche e letterarie: Enrico Acquaro, Angelo Ariemma, Carlo Beltrame, Marta Bertolaso, Sergio Bonetti, Emanuele Ferrari, Antonio Lucio Giannone, Domenico Ienna, Rosa Lombardi, Gianna Marrone, Stefania Giulia Mazzone, Antonella Nuzzaci, Claudio Palumbo, Francesco Perrotta, Francesco Randazzo, Luca Refrigeri, Franco Riva, Mariagrazia Russo, Domenico Russo, Alessandro Teatini, Patrizia Torricelli, Agnese Visconti • Scienze giuridiche, economiche e sociali: Giovanni Borriello, Marco Cilento, Luigi Colaianni, Agostina Latino, Elisa Pintus, Erica Varese, Alberto Virgilio, Maria Rosaria Viviano Scienze e Ricerche CF 97826650588 sede legale c/o Associazione Italiana del Libro Via Giuseppe Rosso 1/a, 00136 Roma Direttore responsabile: Giancarlo Dosi Un numero in formato elettronico: 6,00 euro Un numero in formato cartaceo: 9,00 euro (arretrati: 11,00 euro) Abbonamenti in formato elettronico: • annuale (12 numeri): 37,00 euro • semestrale (6 numeri): 19,00 euro Abbonamenti in formato cartaceo (comprensivo del formato elettronico): • annuale (12 numeri): 72,00 euro • semestrale (6 numeri): 39,00 euro L’acquisto di estratti in formato cartaceo (min. 10 copie) va concordato con la segreteria Il versamento può essere effettuato: • utilizzando il servizio PayPal accessibile dai siti www.associazioneitalianadellibro.it www.scienze-ricerche.it • versamento sul conto corrente postale n. 1012061907 intestato all’Associazione Italiana del Libro, Via Giuseppe Rosso 1/a, 00136 Roma (specificare la causale) • bonifico sullo stesso conto dell’Associazione Italiana del Libro, IBAN: IT39I0760103200001012061907 2 La pubblicazione di articoli su Scienze e Ricerche è aperta a tutti. Quasi tutti i contributi, a meno che l’autore non ritenga di inibire tale possibilità, vengono pubblicati anche online sul sito www.scienzericerche.it, in modalità open access, cioè a libera lettura. La rivista ospita essenzialmente due tipologie di contributi: • interventi, analisi e articoli di divulgazione scientifica (solitamente in italiano). • ricerche e articoli scientifici (in italiano, in inglese o in altre lingue). Gli articoli scientifici seguono le regole della peer review. La direzione editoriale non è obbligata a motivare l’eventuale rifiuto opposto alla pubblicazione di articoli, ricerche, contributi o interventi. Non è previsto l’invio di copie omaggio agli autori. Scienze e Ricerche è anche una pubblicazione peer reviewed. Le ricerche e gli articoli scientifici inviati per la pubblicazione sono sottoposti a una procedura di revisione paritaria che prevede il giudizio in forma anonima di almeno due “blind referees”. I referees non conoscono l’identità dell’autore e l’autore non conosce l’identità dei colleghi chiamati a giudicare il suo contributo. Gli articoli scientifici inviati per la pubblicazione vengono resi anonimi, protetti e linkati in un’apposita sezione del sito. Ciascuno dei referees chiamati a valutarli potrà accedervi esclusivamente mediante password, fornendo alla direzione il suo parere e suggerendo eventuali modifiche o integrazioni. Il raccordo con gli autori sarà garantito dalla redazione. Il parere dei referees non è vincolante per la direzione editoriale, cui spetta da ultimo - in raccordo con il coordinamento e il comitato scientifico - ogni decisione in caso di divergenza di opinioni tra i vari referees. L’elenco dei referees impegnati nella valutazione degli articoli scientifici viene pubblicato con cadenza annuale. Chiunque può richiedere di far parte del collegio dei referees di Scienze e Ricerche allegando alla richiesta il proprio curriculum, comprensivo della data di nascita, e l’indicazione del settore scientificodisciplinare di propria particolare competenza. www.scienze-ricerche.it [email protected] CONTRIBUTI&INTERVENTI N. 1 - NOVEMBRE 2014 SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | CHIMICA Il cacao VINCENZO BRANDOLINI Dipartimento di Scienze Chimiche e Farmaceutiche, Università di Ferrara S econdo gli studiosi di botanica, l’albero del cacao cresceva spontaneo già 4000 anni prima di Cristo nei bacini dell’Orinoco e del Rio delle Amazzoni. Il naturalista svedese Carlo Linneo nel 1775, riconoscendone le caratteristiche esclusive, diede all’albero del cacao il nome Theobroma cacao, che in greco significa “Cibo degli Dei”. I primi popoli che coltivarono questa pianta furono probabilmente i Maya, che lo introdussero nello Yucatan durante i loro spostamenti durante il XVII secolo a.C. Dai Maya la coltura del cacao si diffuse nell’attuale Messico, tramite i Toltechi, il popolo che precedette gli Aztechi (o Tenocha) nella storia dell’America centrale. Come tutte le piante di elevato significato sociale e simbolico, anche il cacao vanta origine divina. Una leggenda azteca narra che una principessa lasciata a guardia delle ricchezze dello sposo, un grande guerriero partito a difendere i confini dell’impero, venne assalita dai nemici che tentarono invano di costringerla a rivelare dove fosse nascosto il tesoro. Per vendetta la uccisero ma dal sangue versato dalla fedele sposa nacque la pianta del cacao il cui frutto nasconde un “Tesoro di semi”, amari come le sofferenze dell’amore, forti come la virtù, lievemente arrossati come il sangue. Era il dono del Dio giardiniere Quetzalcoatl alla fedeltà pagata con la morte, la stessa fedeltà che nell’immenso impero azteco legava i sudditi all’imperatore. La leggenda prosegue raccontando come Quetzalcoatl insegnò agli uomini a coltivare il “Cachuaquahitl” ovvero l’Albero della forza e della ricchezza. Usando i suoi semi, il Dio mostrò al suo popolo come preparare il “Xocolatl” ovvero il “Nettare degli Dei”. In quell’epoca i semi della pianta erano un bene così prezioso che si utilizzavano come forma di pagamento e/o come unità di calcolo. Infatti con tre o quattro semi si poteva ac- quistare una zucca, con dieci semi un coniglio mentre cento semi permettevano di acquistare uno schiavo. Gli Aztechi autorizzavano gli esattori armati a riscuotere i tributi dalle popolazioni Maya e Tolteche accettando come pagamento schiavi, cibo ma soprattutto semi di cacao. Da sempre l’utilizzo principale dei semi di cacao era quello alimentare. Infatti dopo tostatura e macinatura venivano mescolati con acqua e sbattuti fino a diventare spumosi quindi il cacao veniva servito come ingrediente principale di una bevanda schiumosa chiamata Xocolatl. Al cacao tostato e macinato “Cacahuatl”, gli Aztechi aggiungevano anche pepe, peperoncino, cannella, semi di melone, solandra, miele, vaniglia, purea di granoturco prima di diluire il composto con acqua. Il preparato così ottenuto risultava amaro, pochissimo appetitoso e molto diverso dal cacao dolce e gustoso che possiamo apprezzare oggi, ma per gli Aztechi una tazza di Xocolatl riusciva ad eliminare la fatica e stimolare le forze fisiche e mentali fondamentali per la sopravvivenza e per la riuscita 7 CHIMICA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 delle cerimonie legate alla trascendenza. Cortés, nel 1528, riuscì a portare in Spagna i frutti dell’albero del cacao e tutto ciò che serviva per la preparazione del “Xocolatl”. La bevanda, cui veniva aggiunto peperoncino e altre spezie piccanti per mascherarne il sapore amaro, ebbe un grande successo. Il primo degustatore che provò ad aggiungere lo zucchero alla bevanda sembra sia stato il vescovo Francisco Juan de Zumàrrago nel 1590. Da quel momento il cacao zuccherato divenne molto più gradevole e la sua popolarità aumentò diffondendosi rapidamente in tutta Europa. Il cacao fu portato in Italia nel 1606 dal commerciante fiorentino Antonio Carletti dopo il suo ritorno da un viaggio in Spagna. La bevanda divenne celebre anche per il suo potere rinvigorente, molto celebrato dal Casanova, che ne faceva uso per mantenere elevato il numero delle sue seduzioni. Il cacao fu introdotto a Torino dal generale degli eserciti spagnoli Emanuele Filiberto di Savoia e, nel 1852, fu inventato un nuovo prodotto a base di cioccolato realizzato con l’aggiunta di latte, zucchero, cacao e nocciole piemontesi. Questa raffinata combinazione, cui venne data la forma di piccola imbarcazione denominata gianduiotto, fu presentata ufficialmente nel 1865 in occasione del carnevale di Torino dalla famiglia di maestri cioccolatai Peyrano che erano importanti confezionatori di prodotti dolciari da accompagnare al caffè. A Torino e in Piemonte l’arte della cioccolateria continuò ad essere fiorente e la bevanda al cacao diventò molto popolare ed importante economicamente. Nei primi anni del Settecento la prima colazione dei torinesi privilegiati era la bavareisa, una bevanda a base di caffè, cioccolata e latte, che veniva servita in un bicchiere e che, un secolo dopo, dal nome suo stesso contenitore, un piccolo bicchiere con supporto e manico di metallo, verrà detta bicerin. Già alla fine del Seicento si producevano a Torino circa 350 kg di cioccolato al giorno ed era esportato in Austria, Svizzera, Germania e Francia. Fino alla seconda metà del Settecento tutta la procedura di lavorazione del cacao, dalla raccolta dei frutti al prodotto finito, era eseguita a mano. Una delle prime tappe del perfezionamento nella lavorazione fu la capacità di solidificare il cioccolato per arrivare alla tavoletta. A contendersi il primato dell’invenzione di una macchina idraulica per raffinare la pasta di cacao e miscelarla con zucchero e vaniglia (1802) furono un torinese, Bozzelli, e uno svizzero, Cailler. L’invenzione fu in seguito perfezionata e intorno al 1820 fu prodotta in Inghilterra la tavoletta “Fry & Sons”, una mistura granulosa di liquore e cioccolato, zucchero e burro di cacao. Nel 1828 un olandese, Conrad Van Houten mise a punto un torchio speciale per spremere i grani macinati di cacao. Con questo mezzo ottenne la separazione del burro di cacao dalla polvere del cacao stesso, che divenne meglio amalgamabile con acqua e aromi. Van Houten eliminò l’acidità del cacao, che tendeva a dare alla polvere un gusto acre e non molto piacevole. I cioccolatini sembra siano una invenzione esclusiva dei torinesi che li realizzarono, grossi come ghiande, da una pasta di cacao tirata a mano e foggiata grossolanamente. Erano detti givu, che in dialetto piemontese significa 8 “cicca”. Gli svizzeri, dal canto loro, ottennero risultati molto importanti perfezionando il cioccolato industriale. Il risultato più prestigioso fu l’invenzione del cioccolato al latte ad opera di Daniel Peter che, intorno al 1875, sfruttò genialmente la farina lattea creata e prodotta da Henri Nestlé. Oggi, sono molte le varietà di cacao coltivate nel mondo. In particolare la varietà “Criollo” rappresenta la pianta del cioccolato per eccellenza ed i cui semi furono importati in Europa per primi. È originaria del Rio delle Amazzoni, ed è la varietà che dà il cioccolato più pregiato, ma purtroppo è la più delicata e quindi la meno produttiva. La varietà “Forastero”, pianta più robusta della precedente, è originaria dell’Amazzonia ed è, attualmente, coltivata in America centro-meridionale e in Africa. Da questa varietà si ricava la maggiore produzione mondiale di cacao poiché cresce più rapidamente e presenta una produttività superiore. Il gusto è meno delicato del Criollo, tuttavia la varietà Forastero detta “Amenolado” coltivata in Ecuador è considerata di grande pregio. La varietà “Trinitario, che deve il suo nome al luogo d’origine cioè l’isola di Trinidad, è un incrocio tra le due varietà riunendone le caratteristiche positive. Poiché il luogo di produzione influisce sul gusto del cacao, proprio come avviene per i vini, tra gli estimatori del cioccolato, i “cru” (termine con cui si indica il cacao di particolare qualità, prodotto da una determinata piantagione o porzione di piantagione) più ricercati sono quelli ottenuti nelle piantagioni della regione di Chuau in Venezuela. Come per il caffè, una sola qualità di cacao non produce un buon cioccolato ma è fondamentale miscelare qualità differenti secondo le ricette custodite gelosamente da ogni fabbricante. Sebbene i frutti maturino tutto l’anno, di solito si ricavano solo due raccolti. Il baccello viene tagliato dall’albero e lasciato maturare sul suolo. Successivamente i baccelli vengono spaccati, le fave vengono rimosse e le bucce bruciate. I semi, prima di essere seccati al sole, vengono lasciati fermentare nei barili per 2-8 giorni. Il tempo di essiccamento cambia in base alla colorazione, da rosso a marrone, dei semi fermentati di partenza. I semi di T. cacao sono quindi insaccati e immagazzinati in locali freschi e arieggiati dove non possano assorbire odori. Dopo il controllo della qualità, le fave sono sottoposte ad una ulteriore tostatura, che accresce l’aroma del cacao e favorisce il distacco finale del seme dalla buccia. Dopo la separazione dei semi in base alla grandezza saranno avviati alla torrefazione. Il famoso, inconfondibile, inebriante aroma di cacao, capace di solleticare come pochi altri il senso dell’olfatto umano, dipende tutto dalla torrefazione, che risulta determinante per la qualità del prodotto finito. Questo procedimento favorisce lo sviluppo dei principi aromatici eliminando l’umidità e l’acidità. Solo un esperto però può decidere il momento dell’arresto della torrefazione senza il quale le fave carbonizzerebbero. Dopo un rapido raffreddamento al ventilatore, le fave vengono avviate alla raffinatrice che provvede alla degerminazione, alla separa- SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | CHIMICA zione delle bucce e alla frantumazione in granella. Con un sistema di setacci decrescenti si seleziona la granella torrefatta che, una volta macinata, produce una pasta fluida (pasta di cacao) contenente in media il 54-55% di burro di cacao. Sia il cacao in polvere, sia il cioccolato derivano dalla pasta di cacao solubilizzata, macinata finissima e infine parzialmente sgrassata attraverso la spremitura con presse idrauliche. In tal modo il burro di cacao che fuoriesce sotto forma di olio giallo viene filtrato, colato in pani e raffreddato. La parte restante solida, il pannello o torta di cacao, è durissima perché solidificata a 600 atmosfere. Contiene ancora dal 8 al 26% di burro di cacao per cui deve essere frantumata e ridotta in polvere finissima. Per ottenere il cioccolato si effettua la miscelazione di diverse qualità di paste di cacao non sgrassate, secondo criteri di scelta e dosaggi che costituiscono i segreti di fabbricazione di ogni produttore. A queste miscele si aggiungono i vari ingredienti previsti dal tipo di cioccolato che si vuole ottenere come burro di cacao, zucchero, latte in polvere, aromi. È infatti la proporzione tra cacao e zucchero a determinare la qualità del cioccolato, in particolare quello denominato “Fondente”. L’impasto ottenuto viene trasferito dalla mescolatrice alla raffinatrice. Operando il concaggio il cioccolato assume la sua “personalità” definitiva. Questa operazione si realizza in recipienti metallici grandi come vasche da bagno dove una pasta semiliquida e bruna è mescolata per ore e ore, sbattuta e aerata a temperatura costante di 60-80 °C. Il concaggio dura ore o giorni, a seconda del gusto del cioccolato che si vuole ottenere. Sul prodotto finito influiscono le consuetudini alimentari dei vari paesi infatti, ad esempio, il cioccolato americano, piuttosto ruvido, subisce un concaggio di 18 ore, mentre quello svizzero, incomparabilmente più vellutato, è sottoposto a un concaggio di 72 ore. Segue la fase di temperaggio, in cui la pasta liquida si porta a una temperatura tale da favorire la finissima cristallizzazione del burro di cacao, in modo da normalizzare la consistenza del prodotto considerati i possibili sbalzi di temperatura cui sarà sottoposto e di modellaggio, in cui la pasta, distribuita automaticamente in stampi di acciaio inossidabile, assume la forma definitiva. Gli stampi, riempiti con la pasta temperata, sono fatti avanzare su un nastro sottoposto a vibrazioni continue, che hanno lo scopo di eliminare le bolle d’aria e far aderire perfettamente l’impasto alle pareti. Le forme attraversano poi il tunnel di raffreddamento (6 °C circa) nel quale il cioccolato, solidificandosi, si contrae e può essere estratto facilmente dagli stampi. Dal cacao si possono ottenere prodotti diversi. I più importanti sono il Burro di cacao (sostanza grassa ottenuta da semi di cacao o da parti di semi di cacao), il Cacao in polvere (ottenuto mediante macinazione di semi di cacao puliti, de- corticati e torrefatti e che presenta un tenore minimo di burro di cacao del 20% e un tenore massimo di acqua del 9%), il Cacao magro in polvere (cacao fortemente sgrassato in polvere con un tenore di burro di cacao inferiore al 20% della sostanza secca). Per quanto riguarda il cioccolato in commercio si possono trovare il Cioccolato in polvere (miscuglio di cacao in polvere e zuccheri, contenente non meno del 32% di cacao in polvere), il Cioccolato comune in polvere (cacao zuccherato, cacao zuccherato in polvere, un miscuglio di cacao in polvere e zuccheri, contenenti non meno del 25% di cacao in polvere), il Cioccolato (ottenuto da cacao e zuccheri con un tenore minimo di sostanza secca totale di cacao del 35%, di cui non meno del 18% di burro di cacao e non meno del 14% di cacao secco sgrassato). Inoltre il Cioccolato al latte (ottenuto da cacao, zuccheri e latte o prodotti derivati dal latte). Di color marrone chiaro, lucido con profumo persistente, ricco con un aroma di caramello e cacao. Al palato ha una buona fusibilità e una quantità percettibile di grassi con una struttura croccante. Gusto dolce con una leggera nota di amaro del cacao. Aroma intenso e persistente. Con la dicitura “alla panna” il prodotto deve avere un tenore minimo di grassi del latte del 5,5%, mentre con “al latte scremato” non deve contenere più dell’1% di grassi del latte. Il Cioccolato bianco (ottenuto da burro di cacao, latte o prodotti derivati dal latte e zuccheri, e che contiene non meno del 20% di burro di cacao e del 14% di sostanza secca del latte ottenuta dalla disidratazione parziale o totale del latte intero, del latte parzialmente o totalmente scremato, di panna, di panna parzialmente o totalmente disidratata, di burro o di grassi del latte in quantità pari almeno al 3,5%). Di color avorio, lucido con profumo intenso, ricco e persistente con sentori di latte, burro, vaniglia e biscotto. Ha gusto dolce molto marcato, aroma intenso e persistente. Il Cioccolato mi-doux (miscela di cioccolato al latte e fondente, colore marrone lucido, profumo intenso e persistente di cacao, caffè tostato e liquirizia). Gusto dolce con nota di amaro, intenso e persistente. Il Surfin di colore marrone intenso, lucido con profumo intenso, forte e ampio. Sentore di cacao tostato, liquirizia e tabacco. Struttura croccante in bocca e ottima fusibilità. Gusto dolce con una nota media di amaro e aroma fine e molto persistente. L’Extra-bitter, colore marrone scuro, molto lucido. Profumo fragrante, aromatico, molto intenso e persistente. Sentori di cacao, caffè e orzo tostato. Struttura croccante, fusibilità lenta. Gusto intenso e persistente, amaro con una nota di dolce. L’Amarissimo, colore marrone scuro tendente al nero. Profumo forte, molto intenso, aromatico. Sentori del cacao miscelata alla viola, al tabacco e alla liquirizia. Molto croccante al morso, fusibilità lenta in bocca, gusto amaro. Altre tipologie sono il Cioccolato ripieno, questa denominazione non riguarda tuttavia i prodotti il cui ripieno è costituito da prodotti di panetteria, pasticceria, biscotteria o gelato. La parte esterna di cioccolato è pari al 25% almeno del peso totale del prodotto. Il Cioccolatino o pralina, prodotto della dimensione di un boccone costituito da cioccolato ripieno, oppure da un unico cioccolato o un miscuglio di cioccolato e di altre sostanze commestibili, purché il cioccolato 9 CHIMICA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 rappresenti almeno il 25% del peso totale del prodotto. Il valore calorico del cioccolato è molto elevato infatti 100 g di cioccolato fondente apportano 515 kcal, 100 g di cioccolato al latte 545 kcal mentre 100 g di cacao amaro in polvere 355. Il cacao risulta meno calorico del cioccolato perché contiene meno grassi e non ha zuccheri aggiunti. Il cioccolato, anche se non è sicuramente un alimento dietetico, ha una composizione abbastanza equilibrata inoltre, contrariamente a quanto si crede, il colesterolo è presente solo in quello al latte. E’ anche molto ricco di minerali e vitamine, in particolare magnesio, potassio, calcio, ferro, sodio, rame, manganese, selenio, zinco, fluoro. Tra le vitamine sono presenti il β-carotene (pro-vitamina A), la B1, B2, D ed E. In particolare, la vitamina E ed i tocoferoli hanno interessanti capacità antiossidanti, mentre la nicotinammide (vitamina PP) svolge una azione favorevole nel mantenimento dell’integrità delle pareti dei vasi sanguigni venosi. Con 100 g di cacao si apportano acqua (3.5%), proteine (12%), lipidi (46%), carboidrati (35%), fibra (8.5%) e minerali (3.5%). Gli acidi grassi che compongono il burro di cacao sono: tra i saturi l’acido palmitico e acidi a corta catena (26%), stearico e acidi a lunga catena (34%) mentre tra gli insaturi l’acido oleico (37%) e linoleico (2.1%). L’interesse per gli acidi grassi polinsaturi non riguarda solo l’aspetto nutrizionale in quanto essenziali, ma anche gli aspetti legati all’integrità di tutte le membrane biologiche, comprese quelle dei neuroni. Gli acidi grassi insaturi del burro di cacao sono quindi importanti da un punto di vista dietetico. Infatti, sembra non innalzino i livelli delle lipoproteine LDL (il cosiddetto colesterolo cattivo) ma aumenterebbero i livelli di HDL (colesterolo buono). Per le dimostrate proprietà cicatrizzanti, il cacao è utilizzato per la cura di ragadi ed è applicato a rughe e piaghe. Il burro di cacao è usato comunemente in cosmesi come unguento e in farmacia come rivestimento di pillole e nella preparazione di supposte. Ha eccellenti proprietà emollienti e quindi è spesso usato anche nella cura di screpolature delle labbra e delle mani. Il cacao è un rimedio popolare per alopecia, ustioni, tosse, labbra secche, febbre, indebolimento, malaria, nefrosi, parto, gravidanza, reumatismi, morso dei serpenti e ferite. Il cacao è noto anche per il suo contenuto in alcune sostanze psicoattive, come la teobromina (3,7-dimetilxantina) e la caffeina (1,3,7-trimetilxantina), che svolgono un ruolo stimolante sul sistema nervoso centrale. La teobromina ha effetti simili alla caffeina, ma meno potenti. È invece più pronunciato il suo effetto su muscoli, reni e cuore. Una delle sostanze più interessanti del cacao è la feniletilammina, molecola del tutto simile alle endorfine, piccoli peptidi che il cervello produce quando si è particolarmente felici, euforici o in stato di serenità emotiva. Il cioccolato ha un blando effetto euforizzante “tira su il morale” quindi non sorprende, se il desiderio di consumarlo sia più forte nei momenti di stress o di difficoltà emotive. La feniletilammina è presente nel cacao in elevata quantità ed ha una struttura chimica analoga alle amfetamine, di cui condivide gli effetti neurofarmacologici legandosi agli stessi recettori cerebrali. La feniletilammina può potenziare gli effetti della dopamina e della noradrena10 lina, favorendo la veglia, ritardando la comparsa dei sintomi di affaticamento e producendo quindi gli stessi effetti psicoattivi delle catecolamine. Si ritiene che sia anche in grado di calmare lo stimolo della fame. Le persone che soffrono di forti instabilità emotive hanno una produzione irregolare di feniletilammina e spesso consumano quantità eccessive di cioccolato durante i periodi di depressione. La “voglia di cioccolato” nelle donne è spesso episodica e fluttua con le modificazioni dei livelli ormonali, appena prima o durante il ciclo mestruale, questo suggerisce un legame con la produzione ormonale. Il desiderio di consumare prodotti a base di cacao è spiegato come un “effetto craving” (forte desiderio). La ricerca scientifica ha identificato specifici neurotrasmettitori (serotonina, endorfina, anandamide, feniletilammina) che influenzano significativamente il tono dell’umore cui viene associato un’efficace azione antistress. Inoltre la contemporanea ingestione di carboidrati favorirebbe il trasporto di triptofano verso il cervello, determinando l’aumento della sintesi di serotonina cerebrale, che produrrebbe una sensazione soggettiva d’energia e di piacere. L’anandamide è invece una sostanza endogena, scoperta nell’ultimo decennio, in grado di legarsi ai recettori per i cannabinoidi, generando quindi effetti comportamentali anche sul tono dell’umore e su funzioni cognitive come l’apprendimento e la memoria. “Ananda” è una parola derivata dal sanscrito e significa felicità. L’anandamide è, infatti, in grado di stimolare le percezioni sensoriali ed indurre euforia. Altri aspetti interessanti della neurobiologia del cacao sono legati alla presenza di molecole come le N-aciletanolammine, in grado di innalzare le concentrazioni di anandamide. Tra i prodotti a base di cacao, la polvere di cacao è quella che contiene il livello più elevato di polifenoli, seguita dal cioccolato “scuro” e dal cioccolato al latte. A parità di peso secco, la polvere di cacao e il tè verde hanno capacità antiossidanti simili. Il cioccolato al latte ha circa quattro volte la capacità antiossidante delle fragole fresche, che si collocano ai primi posti tra la frutta. Una tavoletta di cioccolata al latte di 50 g contiene circa la stessa quantità di polifenoli di un bicchiere di vino rosso. Sono stati dimostrati, in studi recenti, i diversi effetti dei polifenoli sulla salute. Si ritiene che i polifenoli possano ridurre il rischio di sviluppo di cancro, malattie cardiovascolari, artrite reumatoide, e che possiedano benefici effetti antinvecchiamento. Uno studio su volontari ha rilevato che il consumo di 35 grammi di cacao sgrassato ha aumentato il lasso di tempo per l’ossidazione delle LDL in vivo. Per quanto riguarda i tipi di polifenoli, nel cacao sono presenti discrete concentrazioni di flavonoidi, soprattutto la catechina e l’epicatechina monomero. Oltre alle loro proprietà antiossidanti, i polifenoli procurano vantaggi al sistema cardiovascolare. Uno studio recente ha dimostrato che il consumo di cacao sopprime l’attivazione piastrinica e sembra avere un effetto simile a quello dell’aspirina. Questi composti possono anche indurre rilassamento vasale endotelio-dipendente. Il cacao e il cioccolato contengono quindi antiossidanti di natura polifenolica probabilmente essenziali per diminuire i danni provocati dalle specie reattive dell’os- SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | CHIMICA sigeno (ROS). I polifenoli nel cacao sono anche antimicrobici e sembra abbiano anche un effetto positivo nella prevenzione delle carie dentaria. Infatti, la frazione di polifenoli del cacao rende inattivo un enzima che catalizza la produzione di polisaccaridi provenienti dallo zucchero. Recentemente gli stessi effetti anticariogeni sono stati scoperti anche in estratti di polifenoli provenienti dal tè verde. Questi estratti vengono ora aggiunti ad alcune gomme da masticare come ingrediente anticariogeno. Per scegliere un buon cioccolato occorre leggere con attenzione gli ingredienti riportati in etichetta. Il vero cioccolato è a base di cacao, burro di cacao e zucchero ai quali si possono aggiungere latte ed alcune golosità, come nocciole e aromi vari. Un cioccolato di qualità deve avere una superficie lucente e liscia, non devono esserci trasudazioni biancastre di burro di cacao. La tavoletta deve spezzarsi senza sbriciolarsi e la pasta interna deve essere omogenea e compatta. Non deve comparire il sentore di rancido. Non deve essere eccessivamente acido. Non deve sapere di cotto o di tostato. In bocca il cioccolato deve essere liscio, non devono sentirsi i piccoli grumi di polvere di cacao. La differenza più evidente tra un cioccolato di alta qualità e uno di media qualità riguarda la consistenza in bocca ed il sapore, soprattutto per il cioccolato fondente con oltre il 70% di cacao. Aumentando la percentuale di cacao quello di media qualità si presenta più “polveroso” e amaro, mentre quello di alta qualità continua a sciogliersi in bocca finemente anche con percentuali superiori all’80%. Il cioccolato, a temperatura ambiente, si conserva anche per diversi mesi. I prodotti al cioccolato devono essere conservati in ambienti privi di odori e ben ventilati, a una temperatura di 18-20 °C, con una umidità relativa inferiore al 50%. Una cattiva conservazione determina la fioritura di zuccheri e grassi. La fioritura dello zucchero rende la superficie del cioccolato grigia coperta da uno strato sottile di sciroppo appiccicoso o di cristalli di zucchero. Ciò avviene quando il cioccolato è conservato in un ambiente con un’umidità relativa superiore all’82-85% che causa la dissoluzione e la successiva precipitazione dello zucchero nella condensa superficiale. Il cioccolato è un alimento sicuro perché grazie alla sua composizione e alla ridotta presenza di acqua, è praticamente inattaccabile dagli agenti patogeni se conservato correttamente. BIBLIOGRAFIA Artel G.E., Sies H. (1999). “Protection against preoxynitrite by cocoa polyphenol oligomers”. FEBS Lett. 462, 167-170. Bassanese T. (2001). “Cacao, così dolce, così amaro”. Ed. EMI, Bologna, Italy. Berger L. (1992). “Guida internazionale alle varietà del cioccolato”. Ulissedizioni, Milano. A.A. V.V. Brazilian Cocoa and Confectionery Manufacturers Association (1998). “Brazil: a paradise for chocolate lovers”, Confection Magazine, London, UK. Bruinsma K., Taren D.L. (1999). “Chocolate: food or drug?”. J. Am. Diet. Assoc. 99, 1249-1256. Buchanan R.L. (1979). “Toxicity of spices containing methylenedioxybenzene derivatives: A review”, J. Food Safety, 1, 275-277. Karim M., McCornick K., Kappagoda C.T. (2000). “Effects of cocoa procyanidins on endothelium-dependent relaxation”. J. Nutr. 130, 2106S-2108S. Knight P. (1998). “Brazilian Chocolate: Recession Hopes”. Coffee & Cocoa Intern. 25, 43. Kondo K., Hirano R., Matsumoto A., Igarashi O., Itakura H. (1996). “Inhibition of LDL oxidation by cocoa”. Lancet, 348, 1514. Kris-Etherton P.M., Keen C.L. (2002). “Evidence that the antioxidant flavonoids in tea and cocoa are beneficial for cardiovascular health”. Curr. Opin. Lipidol. 13, 41-9. Mao T., Powell J., Van de Waters J. (2000). “Effect of cocoa procyanidins on the transcription and secreation of interleukin-1β in peripheral blood mononuclear cells”. Life Sci. 66, 1377-1386. Mao T., Van de Waters J., Keen C.L. (2000). “Cocoa procyanidins and human cytokine transcription”. J. Nutr. 130, 2093S-2099S. Massari I. (1999). “Oro colato”. Ed. Barry Callebaut, Milano, Italy. Motamayor J.C., Risterucci A.M., Lopez P.A., Ortiz C.F., Moreno A., Lanaud C. (2002). “Cacao domestication I: the origin of the cacao cultivated by the Mayas”. Heredity, 89, 380-386. Murray M.T. (2000). “Guida medica agli integratori alimentari”, Ed. Red, Como, Italy. Spencer S.C. (1998). “Barriers to Asian Confectionery Market”. Chocolate and Confectionery Intern. 2, 21. Rein D., Paglieroni T.G., Pearson D.A. (2000). “Cocoa and wine polyphenols modulate platelet activation and function”. J. Nutr. 130, 2120S-2126S. Sanbongi C., Osakaba N. (1998). “Antioxidative polyphenols isolated from Theobroma cacao”. J. Agric. Food Chem. 46,454-457. Sancito M. (2004). “Il signore di Principe e São Tomé”. Cioccolata & C. 50, 48. Schramm D.D., Wang J.F., Holt R.R. (2001). “Chocolate procyanidins decrease the leukotriene-prostacyclin ratio in humans and human aortic endothelial cells”. Am. J. Clin. Nutr. 73, 36-40. Serafini M., Bugianesi R., Maiani G., Valtuena S., De Santis S., Crozier A. (2003). “Plasma antioxidants from chocolate”. Nature, 424, 1013. Steinberg F.M., Bearden M.M., Keen C.L. (2003). “Cocoa and chocolate flavonoids: implications for cardiovascular health”. J. Am. Diet. Assoc. 103, 215-223. Waterhouse A.L., Shirley J.R., Donovan R. (1996). “Antioxidants in chocolate”. Lancet, 348, 834. 11 La componente mobile animale dell’ecosistema Roma BIOLOGIA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 12 MAURO CRISTALDI, GERMANA SZPUNAR & CRISTIANO FOSCHI Dipartimento di Biologia e Biotecnologie “C. Darwin”, Università degli Studi di Roma La Sapienza I L’ECOSISTEMA CITTÀ n termini ecologici la città può essere considerata un “Ecosistema eterotrofo incompleto, dipendente da ampie zone limitrofe per l’energia, il cibo, le fibre, l’acqua e gli altri materiali”1. Proprio gli altri materiali (edilizi, meccanici e chimici) comportano un trasferimento continuo dall’esterno verso l’interno di risorse naturali e/o artificiali necessarie alle tecnologie utilizzate dalla specie umana, ma anche un’elevata quantità di scarti da restituire all’esterno. Tali tecnologie non comportano solo dei vantaggi per un “Buen vivir” sensu Evo Morales2, ma comportano numerosi svantaggi legati a nocività, incidenti sul lavoro, dissesto 1 Odum E.P. (1983). Basi di Ecologia. Piccin, Padova. 2 Farah H. I., Vasapollo L., Coord. (2011). Vivir bien: ¿Paradigma no capitalista? CIDEMUMSA, La Paz (Bolivia): 439 pp. territoriale, degrado ambientale, oltre che alla meno conclamata diffusione di elettrosmog3. Adottando come principio iniziale che occorre considerare la foresta (o la città) in funzione degli alberi (gli edifici, gli uomini e le altre specie) che la compongono4, riprendiamo, con modifiche parziali, l’elenco delle caratteristiche peculiari di tale ecosistema5: a) presenza massiccia di substrati impermeabili e ad elevata coibenza termica (asfalto e cemento); b) produzione gas inquinanti da autoveicoli, caldaie e scarichi industriali che modificano il chimismo dell’aria e amplificano l’effetto serra con conseguente isola di calore6: mesoclima urbano ten3 Giuliani L., Soffritti M., Eds (2010). Nonthermal effects and mechanisms of interaction between electromagnetic fields and living matter. Ramazzini Institute and European Journal of Oncology Library, ICEMS Monograph, Mattioli 1885 S.p.A., Fidenza (PR), 5: 403 pp. 4 Fresu G. (2008). Lenin lettore di Marx. Collana “La Foresta e gli alberi”, 17. La città del Sole Edizioni Sas, RC: 253 pp. 5 Tescarollo P. (2009). Basi di Ecologia urbana. Materiale didattico. 6 Fanelli G., Testi A.M. (2012). L’isola di calore urbana: metodi di studio attraverso le fioriture. In: “L’automobile uccide Roma. La privatizzazione dell’aria e la morte SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | BIOLOGIA denzialmente più caldo e secco; (e relativo particolato dannoso) rapc) consumo di grandi quantità di presenta l’aspetto emergente nella preenergia; sente fase di sfruttamento energetico d) modifiche delle morfologie territo- sopraliminare delle risorse8, creando riali naturali e seminaturali preesistenti sia carenze di approvvigionamento che la maggiore preoccupazione epidemiocon edificazioni e infrastrutture; logica attuale e) enormi causata dall’inquantità di rifiuti Ogni separazione dell’uomo quinamento prosolidi e liquidi da dalla natura è illusoria perché dotto9. smaltire. ogni privazione di natura Va sottolineaQuando si par- ritorna inesorabilmente a danno to che i problemi la di ecosistema dell’uomo legati all’ecosiin funzione della Valerio Giacomini stema città dicomponente mo“Perché l’ecologia”, 1980 bile, cioè animapendono dal nule, occorre consimero di abitanti derare non tanto le singole specie che per metro quadrato e dalla estensione costituiscono gli alberi (o entità speci- territoriale occupata (da cittadina a mefiche, i cosiddetti taxa viventi), ma il complesso della “foresta” cittadina codell’ecosistema urbano” (Roma, Campidoglio, stituita in gran parte da edificazioni in- 20 Giugno 2012). tensive, che ci permettono di considera- 8 Di Fazio A. (2000). Questioni strategicore questo insieme in funzione della sua militari, negoziati ONU e problema energetico. In: Contro le nuove guerre. Scienziate e scienziati composizione in corpi parzialmente se- contro la guerra. A cura di M. Zucchetti, Odradek parati (aree verdi, corpi idrici, ambienti Edizioni SRL, Roma: 151-200. aerei e sotterranei) . Il traffico veicolare 9 Triolo L. , Binazzi A., Cagnetti P., Carconi P. 7 dell’ecosistema urbano” (Roma, Campidoglio, 20 Giugno 2012). 7 Cristaldi M., Szpunar G. (2012). La componente mobile, animale, dell’ecosistema Roma. In: “L’automobile uccide Roma. La privatizzazione dell’aria e la morte Correnti A. De Luca E., Di Bonito R., Grandoni G., Mastrantonio M., Rosa S., Schimberni M., Uccelli R., Zappa G. (2008). Air pollution impact assessment on agroecosystem and human health characterisation in the area surrounding the industrial settlement of Milazzo (Italy): a multidisciplinary approach. Environ. Monit. Assess., 140: 191-209. tropoli), oltre che dal rapporto tra spazi edificati e spazi verdi10, magnificato soprattutto nelle periferie delle megalopoli5. La città di Roma ha una densità abitativa pari a 2213 ab/Km2 (www.comune.roma.it), mentre Milano pari a 6863 ab/Km2 (www.provincia.milano.it), il che mostra come Roma sia una città con ampie aree verdi (ville storiche, siti archeologici, cortili, prati, pascoli, giardini, parchi, aree incolte e coltivate), dove sovente si insedia per necessità la marginalizzazione antropica, che viene spesso misconosciuta nella gran parte delle città del mondo (homeless, nomadismo, immigrazione, lenocinio, ecc.), pur rappresentando essa, e attraverso specie domestiche (cani, gatti, maiali, conigli, polli) e commensali, il principale dei possibili focolai di rischio epidemico ed epizootico (e.g. tubercolosi, salmonellosi, toxoplasmosi, virosi), come pure un importante apporto di diversificazione fisica e culturale11,12. 10 Buscemi A., Cignini B., Contoli L. (1995). Aspetti quali-quantitativi delle zoocenosi ad uccelli e mammiferi nell’ambiente urbano di Roma. SITE Atti, 16: 445-448 11 Lanzara C., coord. (1989). L’ambiente nel Centro storico e a Roma, Rapporto preliminare: 59 pp. 12 Rivera A. (2008). Cittadini, meteci e nuovi fantasmi. Sergiobontempelli.wordpress.com. 13 BIOLOGIA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 Ma occorre chiedersi se esista una connessione tra queste aree marginali e le aree naturali periurbane - dove spesso si collocano spontaneamente e inappropriatamente eterogenee smart city (quartieri dormitorio) - in modo che possa nel tempo esser superata la diffusa concezione di spazio verde come “giardino privato”, quale eredità minore delle esclusivistiche ville storiche romane. URBANIZZAZIONE DEL TERRITORIO E AREE VERDI (SUOLO) Il Fiume Tevere, nonostante i muraglioni di contenimento, riesce ancora a creare paradossalmente una continuità – sicuramente degradata – passante all’interno della più diffusa ed eterogenea muraglia costituita dall’edificato. Se infatti prendiamo gli animali terragnoli in qualità di indicatori della mobilità ambientale, possiamo pensare che l’attraversamento della città possa avvenire con relativa facilità solo negli spazi verdi prospicienti l’asta fluviale. Secondo un’indagine13 svolta nei primi anni ’80 lungo il Fiume Tevere, si possono notare tracce di Volpe (Vulpes vulpes), ma anche la presenza molto sporadica della Nutria (Myocastor coypus), mammifero anfibio d’ambiente dulciacquìcolo di origine sudamericana. Per altri Mammiferi occasionalmente terragnoli, come l’ arboricolo Scoiattolo (Sciurus vulgaris), il Tevere e l’affluente Aniene costituiscono sicuramente un impedimento al passaggio, che lo relega all’area nordorientale della città (Villa Ada, Villa Borghese) e pone le Amministrazioni responsabili di fronte ai limiti di sopravvivenza della componente arborea a Conifere14. A questa poderosa muraglia costituita dall’edificato, per gli animali terragnoli si aggiungono le strade e le ferrovie. Più la strada è di grandi dimensioni (e.g. Tiburtina, Salaria, Raccordo Anulare, etc.) e protetta da recinti, minore è la possibilità di attraversarla. Ogni situazione di isolamento, anche parziale, tende a comportare fenomeni di endogamia con formazione di metapopolazioni, le quali possono provocare alterazioni genetiche e/o comportamentali. Al contrario, un caso ad esito fortunoso fu il tentativo di introduzione durante l’assessorato Angrisani (1979-81) di alcuni esemplari alloctoni (dono del Comune di Genova) di Scoiattolo grigio (Sciurus carolinensis), concorrente ecologico dell’autoctono Scoiattolo, detto “rosso”, che furono rapidamente eliminati dalla colonia felina insediata nella villa, evitando così per tutto il Lazio il problema della naturalizzazione della specie, che affligge ormai il patrimonio forestale 13 Cristaldi M., Aste F., Cagnin M., Costa M., Federici R., Giombi D. Ieradi L.A., Lentini L., Nieder L., Pacilli A.M., Paradisi S., Salucci M.P., Scirocchi A., Tommasi M. (1985). Le infestazioni murine. I problemi igienico-sanitari connessi e le possibilità di limitazione del fenomeno. Ufficio Speciale Tevere e Litorale- Settore Ambiente, Comune di Roma: 76 pp. 14 Cignini B, Cristaldi M., Sartoretti A. (1997). Lo Scoiattolo Sciurus vulgaris L., 1758 nella città di Roma. Ecologia Urbana, 9 (2-3): 14-15. 14 dell’Italia Nord-occidentale15,16, ma anche i boschi costieri a Pinus halepensis della Basilicata ormai invasi dall’affine Callosciurus finlaysoniii (Aloise & Lombardi, com. pers.) Un’unica specie di mammifero risente meno del processo di frammentazione ambientale urbana, il Riccio europeo (Erinaceus eurpaeus), in quanto specie di medio-piccola taglia con ampia capacità di dispersione, protetto dalla legislazione internazionale IUCN, dotato della capacità di chiudersi in una pelliccia di aculei che lo protegge da tutti i potenziali predatori (ad eccezione del Tasso, Meles meles, inabituale in ambienti urbani), se rapportata alla taglia e alla disponibilità di trovare opportune vie di trasferimento. La prevalente limitazione alla diffusione di questo animale è data dalle recinzioni del territorio urbano combinata con una accresciuta facilità di morte per schiacciamento sulle strade; ne consegue che la sua distribuzione in città è limitata ad alcune aree verdi (e.g.: Villa Ada, Villa Torlonia), ormai prevalentemente circondate da strade17. Le ferrovie ad alta velocità costituiscono delle strutture invalicabili se non passano in tunnel. Ma mentre gli Uccelli non subiscono, oppure subiscono meno, tali impedimenti al passaggio, per i Mammiferi terragnoli e per altri animali atteri18,19 il flusso genico è inesorabilmente impedito in ambito cittadino e periferico. E’ chiaro che tutte queste infrastrutture, che non sono mai state prese in esame nella progettistica urbana in funzione di adeguate attenzioni ecologiche15,20, subiscono i limiti degli elevati costi aggiuntivi legati alla mancata programmazione ed i rischi generalizzati che vi si sovrappongono in particolari situazioni logistiche (ambienti poco ventilati, vie di fuga, inondazioni). Le barriere stradali non costituiscono soltanto un problema limitato alla velocità delle vetture che le percorrono - con i conclamati problemi traumatologici per tutta la componente animale (uomo compreso) - ma soprattutto un fattore di impatto legato alla frammentazione ambientale, all’inquinamento acustico e da particolato (rispettivamente importanti dal punto di vista epidemiologico per l’induzione di nevrosi con sordità da rumore e per l’insorgenza di cancerogenesi soprattutto nel sistema respiratorio), alla propagazione di specie invasive e di patologie, ai cambiamenti climatici, alle condizioni microclimatiche dell’asfalto e all’introduzione 15 Bartolino S., Genovesi P. (2008). Sciurus carolinensis Gmelin, 1788. In: Fauna d’Italia (Mammalia II), a cura di Amori G. Contoli L. & Nappi A. Calderini ed., 2008 16 Cristaldi M. (1997). A un anno da L’ecosistema Roma. Verde ambiente, anno XIII(1): 60-65. 17 - Aloise G. Scaravelli D., Bertozzi M., Cagnin M. (2003). Abbondanza relativa del riccio Erinaceus europaeus L. 1758 (Insectivora, Erinaceidae) in ambienti del sud e nord Italia. Hystrix 14: 109. - Reggiani G., Filippucci M.G. (2008). Erinaceus europaeus Linnaeus, 1758. In: Fauna d’Italia. A cura di Amori G., Contoli L., Nappi A., Ed. Calderini de Il Sole 24 Ore, Milano: 70-81. 18 Fattorini S. (2011). Insect extinction: A long-term study in Rome. Biological Conservation, 144: 370 – 375. 19 Fattorini S. (2011b). Insect rarity, extinction and conservation in urban Rome (Italy): a 120 - year -long study of tenebrionid beetles. Insect Conservation and Diversity: 1- 9. 20 Cristaldi M. (1997). Le aree fluviali nella gestione della fauna della città di Roma. Verde Ambiente, Anno XIII(6): 77-79. SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | BIOLOGIA di specie aliene21. Su ogni direzione dello spazio che parta dai cosiddetti “cunei verdi” si possono individuare pertanto ostacoli insormontabili, che hanno determinato nel corso del tempo la scomparsa di numerose specie sensibili ai fenomeni di frammentazione dell’habitat (e.g. Topo quercino, Eliomys quercinus, ancora presente nel 1911 presso il Fosso di S. Agnese). Oltre al fallito “cuneo verde” del Nord-Est (sensu arch. Vittoria Calzolari), oramai occupato dagli insediamenti del Villaggio Olimpico e dei Parioli (ex-bosco sacro di Anna Perenna), si citi anche a titolo di esempio l’area verde litoranea22 che avrebbe potuto rappresentare un cuneo importante riallacciandosi alla Riserva Naturale del Laurentino-Acqua Acetosa, ovvero la Tenuta Presidenziale di Castelporziano e la Pineta di Castel Fusano, menomata da recenti e corposi incendi (2000 e 2008). La penultima mantiene un suo interesse per la sua microfauna a Mammiferi (presenza in simpatria/ sintopìa delle specie sorelle di topi selvatici, Apodemus flavicollis e A. sylvaticus)23, a Cheloni (Testudo graeca, T. hermanni) e ad Anfibi (Rana esculenta complex, Bufo viridis)24; nonostante si tratti di un’area protetta, sono stati riscontrati in ambedue le specie di Apodemus citate numerose anomalie mutagenetiche in atto, sintomo di inquinamento attribuibile alla presenza di metalli pesanti originati presuntivamente da un aeroporto militare (Pratica di Mare), numerose strade a traffico veloce, un aeroporto civile (Fiumicino) e dall’area industriale di Pomezia25. L’unico cuneo che si inserisce nel contesto urbano e realmente conserva le condizioni di seminaturalità che si riallacciano all’integrità dell’antica Campagna romana, sembra condensarsi intorno al Parco Regionale dell’Appia Antica. Di questo “cuneo verde” fa parte il Parco della Valle della Caffarella, una delle prime aree sottoposte a tutela da parte dei cittadini26,27. Nel Parco Regionale dell’Appia Antica sopravvivono diverse specie di Mammiferi28, ad21 Dinetti M. (2009). Le infrastrutture di trasporto: un fattore di pressione sui mammiferi. Road Ecology, Rete IENE. In : Amori G., Battisti C., De Felice S. (2009). I Mammiferi della Provincia di Roma. Provincia di Roma, Roma: 319-320. 22 De Nicola C., Guidotti S., Fanelli G., Pignatti S., Serafini-Sauli A., Testi A. Ecologia della vegetazione dei boschi di Castelporziano. In: Il sistema ambientale della Tenuta Presidenziale di Castelporziano. Ricerche sulla complessità di un ecosistema mediterraneo. Accademia Nazionale delle Scienze, Roma, 2.s. II: 565-605 23 Amori G., Cristaldi M., Fanfani A., Solida L., Luiselli L. (2010). Ecological coexistence of low-density populations of Apodemus sylvaticus and A. flavicollis (Mammalia: Rodentia). Rendiconti Lincei, 21 (2): 171182. 24 Cattaneo A. (2005). L’erpetofauna della Tenuta Presidenziale di Castelporziano. Atti Mus. Stor. Nat. Maremma, 21: 49-77. 25 Ieradi L.A., Locasciulli O., Bravo J., Annesi F., Szpunar G., Cristaldi M. (2010). Genotoxic monitoring on wild rodents living in protected areas. Fresenius Environmental Bulletin, 19: 2318-2323. 26 Comitato per il Parco della Caffarella. (1997). La Valle della Caffarella. Spiccioli di Natura. Comune di Roma, Dipartimento X. Fratelli Palombi Editori, Roma: 127 pp. 27 AA. VV. tutti aderenti all’Associazione di volontariato Comitato per il Parco della Caffarella e all’Associazione Humus_onlus. (2013). Il sacro Almone, da fiume a discarica. Mito, storia, scienza e impegno civile per ridare vita al fiume del Parco dell’Appia Antica. Tipolitografia Tipostil pp.112. 28 Piccari F., Szpunar G. (2012). I micromammiferi del Parco Regionale dell’Appia Antica. Collana Atlanti Locali, Edizioni ARP, Roma: 68 pp. dirittura di un certo valore conservazionistico (Istrice, Volpe, Riccio, Talpa, Donnola, Faina, Coniglio, Arvicola del Savi, Topo selvatico), il cui mantello può funzionare come sistema di diffusione di sementi e/o di pollini per le Piante verdi, di cui si avvalgono prevalentemente le specie vegetali urbanofile29. I fattori estremi di frammentazione interessano aree verdi isolate all’interno della città: Villa Nomentana, Villa Torlonia, Villa Albani, Cimitero di Campo Verano, Villa Lazzaroni. Tali aree, data la loro relativamente limitata estensione, possono essere considerate enclave provvisorie e possono quindi essere assimilate in extenso ai giardini interni di molti quartieri concepiti col criterio della “città-giardino” (Parioli, Flaminio, Ponte Milvio, Prati, S. Lorenzo, Garbatella) e agli “orti di guerra” ricavati nelle aree fluviali. In tali aree l’effetto frammentazione territoriale, estremizzato e aggravato dall’uso pesante di insetticidi e di concimi azotati, quasi sempre scorrettamente gestiti dai condomìni e/o da privati singoli di eterogenea estrazione sociale, può riproporre in ambito urbano e periurbano gli effetti provocati nei boschetti di periferia30. Per i piccoli Mammiferi le strade costituiscono senz’altro una barriera fisica alla loro distribuzione. Effetti di mitigazione alla presenza di queste barriere potrebbero essere rappresentati da chiusure stagionali di strade, localizzazione e design di sovrapassaggi e sottopassaggi naturalizzati. Una eventuale realizzazione di tali iniziative andrebbe accompagnata da una appropriata connettività31 tra aree verdi garantita da strade bianche di dimensioni adeguate. Le aree verdi delimitate dalle rotatorie e dagli svincoli stradali, essendo strutturate come “piccoli isolati”, portano all’estremo tali processi di frammentazione. CORPI IDRICI La città di Roma non è caratterizzata dalla presenza di laghi naturali, ma solo di un’area litoranea prospiciente il mare (Ostia) e fiumi con tendenza al regime torrentizio tributari del Tevere, il cui tratto urbano può trovarsi soggetto ad occasionali piene regolate attualmente a monte dalla diga di Castel Giubileo (Raccordo Anulare Nord). Tali piene potrebbero diventare un problema a causa dei cambiamenti climatici in atto, i quali provocano eventi meteorici estremi concentrati nel tempo che impediscono il regolare deflusso dell’acqua da parte dei corpi idrici32. A tali eventi corrisponde anche un problema legato al ciclo dell’acqua, per cui eventi meteorici 29 Fanelli G.(1995 ). La vegetazione e la flora infestanti. In: Cignini B., Massari G., Pignatti S.( a cura di) . Ecosistema Roma, Ambiente e Territorio. Conoscenze attuali e prospettive per il 2000. Fratelli Palombi Editori: 91-96. 30 Mortelliti A. (2009). Mammiferi e frammentazione ambientale. In : Amori G., Battisti C., De Felice S. (2009). I Mammiferi della Provincia di Roma. Provincia di Roma, Roma: 293-296. 31 Battisti C. (2003). Habitat fragmentation, fauna and ecological network planning: Toward a theoretical conceptual frame work. Italian Journal of Zoology, 70 (3): 241-247. 32 Pasini A. [a cura di] (2006). Kyoto e dintorni. I cambiamenti climatici come problema globale. Franco Angeli Editore, Milano: 214 pp. 15 BIOLOGIA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 estremi che si verificano in tempi ridotti non consentono ai suoli un filtraggio naturale, e quindi il conseguente arricchimento delle falde acquifere sotterranee. Tale fenomeno viene amplificato dalla presenza di asfalto che impermeabilizza i suoli, oltre a contribuire a creare, con il resto dell’edificato e il vapore acqueo emesso dal terreno esposto, l’effetto “isola di calore” magnificato in ambiente urbano33 rispetto al più globale “effetto serra”32. Fin dall’Ottocento l’attività di pesca effettuata sul Fiume Tevere34,35, associata alla crescente eutrofizzazione delle acque dovuta principalmente agli scarichi civili, ha portato a un impoverimento della fauna ittica presente nel fiume stesso. Attualmente sono relativamente abbondanti le specie tipiche di acque a basso tenore di ossigeno, come rovelle (Rutilus rubilio), carpe (Cyprinus carpio), carassi (Carassius spp.), pesci gatto (Ictalurus vel Ameiurus spp.), più recentemente gli invasivi siluri (Silurus glanis), ma da più tempo addietro le anguille (Anguilla anguilla) pescate allo stato di ceche e destinate commercialmente alla vallicoltura. Per quanto riguarda i Mammiferi, nell’area urbana del Tevere sono segnalati insediamenti di Nutria (Myocastor coypus) e di Volpe (Vulpes vulpes), che sfruttano il corso d’acqua e le sue golene come vie di passaggio per la ricerca di risorse trofiche. Una sintesi delle conoscenze acquisite nel corso degli anni è rappresentato dal lavoro di Cristaldi et al. (1985) che fu commissionato dall’Ufficio Speciale Tevere e Litorale per studiare il problema delle infestazioni murine12, in particolare per le specie infestanti Rattus norvegicus (Ratto delle chiaviche), R. rattus (Ratto dei tetti) e Mus musculus domesticus (Topo domestico), a diverso grado considerate commensali della specie umana e soggette a mal gestite disinfestazioni. Nonostante tale lavoro mettesse in evidenza un elenco completo delle immissioni idriche in ambito urbano congruenti alla necessità di effettuare tempestivi interventi di risanamento ambientale, esso fu poco considerato dalle successive Amministrazioni, almeno fino al Convegno del Campidoglio “Ecosistema Roma” (2008)16,36. Le presenze faunistiche sinora citate consentono di identificare nell’area tiberina un’importante area umida di raccordo tra entroterra e mare, che prescinde dal traffico fluviale ormai altamente ridotto per ragioni idraulico-strutturali37: il mantenimento di attività di pesca e di canottaggio implica un aumento del rischio di Leptospirosi (Leptospira spp.), spirilli contraibili attraverso microlesioni del tegumento esposte ad acqua/fango e legati in primis alla diffusione ambientale di 33 Lin T., Yu Y., Bai X., Feng L., Wang J. (2013). Greenhouse gas emissions accounting of urban residential consumption: a household survey based approach.Plos One, 8(2). 34 Betocchi A. (1878). Del Fiume Tevere. Tipografia Elzeviriana del Ministero delle Finanze, Roma: 81 pp. 35 Cataudella S. e coll.(1991). La pesca fiumarola e il mercato ittico a Roma. Amm. Prov. Roma, Uff. Pesca: 96 pp. 36 Cignini B., Massari G., Pignatti S., a cura di (1995). Ecosistema Roma, Ambiente e Territorio. Conoscenze attuali e prospettive per il 2000. Fratelli Palombi Editori. 292 pp. 37 Ravaglioli A. (1995). Il Tevere fiume di Roma. Storia, curiosità, prospettive. Tascabili Economici Newton, Trento: 66 pp. 16 urine di Ratto delle chiaviche38,39. In conclusione, il fiume Tevere con i suoi affluenti può rappresentare un importante corridoio biologico per specie acquatiche (e.g. piante acquatiche, pesci, uccelli), come pure per quelle infestanti (ratti, topi, nutrie), ma al contempo rivelarsi un’imponente barriera per specie arboricole e terricole (e.g. Scoiattolo, Istrice, Donnola), dal momento che l’originario assetto del corso d’acqua, così come la vegetazione arborea naturale, sono stati modificati con la costruzione di appositi muraglioni e collettori principali destro e sinistro, a seguito dell’eccezionale alluvione del 1870, con il pretesto giustificativo dalla messa in sicurezza dell’area urbana. Le numerose sorgenti acquifere presenti nella città di Roma possono rappresentare una causa di diffusione di contaminanti alla popolazione che ne fa uso, sia a causa della presenza sul territorio di attività non dotate di sistemi di depurazione, che a causa di elementi chimici apportati dalle precipitazioni meteoriche e dall’attività del Vulcano Laziale (e.g. Arsenico, Radon), soprattutto quelle abbondanti e improvvise (fenomeni sempre più frequenti in quanto conseguenti ai cambiamenti climatici in atto32). Inoltre gli organismi saprobi tendono ad aggregarsi attorno a feltri grigiastri di Batteri coloniali - più facilmente individuabili27, anche ad occhio inesperto, nelle acque luride - più che in quelle potabili, per le quali occorre rilevare la pericolosità a lungo termine nella ridistribuzione di sostanze clororganiche cronicamente accumulatesi per effetto dei composti clorurati immessi “legalmente” nelle condotte ai fini della potabilizzazione microbiologica. Una delle componenti idrologiche più importanti della città, i fossi e/o le “marrane” (nomenclatura tipica dell’area romana indicante i fossi degradati da scarichi domestici), è stata completamente trascurata, se non occasionalmente, ma tali corpi d’acqua dovrebbero essere sottoposti a maggiore attenzione per le modificazioni storiche a cui sono state soggette le loro acque, tuttora in gran parte soggette a inquinamenti e a conseguenti intombamenti (e.g. Fosso dell’Acqua Bullicante), per essere di nuovo valorizzate (e.g. Laghetto ex-Snia Viscosa). In alcuni casi sono talmente trascurate che costituiscono un ricettacolo di animali infestanti (ratti, topi, tartarughe Trachemys, blatte, zanzare, mosche) e di contaminanti (metalli pesanti, composti organici), che creano fastidi, alterazioni ecologiche e trasmettono malattie soprattutto nel contesto delle concentrazioni antropiche suburbane. A tal proposito va sottolineato che tutte le situazioni antropiche cittadine, nell’attuale contesto economico-politico, restano soggette a rischio di malattie degenerative40. Tale problema, purtroppo globale, interessa soprattutto i centri urbani 38 Cristaldi M, Ieradi LA. 1995. Infestazioni da ratti e topi. In: Cignini B, Massari G, Pignatti S, editors. L’ecosistema Roma ambiente e territorio. Fratelli Palombi ed.: 175-182. 39 Romi R., a cura di, 1996 – Convegno Aspetti tecnici, organizzativi e ambientali della lotta antimurina (17 ottobre 1995, Roma). Rapporti ISTISAN, 96/11: 126 pp. 40 Burgio E. (2007-2014). La “pandemia silenziosa”. Trasformazioni ambientali, climatiche, epidemiche. ISDE (Medici per l’Ambiente). SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | BIOLOGIA in cui le infestazioni vengono trattate quasi esclusivamente con mezzi chimici che garantiscono la rapidità degli effetti immediati, ma di cui viene ignorato l’impatto ambientale, le possibili cadute immunitarie nelle popolazioni e gli stessi sistemi di prevenzione a rischio. AMBIENTE AEREO Un’altra sottovalutata fonte di contaminazione per gli abitanti è costituita dai radar militari, la cui dislocazione corrisponde generalmente tuttora agli antichi forti militari (e.g. Forte Braschi, Forte di Monte Mario, Forte Bravetta) che circondano la città, considerati complessivamente da Cignini & Zapparoli (1997) come aree semi-naturali41. Se si pensa che il campo elettromagnetico nell’area di Roma misurava orientativamente intorno ai 0,00007 microwatt/cm2 al tempo dell’Uomo di Neanderthal (circa 125000 anni fa) e fino all’Età moderna, oggi, al tempo delle tecnologie elettroniche (radar, conduzione elettromagnetica senza fili e cavi elettrici ad alta tensione, emissioni da satelliti) prodotte in meno di un secolo dall’attuale Homo sapiens, esso è arrivato a circa 2 microwatt/cm2 (F. Marinelli, com. pers.). I cavi elettrici possono rappresentare altresì un pericolo meccanico per le specie ornitiche e per i pipistrelli, più che per gli aerei che sorvolano la città a maggiori altezze abituali, perfino quelli diretti all’aeroporto di Ciampino; tuttavia, per alcune specie di Accipitridi (rapaci diurni) i tralicci possono rappresentare dei siti di nidificazione, essenzialmente per la scarsità di siti naturali e secondariamente per l’ombra prodotta dall’armatura e la conseguente ventilazione42. Le specie ornitiche, data la capacità di volo, sono generalmente favorite negli ambienti urbani in quanto non risentono né della pressione predatoria né delle barriere a terra, tantomeno allorché tali ambienti siano dotati, come a Roma, di ampie aree verdi e specchi di acqua. Negli ultimi anni è stata osservata una ripresa delle popolazioni di rapaci diurni: Gheppio (Falco tinnunculus) e Falco pellegrino (Falco peregrinus). Una specie ornitica che risente delle limitazioni imposte dalla presenza umana è il Gufo comune (Asio otus), il quale è notevolmente condizionato dalla presenza di vecchi alberi dotati di cavità, che generalmente vengono abbattuti nella pratica di giardinaggio perché considerati antiestetici e pericolosi per l’incolumità, ma anche fonte di guadagno per vivaisti impegati nel continuo ricambio delle piantumazioni. Problemi simili coinvolgono i roost di Barbagianni (Tyto alba) - formidabile specie predatrice di micromammiferi spesso sottoposti a inappropriate bonifiche del rudere occupato, che dissuadono la nidificazione dello strigiforme già ampiamente sottoposto alla concorrenza insediativa dell’invadente Piccione domestico. 41 Cignini B., Zapparoli M. (1997). L’ “ecosistema Roma” e la sua fauna. In: Ecologia Urbana. La fauna della città di Roma, Comune di Roma, Ufficio Diritti Animali, 2-3: 3-4. 42 Dell’Omo G., Costantini D., Di Lieto G., Casagrande S. (2005). Gli uccelli e le linee elettriche. Alula XII (1-2): 103-114. Delle due specie di Piciformi stanziali segnalati a Roma (Picchio verde, Picus viridis, e Picchio rosso maggiore, Dendrocopos mayor)43, la più diffusa è la seconda che però risente, anche in questo caso, della frammentazione dell’habitat e della scarsità di alberi maturi e/o vecchi ad alto fusto. Specie di particolare valore simbolico ed estetico, come il Gruccione (Merops apiaster), uccello migratore estivo, dovrebbero essere sottoposte a particolari attenzioni per la salvaguardia degli ambienti dove essi nidificano in qualità di specie fossorie: sponde dei fiumi, cave di tufo e di sabbie. In tal senso, le cave in disuso potrebbero essere non riempite, ma recuperate mantenendo lo stato delle pareti friabili e scavabili e utilizzandone i fondi per la coltivazione di agrumi - proprio come le cave di pietra dell’isola di Favignana nelle Egadi - poiché si tratta di ambienti ombreggiati e ancora ricchi di apporti idrici (e.g. Cava della Tenuta di S. Cesareo presso il Parco Regionale dell’Appia Antica, com. pers. di F. Piccari). Inoltre, la cementificazione delle sponde dei fiumi dovuta al perdurante criterio di regimentazione delle acque, favorevole essenzialmente alla crescita non regolamentata dell’ingegneria civile, crea un notevole fattore di limitazione per il Gruccione in quanto esso, il Topino (Riparia riparia) e il Martin pescatore (Alcedo atthis) sono specie ornitiche che scavano gallerie come siti di nidificazione. In tali situazioni critiche si notano negli ultimi anni gli insediamenti invasivi di Cornacchia grigia (Corvus corone cornix), specie favorita dalla frammentazione, la cui diffusione è condizionata dalla crescente presenza del Gabbiano reale (Larus michahellis) che nidifica sui più alti edifici della città44. A sua volta la Cornacchia grigia limita la diffusione urbana di Passeriformi come la Passera d’Italia (Passer italiae), e di Turdidi (e.g. Turdus merula), mentre apparentemente non influenza la conclamata diffusione del Piccione domestico (Columba livia var. domestica), varietà panmittica ormai troppo ben adattata alle condizioni limite offerte dall’ambiente urbano45, ma che può rimaner vittima, pur sopravvivente, di penose mutilazioni (ben visibili in numerose zampe ornitiche delle conurbazioni del Veneto orientale) imputabili all’uso di spilloni acuminati (dissuasori metallici), posizionati per impedirne lo stazionamento su superfici aggettanticfr.46: i cosiddetti “dissuasori a filo ballerino” appaiono i più economici ed efficaci per impedirne la sosta. Preoccupante si rivela la diffusione del Pappagallo monaco (Myiopsitta monachus), specie naturalizzata originaria 43 Sarrocco S., Battisti C., Brunelli M., Calvario E., Ianniello L., Sorace A., Teofili C., Trotta M., Vicentini M., Bologna M.A. (2002). L’avifauna delle aree naturali protette del comune di Roma gestite dall’ente Roma Natura. Alula, 9: 3-31. 44 Cignini B., Zapparoli M. (1996). Atlante degli uccelli nidificanti a Roma. Palombi Editori, Roma: 126 pp. 45 Del Lungo A. (1937). Abitatori alati dei monumenti e dei parchi di Roma. Rassegna faunistica, 4 (XVI): 3- 33. 46 - Albonetti P. , Bozzano M., Causa A., Fidora S., Orecchia S., Petroni P., Zanardi S., Zanoni G. (2002). Strategie di monitoraggio e contenimento delle popolazioni di Columba livia a Genova. Biologi Italiani, 8: 58-61. - De Vita F. (2009). L’uso dei dissuasori, leggenda e realtà. www.agireora. org/ 17 BIOLOGIA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 del Sudamerica, segnalato a Roma fin dal 1996 presso il Parco della Caffarella e successivamente diffusosi in altre aree della città e in particolare nel suo quadrante sud-est (Appia Antica, Farnesiana, Torricola)26,47. Una specie ben conosciuta a Roma è lo Storno (Sturnus vulgaris), la cui presenza, nel passato, si era ridotta a causa dell’inquinamento prodotto dalle caldaie a carbone. La Direttiva Quadro 96/62/CE ha ripristinato le condizioni originarie di sopportabilità dell’aria per numerose specie aviarie, favorendo il ritorno degli stormi di storni. Tali condizioni non hanno invece permesso la diffusione della Rondine p.d. (Hirundo rustica), più confinata ad ormai esigue stazioni nella città (e.g. la stazione di Monte Antenne in Roma è ormai percorsa da un sostenuto traffico veicolare). Attualmente sono invece predominanti altre specie insettivore e migratrici che occupano in parte la nicchia ecologica della Rondine, come il Balestruccio (Delichon urbica) e il Rondone (Apus apus). Per quanto riguarda i Chirotteri (soprattutto Pipistrellus pipistrellus, P. kuhlii, Myotis myotis vel blythi, Hypsugo savii, Eptesicus serotinus, Tadarida teniotis)48, comunemente conosciuti come Pipistrelli, la città sembrerebbe rappresentare gli stessi vantaggi e svantaggi che si hanno per gli uccelli diurni, ma, poiché si tratta di specie crepuscolari/notturne che occupano una nicchia ecologica notevolmente differente rispetto a quella degli Strigiformi, occorre formulare considerazioni differenti. Solo recentemente, con l’utilizzo delle cassette nido (bat-box) questi micromammiferi volanti stanno acquisendo la giusta attenzione da parte del pubblico, il quale sembra aver compreso l’importanza ecologica di questi animali insettivori, almeno come formidabili cacciatori di insetti notturni, a dispetto di quanto alcune credenze, basate sul loro naturale aspetto terrifico, abbiano nel tempo influito negativamente sulla cultura popolare (se entrano casualmente in casa, va ricordato che non si attaccano ai capelli e che basta spegnere la luce ed aprire le finestre per farli uscire, in quanto essi sono guidati da un sistema sonar naturale che impedisce loro di urtare malamente). I fattori che influiscono maggiormente sulla loro sopravvivenza in ambito urbano sono la mancanza di idonei siti di rifugio (sottotetti, soffitte, grotte, fessure nelle mura) e l’utilizzo di insetticidi che incide, attraverso processi di bioaccumulo e biomagnificazione, sulla componente entomologica (loro fondamentale risorsa trofica) e/o più direttamente su loro stessi. 47 Taffon D., Giucca F., Battisti C. (2008). Atlante degli uccelli nidificanti nel Parco Regionale dell’Appia Antica. Gangemi Editore S.p.A., Roma: 192 pp. 48 Amori G., Battisti C., De Felici S. (a cura di) (2009). I mammiferi della Provincia di Roma. Dallo stato delle conoscenze alla gestione e conservazione delle specie. Provincia di Roma, Assessorato alle Politiche dell’Agricoltura, Stilgrafica, Roma: 347 pp. 18 AMBIENTE SOTTERRANEO Gli ambienti sotterranei costituiscono la componente ecologica più assimilabile alla condizione degli animali terragnoli, in quanto in questi ambienti, la mobilità è estremamente ridotta proprio per causa del substrato interessato, altamente eterogeneo dal punto di vista geologico. La città di Roma, costruita sopra e spesso con le emissioni del Vulcano Laziale, è ampiamente caratterizzata da ambienti ipogei (collettori e fognature, condotte d’acqua, cunicoli idraulici ed elettrici, cave, catacombe, altre cavità di interesse archeologico, sottopassaggi, gallerie, canali di servizio, fondamenta, grotte, fungaie, intombamenti)49,50, la cui componente faunistica è scarsamente studiata: ci si limita ad interessarsi di alcuni fenomeni infestativi in ambienti spazialmente limitati (chiostrine) con posa in opera di sostanze repellenti, spesso ben sostituibili con la canfora del commercio; eppure tali ambienti limitati, come gli affini ed ampi cortili, potrebbero costituire la congiunzione tra ambienti aperti, consentendo un parziale argine alla frammentazione faunistica. L’attenzione ai passaggi dovrebbe essere infatti un compito prioritario nell’edificazione di barriere invalicabili (TAV, linee ferroviarie, strade non sopraelevate), mentre tali accorgimenti vengono prevalentemente ignorati, se non per strumentali servizi per persone invalide (e.g. pericolose e inutili strutture di attraversamento facilitato51). A causa delle condizioni microclimatiche tipiche degli ambienti ipogei (scarsa illuminazione, umidità elevata, frescura), la fauna presenta caratteristiche peculiari, quali lo sviluppo limitato degli organi visivi e la specializzazione di altri (Ortotteri Dolicopodi troglofili, sonar nei pipistrelli, olfatto nelle talpe e nei Soricomorfi, udito raffinato con bulle timpaniche ipertrofiche nei Roditori fossori, vibrisse ad elevata sensibilità in tutti i Mammiferi fossori). L’ambiente sotterraneo risulta sottoposto a diverse fonti di inquinamento che si accompagnano con diffusioni di organismi patogeni e dei loro vettori: filtrazione di liquidi, deposizione di rifiuti, polveri sottili, gas Radon e organismi saprobi. Il complesso sistema fognario della città, soggetto a scarsa manutenzione e a occasionali e/o sospette contiguità con la rete potabile, rappresenta, con le sue acque a lento deflusso ed eutrofizzate, un ricettacolo per numerose specie infestanti e patogene. Sovente tali specie fanno da tramite o 49 Luciani R. [a cura di] (1984). Roma sotterranea. Porta San Sebastiano 15 ottobre – 14 gennaio 1985, Fratelli Palombi Editori – Roma/Cataloghi: 300 pp. 50 Cerlesi E. E. (1999). Problematiche di stabilità in reti caveali adibite a fungaia e di reti caveali di tipo catacombale ed il loro silente ed insidioso rapporto con le possibili costruzioni soprastanti. Atti del Convegno “Le cavità sotterranee nell’area urbana di Roma e della Provincia. Problemi di pericolosità e gestione” (Roma, 13/03/1999), Servizio Geologico e Difesa del Suolo - Provincia di Roma / Società Italiana di Geologia Ambientale Sezione Lazio, Sistema Informativo Provinciale: 32-45. 51 A.C.I. (2011). Linee guida per la progettazione degli attraversamenti pedonali. 52 Maltese C. (1986). Roma consumata, dall’Urbanistica all’Ecologia. “Il Bagatto” Soc. Coop. Libraria a r.l., Roma: 172 pp. SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | BIOLOGIA sono vettori di potenziali malattie emergenti in primis negli ambienti di superficie. CONSIDERAZIONI CONCLUSIVE La molteplicità di condizioni a rischio e le loro possibili interazioni fanno delle città - e in generale degli ambienti urbanizzati - un coacervo di situazioni difficilmente interpretabili da un punto di vista rigorosamente sperimentale. Ciò in parte giustifica la scarsa diffusione di pubblicazioni scientifiche sull’assetto ecologico cittadino, spesso limitate a rilevazioni di carattere osservazionale, le quali dovrebbero invece costituire la base conoscitiva da cui dedurre le connessioni profondamente interattive necessarie alla ricerca ecologica negli ambienti antropizzati, che ancora deve essere adeguatamente sviluppata nel suo complesso. Il criterio inventariale seguito abitualmente dai faunisti, in cui tutte le specie sembrano appiattirsi in un elenco, potrebbe essere quindi superato e reso fruibile ai fini applicativi avvalendosi del principio di pianificazione applicato nel contesto antropico, all’interno del quale va individuato il ruolo caratteristico delle specie, sia delle comunità vegetali (e.g. compresi licheni, funghi, micorrize) che di quelle animali (abitualmente più mobili e pertanto apparentemente più soggette alla banalizzazione faunistica), nonché delle rispettive compatibilità ecologiche20, anche in relazione alla componente microrganismica, la meno percepibile ma sovente la più significativa. In tale contesto le tecnologie di prevenzione, profilassi e recupero ambientale, nonché di difesa dal dissesto territoriale (e.g. ecodiesel, fotovoltaico, energia da Idrogeno, prodotti biologici e/o localistici, abitazioni ecologiche, ecc.) vanno seguite con prudente diffidenza, in quanto orientate anzitutto a soddisfare esigenze del sistema di mercato su cui si basa la società capitalistica tutta, cui si aggiunge il criterio di “consumo del territorio”, sul quale – ricordando in urbanistica il cosiddetto “Sacco di Roma” di Cederna e Insolera - si fonda la cosiddetta “Grande rete” della città interterritoriale, nella quale i sistemi di cablaggio velocizzato tenderebbero ad evolvere, ma creando ulteriori problemi16,50,51,52. Solo secondariamente ad una loro seria sperimentazione preventiva alcune di tali tecnologie “alternative” potrebbero riuscire a soddisfare i bisogni effettivi delle popolazioni conurbate con la fruizione di prodotti utili e mirati. Un cambiamento molto graduale potrebbe essere affidato all’istruzione inferiore e superiore16, anche attraverso le reti museali, per riuscire a collegare gli aspetti umanistici e scientifici, in quanto questi coinvolgono tutti i fenomeni culturali che abitualmente partono dagli stessi conglomerati urbani. 19 MEDICINA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 «Il decennio della coscienza». Intervista a Piergiorgio Strata MARCO CAMBIAGHI P iergiorgio Strata è uno dei neuroscienziati più conosciuti d’Italia, oggi Professore Emerito all’Università di Torino. Classe 1935, il Professor Strata si trova nel suo ufficio tutti i giorni, se non impegnato in qualche congresso o conferenza. Neurofisiologo di fama mondiale, si è laureato in medicina presso l’Università di Pisa e come allievo del Collegio medico-giuridico della Scuola Normale, oggi detto Scuola Sant’Anna. Per oltre due anni (1965-67) ha collaborato con il Premio Nobel John Eccles a Canberra e Chicago. È anche stato Professore Associato onorario di Neurologia alla Northwern University di Chicago. Durante gli studi accademici ha invece lavorato presso l’Istituto di Fisiologia Umana dell’Università diretto dal Prof. Moruzzi, di cui la Montalcini, nel 1990, disse: “Se l’Italia è conosciuta nel mondo dal lato della biologia, e particolarmente nella neurofisiologia, tutto questo è dovuto a un figlio di questo paese, a Giuseppe Moruzzi”. Allievo di tali maestri, gli studi del Prof. Strata hanno spaziato nel campo delle neuroscienze e in particolare sui meccanismi del sonno e del funzionamento del cervelletto, sulla neuroplasticità con riferimento alla memoria e sui meccanismi di riparazione dei danni cerebrali. Insignito di vari premi, tra i quali il Premio Feltrinelli 2004 (Accademia dei Lincei), membro dell’Academia Europaea, ha ricoperto ruoli direttivi in società scientifiche nazionali e internazionali ed è anche stato Direttore Scientifico delle’EBRI (European Brain Research Institute) fortemente voluto dalla Montalcini a Roma. Tra i diversi incarichi governativi è stato delegato del Ministro del MURST nella Comitato di Gestione del IV Programma quadro della Comunità Europea e Delegato esperto nel V Programma Quadro. Inoltre, è delegato del Ministro nel Comitato dei Saggi del Human Frontier Science Program del G7. Parlare di scienza con il professor Strata significa anche parlare di storia della scienza e dei grandi nomi che l’hanno fatta. Quel che colpisce, soprattutto, è la voglia di fare, le tante idee, la passione con la quale si sentono raccontare queste storie. 20 Professor Strata, perché la ricerca e non la medicina? “Beh, vede, inizialmente io volevo fare un lavoro che desse una certa tranquillità, e quindi pensai di diventare medico. Nella commissione del concorso che affrontai per entrare nel collegio pisano vi era il Prof. Moruzzi che di solito invitava i vincitori ad entrare nel suo Istituto come allievi interni”. Cosa trovò lì? “Trovai un ambiente ottimale e stimolante, ricco di stranieri; era la Mecca degli studi sul sonno in quel periodo. Abbandonai l’idea di fare il medico e abbracciai la ricerca”. Poi ci fu l’incontro con Eccles e il periodo in cui lavorò nel suo laboratorio. “Sì, lo conobbi in un simposio nel 1961 e mi fece un’impressione notevole! Nel 1965 ebbi il privilegio di essere accettato a lavorare con lui e ci stetti per oltre due anni prima a Canberra e poi a Chicago. Lì cominciai a studiare il cervelletto sul quale concentrai gran parte dei miei futuri studi”. Cosa successe quando tornò? “Stetti ancora a Pisa per qualche anno lavorando con entusiasmo in maniera autonoma e pubblicando anche un lavoro su Nature, ma poi mi fu consigliato, come si usava allora, di andare, in vista di un futuro concorso, in una sede provvisoria dove non potei assolutamente organizzare la ricerca. E finalmente a Torino, dove non trovai assolutamente nulla in termini di strutture, ma ebbi la fortuna di reclutare moltissimi e bravissimi studenti che mi aiutarono a ripartire. Il primo fra questi fu l’attuale Prof. Montarolo”. Di cosa si occupò? “All’inizio con Piergiorgio Montarolo lavorammo sui ratti studiando le funzioni dell’oliva inferiore che proietta alle cellule di Purkinje del cervelletto come fibre ‘rampicanti’ dimostrando che l’oliva oltre alle sua nota azione eccitatoria fasica possedeva una potente forma di controllo inibitorio tonico che era fondamentale per regolare il livello di attività dei centri che si trovano sotto il controllo del cervelletto”. Poi le ricerche sfruttarono la favorevole struttura cerebellare per studiare fenomeni SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | MEDICINA di riparazione dei danni attraverso la rigenerazione o i trapianti di cellule fetali. Altro argomento di rilievo è stata la dimostrazione del ruolo del cervelletto nel controllo delle emozioni dimostrando come esso sia coinvolto nella memoria della paura. Cosa pensa dell’uso degli animali per la ricerca scientifica? “Sono fermamente convinto che si debba limitare al massimo la sofferenza degli animali, e per questo i controlli a cui i progetti scientifici sono sottoposti per legge sono molto severi. L’uso di animali è imprescindibile per la ricerca medicoscientifica. Per il resto, un animale che sfrutta un altro animale, magari per nutrirsi, è qualcosa di necessario. Se domani nessun animale si nutrisse di un altro animale, in poche ore la vita sulla terra sparirebbe”. Dopo il mappaggio del genoma, a che punto siamo col mappaggio del cervello? “Riguardo a questo argomento ci sono due mega progetti, quello americano e quello europeo; su questo secondo però non sono molto ottimista: siamo troppo lontani dal riprodurre la coscienza e la mente”. Siamo nel secolo del cervello, o delle neuroscienze in generale? “Beh, dal 1990 al 2000 abbiamo avuto il decennio del cervello proposto dagli USA al quale peraltro siamo stati i primi ad aderire, poi c’è stato il decennio del comportamento e ora siamo in quello della coscienza”. Come vede il futuro della ricerca italiana? “Molto male: sono molto critico in merito. Dobbiamo smetterla di dire che siamo brillanti, non è sufficiente. Nella recente assegnazione di finanziamenti internazionali quali lo European Research Council, gli italiani si sono classificati al secondo posto con 46 finanziamenti dietro la Germania. Il che sarebbe buono se…immagino ci sia un se “Esatto, infatti dei 46 italiani finanziati soltanto 20 lavorano in Italia. Se calcoliamo questi 20 successi in Europa siamo al quinto posto. Ma se poi calcoliamo il numero di finanziamenti per milione di abitanti scendiamo alla quindicesima posizione. Nel campo delle scienze della vita dobbiamo creare delle condizioni di lavoro meno burocratizzate e con grandi centri infrastrutturali. Inoltre dobbiamo rivoluzionare il sistema della premialità. I fondi pubblici devono andare non soltanto all’Università ma in buona parte ai Dipartimenti opportunamente valutati. E infine più spazio ai giovanissimi che mostrano creatività svincolandoli dal quel rapporto con il loro maestro che è fondamentale per fare carriera. L’Università cambierà quando i giovani di un laboratorio saranno ‘adescati’ da altri laboratori”. Capisco… 21 SCIENZE VETERINARIE | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 Cellule, dermatologia e salute animale: un trinomio importante per la sanità pubblica GIANFRANCO MILITERNO Scuola di Agraria e Medicina Veterinaria, Alma Mater Studiorum Università di Bologna L e cellule sono unità morfologiche e funzionali che caratterizzano organismi semplici e complessi. La scienza che le studia è la citologia. Le cellule sono oggetto di studio da sempre, perché siano conosciute nei minimi dettagli per una corretta diagnosi di molte malattie dell’uomo e degli animali. La diagnostica citologica è la disciplina che, per mezzo della microscopia ottica, si occupa delle cellule per la diagnosi di svariati quadri morbosi. In veterinaria è relativamente giovane, essendo nata sulla scia di quella della medicina umana ed è gradualmente decollata negli ultimi 30 anni, perché fondata su metodi poco invasivi, rapidi, efficaci e poco dispendiosi. Storicamente, la citodiagnostica umana ha come punto di riferimento nascente la figura e l’attività di ricerca del medico George Papanicolaou che, negli Stati Uniti, nei primi anni del 1900, studiò le modificazioni citologiche, collegate al ciclo estrale, in strisci vaginali di cavia. Nonostante lo scetticismo iniziale del mondo scientifico, Papanicolaou propose, già nel 1928, l’osservazione di strisci vaginali per la diagnosi precoce del cancro della cervice uterina, flagello femminile anche in donne giovani ed in età fertile. Così diventò il creatore del test per lo screening dei carcinomi della cervice uterina, il Pap-test e una sua monografia sulla citologia vaginale, intitolata “La diagnosi del cancro uterino con lo striscio vaginale”, fu pubblicata nel Commonwealth Fund nel 1943. Nel 1954 pubblicò un ricco e voluminoso atlante dal titolo “Atlas of exfoliative cytology”, in grado di fornire valido supporto diagnostico a medici e cultori. Da quel momento la cito-diagnostica è metodo d’indagine in svariati campi della patologia dell’uomo. Un’allieva e collaboratrice di Papanicolaou, Irena Koprowska, assieme al medico veterinario Jeffie Roszel, prese in considerazione le modificazioni cicliche dell’epitelio genitale nel cane e nel gatto. Roszel, all’Oklahoma State Uni22 SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | SCIENZE VETERINARIE versity, applicò in seguito il metodo citologico alla diagnosi delle neoplasie del cane, mettendo a confronto, in particolare, l’efficacia diagnostica della colorazione di Papanicolaou e la tricromica di Sano, che avrebbero trovato pochi sostenitori tra i veterinari degli anni successivi. Sempre in quegli anni un veterinario patologo-clinico dell’Università del Minnesota, Victor Perman, iniziò ad applicare le colorazioni ematologiche (Wright, May-GrünwaldGiemsa), più rapide, allo studio delle lesioni tessutali. Nel 1966 Perman pubblicò i risultati della sua esperienza su 1174 casi, arrivando nel 1979 a terminare e pubblicare il primo testo-atlante di citologia veterinaria, seguito nel 1980 da un famoso manuale del Dr. Alan Rebar della Purdue University. E’ così che ebbe inizio la fortuna della citologia anche in ambito veterinario, non senza dover abbattere e superare, almeno all’inizio, come era già accaduto nella medicina umana, alcuni ostacoli, legati, soprattutto, alla diffidenza di molti anatomopatologi, che consideravano la diagnostica istopatologica come unico metodo in grado di portare ad una diagnosi attendibile e definitiva. Attualmente la citologia è branca dell’anatomia patologica veterinaria in ogni suo capitolo, come anche la dermatologia. Le discipline dermatologiche hanno conosciuto una vera e propria esplosione in campo veterinario, crescendo per importanza ed applicazioni nell’ultimo ventennio, sia nella medicina degli animali d’affezione sia in quella degli animali da reddito. Veterinari, proprietari di animali, allevatori, hanno affinato progressivamente le conoscenze su molte lesioni dell’apparato cutaneo, di immediata osservazione durante l’esame clinico e facilmente campionabili. La necessità di svelare con finalità prognostiche la natura di tali disturbi ha incrementato l’applicazione di tecniche d’indagine più approfondite. In quest’ottica, ha trovato ampia diffusione il metodo d’indagine cito-diagnostico (agoaspirativo, per impronta, scraping o brushing), utile a dare informazioni su lesioni cutanee potenzialmente pericolose per gli animali e, a volte, anche per l’uomo. La diagnosi con la citologia si è evoluta di pari passo all’aumento della popola- zione animale in ambito domestico, grazie a nuove acquisizioni e scoperte in campo diagnostico ed alla crescente specializzazione. Un’indagine pubblicata poco più di dieci anni indietro evidenziava come in Italia già vivesse in casa una popolazione di circa 56 milioni di animali, in prevalenza cani e gatti, seguiti da pesci, uccelli da gabbia ed una non trascurabile quota di animali, spinti verso un processo selettivo di addomesticamento forzato, rappresentati da furetti, iguane e pitoni. Pur in tempi di crisi economiche imperanti e di leggi più severe, volte a ridurre i casi di abbandono di animali od a tutelare la presenza ed il benessere negli appartamenti di specie esotiche e/o a rischio d’estinzione, il numero di animali vicini all’uomo e “forzatamente umanizzati” rimane a tutt’oggi alto. Su questi ruota ancora un discreto business socio-economico e sanitario, i cui principali obiettivi sono di garantire lo stato di salute migliore per l’animale ed anche di scongiurare il pericolo di malattie trasmissibili dall’animale all’uomo. Da uno studio condotto dall’autore nel 2003, su un campione di 400 strutture sanitarie ambulatoriali variamente distribuite su tutto il territorio italiano e scelte casualmente, la citologia agoaspirativa è risultata una tecnica applicata nel 89,25% degli ambulatori (357 su 400), di limitato aiuto diagnostico nel 10,25% (41 su 400), di nessun ausilio solo in uno 0,5% (2 su 400); le specie animali su cui era impiegata maggiormente erano per il 99,5% (398/400) cani e gatti, 7,5 % lagomorfi, roditori ed uccelli, 7,5% specie esotiche o non convenzionali e solo per una quota del 1,25% (5 su 400) cavalli ed altre specie da reddito. Era emerso anche che il 99,5% dei prelievi citologici era stato effettuato dalla cute, seguita dai linfonodi (80%) e dai liquidi (25%) come urina, sangue e versamenti cavitari. Il sondaggio aveva permesso anche di rilevare un dato interessante, ovvero che la lettura dei preparati citologici era eseguita per il 92,5% da veterinari referenti specializzati, per il 5% da medici anatomopatologi e per il 2,5% da biologi. Tali dati sottolineavano, già dieci anni indietro, che la diagnostica citopatologica, coinvolgendo in ambito veterinario figure professionali con diversa formazione, era utile, soprattutto, nella diagnosi delle patologie nodulari cutanee dei carnivori domestici. Un sondaggio analogo, fatto ai giorni nostri, conferma i risultati di un decennio prima, con solo piccole e poco significative variazioni percentuali, sia nelle specie trattate, sia nei distretti indagati. Si è annullata completamente la percentuale di chi non la applica ed il 95% dei veterinari si occupa della lettura e della refertazione. Le lesioni cutanee sono spesso visibili, ancor prima che al medico, già a chi custodisce un animale e le motivazioni di un immutato interesse professionale verso il metodo in esame sono puramente di ordine pratico: il corretto comportamento clinico nei confronti di una lesione cutanea, un nodulo cutaneo ad esempio, è legato spesso ad un atto chirurgico o, in maniera sicuramente meno cruenta, all’impiego di un adeguato protocollo terapeutico farmacologico. E’ noto che l’esame citologico può costituire un metodo affidabile nella differenziazione tra lesioni benigne e maligne, il che permette di programmare l’eventuale intervento chirurgico in relazione all’urgenza ed all’aggressività del quadro clinico. La citologia può, infatti, portare alla diagnosi di patologie infiammatorie che talora si manifestano come lesioni nodulari di sospetta natura neoplasti23 SCIENZE VETERINARIE | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 ca, ma non richiedono l’intervento del chirurgo, e anche di forme displastiche o iperplastiche, che possono essere trattate con una chirurgia poco demolitiva e non urgente, od essere sottoposte a controlli costanti per valutarne l’evoluzione. E’ oramai fatto consolidato da una lunga esperienza che, in campo oncologico, l’esame citologico risulta un valido aiuto nella valutazione della malignità della lesione stessa, indirizzando, quindi il chirurgo sul tipo di intervento da attuare, anche per un prelievo bioptico per ulteriori esami istologici, e sulla possibilità di procrastinarlo, qualora l’animale non fosse temporaneamente in grado di sopportarlo. Da un lato, quindi, la citologia, eseguita con un agoaspirato, coadiuva la diagnosi differenziale tra alcune delle neoplasie benigne più frequenti dei carnivori domestici (adenomi sebacei e delle ghiandole epatoidi, fibromi, istiocitomi cutanei, ecc.), forme potenzialmente più aggressive (tricoblastomi, epiteliomi sebacei, ecc.) e neoplasie sicuramente maligne (carcinomi mammari, carcinomi squamocellulari, sarcomi, mastocitomi, ecc.). Tali lesioni tumorali possono essere ulteriormente distinte da lesioni simil-tumorali come granulomi, piogranulomi e cisti. In un programma di prevenzione e di difesa della salute pubblica, la citologia, tutta, e quella agoaspirativa in particolare, si propone come metodo per riconoscere o sospettare lesioni nodulari di malattie a carattere zoonosico. Forme cutanee di criptococcosi, sporotricosi, morva, tularemia, tubercolosi ed altre micobatteriosi, leishmaniosi, toxoplasmosi devono essere diagnosticate tempestivamente od indagate ulteriormente per svelarne l’eziologia soprattutto in animali che vivono a stretto contatto con soggetti, animali e uomini, immunodepressi (HIV-positivi ad esempio), sottoposti a terapie intensive a base di cortisonici o dal sistema immunocompetente non ancora maturo. E’ opportuno ricordare che il rischio di trasmissione di tali malattie è alto anche per chi si occupa della cura e della diagnosi degli animali stessi. Tra queste, alcune trovano giusta collocazione in alcuni riferimenti normativi che affondano radici nel Regolamento di Polizia Veterinaria approvato con D.P.R. 8.2.1954 N. 320 (art. 1 e successivi aggiornamenti), dove accanto a malattie infettive e parassitarie, soggette a denuncia obbligatoria, ne compaiono alcune trasmissibili, caratterizzate da quadri cutanei clinicamente definiti. Lo stesso regolamento, da sempre, dà indicazioni precise sulle figure professionali tenute a denunciare tali malattie (rif. artt. 2, 5 e 6). Ogni corporazione con specifiche competenze in campo bio-patologico, operativa in strutture nosocomiali e laboratori per diagnosticare malattie animali potenzialmente pericolose per l’uomo, ha il dovere di conoscere e segnalare la comparsa di zoonosi all’autorità sanitaria competente e, pertanto, deve essere sensibilizzata per fornire un supporto più completo all’attività clinico-dermatologica ambulatoriale. 24 FONTI BIBLIOGRAFICHE Benazzi P. (2014): Il Regolamento di Polizia Veterinaria. Approvato con D.P.R. 8.2.1954, N. 320. Annotato, integrato ed aggiornato al 28 Febbraio 2014. A cura di Cinzia Benazzi e Gabriella Martini, Soc. ed. Esculapio, Bologna. Bettini G. (2003): La citodiagnostica nell’animale e nell’uomo: analogie e differenze in due mondi paralleli. ABSTRACTS VI Congresso Nazionale S.I.Ci. DALLA CITOLOGIA ALLA PROTEOMICA: le Sfide del Futuro e Corso di Aggiornamento sulle Nuove Prospettive Diagnostiche in Citologia Clinica, Montegrotto Terme (PD) Italy, 26 - 27 Settembre, pagg. 81-85. Bettini G. (2008): Diagnostica citopatologica. Citopatologia di masse palpabili e non palpabili. In: Marcato P.S. “Patologia Sistematica Veterinaria”. Edagricole - Il Sole 24 ORE, Bologna, pagg. 1400-1405. Marcato P.S. (2008): Dermatologia. In: Marcato P.S. “Patologia Sistematica Veterinaria”. Edagricole - Il Sole 24 ORE, Bologna, pagg. 1-222. Militerno G., Bettini G., Bartoli C., Bazzo R., Morini M., Sarli G. (2001): Diagnostica citopatologica delle neoplasie mammarie nei carnivori domestici. Proceedings del V Congresso della Società Italiana di Citologia (S.I.Ci.), Roma 2527 ottobre, pag. 144-146. Militerno G., Preziosi R., Bettini G. (2001): Lesioni cutanee nodulari benigne del cane e del gatto. Diagnostica citoistomorfologica comparativa. ODV, 12: 49-59. Militerno G. (2003): Il ruolo della citologia agoaspirativa nella clinica dermatologica veterinaria. ABSTRACTS VI Congresso Nazionale S.I.Ci. DALLA CITOLOGIA ALLA PROTEOMICA: le Sfide del Futuro e Corso di Aggiornamento sulle Nuove Prospettive Diagnostiche in Citologia Clinica, Montegrotto Terme (PD) Italy, 26 - 27 Settembre, pagg. 90-93. Tavasani M. (2003): Amici a quattro zampe. E’ un mercato da record. Il Resto del Carlino, 12 aprile, pag. 3. SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | INGEGNERIA CIVILE E ARCHITETTURA Alcune considerazioni sull’erosione costiera. Il caso della regione pugliese MICHELE MOSSA Professore ordinario di Idraulica, Politecnico di Bari, DICATECh - Dipartimento di Ingegneria Civile, Ambientale, del Territorio, Edile e di Chimica L 1. INTRODUZIONE ’erosione costiera può essere definita in maniera semplificativa come l’invasione della terra da parte del mare. Il processo di erosione ed accrescimento costiero è sempre esistito e ha contribuito a plasmare il panorama costiero creando una grande varietà di tipologie di coste. L’erosione è influenzata anche dall’entroterra: le piogge e l’azione esercitata dall’acqua sul letto dei fiumi e dei torrenti hanno l’effetto di produrre un movimento di sedimenti verso la costa. Questi sedimenti forniscono materiale essenziale per contribuire allo sviluppo di spiagge e dune sabbiose e, più in generale, per creare luoghi atti ad insediare attività economiche e ricreative, proteggendo dal rischio inondazione le aree dell’entroterra, assorbendo l’energia delle onde più impetuose durante le tempeste, riducendo l’eutrofizzazione delle acque costiere e favorendo l’insediamento e la proliferazione di varie specie faunistiche. L’erosione costiera deve essere valutata facendo riferimento ad un lasso temporale sufficientemente lungo, tale da permettere di eliminare, mediando, eventi estremi quali tempeste e dinamiche di sedimento a carattere locale. L’erosione costiera implica tre differenti tipi di impatto o rischi: · perdita di aree con valore economico; · distruzione delle difese naturali (solitamente sistemi di dune) anche a seguito di un singolo evento tempestoso, con conseguente potenziale o effettiva inondazione dell’entroterra; · distruzione delle opere di difesa artificiali, con conseguente potenziale o effettiva inondazione dell’entroterra. L’erosione costiera è di solito il risultato di una combinazione di fattori, sia naturali che indotti dall’uomo, operanti su diversa scala. I più importanti fattori naturali sono: ven- ti e tempeste, correnti vicine alle spiagge, innalzamento del livello del mare, subsidenza del suolo e apporto liquido e solido dei fiumi a mare. I fattori indotti dall’uomo includono l’utilizzazione della fascia costiera con la realizzazione di infrastrutture e opere per insediamenti abitativi, industriali e ricreativi, l’uso del suolo e alterazione della vegetazione, le estrazioni di acqua dal sottosuolo, i lavori per la regimazione dei corsi d’acqua per la difesa del suolo e per il prelievo di risorsa per uso potabile, irriguo e industriale, estrazione di inerti dai fiumi, dragaggi, etc. 2. LE DIMENSIONI DEL FENOMENO A LIVELLO EUROPEO Come già evidenziato dal rapporto Eurosion (2004) e da Mossa (2014), a cui si può far riferimento per maggiori dettagli, molte coste europee sono interessate dall’erosione. I dati cambiano da paese a paese, ma sono comunque nel complesso allarmanti. Da un lato si colloca la Polonia con il 55% delle sue coste soggette ad erosione, dall’altro la Finlandia con appena lo 0,04%, grazie ad un litorale fatto di rocce dure. Preoccupa il dato di Cipro, a rischio per il 37,8%, quello della Lettonia con il 32,8%, della Grecia e del Portogallo al 28,6 25 INGEGNERIA CIVILE E ARCHITETTURA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 e 28,5%, rispettivamente, del Belgio al 25,5%, della Francia al 24,9%. Poi vi è l’Italia con il 22,8% del litorale soggetto a erosione, in gran parte frutto dell’urbanizzazione rapida delle sue coste e spiagge. Ammontano a circa 20.000, pari al 20% dell’estensione totale, i chilometri di costa dell’Unione Europea in cui tale problematica assume caratteri di maggior rilievo. L’impatto dell’erosione sui litorali è violento da qualsiasi lato lo si guardi. Il 36% delle coste europee (47.500 km2 su 132.300 km2 di una superficie misurata su una banda di 500 metri dal litorale) è costituito da siti naturali di valore ecologico inestimabile. Ecosistemi importanti e zone di grande biodiversità vivono in gran misura sotto la minaccia di distruzione o di forte impoverimento. In Europa, sulla stessa banda di litorale si sviluppa un’attività economica stimata tra i 500 ed i 1.000 miliardi di euro, fatta di turismo, agricoltura ed installazioni industriali, molte a rischio come anche le numerosissime abitazioni. Molte di tali zone (circa 15.100 km) si stanno considerevolmente ritirando e alcune di esse (circa 2.900 km) nonostante le opere di difesa realizzate. Invece, sono circa 4.700 i km di costa che proprio grazie alla realizzazione di tali opere sono stati resi stabili. L’area persa a causa dell’erosione, o comunque seriamente compromessa, è stimata in circa 15 km2 all’anno. Nel periodo 1999-2002 il numero di abitazioni che sono state abbandonate in Europa a causa dell’erosione è stato di circa 300, mentre sono circa 3000 quelle che hanno visto il loro valore di mercato decrescere di oltre il 10% per il rischio di essere sommerse o di precipitare in mare. Ingenti sono anche i danni alle infrastrutture viarie e alle comunicazioni. Tali perdite sono comunque insignificanti se comparate al rischio di inondazione delle zone costiere in conseguenza della scomparsa delle difese naturali quali le dune. Questa potenziale minaccia incombe su molte migliaia di chilometri quadrati di territorio e, di conseguenza, su molti milioni di persone. A dare una gran mano all’erosione è stato l’inurbamento spesso selvaggio della costa. Negli ultimi 50 anni la popolazione che vive nelle città o nei villaggi litoranei si è più che raddoppiata, portandosi a 70 milioni di abitanti nel 2001, pari al 16% dei cittadini dell’UE, accrescendo notevolmente il valore economico degli insediamenti ivi presenti. Nel 1988 l’Organizzazione Meteorologica Mondiale (WMO) e il Programma Ambientale delle Nazioni Unite (UNEP) istituirono l’United Nations - Intergovernmental Panel on Climate Change, (UN-IPCC), un’agenzia intergovernativa delle Nazioni Unite che ha lo scopo di valutare le informazioni scientifiche, tecniche e socio-economiche atte a comprendere il cambiamento climatico, i suoi potenziali impatti e le opzioni per la mitigazione degli stessi. Secondo i risultati resi noti da uno studio condotto dall’UN-IPCC viene stimato in più di 158.000 il numero degli abitanti che nel 2020 saranno coinvolti direttamente nel problema dell’erosione costiera. L’erosione è un fenomeno naturale e come tale la natura stessa potrebbe trovare la sua soluzione. Sabbia, pietre e ciot26 toli strappati alle spiagge dalle onde sono infatti naturalmente sostituiti dai sedimenti fluviali, dall’erosione delle falesie o dei banchi di sabbia marini, ma a rompere il meccanismo talvolta interviene l’uomo, prelevando annualmente 100 milioni di tonnellate di sabbia che servirebbero a riapprovvigionare in maniera naturale gli habitat della costa e che invece finiscono per essere utilizzati nell’edilizia, per costruire barriere fluviali o per lavori di genio civile. A questo ritmo le zone naturali, di gran lunga le armi più efficaci per proteggerci dal mare, sono destinate a scomparire. Le barriere artificiali non hanno, infatti, la medesima efficacia, in quanto limitano localmente l’erosione ma, nello stesso tempo, non fanno altro che spostare di alcuni chilometri il problema. Le misure adottate per l’attenuazione di tali fenomeni sono in netto aumento. Nel 2001 la spesa pubblica destinata alla protezione delle coste contro i rischi dell’erosione e dell’inondazione si è attestata a 3200 milioni di euro, contro i 2500 milioni del 1986. Tali cifre riflettono chiaramente l’impegno e il bisogno di dover difendere tenacemente i beni che versano in situazioni di imminente rischio di erosione costiera, ma ci fanno perdere di vista gli ingenti costi indotti dall’attività dell’uomo a lungo termine. Recenti studi dell’UN-IPCC hanno stimato che i costi relativi all’erosione saranno, per il periodo che va dal 1990 al 2020, mediamente di 5.400 milioni di euro l’anno. 3. L’EROSIONE COSTIERA IN ITALIA: ALCUNI DATI Dagli anni cinquanta anche lungo le coste italiane si sono manifestati in modo palese locali e diffusi fenomeni di erosione delle coste sabbiose, sia come trend naturale sia come fenomeno indotto dalla pressione d’uso della fascia costiera. Erosioni locali erano state già evidenziate alcuni decenni fa, però non erano stati effettuati studi organici, poiché non si era ancora sviluppata una sensibilità al problema che investiva importanti aspetti sociali, economici e ambientali. Tale sensibilità è accresciuta quando sono aumentate l’urbanizzazione, le attività commerciali ed industriali e la fruizione turistica. Oggi in Italia il 60% della popolazione vive nella fascia costiera. Dal punto di vista legislativo il primo richiamo alle “opere e lavori di costruzione e di manutenzione dei porti, dei fari e delle spiagge marittime” è fatto nella Legge fondamentale sui Lavori Pubblici del 20 marzo 1865, n. 2248. Però, solo con la legge n. 542 del 14 luglio 1907 si stabiliscono i principi fondamentali delle opere di difesa delle spiagge. La legge era la conseguenza di fenomeni erosivi che negli ultimi decenni del 1800 si erano innescati su alcuni tratti di litorale italiano. In particolare, la legge prevedeva di “difendere gli abitati dalla corrosione dal mare” e non le spiagge. Furono così posti in opera svariati tipi di manufatti con lo scopo di proteggere gli insediamenti. I primi studi organici relativi ai problemi della dinamica e, quindi, dell’erosione costiera sono quelli effettuati nell’ambito dei lavori della Commissione Interministeriale per lo SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | INGEGNERIA CIVILE E ARCHITETTURA Tabella 1. Quadro dello stato dei litorali italiani suddivisi in regioni amministrative e geografiche, “Relazione sullo stato dell’ambiente del Ministero dell’Ambiente - 1992”. Dati Atlante delle Spiagge Italiane. Regione Opere portuali e banchine Spiagge Coste alte In erosione km % km % Friuli Venezia Giulia 29 28 15 14 Liguria 63 18 177 50 2 1 14 3 Marche 4 Lazio 13 Abruzzo Molise Veneto Emilia Romagna Toscana In crescita Stabili km % km % km 18 11 20 13 2 3 2 3 47 40 3 31 20 122 57 Totale Totale km % km % 122 76 160 100 160 56 94 60 58 104 3 66 57 116 32 356 16 10 108 70 155 99 157 22 10 72 33 216 46 472 242 51 2 37 22 57 44 7 5 65 51 129 76 170 5 61 21 117 54 12 6 87 40 216 74 290 3 2 23 19 48 48 2 2 49 50 99 79 125 1 3 2 6 26 81 6 19 32 91 35 Campania 16 5 172 49 44 27 5 3 113 70 162 46 350 Puglia 41 5 450 57 89 30 1 0 212 70 302 38 793 19 32 40 98 1 2 41 68 60 125 17 196 32 23 4 394 64 613 82 742 Basilicata Calabria 4 1 Sicilia 37 4 436 41 140 24 36 6 401 70 577 55 1050 Sardegna 12 1 960 71 62 17 17 4 295 79 374 28 1346 125 4 1883 53 585 39 79 5 856 56 1520 43 3528 Adriatico 63 5 353 28 242 28 48 6 555 66 845 67 1261 Jonio 51 4 483 34 212 24 39 4 636 72 887 62 1421 239 4 2719 44 1039 32* 166 5 2047 63* 3252 52 6210** Tirreno ITALIA Note: * al valore relativo alle spiagge in erosione occorre aggiungere un ulteriore 10% (oltre 300 km) per quei litoriali che sono stabili mediante opere di protezione. Pertanto le spiagge “naturalmente” stabili costituiscono poco più del 50% del totale ** compresa l’Isola d’Elba; escluse le isole minori, i cui litorali hanno uno sviluppo di circa 1290 km Studio della Sistemazione Idraulica e della Difesa del Suolo (1970), nota come “Commissione De Marchi”, dal nome del prof. Giulio De Marchi che la presiedeva. La stessa fu istituita dopo tanti anni di dibattiti parlamentari per dare una risposta alla difesa del suolo a seguito di eventi catastrofici, quale l’alluvione del Polesine del 1951 e l’alluvione di Firenze del 1966. La Commissione era ben conscia delle difficoltà di coniugare la difesa dei territori dalle inondazioni con la difesa dei litorali sabbiosi. Infatti, nell’ambito della Commissione, la V Sottocommissione, presieduta dal prof. Guido Ferro, operò sul tema “Difesa dal Mare dei Territori Litoranei”. I lavori della Commissione furono la base di partenza della prima Legge nazionale organica sulla Difesa del Suolo, ossia la Legge del 18 maggio 1989, n. 183. I lavori della Sottocommissione, con il supporto degli uffici del Genio Civile per le Opere Marittime, portarono alla produzione di 39 Fogli, in scala 1:250.000, ricavati dalle carte nautiche dell’Istituto Idrografico della Marina, che coprivano l’intero territorio nazionale e riportavano lo stato del fenomeno erosivo e delle opere a mare al 1968 - 1969. Dall’indagine condotta risultò che i processi erosivi interessavano la maggior parte delle foci dei fiumi italiani e vasti tratti della fascia costiera. Questa tendenza generalizzata era imputabile principalmente alle sistemazioni idrauliche forestali delle aree interne dei bacini idrografici italiani (rimboschimenti e sistemazioni idrauliche dei corsi d’acqua delle aree interne prealpine e collinari degli Appennini, lavori avviati su larga scala alla fine della seconda guerra mondiale, anche per far fronte alla grande disoccupazione di massa esistente a quei tempi). Queste azioni furono avviate dopo tanti decenni di indiscriminato disboscamento delle aree interne per produrre legname e per far fronte alla forte domanda proveniente dall’industrializzazione del paese. Questi disboscamenti avevano favorito la formazione di ampie foci fluviali e litorali sabbiosi. Accanto a questa causa è da evidenziare l’effetto negativo sulla stabilità dei litorali sabbiosi delle regimazioni dei corsi d’acqua (effettuati sia per la difesa idraulica del territorio che per l’accumulo di acqua per la produzione di energia elettrica e per l’approvvigionamento di risorsa idrica per uso idropotabile, irriguo e industriale), alla bonifica di vaste aree costiere e alla infrastrutturazione delle stesse aree con urbanizzazione, viabilità e opere portuali e alla estrazione di inerti dagli alvei dei fiumi. Nell’ambito dei lavori della Commissione fu redatta, tra l’altro, una carta di sintesi dei tratti costieri in erosione e fu stimato che la lunghezza dei litorali in arretramento per i quali si rendevano necessari interventi di difesa erano pari a 600 km. Analisi successive a livello nazionale fotografano la situazione a distanza di 15-30 anni e ad una scala di dettaglio maggiore. In particolare l’Atlante delle Spiagge Italiane (lavoro prodotto nell’ambito di Progetti del Consiglio Nazionale delle Ricerche e del Ministero dell’Università, della Ricerca e dello Sviluppo Tecnologico, coordinati dal prof. Giuliano Fierro) è formato da 108 Fogli in scala 1:100.000 in cui si sintetizza la condizione delle spiagge italiane nel periodo 1985 - 1997. Dai fogli dell’Atlante risulta evidente che il processo di arretramento dei litorali, trattato in termini di tendenza evolutiva a medio periodo, si era aggravato rispetto allo studio precedente, nonostante la realizzazione di numerose opere di difesa. Questo aspetto era stato analizzato 27 INGEGNERIA CIVILE E ARCHITETTURA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 cedure adottate per ottenerli. Un dato, tuttavia, inconfutabile, è che tutti questi studi sono in accordo con la correlazione tra azioni antropiche e arretramento delle spiagge sabbiose. Infatti, in generale in Italia, la gran parte delle opere che esercitano un impatto consistente sulla dinamica costiera sono state realizzate nei primi due decenni del dopoguerra. nell’ambito di un altro progetto CNR, che aveva portato alla redazione delle prime raccomandazioni tecniche italiane per la protezione delle coste (Cortemiglia et al., 1981). Nella tabella 1 sono riportati i dati estratti dal Dipartimento di Scienze della Terra dell’Università di Roma “La Sapienza” dall’Atlante delle Spiagge Italiane e presentati nella “Relazione sullo stato dell’ambiente del Ministero dell’Ambiente - 1992”. Dalla suddetta tabella si osserva che la lunghezza delle spiagge in erosione al 1992 era di 1.039 km, quasi il doppio dei 600 km, stimati dalla Commissione De Marchi nel 1970. Nel 2006 la Segreteria Tecnica per la Difesa del Suolo del Ministero dell’Ambiente e della Tutela del Territorio, al fine di avere “un ordine di grandezza delle problematiche sull’arretramento costiero in Italia”, ha eseguito un’elaborazione dei dati vettoriali disponibili riferiti alla linea di costa tracciata sulla base delle tavolette IGMI 1:25.000 e alla linea di costa tracciata sulla base delle ortofoto aeree del Volo IT2000 (Ministero dell’Ambiente e della Tutela del Territorio, 2006). La sintesi regionale è riportata nelle tabelle 2 e 3, in cui si evidenziano gli ordini di grandezza dei fenomeni di arretramento e avanzamento della linea di costa. Tuttavia, nello studio non è stata operata nessuna distinzione fra le diverse tipologie di costa bassa, il che non rende possibile un confronto puntuale con l’Atlante delle Spiagge italiane. Ciò rende sicuramente difficoltosa l’interpretazione dei risultati in termini di arretramento o avanzamento della linea di riva rispetto agli studi antecedenti, in quanto ai fini di un corretto confronto è opportuno considerare i dati di partenza e le pro- Anche sulle coste della Regione Puglia, come per quelle italiane esaminate nel paragrafo 3, negli ultimi decenni si sono manifestati in modo palese locali e diffusi fenomeni di erosione dei litorali sabbiosi. Per maggiori dettagli sui contenuti del presente paragrafo si può far riferimento a Castorani et al. (2000), AA.VV. (2009; 2011). I primi dati sono scaturiti nell’ambito della Commissione de Marchi, di cui si è dato cenno in precedenza. Nella figura 1 è riportato un dettaglio della costa regionale estratta dalla carta di sintesi, redatta dalla Commissione. In essa sono evidenziati i principali tratti regionali in erosione al 1968. La figura evidenzia a nord delle criticità nei tratti adiacenti ai fiumi Saccione e Fortore. È presumibile che tali criticità siano da attribuire principalmente alle sistemazioni idrauliche dei corsi d’acqua e a quelle idraulico-forestali delle aree interne della Puglia, Molise e Campania realizzate in modo consistente dopo la seconda guerra mondiale. Infatti, all’epoca dello studio, la fascia costiera non era stata ancora interessata da significativi interventi antropici e la diga di Occhito sul Fortore non era ancora entrata in esercizio. La conclu- Tabella 2. Analisi della costa italiana: analisi delle superfici (Ministero dell’Ambiente e della Tutela del Territorio, 2006). Tabella 3. Analisi della costa italiana: analisi dei tratti lineari (Ministero dell’Ambiente e della Tutela del Territorio, 2006). 4. ALCUNE RIFLESSIONI SULL’EROSIONE COSTIERA IN PUGLIA Analisi dei tratti lineari Analisi delle superfici Linea di costa (km) Superficie di costa (kmq) Regione Abruzzo Avanzamento Arretramento Bilancio n. porti 1.8 -1.6 0.3 5 Abruzzo Basilicata Avanz. Arretr. Totale costa Avanz. % Arretr. % 55.1 45.2 138.7 40 33 Basilicata 1.8 -1.5 0.3 1 Calabria 8.4 -12.0 -3.6 15 Calabria Campania 2.6 -3.7 -1.1 18 Campania Emilia Romagna 5.8 -9.5 -3.7 5 Emilia Romagna Friuli Venezia Giulia 1.1 -0.8 0.3 1 Friuli Venezia Giulia 26.9 25.5 154.6 17 17 Lazio 4.8 -3.2 1.6 11 Lazio 134.5 84.9 308.8 44 27 26.8 19.2 65.3 41 29 222.4 310.6 726.4 31 43 86.3 97.2 420.5 21 23 63.4 62.9 153.3 41 41 Liguria 3.1 -2.2 0.9 16 Liguria 109.8 76.0 406.5 27 19 Marche 2.0 -3.4 -1.4 8 Marche 64.9 72.6 189.6 34 38 Molise 0.6 -1.2 -0.6 2 Molise 13.8 14.3 37.9 37 38 Puglia 5.3 -5.4 -0.1 22 Puglia 199.2 199.6 881.2 23 23 Sardegna 1.0 -1.3 -0.2 16 Sardegna 61.2 74.8 1530.4 4 5 Sicilia 7.4 -13.0 -5.6 43 Sicilia 231.8 373.2 1181.1 20 32 Toscana 5.2 -5.6 -0.4 15 Toscana 105.5 94.3 367.5 29 26 Veneto Veneto Totale complessivo 4.6 -5.6 -1.0 1 55.6 -70.0 -14.4 179 Sono escluse le variazioni sul delta del F. Po per +2.5 e -25.3 kmq 28 Regione Totale complessivo 67.9 46.2 172.3 39 27 1469.5 1596.7 6734.2 22 24 Sono escluse le variazioni sul delta del F. Po per +6.3 e -32.3 km SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | INGEGNERIA CIVILE E ARCHITETTURA nico pugliese che, dall’essere storicamente in avanzamento, incominciava a manifestare fenomeni di arretramento. Dagli studi della Commissione De Marchi non si sono avute indicazioni sulla lunghezza dei tratti di costa pugliese in arretramento. Tornando alla figura 1, si nota una zona di arretramento nel tratto di costa tra il Porto di Margherita di Savoia e Manfredonia. In questa zona il fenomeno erosivo è certamente riconducibile alla costruzione del porto di Margherita di Savoia, avvenuta nel 1952, e, in particolare, alla realizzazione del molo di levante che, intercettando il trasporto solido proveniente dall’Ofanto ha determinato un notevole avanzamento del litorale ad Est del porto, in parte subito interessato da un ampliamento dell’urbanizzazione della città, e un arretramento nella zona a ponente che, negli anni, si è protratta fino alla zona di Siponto. Il caso analizzato in precedenza, insieme a tanti altri che si sono verificati in Italia e all’estero, è indicativo dell’effetto Figura 1. Stralcio della Puglia dalla carta di sintesi dei tratti di litorale che può avere sul territorio un’opera a mare realizzata senza in erosione. Situazione al 31/10/1968 (dagli atti della Commissione De aver prima condotto un accurato studio della dinamica dei seMarchi). dimenti nell’intera unità fisiografica di interesse. Negli anni successivi alla costruzione del porto, per contenere l’arretrasione interessante che è possibile ottenere da questo studi è mento, sulla costa tra Margherita di Savoia e Siponto sono la contrapposizione tra gli interventi compiuti nell’entroterra state realizzate numerosissime opere di protezione, quasi per l’uso e la difesa del suolo e la conservazione dei litorali, l’80% del totale delle opere di difesa realizzate sui litorali pugliesi. I pennelli e le scogliere radenti hanno stabilizzato in che, talvolta, può risentire di tali interventi. Altre criticità isolate sono segnalate in più punti della costa parte il litorale, anche se, visto il ridotto apporto di sedimenti pugliese sia adriatica che ionica, dal Gargano fino alle coste alla fascia litoranea, non si sono verificati gli avanzamenti del barese e del leccese), mentre è da evidenziare la totale as- auspicati della linea di riva. La figura 2 mostra l’arretramento senza di aree considerate a rischio erosivo sulla costa ionica della linea di riva a ponente del porto, che dal 1952 al 2005 è di circa 120 m, e l’avanzamento a levante, valutato in circa da Taranto fino al confine con la Basilicata. Fenomeni analoghi a quelli riscontrati in corrispondenza 210 m. Tale tendenza evolutiva è ancora in atto. Tra l’altro, è il caso di sottolineare che il tratto di litorale dei fiumi Fortore e Saccione sono presenti più a sud, sulla costa lucana, in prossimità della foce del fiume Sinni. An- analizzato ha una valenza ambientale notevolissima per la che in questo caso i fenomeni sono attribuibili a sistemazio- presenza di stagni, saline e cordoni dunari. Già allo stato atni idraulico-forestali operate nelle zone interne del bacino tuale in concomitanza di eventi meteomarini, anche non ecidrografico. Tuttavia, è il caso di segnalare che già negli anni cezionali, vaste aree e alcuni villaggi turistici realizzati sulla immediatamente successivi ai lavori della Commissione De fascia costiera sono inondati dalle acque del mare e dei fiumi. Successivamente ai lavori della Commissione De Marchi, Marchi, alcuni studi (Cotecchia et al.,1971; Cocco, 1975), mostrarono una inversione di tendenza nell’intero litorale io- un’analisi più dettagliata della costa pugliese è stata eseguita per la redazione dell’Atlante delle Spiagge Italiane, di cui si è fatto cenno nel paragrafo 3. Il confronto tra i dati della Commissione De Marchi (il cui lavoro, si ripete, risale al 1968, ossia circa trenta anni prima) evidenzia una situazione in ulteriore peggioramento. Infatti, i fenomeni di arretramento della costa, per tratti più o meno estesi, sono notevolmente aumentati. Per ragioni di brevità, non è possibile presentare una trattazione circostanziata delle Figura 2. Immagine IKONOS (maggio 2005) del litorale a levante e a ponente del porto di Margherita di Savoia e, in rosso, la linea di costa del 1952 (Immagine acquisita nell’ambito del Progetto IMCA, 2003). ragioni, ma certamente alcune 29 INGEGNERIA CIVILE E ARCHITETTURA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 Figura 3. Evoluzione della linea di costa in adiacenza del Fiume Fortor considerazioni interessanti si possono trarre dal confronto dell’evoluzione dei tratti costieri della zona del Saccione Fortore, dell’Ofanto e della costa ionica, da Taranto al confine regionale. Nel primo tratto si nota che le criticità che nel 1968 erano circoscritte alle foci del Fortore e del Saccione, nel 1997 si erano allargate all’intero tratto di costa, situazione, questa, che permane ancora oggi, come si vede dalla figura 3 nella quale è riportata l’evoluzione storica della foce del Fortore dal 1970 al 2005; l’arretramento della linea di riva a ponente è di circa 146 m e a levante di circa 154 m. Le cause di tale situazione possono essere ricercate in numerosi fenomeni, di seguito richiamati, che sono tutti intervenuti negli anni, e che certamente hanno contribuito alla determinazione delle condizioni attuali anche se in misura diversa. Per esempio, nella zona vi è certamente stata una urbanizzazione della fascia costiera, ma i dati indicano che essa non è stata particolarmente consistente. Nella piana alluvionale, inoltre, sono state eseguite sistemazioni del suolo ed è stata avviata una agricoltura intensiva, a cui si sono accompagnati consistenti emungimenti di acqua dal sottosuolo che potrebbero aver determinato dei fenomeni di subsidenza, anche se dati specifici significativi a tal riguardo non sono stati reperiti. Infine in trenta anni (ordine di grandezza del tempo nell’ambito del quale si hanno informazioni di questo genere) non si è avuto un forte sollevamento del livello del mare. Pertanto, la causa che maggiormente ha inciso è la drastica riduzione di sedimenti trasportati dai fiumi a mare, a seguito di azioni antropiche e delle sistemazioni idrauliche nel bacino idrografico. Inoltre, nel caso del Fortore si è accompagnata la realizzazione dell’invaso di Occhito, una diga in terra del volume di 250.000.000 mc. A tale diga E’ inoltre da evidenziare che, in anni recenti, sul fiume Biferno è entrata in esercizio la diga Guardialfiera, circa 50.000.000 di mc di acqua invasata. La figura 3 indica l’andamento dell’arretramento. Al fine di un’analisi attendibile dell’evoluzione del litorale risulta indispensabile un adeguato e continuo monitoraggio. I dati dell’Atlante delle Spiagge mostrano anche una nuova criticità sia alla foce dell’Ofanto che nel tratto di litorale tra 30 l’Ofanto e Barletta. Gli arretramenti in questo ultimo tratto sono in parte dovuti ad una precedente deviazione artificiale della foce del corso d’acqua e, principalmente, alla riduzione dell’apporto solido dal fiume dovuto sia alle azioni antropiche nel bacino idrografico che alla realizzazione di diversi invasi e traverse lungo l’asta fluviale. Ci si riferisce alle dighe di Conza, Saetta, Rendina, Marana Capacciotti e Locone oltre alla traversa di Santa Venere, grazie alle quali teoricamente la quantità di acqua regimabile ammonta a circa 310.000.000 mc l’anno. Per quanto riguarda la costa ionica, da Taranto al confine regionale (Ginosa Marina - sponda sinistra del fiume Bradano) l’Atlante delle Spiagge, a differenza dello studio della Commissione De Marchi, indica che tutta la fascia costiera nel 1997 presentava una tendenza all’arretramento. La Commissione De Marchi aveva segnalato l’erosione alla foce del Sinni, però, come già detto, non vi erano indicazioni particolari, anche perché non si erano verificati fenomeni erosivi vistosi e il litorale presentava limitati insediamenti. Le spiagge presenti sono quasi ovunque di tipo basso e sabbioso, delimitate verso l’entroterra da vaste zone umide o da cordoni dunari con altezza variabile da pochi metri, nella zona più ad Ovest, fino a raggiungere i 10-12 metri in quella più ad Est. Le cause della sensibilità del litoraneo risalgono a molti anni addietro e sono imputabili all’azione antropica. La realizzazione della linea ferroviaria, il massiccio intervento di bonifica delle aree paludose e malsane presenti nella piana costiera, risalente ai primi decenni del ‘900, avviarono le prime trasformazioni della fascia costiera. La ripresa economica del secondo dopoguerra vide poi la crescita del turismo di massa e di conseguenza una consistente domanda di utilizzo delle aree adiacenti il mare per la costruzione di abitazioni, stabilimenti balneari, accessi alle spiagge e aree di campeggio. Tale attività, favorita da una mancanza e insufficienza di normative a favore della protezione delle aree ambientali, ha determinato in molti casi la distruzione delle dune. Ciò ha comportato l’attuale presenza di resti di banchi dunari appiattiti e affetti da numerose falle che certamente non riescono a rifornire le spiagge antistanti e a proteggere le aree retrodunali. Le sistemazioni idraulico forestali nei bacini idrografici prima e i numerosi invasi realizzati sui vari corsi d’acqua poi hanno ridotto drasticamente il quantitativo di sedimenti veicolato verso il mare. Da notare che in tale area vi sono due schemi idrici di fondamentale importanza per l’approvvigionamento di risorsa idrica (per uso irriguo, idropotabili e industriale) per le Regioni Basilicata e Puglia. Esistono infatti due schemi fondamentali: Basento – Bradano e del Sinni Agri, dai nomi dei quattro fiumi. Nel primo schema sul fiume Bradano vi sono le dighe di Acerenza, Genzano, Basentello, SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | INGEGNERIA CIVILE E ARCHITETTURA Capodacqua, Pentecchia, Gravina e San Giuliano, mentre sul fiume Basento vi è la diga del Camastra e la traversa di Trivigno. Lo schema può regimare una quantità di acqua di circa 175.000.000 mc l’anno. Nel secondo schema, sul fiume Agri, vi sono le dighe di Marsico Nuovo e del Pertusillo e le traverse sul Sauro e sull’Agri; sul fiume Sinni vi è la diga di Monte Cotugno e la traversa sul fiume Sarmento. Lo schema può regimare una quantità di acqua di circa 1.000.000.000 mc l’anno. Il trasporto di sedimenti a mare è stato poi ridotto anche dall’incontrollata estrazione di ingenti Figura 4. Veduta aerea del porto industriale di Taranto con elementi strutturali in fase di costruzione. Si nota la foce del fiume Tara ancora all’interno del bacino e che successivamente sarà deviato ad quantitativi di ghiaia e sabbia da- Ovest, in aderenza alla diga di sottoflutto. gli alvei. Tutte queste cause antropiche hanno determinato una forte erosione prima delle foci dei fiumi e del litorale lucano per poi interessare la costa pugliese verso cui da ovest arriva il trasporto prevalente netto dei sedimenti. E’ da considerare che sul litorale pugliese, a meno della realizzazione di alcune foci armate e delle opere per l’ampliamento del porto di Taranto di cui si dirà di seguito, non sono state eseguite opere a mare significative. Nella zona più ad Est del tratto di costa ionico ha avuto un’influenza rilevante la costruzione del Molo Polisettoriale del nuovo Figura 5. Zona a nord del molo polisettoriale del Porto di Taranto. porto industriale della città di Taopere che si realizzano possono provocare delle conseguenze ranto (figura 4). La realizzazione della diga di sottoflutto, lunga 1.500 m, e la deviazione verso negative difficilmente valutabili aprioristicamente senza un est della foce del fiume Tara, hanno modificato la dinamica dettagliato studio preliminare. Di fatto il tratto di litorale analizzato resta fra quelli ad dei sedimenti per cui a ridosso del molo si è avuto un forte avanzamento della linea di riva, mentre più a ovest si innescò alta sensibilità ed è necessaria una riduzione della pressione un processo erosivo, mitigato in parte dalla realizzazione di antropica oltre che un monitoraggio continuo. Quest’ultimo, in particolare, permette di distinguere tra i fenomeni di arreopere di protezione parallele alla linea di costa. Si osserva che quella zona (figura 5) aveva una certa voca- tramento reali, che denotano situazioni patologiche dei litozione turistica, come testimoniato dalla presenza di un alber- rali, da altri che, seppure indicativi di un arretramento della costa, in realtà, possono essere classificati come estempogo, l’Hotel Tritone, ormai non più operante. Dopo la realizzazione del Molo Polisettoriale del Porto di ranei, in quanto ritraggono una situazione fotografata in un Taranto è avvenuto un processo di arretramento delle linea determinato momento. A quest’ultima categoria, per esemdi riva a ridosso dell’ex albergo (figura 6) e di ripascimen- pio, le variazioni stagionali della linea di riva, che vanno to nell’intorno del molo, che, di fatto, ha funzionato come considerati come fenomeni del tutto naturali, che in litorali una sorta di pennello. L’esempio riportato, che da un punto sabbiosi molto bassi, come appunto quelli dell’arco ionico, di vista di analisi causa-effetto meriterebbe ulteriori detta- possono provocare variazioni anche di alcune decine di metri gli rispetto a quelli qui descritti, vuole evidenziare come le fra una stagione e l’altra, oppure le variazioni dovute alla si31 INGEGNERIA CIVILE E ARCHITETTURA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 Figura 6. L’Hotel Tritone e la costa prossima ad esso, ormai erosa. Figura 7. Andamento delle line di riva a nord-ovest del molo polisettoriale del Porto di Taranto. Figura 8. Un esempio di modello fisico di opera di difesa costiera realizzato presso il LIC del Politecnico di Bari. stemazione delle spiagge da parte dei gestori all’inizio della stagione balneare. Tutti aspetti che devono essere inquadrati nel giusto contesto temporale mediante un attento e continuo monitoraggio. Nello studio dell’Atlante delle Spiagge, oltre alla tendenza 32 evolutiva dei litorali, è infine riportato anche il dato relativo alla costa sabbiosa pugliese che risulta in arretramento per un totale di 89 km ed in avanzamento per solo 1 km. Quindi al 1997 in Puglia la percentuale di costa bassa sabbiosa pugliese con tendenza all’arretramento rapportata alla lunghezza totale di tale tipo di costa era di circa il 29%, valore appena inferiore a quello nazionale, che, come si è detto innanzi, è del 32%. Più recentemente la Regione Puglia ritenendo importante il monitoraggio della fascia costiera, nell’ambito del P.O.R. Puglia 2000 - 2006, ha previsto una serie di azioni di monitoraggio fra cui quella degli interventi di difesa costiera già finanziati e realizzati. In particolare, per la redazione degli studi preliminari per la redazione dei Piani di Bacino, la Regione Puglia si è avvalsa della collaborazione di enti di ricerca, i quali hanno redatto il “Progetto Esecutivo del Monitoraggio” delle azioni a salvaguardia delle coste. Tale progetto prevedeva numerose azioni. Per esempio, alcune delle attività previste consistono nell’installazione di attrezzature fisse in grado di fornire dati in modo continuo nel tempo (quali anemometri, boe ondametriche, telecamere) o nei rilievi in situ, ripetuti a cadenza prefissata in modo da poter verificare l’evoluzione del litorale (rilievi planimetrici e batimetrici della fascia costiera, voli per rilevare la cartografia della fascia costiera sabbiosa e ricognizioni aeree visive con foto e video). Per quanto riguarda l’aspetto specifico dell’evoluzione dei litorali lo studio in fase di redazione del Progetto Esecutivo del Monitoraggio aggiornò le informazioni disponibili fino ad allora, producendo una “Carta della costa pugliese: geomorfologia e opere di difesa”, costituita da 21 fogli ed aggiornata al 2003. Da essa si ricava che la lunghezza dei tratti di costa sabbiosa in arretramento è circa 117 km e quella dei tratti in avanzamento è di circa 10 km. Di fatto, tali dati portano a concludere che la costa sabbiosa in erosione è aumentata rispetto all’Atlante delle Spiagge italiane, passando da 89 km a 117 km, con una percentuale aumentata dal 29% al 39%. Successivamente al 2003, come si è detto al paragrafo 3, vi sono gli studi a livello nazionale del 2006 del Ministero dell’Ambiente e della Tutela del Territorio (Ministero dell’Ambiente e della Tutela del territorio, 2006) e dell’APAT, Agenzia per la protezione dell’ambiente e per i servizi tecnici, (Barbano et al., 2006). Sebbene nel complesso le zone critiche siano le stesse individuate negli studi precedenti, vi sono alcune modificazioni locali di non poco conto. In particolare, per la costa ionica emergono alcune criticità sui litorali a levante di Taranto, non riscontrate in precedenza. Inoltre, fatta eccezione per l’arretramento a ovest del Molo Polisettoriale, la restante parte della costa pugliese risulta in avanzamento o in situa- SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | INGEGNERIA CIVILE E ARCHITETTURA zione di stabilità, mentre nei due studi precedenti tutto il tratto era stato classificato in arretramento. Sull’arco ionico sono prevalenti i tratti in arretramento, anche se, però, ve ne sono alcuni in avanzamento. I risultati dello studio dell’APAT danno la stessa tendenza evolutiva di quello del Ministero dell’Ambiente, salvo le lunghezze dei tratti di costa bassa in avanzamento o in erosione. Più recentemente, nell’anno 2009, la Regione Puglia ha predisposto per la tutela e la difesa dei litorali della Puglia, il Piano Regionale delle Coste, diretto a tutte le amministrazioni comunali pugliesi, che dovranno attenersi ai criteri e agli obiettivi fissati nel documento regionale. Il Piano Regionale delle Coste, come tutti i piani e programmi che coinvolgono a vario livello la pianificazione del territorio e dell’ambiente, deve essere sottoposto a Valutazione Ambientale Strategica, secondo la Direttiva 2001/42/CE, con la “finalità di garantire un elevato livello di protezione dell’ambiente e di contribuire all’integrazione di considerazioni ambientali all’atto dell’elaborazione e dell’adozione di piani e programmi al fine di promuovere lo sviluppo sostenibile”. 5. CONSIDERAZIONI FINALI Quanto riportato nei precedenti paragrafi ha potuto evidenziare l’importanza della risorsa mare, come componente di un ecosistema di cui la fascia costiera è un elemento essenziale. Il mare, da sempre fonte di vita e di ricchezza, come testimoniato dalla storia, è sempre più utilizzato, sia come recapito finale degli sversamenti delle acque reflue, sia come fonte di ricchezza per le spiagge e per l’intero ecosistema mare-costa e per la fauna ittica. Di qui l’esigenza di preservare tale risorsa, che va utilizzata in modo oculato. A tal riguardo il contributo tecnico e scientifico alla salvaguardia di questa risorsa è di fondamentale importanza. Alla luce dei casi brevemente illustrati in precedenza, preme sottolineare il possibile contributo scientifico a sostegno di una corretta pianificazione degli interventi di salvaguardia costiera. In particolare presso appositi laboratori di ingegneria marittima, come il Laboratorio di Ingegneria Costiera (LIC) del Politecnico di Bari, è possibile realizzare dei modelli fisici delle opere di protezione costiera, al fine di verificare ante operam la loro efficacia. A titolo di esempio, la figura 8 riporta un modello fisico di un’opera di difesa costiera: si tratta delle barriere frangiflutti di Marina di Massa, che sono state testate con un modello fisico presso il LIC preliminarmente ad una loro possibile realizzazione, proprio al fine di verificarne l’efficacia e i possibili effetti collaterali. In particolare dall’analisi dei paragrafi precedenti si evince l’importanza di alcune attività di ricerca o di supporto agli enti territoriali sul tema dell’erosione costiera e degli interventi antropici, con particolare riguardo ad aree molto sensibili. Il contributo scientifico alla risoluzione delle problematiche della risorsa mare è di sicuro rilievo e ausilio anche per le decisioni che gli enti pubblici devono assumere ai fini della pianificazione del territorio costiero. 6. BIBLIOGRAFIA AA.VV. (2009), Monitoraggio fisico degli interventi di difesa delle coste già finanziati e realizzati, misura 1.3 – Azione 2b e 4 del POR Puglia 2000-2006. Rapporto interno Regione Puglia. AA.VV. (2011), Redazione di uno studio tecnico scientifico relativo ai fenomeni di erosione del mare ed inondazioni della riviera sud di Manfredonia e per l’individuazione dei possibili rimedi. Relazione di sintesi, a cura del Politecnico di Bari e dell’Autorità di Bacino della Puglia. Barbano A., Corsini S., Mandrone S., Paone M., Rotunno M. (2006), APAT, Dipartimento Tutela delle Acque Interne e Marine - Servizio. Difesa delle Coste, Roma. Castorani A., Petrillo A., Pennetta L., Caldara M. (2000). Studi preliminari per la redazione del Piano di Bacino Regionale – 5.4. “Geofisica relativamente allo studio della dinamica costiera per aree critiche” – Relazione finale di sintesi, Dipartimento di Ingegneria delle Acque del Politecnico di Bari, Dipartimento di Geologia e Geofisica dell’Università degli Studi di Bari, Regione Puglia. Commissione Interministeriale per lo Studio della Sistemazione Idraulica e della Difesa del Suolo (1970), Atti della Commissione – Relazione conclusiva, Roma, ristampa anastatica digitale a cura del CeNSU – Centro Nazionale di Studi Urbanistici. Cocco E. (1975), Interpretazione aerofotografia delle variazioni della linea di costa tra Capo Spulico e Taranto. Appunti di Geologia Applicata e Idrogeologia. Vol. X, 1975, parte I. Cotecchia V., Dai Pra G., Magri G. (1971), Morfogenesi litorale olocenica tra Capo Spulico e Taranto, Appunti di Geologia Applicata e Idrogeologia. Vol. VI, 1971. Cortemiglia G. C., Lamberti A., Liberatore G., Lupia Palmieri E., Stura S., Tomasicchio U. (1981), Raccomandazioni tecniche per la protezione delle coste, Consiglio Nazionale delle Ricerche, pp. 81. IMCA “Integrated Monitoring of Coastal Areas” (2003). Progetto PON finanziato dal MIUR in data 26/06/2003 ai sensi dell’art. 5 del DM 593 del 8/8/2000. Partecipano al Progetto PLANETEK ITALIA S.r.l., Bari; COASTAL CONSULTING & EXPLORATION S.r.l., Bari; SPACEDAT S.r.l., Lecce; POLITECNICO DI BARI: Dipartimento. Interateneo di Fisica (DIF); Dipartimento di Ingegneria delle Acque e Chimica (LIC);UNIVERSITA’ DEGLI STUDI DI BARI: Dipartimento di (UNIBA ZLG). EUROSION (2004). Il sito web di EUROSION http:// www.eurosion.org Ministero dell’Ambiente e della Tutela del Territorio (2006), Le principali variazioni della linea di costa dal 1960 al 2000. Mossa M. (2014), Il contributo dell’idraulica alla salvaguardia dell’ambiente marino, Geologia dell’Ambiente, SIGEA, Supplemento al n. 2/2014, Anno XXII - aprile-giugno 2014. 33 LINGUE E LETTERATURE MODERNE | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 Donne. E le parole per parlarne PATRIZIA TORRICELLI Dipartimento di Civiltà Antiche e Moderne, Università degli Studi di Messina L e parole con cui si parla delle cose sono importanti per almeno due ragioni. La prima, è che esse rivelano la mentalità di chi ne parla. Quindi, ci avvertono che bisogna tener conto di ciò che dicono per conoscerla. La seconda è che, per la stessa ragione, ci ammoniscono di non prender troppo sul serio ciò che dicono, perché ogni mentalità è frutto di una cultura e la cultura è figlia solo degli uomini, del loro pensiero e della storia. Parliamo della prima ragione d’importanza. Le parole sono segni usati per comunicare. Esse assolvono questo compito usando una dinamica semiotica per la quale una serie di suoni – tecnicamente detta significante - provoca nella mente l’insorgenza di un’immagine del mondo esperito, detta idea, e racchiusa linguisticamente in quello che si chiama normalmente un significato. Perciò, le parole – opportunamente lette, usando le tecniche della linguistica - ci rivelano qual è l’idea delle cose riferite che i parlanti hanno in mente quando le usano per parlare del mondo in cui vivono. La somma delle idee che si hanno in mente costituisce – schematizzando un po’ l’esposizione - quella che si chiama una mentalità: ossia, l’immagine del mondo che è nella testa di ognuno di noi, con le regole di comportamento individuale e collettivo che ne derivano – e che costituiscono i cosiddetti valori in cui crediamo e dai quali ci facciamo quotidianamente condizionare l’esistenza trasformandoli in stereotipi di pensiero. Vediamo, allora, di capire quale mentalità traspare dalla somma di parole con le cui immagini si declina oggi l’idea di un mondo femminile e qual è la loro storia, a ritroso nel tempo, poiché le nostre parole, prima di essere italiane erano latine - e indoeuropee prima ancora - e da queste ideologie storiche le nostre, moderne, sono nate e si sono sviluppate, cambiandole o conservandole. Femminicidio, usata a emblema di una tragica situazione dei nostri giorni – alla quale le cronache ci hanno tristemente abituato nonostante i numerosi appelli di civiltà - è parola dotta, coniata su l’it. femmina aggiunto al lat. caedo secondo una prassi derivativa usuale in italiano, sul modello di omicidio, uxoricidio e significa “uccisione di donne”. A 34 dire il vero dovrebbe significare “uccisione di femmine”, ma l’accezione sarebbe inesatta per il genere d’immagine mentale che femmina e donna, rispettivamente, richiamano oggi. L’italiano femmina infatti è la continuazione del latino femina. In latino la parola evoca una qualità imprescindibile dell’essere femminile - che è il seno per l’allattamento - perché essa appartiene formalmente alla stessa serie lessicale di fecundus, detto di ciò che è ben nutrito, e di filius, il cui significato etimologico è “colui che viene allattato”. La stessa forma, nel gr. antico, aveva il significato di “nutrice” oltre a quello generico di essere femminile. Questo era l’aspetto della donna che risaltava, fra le immagini mentali suscitate dalla parola, sia per gli antichi Greci che per i Romani, quando parlavano della donna usando tale termine. In italiano femmina e femminile hanno perso memoria lessicale dell’antica idea di nutrimento al seno, ma conservano un’accezione legata al genere specifico opposto a quello maschile. La donna diventa femmina quando sono messi in risalto i suoi attributi di sesso. È questo l’ascendente immaginifico che determina le implicazioni sessuali di ogni genere – anche negative, come in certi ambiti religiosi medievali, per i conflitti della tentazione - poi assunte dalla parola in conformità alla rappresentazione ideale della sessualità, maschile e femminile, che si è sviluppata durante i secoli della nostra storia. Il francese, per esempio, ha fatto del latino femina la sua parola per donna: femme, che non cela alcun pudore o reticenza espressiva nei confronti degli attributi femminili della donna rispetto all’uomo. Indice di un trascorso linguistico che ha seguito altri cammini culturali, oggi appena visibili nella parola, diventata un termine generico del francese comune. Diversa la dimensione di donna. La sua forma linguistica ci mostra che essa è la versione italiana del lat. domina. La parola, in latino, è stata coniata prendendo spunto da domus che significa “casa”. L’immagine evocata è dunque SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | LINGUE E LETTERATURE MODERNE quella della padrona di casa che affianca in veste femminile il dominus maschile. La manzoniana Donna Prassede esemplifica perfettamente la continuazione di questa immaginazione di ruolo più che di persona. Nel tempo, naturalmente, la parola si è prestata ad altre accezioni complementari. Ma la sua originaria dimensione ideale è dimostrata dal fatto che deve, in questi casi, essere accompagnata da specifiche apposizioni: donna di servizio, donna di malaffare, donna di strada, primadonna. migenia dell’uomo fra gli esseri viventi, se pensiamo al racconto biblico della creazione del mondo e dell’argilla con cui questo rappresentante della nostra specie è stato fatto. Ma torniamo alla moglie e al latino mulier che la parola italiana ripete, implicandone le accezioni sessuali ma relegandole in un ambiente domestico e nella dimensione sociale della legalità. Scegliendo per la “moglie” la parola latina che indicava la donna in senso lato, l’italiano dimostra di aver inconsapevolmente obbedito a un dettato culturale storico che ha fatto della moglie la figura femminile più rappresentativa, la donna accreditata dalla nostra società, quindi la donna per definizione rispetto a ogni altra. Anche madonna (mea domina) fa trasparire, la stessa idea di rispetto, declinata nel senso di donna d’alta condizione, sia in versione laica – come le madonne fiorentine del Duegento – che in versione religiosa, come Signora del cielo già nella stessa epoca. Il francese madame ne è la versione in questa lingua. Così come rammenta una simile immagine di donna il greco antico damar che usa lo stesso etimo di “casa”, detta in gr. domos, per indicare la padrona della casa, in questo caso la sposa legittima rispetto alle concubine: ossia le donne che dividevano il letto del padrone, dal lat. cum-cubare. Le altre mogli, insomma, nell’accezione moderna di poligamia. Compagna, oggi simbolo di un femminismo gratificante, era nel lat. tardo cum-panem, e si applicava a chi “condivideva il pane” con qualcuno, accontentandosi di un poco, compensato forse dai sentimenti. Il pane non s’intravede più e sono rimasti sottintesi solo i sentimenti, nella parola moderna. Moglie, è il termine per indicare la consorte di un uomo, la sua sposa. Figura femminile per eccellenza, evidentemente, se già in latino il termine mulier era l’appellativo stesso per donna, così chiamata, appunto, genericamente; mentre la condizione sociale e legale della moglie era espressa da uxor parola che non ha continuato a esistere in italiano se non nei latinismi dotti: uxoricidio, o more uxorio. Nel mondo ideale latino mulier è il contrario femminile di vir - che significa “uomo” - ma che non si è replicato in italiano se non nell’aggettivo virile con le stesse connotazioni d’immagine. Mentre uomo continua il latino homo il quale a sua volta continua l’i.e. *hom- che ha la stessa etimologia del lat. humus il cui significato è “terra”. Così, l’uomo è concepito, fin dalla cultura indoeuropea della preistoria, come “il terrestre” o “colui che sta sulla terra”. Un’idea forse pri- Sposa, coniuge, consorte sono termini meno consueti. Risentono della loro origine latina e della provenienza dal diritto romano. Sposa è la voce italiana di lat. sponsa che è sostantivo del verbo spondeo “impegnarsi, promettere”. Per i Romani la nostra sposa era piuttosto la fidanzata, la promessa sposa. Oggi, dalla parola traspare l’immagine di una donna nel periodo delle nozze. Coniuge è, come il lat. coniux, sostantivo derivato dal verbo coniungo “congiungo” che ha dato forma linguistica all’idea di congiunto/i per parentela e coniuge per matrimonio. Consorte viene dal lat. cum-sortem, che significava “colei che condivide lo stesso patrimonio” perché per i Romani fra la sorte e le risorse non c’era molta differenza. Una curiosità: Etaira, cioè un’etera, era Aspasia per Pericle nell’Atene del V secolo a.C. definita da una parola che è la variante al femminile di etairos, il cui significato era “compagno d’armi, amico”. Donna colta, influente, Aspasia esercitava una professione che nel mondo classico era praticata sia da ragazzi che da fanciulle e perfettamente tollerata. Perciò “compagna, amica” con termini perfettamente in linea con la visione del mondo che tale cultura possedeva. Equiparando la battaglia e l’amore, evidentemente, una coincidenza plausibile in una società, quella greca classica, che con la guerra si cimentava frequentemente. 35 LINGUE E LETTERATURE MODERNE | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 Signora, è oggi un termine che esprime deferenza generica. La sua immagine mentale è quasi irriconoscibile nella moderna espressione di cortesia formale che la parola è diventata. All’origine, infatti, l’idea che veniva in mente ai parlanti era di una persona anziana cui si doveva rispetto per l’età e l’esperienza: senior “anziano” è il termine latino da cui deriva la forma al femminile seniora poi signora. Quali viaggi nella storia la parola abbia fatto per arrivare fino a noi carica di un’immagine così diversa – la Francia dei baroni medievali o la Spagna del Cinquecento con la sua opulenza verbale pre-barocca – poco conta qui. La signora di oggi è una donna di alta condizione sociale, educata e raffinata e, nello stesso tempo, è qualunque persona di genere femminile verso cui si voglia usare semplicemente un appellativo di cortesia, segno di buona educazione. Ogni altra connotazione si è persa. Curiosamente, il Senato della Repubblica, con i suoi limiti di età impliciti nell’etimologia della parola, derivata dal lat. Senior - così come il Senato Romano antico - oggi rispecchia ancora nel suo nome l’antica immagine che la parola signora sottintende per la sua origine. Ma presto l’idea resterà solo nella storia linguistica del termine, celata dietro una semplice etichetta. Madre, è l’unica parola presente in tutte le lingue indoeuropee rimasta immutata o quasi nella forma linguistica fin dalle più lontane origini. Testimonianza di una cultura che si perde nella preistoria dell’umanità per via d’un ruolo genetico insostituibile in natura, qualunque sia il posto che la società poi assegna alla figura della madre e qualunque sia l’immagine materna che ogni figlio ha concepito dentro di sé. Donne, mogli, madonne, signore o femmine, le raffigurazioni delle donne trasmesse dalle parole appartengono a un variegato universo d’immagini che le culture hanno elaborato, nel corso della storia, sul loro essere - o meglio, sul loro apparire - siccome donne, nella società. Immagini che sono diventate le idee attraverso il cui filtro mentale ci accostiamo alla loro conoscenza. Idee che rappresentano, insieme alle parole da cui sono espresse, la nostra comune mentalità al riguardo. Torniamo allora, brevemente al discorso d’inizio, per riflettere sulla mentalità e sulla lingua che la esprime con i significanti e i significati delle parole, aggiungendo, ora, solo un piccolo particolare. Fra il significante e l’idea – quindi fra il significante e il significato che tale idea rappresenta - non c’è alcuna motivazione reciproca, nessun legame vero. Le parole che usiamo per parlare del mondo reale non sono affatto imposte dal mondo reale di cui parlano. La mela non si chiama così perché il suo colore è identico alla m, il suo sapore alla e, i suoi semi alla l e la polpa alla a o viceversa. Tant’è vero che gli inglesi chiamano lo stesso frutto apple, i francesi la chiamano pomme e i tedeschi apfel. La mela si chiama così solo perché così è stata denominata 36 quando la sua immagine ha dovuto trovar posto nel sistema d’idee già posseduto dagli uomini che le hanno dato il nome. I quali, per farlo coerentemente a tali idee – cioè per rispondere alla domanda: che cos’è - hanno dovuto pensare a quali di esse assomigliasse di più e hanno dovuto cercare il materiale linguistico per rappresentarla fra quello già impiegato, e riusarlo, così che fosse più semplice riconoscere subito che cos’era la cosa nuova, dal loro punto di vista. Ecco perché la cosiddetta etimologia – ricerca dell’origine delle parole, che abbiamo sommariamente esemplificato con i termini citati - ci racconta questo percorso di scoperta delle cose da parte degli uomini restituendoci le tracce lasciate nella lingua. Ma è solo una scoperta mentale, guidata e controllata dalle idee che già si possiedono, cioè dalla cultura che abbiamo appreso e della quale abbiamo imparato a condividere il punto di vista. Dunque, tutti i significati, palesi o reconditi, sono idee che la nostra cultura ci ha messo in mente, e la loro realtà è solo apparente, perché è solo una realtà supposta essere tale da una cultura che la immagina in questa maniera, adottando il proprio punto di vista. E arriviamo, così, alla seconda ragione d’importanza delle parole: il loro ammonimento a non prenderle troppo sul serio. La mentalità è – lo abbiamo già detto - una serie d’idee, diventate reali per la mente umana e affidate alle parole: innocenti, queste ultime, rispetto alla realtà - di cui sono segni assolutamente arbitrari e inconsapevoli - colpevoli rispetto alla cultura. Perché finché esistono e continuano a essere usate, rispettando esattamente le idee che le hanno autorizzate, continuano a esercitare sui parlanti il loro potere coercitivo che ne condiziona i comportamenti mostrando loro immagini della realtà che sembrano vere, mentre non lo sono, probabilmente, nell’ontologia del mondo. Ma l’immaginario che evocano richiama una gamma di altre immagini complementari – con altre parole a loro sostegno – la cui pressione emotiva, se le parole sono vissute come una verità senza rimedio, può provocare derive individuali e sociali incontrollabili. Come, appunto, il femminicidio: l’uccisione della femminilità sessualmente implicita nell’idea di donna dotata di un seno, comunque tale idea sia vissuta nell’immaginario maschile e nella storia. Occorre, allora, sapere esattamente che cosa sono le parole, per renderle innocue. Esse sono parvenze foniche d’idee che nascono solo dalla mente degli esseri umani e soltanto qui, nella loro mente, esistono. Figlie della storia, del pensiero, della cultura. Perciò affidate all’intelligenza umana che della storia, del pensiero e della cultura è la sola artefice. E affidate al suo costante esercizio, in modo che ci possano in futuro parlare di un mondo sempre umanamente e culturalmente migliore. SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | SCIENZE DELL’ANTICHITÀ La Cartagine di Elissa e le sue rifondazioni nel Mediterraneo ENRICO ACQUARO Presidente del Centro internazionale per gli studi fenicio-punici e romani L’articolo propone una lettura rivisitata del ruolo politico di Cartagine d’Africa, fondazione tiria nel Mediterraneo. I l mito di fondazione di Cartagine nella versione dell’epitomatore Giustino del II secolo1 è stato oggetto di ripetute analisi in questi ultimi anni, mie2 e di altri studiosi3, analisi che hanno contribuito a dare credibilità al contesto storico di riferimento. Diversi sono gli eventi che il testo di Giustino propone al lettore in un tessuto narrativo che non manca in alcuni passi di una certa suspence, in particolare per quanto attiene alle vicende personali della protagonista Elissa/Didone riprese in tutte le letterature4 (Fig.1). In questi eventi rientra la contrattazione con la controparte libica, contrattazione in cui dovettero essere di conforto, anche politico, l’intervento e la probabile mediazione dei compatrioti uticensi. Così la striscia di 1 Cfr. http://www.fenici.unibo.it/Fonti/Autori%20latini/Giustino%20-% 20Storie%20filippiche.htm. 2 Cfr. ad esempio, E, Acquaro, Giustino XVIII, 4-7: riletture e considerazioni, in R. Rolle - K. Schmidt - R. Docter (edd.), Archäologische Studien in Kontaktzonen der antiken WeltId (= Verõffentlichungen der Joachim Jungius. Gesellschaft der Wissenchaften, 87), Göttingen 1998, pp. 1317; Id., Cartagine. I fondamenti di un progetto mediterraneo (= Quaderni di archeologia e antropologia. Temi di archeologia punica - I), Lugano 2006. 3 Cfr. ad esempio, P. Bernardini, Giustino, Cartagine e il tofet, in Rivista di studi fenici, 24.1 (1996), 27-45. 4 Cfr. ad esempio, E. Acquaro, Dall’Elissa di Giustino alla Didone di Leopardi, in E. Acquaro - D. Ferrari (edd.), Le antichità fenicie rivisitate. Miti e culture, in E. Acquaro - D. Ferrari (edd.), Le antichità fenicie rivisitate. Miti e culture (= Biblioteca di Byrsa. Rivista semestrale di arte, cultura e archeologia del Mediterraneo punico, 5), Lugano 2008, pp. 2548; S. Ribichini, Didone l’errante e la pelle di bue, in I.E. Buttitta (ed.), Miti mediterranei. Atti del convegno internazionale (Palermo-Terrasini, 4-6 ottobre 2007), Palermo 2008, pp. 102-14: T. Clavier, L’exemplarité de Didon dans les “Vies” de femmes illustres à la Renaissance, in Clio. Histoire, femmes et sociétés, 30 (2009), pp. 153-68; C.O. Santos Pinheiro, O percurso de Dido, rainha de Cartago, na literatura latina (= Varia, 75), Coimbra 2010; H. Lovatt, The eloquence of Dido: exploring speech and gender in Virgil’s Aeneid, in Dictynna: revue de poétique [En ligne], 10 (2013). Tharros. Veduta aerea dell’area di su muru mannu bue utilizzata come aspetto particolare di quella fides punica che caratterizzerà ogni vicenda cartaginese nel confronto con altre etnie sino ad Annibale5, delimiterà la Byrsa dei primi grandi scavi coloniali francesi6. La storia degli studî dagli anni ‘60 agli anni ‘90 ha, a mio parere, non sempre tenuto presente la complessa azione politica che la Cartagine d’Africa dovette seguire per le fondazioni fenicie d’Occidente. Azioni che portarono fra l’altro in Sicilia, in Sardegna, nelle Baleari e nella Penisola Iberica a vere e proprie «rifondazioni» con la ridefinizione dell’intero tessuto urbano, l’importazione del tofet, espressione dell’identità della comunità civica7 (Figg. 2-4) e di tutti gli aspetti 5 Cfr., fra gli altri, J. Svenbro – J. Scheid, Byrsa. La ruse d’Élissa et la fondation de Carthage, in Annales. Économies, Sociétés, Civilisations, 40.2 (1985), pp. 328-42; J.H. Starks, ‘Fides Aeneia’: The Transference of Punic Stereotypes in the ‘Aeneid’, in The Classical Journal, 94.3 (1999), pp. 255-83; G.H. Waldherr, «Punica fides». Das Bild der Karthager in Rom, in Gymnasium, 107.3 (2000), pp. 193-222. 6 Cfr. fra gli altri, M. Pinard, Sur le nom de Byrsa donné à la citadelle de Carthage, bâtie par Didon, in Mémoires de l’Académie des inscriptions et belles-lettres, 1 sett. (1708), p. 150. 7 Cfr. E. Acquaro, Il tofet santuario comunitario, in C. González Wag37 SCIENZE DELL’ANTICHITÀ | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 Fig. 1. La morte di Didone (particolare). Peter Paul Rubens. 1630. Paris. Musée du Louvre. Fig. 2. Cartagine. Il tofet. Fig. 3. Sant’Antioco. Sulci. Il tofet. liturgici proprî della Qart Hadasht dei coloni tirî. L’eparchia ed epicrazia cartaginese8 del VI secolo a.C. non si limitarono alla ridefinizioni più o meno traumatiche delle antiche colonie fenicie d’Occidente, ma anche alla riqualificazione dei ner – L.A. Ruiz Cabrero (edd.), Molk als Opferbegriff im Punischen und Hebräische und das Ende des Gottes Moloch, Madrid 2002, pp. 87-92 e, da ultimo, A. Campus, Costruire memoria e tradizione: il tofet, in Vicino Oriente, 17 (2013), pp. 135-52. 8 Cfr., da ultimo per la Sicilia, S. Cataldi, Alcune considerazioni su eparchia ed epicrazia cartaginese nella Sicilia occidentale, in A. Corretti (ed.), Atti delle Quarte giornate internazionali di studi sull’area elima, Erice 1-4 dicembre 2000, Pisa 2003, pp. 217-52. 38 territori e delle funzionalità dei diversi centri di riferimento. Funzionalità fra loro interagenti, come il caso in Sicilia dell’attuale territorio trapanese, in cui la componente elima dovette svolgere un ruolo importante, non sempre a pieno considerato, e condizionare per molti aspetti la stessa trasmissione di cultura materiale greca negli insediamenti fenici9. Qui i tre centri occupati da Cartagine, Erice, Lilibeo, Mozia restituiscono documenti specifici. Si passa dalla «vocazione» santuariale di Erice elima con il tempio di Astarte/Venere10, a quella demografica di Lilibeo11 cui dovettero contribuire i Moziesi dopo la conquista siracusana e la successiva riconquista cartaginese, alla stessa Mozia che i nuovi scavi stanno sempre più qualificando come un centro di interculturalità «elitario», fra Grecia e Fenicia12 (Figg. 5-6). In questa sistematica ridefinizione politico-territoriale riemergono in alcuni casi quegli stessi sostrati locali occidentali che l’archeologia non ha sempre adeguatamente indagato e che hanno accolto le prime frequentazioni vicino-orientali13 ed i primi insediamenti coloniali fenici. L’azione cartaginese di controllo territoriale non si limitò a recepire i precedenti nuclei abitativi o di interesse economico, ma in molti casi dislocò diversamente gli impianti abitativi ed economici, come nel caso di Sa Caleta ad Ibiza14 e di Cartagena nel territorio iberico fra il Levante e il litorale Andaluso, un territorio quest’ultimo di una notevole complessità etnica15. È in quest’ultima regione tartessica che i Barcidi, Amilcare e i suoi figli allevati dal padre «come leoncini per la rovina di Roma»16, misero in atto 9 Cfr. ad esempio, S. Tusa, La «problematica elima» e testimonianze archeologiche da Marsala, Paceco, Trapani e Buseto Palizzolo, in Sicilia archeologica, 25. 78-79 (1992), pp. 71-102, e, da ultimo, S.N. Consolo Langher, Gli Elimi tra Greci e Cartaginesi nella storia della Sicilia occidentale e nei trattati interstatali tra VI e IV secolo a.C., in Guerra e pace in Sicilia e nel Mediterraneo antico (VIII-III sec. a.C.). Arte, prassi e teoria della pace e della guerra. Quinte Giornate Internazionali di studi sull’Area Elima e la Sicilia occidentale nel contesto mediterraneo, 12-15 ottobre 2003, Pisa 2006, pp. 191-206. 10 Cfr. fra gli altri, L.A. Ruiz Cabrero, La devoción de los navegantes. El culto de Astarté ericina en el Mediterràneo in E. Acquaro - A. Filippi - S. Medas (edd.), La devozione dei naviganti. Il culto di Afrodite Ericina nel Mediterraneo. Atti del convegno di Erice, 27-28 novembre 2009 (= Biblioteca di Byrsa,7), Lugano, pp. 97-135. 11 Cfr. fra gli altri, E. Caruso - A. Spanò Giammellaro (edd.), Lilibeo e il suo territorio. Contributi del Centro Internazionale di studi fenici, punici e romani per l’archeologia marsalese, Marsala 2008. 12 Cf, da ultimo, Mozia: scavi e ricerche. Dalle ‘Lokalsagen’ eraclidi a San Pantaleo, passando da Cartagine, in Rivista di studi fenici, 40.1 (2011), 67-74. 13 Cfr. ora per la Sardegna M.A. Fadda, S’Arcu e is Forros: il più importante centro metallurgico della Sardegna antica (con una Appendice epigrafica di Giovanni Garbini), in Rendiconti dell’Accademia nazionale dei Lincei, Classe di scienze morali, storiche e filologiche, ser. 9, v. 23 (2012), pp.197-234. 14 Cfr. da ultimo, J, Ramón Torres, Excavaciones arqueológicas en el asentamiento de Sa Caleta (Ibiza) (= Cuadernos de Arqueología Mediterránea, 16), Barcelona 2007; Id., La ciudad púnica de Ibiza: estado de la cuestión desde una perspectiva histórico-arqueológica actual, in Mainake, 32..2 (2010), pp. 837-66. 15 Cfr. da ultimo, E. Prados Pérez, Bastetanos y Bástulo-Púnicos. Sobre la complejidad étnica del sureste de Iberia, in Anales de prehistoria y arqueología, 17-18 (2001-2002), pp. 273-82. 16 Valerio Massimo, Factorum et dictorum memorabilium libri novem, 9, 3ext2: Quam vehemens deinde adversus populum Romanum Hamilcaris odium! Quattuor enim puerilis aetatis filios intuens eiusdem numeri catu- SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | SCIENZE DELL’ANTICHITÀ una sistematica ridefinizione territoriale che suscitò in patria l’accusa fatta alla famiglia di Amicare Barca di voler perseguire un progetto «regale»17, progetto di cui doveva far parte anche l’emissione con tipi eraclidi di monete in argento18. Analoga pianificazione il demo di Cartagine d’Africa dovette operare dal VI secolo a.C. in Sardegna, e in particolare nel Sinis, con Tharros (riprodotto nella figura di apertura) che per il suo profilo socio-economico ebbi a definire più volte «Cartagine di Sardegna»19. Una «città cartaginese» quella del Sinis che impiantò il suo tessuto urbano, dal tofet di su muru mannu20 a Capo San Marco su resti di strutture nuragiche21. Recenti ricerche ancora in corso nel Sinis, a Monte Prama22, saranno in grado di meglio storicizzare e contestualizzare in quel territorio il rapporto fra Paleosardi, Fenici già frequentatori dalla seconda metà dell’VIII secolo a.C. e Cartaginesi, proponendo letture che tengano in adeguato conto le emergenze archeologiche di tutto il territorio che comprende San Salvatore23, Santa Giusta24 e la stessa Cornus25. Un territorio quello del Sinis, è bene ricordarlo, che si pone sulle due grandi vie naturali di penetrazione verso l’interno, il Campidano verso sud-est e la valle del Tirso verso nord-est26. I lacerti di queste rifondazioni furono sostanzialmente ripristinati da Roma, che ne mantenne e in qualche caso potenziò il profilo strategico nelle singole regioni27. los leoninos in perniciem imperi nostri alere se praedicabat. 17 Cfr. da ultimo A. Prego de Lis, El reino Bárquida de Cartagena, in Cartagena histórica, 13 (2005), pp. 5-10. 18 Cfr. fra gli altri, E. Acquaro, Su i «ritratti barcidi» delle monete puniche, in Rivista storica dell’antichità, 13-14 (1983 - 1984), pp. 83-86. 19 Cfr. da ultimo, E. Acquaro, Tharros, Cartagine di Sardegna, in E. Acquaro - M.T. Francisi - G.M. Ingo - L.I. Manfredi (edd.), Progetto Tharros, Roma 1997, pp. 19-21. 20 Cfr. V. Santoni, Tharros – XI. Il villaggio nuragico di Su Muru Mannu, in Rivista di studi fenici, 13.1 (1983), pp. 33-140. 21 Cfr. E. Acquaro - M.T. Francisi - T.K. Kirova - A. Melucco Vaccaro (edd.), Tharros nomen (= Studi e ricerche sui beni culturali, 1), La Spezia 1999. 22 Cfr. fra gli altri, C. Tronchetti, La statuaria di Monte Prama nel contesto delle relazioni tra Fenici e Sardi, in P. Bernardini - M. Perra (edd.), I Nuragici, i Fenici e gli altri. Sardegna e Mediterraneo tra Bronzo Finale e Prima Età del Ferro. Atti del I Congresso Internazionale in occasione del venticinquennale del Museo “Genna Maria” di Villanovaforru 14-15 dicembre 2007, Sassari 2012, pp. 181-92 e il vivace dibattito riportato in http://monteprama.blogspot.it/ 23 Cfr. ad esempio, A. Donati - R. Zucca, L’ipogeo di San Salvatore (= Guide e itinerari, 21), Sassari 1992. 24 Cfr. da ultimo, C. Del Vais, Tomba ad inumazione di età arcaica nella necropoli di Othoca (loc. Santa Severa, Santa Giusta-OR), in C. Del Vais (ed.), EPI OINOPA PONTON. Studi sul Mediterraneo antico in ricordo di Giovanni Tore, Oristano 2012, pp. 457-72. 25 Cfr. da ultimo, C. Blasetti Fantauzzi - S. De Vincenzo, Indagini archeologiche nell’antica Cornus (OR). Le campagne di scavo 2010 – 2011, in Fasti Online Documents & Research, 275 (2013). 26 E. Acquaro, s.v. Tharros, in Enciclopedia Italiana - V Appendice, Roma 1995. 27 Cfr. fra gli altri, E. Acquaro, L’eredità di Cartagine: tra archeologia e storia, in A. Mastino (ed.), L’Africa Romana. Atti del VII Convegno di studio (Sassari, 15-17 dicembre 1989), Sassari 1990, pp. 73-79; Id., Note d’archeologia punica: questioni d’eredità, A. González Blanco - J.P. Vita - J.Á. Zamora (edd.), De la Tablilla a la Inteligencia Artificial, Zaragoza 2003, pp. 327-30. Fig. 4. Mozia. Il tofet. Fig. 5. Mozia. Il mosaico a ciottoli. Fig. 6. Mozia. Porta Orientale. 39 STORIA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 Da Londra 1851 a Milano 2015. Riflessioni sulle grandi esposizioni universali AGNESE VISCONTI Il presente articolo riprende, in forma ridotta e modificata, il saggio Dalla grande Esposizione di Londra del 1851 all’Expo di Milano del 2015, pubblicato in http://www.semidicultura.beniculturali.it/ È da tener presente anzitutto che le expo sono nella storia una novità che ha inizio nel 1851 e che continua ancor oggi. Esse si distinguono dalle fiere precedenti che erano perlopiù fenomeni locali, e anche dalle manifestazioni finalizzate a far conoscere gli oggetti esposti. Mentre le expo ebbero fin da subito lo scopo di far progredire: inizialmente si trattò dell’idea di progresso dell’industria e delle manifatture, e in breve anche di altre questioni: il lavoro, il benessere, la cultura, fino ai grandi tempi globali che caratterizzano le expo degli ultimi anni. Agli oggetti esposti si accompagnarono fin dalle prime expo congressi e dibattiti su temi importanti: temi che in parte rispecchiavano il mondo in cui si svolgevano, in parte lo anticipavano, in parte si trovavano invece a non comprenderlo: temi sul lavoro, la salute, la Dichiarazione dell’indipendenza americana, la presa della Bastiglia, la costruzione del Canale di Panama, le colonie. E molto presto, già a Vienna nel 1873, vennero inclusi i divertimenti e in seguito oggetti non industriali. Un tratto comune a tutte le esposizioni fu quello di sottolineare l’immagine nazionale: di qui l’apporto finanziario pubblico. Ancora possiamo dire, scorrendo l’elenco delle expo, che inizialmente si trattò di un fatto europeo, poi nella prima metà del Novecento, molte sono le expo negli Stati Uniti, e infine dopo la Seconda Guerra Mondiale il ventaglio si allarga all’Oriente. Infine per quanto riguarda delle strutture per ospitare le expo, esse furono inizialmente temporanee: l’effimero è un elemento comunicativo efficace e persuasivo. Realizzazioni effimere si accompagnavano al potere: archi, drappi, panneg40 gi, ecc. Effimero implica spesso l’uso di strutture smontabili, e perciò di grande libertà espressiva. Anche la Tour Eiffel (Expo di Parigi 1889) era nata per essere effimera e poi è rimasta ed è diventata l’emblema di Parigi; effimero il padiglione della Germania di Ludwig Mies van der Rohe, tra i maestri del Movimento Moderno, per l’Expo di Barcellona del 1929: fu demolito, ma poi ricostruito nel 1986 da un gruppo di architetti spagnoli. In altri casi all’effimero si sostituisce un’architettura stabile: tale all’Expo di Genova del 1992 la soluzione di Renzo Piano che prevedeva un nuovo assetto della città, rimasto anche dopo l’expo. Passiamo ora a illustrare alcune delle principali expo e a mostrarne le caratteristiche, cercando di collegarle sia tra loro sia con il contesto storico all’interno del quale si svolsero. La prima expo è a Londra nel 1851. Era stato il principe consorte Alberto che nel 1849 nel suo ruolo di presidente SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | STORIA della Royal Society of Arts aveva deciso di promuovere l’organizzazione di una grande esposizione universale dell’industria. L’area sarebbe stata quella del prato di Hyde Park in Kensington Street. Le difficoltà iniziarono subito: fu indetto un concorso, nessun progetto fu giudicato adatto, tanto che l’idea del principe Alberto di attirare a Londra tutte le ricchezze e le industrie del mondo e soprattutto mostrare la ricchezza e la grandezza delle industrie britanniche sembrava fallire. La soluzione venne infine dal progetto di un giardiniere, John Paxton, che progettò molto rapidamente un edificio provvisorio come sede dell’esposizione, il Crystal Palace che riprendeva la forma di una serra. Nel giro di pochi mesi fu montato un edificio di tre livelli: l’intelaiatura era in ferro, la copertura in vetro. Era l’emblema della vittoria del ferro, ossia dell’industria, e però nello stesso tempo la forma della serra ricordava quanto ancora la produzione manifatturiera fosse legata alla natura. Il palazzo fu smontato alla fine dell’expo. Ad attirare l’attenzione furono soprattutto i padiglioni esotici: quelli legati agli esploratori e alle colonie, mondi immaginati per i visitatori europei, di cui per la prima volta potevano farsi una visione, ancorché piuttosto approssimativa. E naturalmente il ristorante, chiamato Gastronomic Symposium of all Nations, dove si potevano gustare cibi provenienti da tutti i paesi del mondo. Anche questa era una novità per i visitatori europei. Diversa l’esposizione di Parigi del 1867 che si tenne nel Palazzo ovale di vetro e ferro (il vetro era con le manifatture Saint Gobain la vera gloria francese) del Champ de Mars. A fianco dello scopo industriale, vi era quello di decretare il trionfo di Napoleone III. E inoltre il tema della pace e dell’armonia universale per il genere umano. Si noti il termine universale che ci rimanda agli enciclopedisti. I più eminenti scrittori francesi, tra i quali Victor Hugo che scrisse l’introduzione alla Guida, contribuirono con le loro penne a inneggiare alla gloria di Francia. Intorno al palazzo era stato allestito un par- co per i divertimenti illuminato fino a mezzanotte, i concerti, un pallone che permetteva di vedere l’expo dall’alto e naturalmente ristoranti internazionali di ogni genere. Parigi era prospera e l’imperatore vittorioso. Ma le nubi si addensavano su questa expo trionfale che non seppe né rispecchiare né prevedere i tempi: erano in arrivo la guerra prussiana. l’esilio di Napoleone III, i massacri della Comune. La presenza dei regnanti fu molto alta: i visitatori furono circa 15 milioni L’expo ebbe un grandissimo successo, pari a quello di Londra. Napoleone III si dimostrò interessato al bene del suo popolo con due padiglioni sulle condizioni di igiene e di benessere, presentando anche un progetto di abitazioni operaie. Dal punto di vista produttivo, l’elemento che regnò incontrastato fu il vetro, come si è visto la vera gloria delle manifatture francesi. E numerose furono le serre che, con le loro piante esotiche alimentari e non, segnavano l’epopea della concentrazione in Europa delle ricchezze della natura di tutto il globo, iniziata dopo la scoperta dell’America Sull’altro fronte, a contraddire il progetto di armonia e di pace universale troneggiavano i cannoni di Krupp della Prussia: un monito alla guerra franco-prussiana del 1870. L’esposizione successiva si tenne a Vienna nel 1873. Essa ebbe luogo a Prater nell’edificio appositamente costruito, la Rotunde, e fu inaugurata alla presenza di Francesco Giuseppe con lo scopo di festeggiare il suo venticinquesimo anniversario di regno e anche con quello di ridare splendore all’immagine indebolita dell’Impero austro-ungarico. Furono presenti e destarono stupore India e Giappone, più ancora della Gran Bretagna e della Francia. L’Italia fu presente soprattutto con opere d’arte. L’expo ebbe un buon successo: i visitatori furono più di 7 milioni anche se l’ingresso e i ristoranti erano carissimi. Tra i divertimenti vi era un orchestra di Strauss che ininterrottamente intratteneva con musica, operette, walzer. E intorno alla Rotunde un grande parco divertimenti per quando i visitatori erano stanchi: giostre, caroselli, altalene. La Germania ripresentò i cannoni di Krupp, che questa volta non si limitavano a una minaccia, ma che si erano dimostrati arma reale e letale. L’Italia fu presente con il grande plastico della Galleria Vittorio Emanuele II, la più imponente del mondo. Sembrava che ormai il ferro avesse sostituito in tutto il legno. In parte era così, soprattutto nei paesi che come Regno Unito, Francia e Germania erano ricchi di miniere di carbone. E però non per altri: si pensi all’Italia, che nonostante il plastico della Galleria Vittorio Emanuele II, stentava ad avviare la propria industrializzazione per l’alto costo del combustibile che veniva importato via mare dalla Gran Bretagna. La legna era ancora utilizzata (con tutti i danni legati al diboscamento) e anche l’acqua che muoveva i mulini, consentendo la possibilità di alcune manifatture. Passiamo ora a Philadelphia dove nel 1876 si svolse la prima esposizione statunitense. Essa aveva per tema il Centenario dell’indipendenza americana. Si svolse a Fairmount Park, ancora oggi il cuore del sistema dei parchi municipali 41 STORIA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 di Philadelphia che comprende anche uno zoo. È il più grande parco cittadino del mondo. I lavori tardarono a finire e nelle ultime settimane gli operai lavorarono giorno e notte sotto la pioggia. Ma alla fine il risultato fu splendido. Il giardino era pieno di piante esotiche. Un grande richiamo alla natura. È l’epoca in cui gli scritti di Thoreau, Perkins Marsh ed Emerson cominciavano a penetrare nella cultura americana. Il meraviglioso parco di Fairmount e la successiva attenzione e cura al suo incremento e abbellimento sono un esempio della sensibilità di un largo settore dell’opinione pubblica verso la natura. Un altro centenario fu festeggiato a Parigi nel 1889, quello della Presa della Bastiglia, e, nella tradizione delle expo, anche questa non era pronta per il giorno dell’inaugurazione. Qui, a differenza che a Philadelphia, non trionfò la natura, ma la costruzione. In primo luogo la Tour Eiffel, eretta dall’ingegnere Alexandre-Gustave Eiffel, specialista in strutture metalliche, per essere smontata, ma che ebbe un tale successo (per salire fino in cima si pagava) che non solo rimase, ma divenne da allora l’emblema di Parigi. Di grande rilievo, ma non ancora trionfale, fu la presentazione della prima automobile a benzina: una Benz costruita dall’ingegnere tedesco Carl Friedrich Benz. L’invenzione era rivoluzionaria: alla macchina a vapore si sostituiva il motore a scoppio, e cioè al carbone si sostituiva il petrolio. Una nuova fonte energetica destinata a ridisegnare la vita dell’umanità intera. La Benz, a ben guardare, rappresentava il nuovo, il petrolio, il futuro, mentre la Tour Eiffel il carbone e il ferro: un presente destinato a passare il testimone. La Tour Eiffel ebbe successo. La Benz lo avrebbe avuto in seguito, ancora maggiore. Altra grande novità fu la presentazione dell’elettricità in tutti i suoi usi. Edison stesso si presentò con un suo padiglione. Il pubblico ne fu molto attratto. E arriviamo finalmente in Italia: a Milano nel 1906, quando fu organizzata l’expo per festeggiare il traforo del Sempione che significava commercio, ferrovia, apertura all’Europa. Si era in piena Belle Epoque e il mondo guardava con fiducia al nuovo secolo. Caratteristica di Milano fu l’effimero. Tutti i padiglioni furono costruiti per non durare oltre il tempo dell’expo, tranne l’Acquario realizzato su progetto dell’architetto Sebastiano Locati e situato accanto all’arena, di cui riproduce l’architettura ellittica. Era allora il padiglione dedicato alla piscicoltura. Oggi è uno dei più significativi edifici liberty di Milano. L’expo fu sistemata in due luoghi distinti: il primo fu il Parco situato tra il Castello e l’Arena, il secondo la Piazza d’Armi, collegati da un treno elettrico. Fu una mostra ferroviaria importantissima, ma il nuovo si era fatto strada rispetto all’expo di Parigi del 1889: apparvero le automobili di varie case costruttrici con i loro primi modelli e la Daimler Benz. Dietro al petrolio e al motore a scoppio avanzava anche l’elettricità, la fonte energetica che aveva consentito e stava consentendo, con le dighe che si stavano realizzando in Valtellina e nel Bergamasco, il processo di industrializzazione della Lombardia. 42 Di grande rilievo anche il padiglione dell’industria serica, importantissima per l’economia lombarda: tutto il processo manifatturiero della seta diventò spettacolo con la ricostruzione di una filanda e l’esposizione di una grande varietà di tessuti. Ma non solo: prevalsero le arti grafiche, le industrie della carta, della ceramica e del vetro. Dall’Europa torniamo negli Stati Uniti: a San Francisco che celebra nel 1915 l’apertura del Canale di Panama, la cui costruzione era stata resa possibile dal medico dell’esercito statunitense William Crawford Gorgas che era riuscito a prevenire la diffusione della malaria intervenendo sulle acque stagnanti, affumicando le abitazioni e rendendo obbligatorio l’uso delle zanzariere. Il suo sistema fu controverso e costoso, ma, una volta messo in atto, portò a un rapido abbassamento, e infine ad un totale annullamento del rischio di contrarre la malaria per le migliaia di operai, ingegneri, tecnici che lavorarono alla costruzione del canale. L’expo ebbe molto successo: si contarono 18 milioni di visitatori. La maggior attrazione, oltre ai congressi, ai ristoranti e all’illuminazione, fu il modello funzionante del Canale di Panama. Oggi sono in corso lavori di ampliamento del canale per consentire il passaggio di navi di maggior tonnellaggio e più numerose. Inoltre si discute di un grande progetto sinonicaraguense che prevede l’escavazione di un canale lungo il confine sud del Nicaragua. Tornando all’expo, essa mostrò l’importanza ormai assunta dalla California e dal West americano lungo tutta la costa pacifica. Intanto il numero di paesi che aspiravano ad essere sede di un’expo aumentava, al punto che si rese necessario fondare un ente che esaminasse e valutasse le richieste. Così venne fondato il Bureau International des Expositions, organizzazione intergovernativa istituita tramite la Convenzione concernente le esposizioni internazionali conchiusa a Parigi nel 1928. La prima expo che seguì fu quella di Parigi del 1931. Fu l’expo delle Colonie. La Prima Guerra Mondiale aveva cambiato la carta geografica del mondo, in particolare dell’Africa che era stata spartita quasi interamente fra Francia e Regno Unito. La fiera rappresentò il nuovo ordine coloniale. Gli inglesi non parteciparono, pertanto l’expo fu mutilata del grande affresco dell’impero britannico: si temeva che la manifestazione potesse trasformarsi in terreno di coltura per i germi anticolonialisti. Le altre potenze coloniali parteciparono tutte. Ma nessuna con un impegno forte come l’Italia. Al centro del grande padiglione costruito dall’architetto Armando Brasini era stata posta la Venere acefala rinvenuta nel 1913 a Cirene, oggi tornata in Libia. Altre sculture classiche scandivano il perimetro della sala. Ogni colonia aveva il suo spazio e i visitatori compivano il giro del mondo, dai mari del Sud, ai Caraibi, dall’Africa, al Madagascar, al Tonchino. E a ricordare il ruolo delle missioni nel programma di civilizzazione del colonialismo furono costruite due chiese una protestante e una cattolica. Anche qui, come a Milano per l’acquario, un edificio fu costruito SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | STORIA per durare: il Palais de la Porte Dorée, oggi Cité nationale della storia dell’immigrazione, situato a est di Parigi e aperto al pubblico nel 2007. La sinistra aveva attaccato l’expo su “L’Humanité” con una dura requisitoria sui suoi significati, invitando a non visitarla e a visitare invece la contro-esposizione organizzata in una sede del sindacato. Arriviamo così all’Expo di Chicago del 1933, ideata per la celebrazione dei cent’anni della creazione della municipalità di Chicago e nello stesso tempo per infondere allegria e speranza in quegli anni bui della Grande Depressione. Le difficoltà indotte dalla crisi sconsigliarono a molti governi di affrontare le spese per presentarsi al Chicago. Non fu così per l’Italia che decise di impegnare il meglio delle sue forze per mostrare che gli italiani erano non solo artisti, ma anche scienziati. L’aviazione fu il fulcro della fiera: in cielo si svolsero competizioni ed esibizioni aree di ogni tipo. Molto ammirate le evoluzioni dell’aereonautica italiana di Italo Balbo A monito di un futuro tutt’altro che allegro stavano però il dirigibile tedesco Zeppelin con le svastiche e l’assenza dell’Unione Sovietica. Le minacce che si avvicinavano al mondo furono ancora più tangibili a Parigi nel 1937. Questa expo fu infatti l’ultimo atto del rituale della pace e del progresso prima del disastro. I padiglioni dominanti furono quelli della Germania e dell’Unione Sovietica che si fronteggiavano l’un l’altro. In una posizione infelice si trovava invece il piccolo padiglione repubblicano spagnolo, opera dell’architetto Josep Luis Sert, rifugiatosi a Parigi per sfuggire alla guerra civile, che ospitava il dipinto Guernica di Picasso, eseguito appena dopo i bombardamenti tedeschi e italiani sulla cittadina. Guernica, che Picasso non volle andasse in Spagna prima della fine della dittatura di Franco, fu ospitato al Moma di New York dove rimase fino alla morte di Franco (1975), quando fu portato in Spagna. Torniamo ora in Italia, a Roma, per l’expo che non ebbe luogo. Nel 1935 la delegazione italiana presso il Bureau International des Expositions chiese di poter organizzare l’expo a Roma nel 1941. L’idea era di fare una esposizione fuori della città, su un terreno da recuperare, tra Roma e il mare, il polo dell’espansione a sud ovest della città. Si voleva il primato della vastità e un’esposizione non effimera, bensì stabile: ovvero edifici costruiti in materiali durevoli. In proposito ricordo che il progetto di esposizione durevole verrà ripreso dopo la Seconda guerra mondiale: a cominciare soprattutto dalle esposizioni di Genova 1992 e Lisbona 1998. A Roma i lavori procedettero a ritmo sostenuto. Ma l’expo, venne spostata al 1942, e infine sospesa per la guerra. L’area interessata prese il nome di EUR e agli edifici costruiti se ne aggiunsero altri dopo la guerra. Attualmente l’EUR è zona residenziale e sede di uffici pubblici e privati, tra cui il Ministero della Salute, quello delle Comunicazioni, quello dell’Ambiente, la Confindustria, la sede centrale dell’Eni e quella delle Poste Italiane. Situazione incerta, al pari di quella dell’Expo di Roma, sembrò avere l’Expo di Bruxelles che avrebbe dovuto tenersi nel 1955, ma che fu spostata al 1958 a causa della Guerra di Corea e della prima fase della Guerra fredda. Tema dominante dell’Expo fu l’energia atomica, l’energia che, utilizzata contro il Giappone in guerra, avrebbe dovuto diventare energia di pace. Era un’illusione che durò qualche decennio (atom for peace, atomo per la produzione, per uso economico, produttivo), illusione che portò alla costruzione di centrali nucleari per la produzione di energia elettrica, soprattutto negli Stati Uniti, in Unione Sovietica, nel Regno Unito e in Francia. Una forma energetica molto discussa fin dall’inizio e ancor più oggi, dopo i gravi incidenti di Cernobyl nel nord dell’attuale Ucraina e di Fukushima. E ora vale la pena di soffermarsi su di un’expo di grande interesse, quella di Spokane, Washington del 1974: la prima che abbia avuto per tema l’ambiente. Era uscito due anni prima il Rapporto dell’MIT per il Club di Roma, I limiti dello sviluppo, che prevedeva un declino per l’umanità entro cento anni nel caso in cui non fossero stati ridimensionati tasso di crescita della popolazione, dell’industrializzazione, dell’inquinamento e delle risorse. E nello stesso 1972 le Nazioni Unite avevano decretato il 5 giugno giornata mondiale dell’ambiente. Si tenga presente che la decisione della cittadina di Spokane di tenere l’expo era stata fatta prima dell’uscita del volume del Club di Roma e che fu il comune di Spokane a sospingere le Nazioni Unite a decretare il 5 giugno giorno dell’ambiente. L’Expo di Spokane dunque si pose all’avanguardia per quanto concerne le questioni ambientali. Aggiungo ancora che lo studio del Club di Roma è stato aggiornato nel 2004 da Donella e Denis Meadows che ne hanno confermato le previsioni, mettendo in particolare risalto il degrado ambientale e la finitezza delle risorse. L’expo si tenne sulle rive del fiume Spokane che era stato disinquinato allo scopo. Nel corso dei numerosi congressi sull’ambiente che ebbero luogo fu messa per la prima volta in discussione la concezione, fino ad allora predominante, che bigger is better. I temi ambientali furono ripresi all’Expo di Okinawa nel 1975. L’expo fu organizzata per la difesa del mare e della fauna marina e nello stesso tempo per ricordare la riconsegna dell’isola di Okinawa al Giappone da parte degli americani (1972), restituzione che avrebbe dovuto placare l’inimicizia tra i due paesi, inimicizia che invece durò ancora a lungo: un esempio di come le questioni legate alla Seconda guerra mondiale continuavano ad agitare il mondo, e come intanto si affacciassero, e non certo timidamente, quelle dell’ambiente e della finitezza delle risorse. Come si può immaginare i padiglioni dell’expo furono un susseguirsi di fauna marina, navi, barche, scienza e tecnologia. Il successo maggiore lo ebbe Aquapolis, la futura città sul mare, la più grande struttura galleggiante del mondo. I temi dell’ambiente non furono invece i principali a Genova nel 1992, sebbene ormai fossero questione ampiamente dibattuta in tutto il mondo: si pensi al Rapporto Brundtland (dal nome della signora norvegese Gro Brundtland presidente della Commissione Mondiale sull’Ambiente e lo Svilup43 STORIA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 po), pubblicato nel 1987 con il titolo Our common future. Nel rapporto Brundtland venne per la prima volta formulato il concetto di sviluppo sostenibile, ossia un concetto relativo non solo all’ambiente ma anche, meglio soprattutto ai rapporti tra uomini e ambienti. Il concetto di sviluppo sostenibile metteva in luce un significativo principio etico: la responsabilità delle generazioni di oggi nei confronti di quelle future, toccando quindi almeno due aspetti delll’ecosostenibilità: il mantenimento delle risorse e l’equilibrio ambientale. E ancora ricordo che il 1992 fu l’anno del Summit di Rio de Janeiro, la prima Conferenza mondiale dei capi di stato sull’ambiente. Rio siglò un accordo sui cambiamenti climatici che portò, a sua volta, alla stesura del Protocollo di Kyoto, sottoscritto nel 1997 ed entrato in vigore nel 2005. Genova fu soprattutto la celebrazione del cinquecentenario della scoperta dell’America, anche se portava un messaggio ambientale: proteggere le acque del mondo. Tutti i paesi esposero imbarcazioni o modelli di imbarcazioni, antiche carte nautiche, sottomarini. L’expo si svolse al Porto antico e permise la ristrutturazione della zona e della parte retrostante, su progetto dell’architetto genovese Renzo Piano. Le due principali attrazioni furono l’acquario e il grande bigo che fu inteso con una duplice funzione: da un lato di immagine e dall’altro strutturale (sostiene il tendone della piazza delle feste, situata nelle vicinanze). Il recupero dell’area è poi continuato negli anni seguenti. Un’altra expo in occasione del cinquecentenario della scoperta dell’America si tenne a Siviglia. Alle questioni ambientali tornò invece a rivolgersi l’Expo di Lisbona, 1998 che toccò, al pari di quella di Genova, anche la risistemazione di parte della città e la costruzione di molte infrastrutture. Il sito fu scelto nella parte orientale di Lisbona. Rappresentò un passaggio dall’uso del territorio a scopo industriale a quello residenziale e ricreativo. La concezione di effimero che, come abbiamo visto, aveva dominato a lungo nelle expo precedenti, veniva ora sostituita da quella della stabilità. Il tema ufficiale fu: un patrimonio per il futuro, con lo scopo di celebrare gli oceani nel mondo e però anche il ruolo storico del Portogallo nell’età delle scoperte e l’arrivo in India di Vasco da Gama. Molte delle infrastrutture costruite per l’expo sono state riconvertite. L’area utilizzata da Expo ha assunto il nome di Parco delle Nazioni, all’interno del quale è stato costruito un parco fieristico internazionale. Rimasto è l’Oceanario formato da 5 ambienti marini, la Torre di Vasco da Gama e infine un complesso di reti di trasporto. Queste strutture hanno modificato la città, dotandola di un profilo più internazionale e avvicinandola al mercato globale, rispecchiando così un nuovo aspetto del mondo moderno: quello della globalizzazione. Grande successo ebbe anche l’expo di Aichi, 2005, dove si aspettavano 15 milioni di visitatori, e ne vennero 22 milioni, tra i quali moltissimi giapponesi. Il tema scelto era formulato in modo semplice e lineare: la saggezza della natura. Fu un’expo verde, all’insegna del ridurre, riutilizzare, riciclare. Le attività organizzate furono perlopiù ambientali e globali e diedero la conferma definitiva dell’importanza del Giappone 44 in Oriente. Questo da un lato, dall’altro si facevano notare per la loro mole i due padiglioni del gruppo Toyota e del gas in netta contraddizione con il tema di expo verde. Restiamo in Oriente con l’expo di Shangai, 2010. È quello che precede Milano, 2015. Anche nel caso di Shangai, come ad Aichi, abbiamo un tema formulato in modo semplice: better city better life, ovvero migliorare la qualità della vita in ambito urbano. L’intento era di discutere del problema della pianificazione urbana e dello sviluppo sostenibile nelle nuove aree cittadine, nonché quello del come effettuare le riqualificazioni nel tessuto urbano esistente. La tematica partiva dal presupposto che dal secolo scorso ad oggi la popolazione che vive nelle città è aumentata dal 5%a più del 50%. Alcuni padiglioni particolarmente attraenti furono quello degli Emirati arabi, le cui forme curvilinee riprendevano le dune del deserto; quello del Regno Unito fatto di migliaia di fili acrilici trasparenti che di giorno incanalavano la luce verso l’interno, e di notte verso l’esterno; e il Padiglione italiano costruito in cemento trasparente. Sottolineo ancora che a Shangai, come ad Aichi,si è trattato di un tema solo, a differenza di quello di Expo 2015 Milano, che è duplice e molto complesso (nutrire il pianetaenergia per la vita) e che si propone di includere tutto ciò che riguarda l’alimentazione e l’energia, dal problema della mancanza di cibo per alcune zone del mondo, a quello dello sfruttamento delle risorse naturali e dell’inquinamento dei suoli e dell’acqua, a quello dell’educazione alimentare, fino alle tematiche legate agli Ogm, nonché quelle legate alla finitezza delle fonti energetiche fossili, alla ricerca nel settore delle energie rinnovabili. Forse troppo. Si vedrà. BIBLIOGRAFIA Aimone Linda e Olmo Carlo, Le esposizioni universali. 1851-1900 il progresso in scena, Torino, Allemandi, [1990] Allwood John, The Great Exhibitions, London, Studio Vista, 1977 Dall’Osso Riccardo, Expo da Londra 1851 a Shangai 2015, Milano, La Rovere, 2008 Findling John (ed.), Historical Dictionary of World’s Fairs and Expositions, N. Y, Greenwood Press, 1990 Fusina Sandro, Expo: le esposizioni universali da Londra 1851 a Roma 1942, Milano, Il Foglio, 2011 May Trevor, Great Exhibitions, Oxford, Shire, 2010 www.expo2015.org/it/cos-e/la-storia/il-bie-e-le-esposizioni-universali www.expo.rai.it/storia-expo www.musee-orsay.fr/en/.../universal-exhibitions.ht www.uzexpocentre.uz/index.php? SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | SCIENZE POLITICHE E SOCIALI Senza estetica non c’è etica. Per un’analisi dei tempi moderni ANGELO ARIEMMA Centro di documentazione europea Altiero Spinelli, c/o Università degli Studi di Roma La Sapienza Mi propongo di analizzare le nuove modalità di conoscenza e di pensiero che il mondo contemporaneo ha sviluppato. Parlo a ragion veduta di “contemporaneo” e non di “moderno”, perché credo che la parabola del “moderno”, iniziatasi con la rivoluzione scientifica del 1600, si chiuda con la caduta del Muro di Berlino. Allora si parlò di fine della Storia, ma la Storia ci ha dimostrato, con tutta la sua crudezza, di non essere affatto finita. Però è finita la storia del “moderno”, se per “moderno” intendiamo il pensiero verticale, che scava nel profondo, e riflette se stesso e la realtà circostante; se intendiamo il valore della conoscenza del passato; se intendiamo l’approccio estetico che ha impregnato la società europea, dal volgo analfabeta ai colti e ai potenti. I FILOSOFIA l pensiero debole e il postmoderno hanno voluto leggere il nichilismo di Nietzsche e il conservatorismo di Heidegger come rivoluzionari, portatori di valori nuovi e libertari, perché hanno preteso liberarsi della realtà fattuale, in nome delle interpretazioni soggettive; però questa libertà interpretativa ci ha portato al populismo mediatico, al reality, al talk show, dove ognuno può dire tutto e il contrario di tutto, eludendo qualsiasi dimostrazione veramente conoscitiva. Come sostiene il filosofo Maurizio Ferraris1 si è voluto negare l’esistenza di una realtà oggettiva al di fuori delle nostre percezioni, identificando così essere e sapere: esiste solamente ciò che sappiamo. Invece la realtà fuori di noi esiste, non appartiene solo ai concetti e al linguaggio, e dobbiamo considerarla nel nostro valutare e agire; facendo an1 Maurizio Ferraris, Manifesto del nuovo realismo, Roma-Bari, Laterza, 2012. 45 SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 che la debita distinzione tra positivismo, che delega tutto al sapere scientifico, e realismo, come quella filosofia che possa dare risposte inglobando anche i saperi non propriamente scientifici: arte, storia, diritto, economia, ecc. In questo senso viene meno il postulato del postmodernismo secondo cui accertare una realtà equivale ad accettarla così com’è. Niente di tutto questo, che ci ha deviato nel senso di o accettare supinamente i dati o di cercare la libertà nel pensiero avulso dai dati. “Il realismo, per come lo propongo, è una dottrina critica in due sensi. Nel senso kantiano del giudicare cosa è reale e che cosa non lo è, e in quello marxiano del trasformare ciò che non è giusto (...). Così, l’argomento decisivo per il realismo non è teoretico bensì morale, perché non è possibile immaginare un comportamento morale in un mondo senza fatti e senza oggetti”2 . Dunque, stabilita l’esistenza di una realtà oggettiva fuori di noi e indipendente da noi, occorre ora distinguervi gli oggetti sociali, come quegli oggetti che, reali fuori di noi, sono però da noi emendabili, trasformabili, attraverso il nostro agire etico. “Se l’Illuminismo collegava il sapere all’emancipazione, nel post-moderno è prevalsa la visione nietzschiana secondo cui il sapere è uno strumento di dominio e una manifestazione della volontà di potenza. A questo punto il solo sapere critico è una forma di contropotere che si impegna a dubitare sistematicamente del sapere, esercitando per l’appunto una decostruzione senza una ricostruzione”3. Così, il semplice sapere è stato additato come fattore di dominio e di violenza, e si è perso il vero senso della critica a chi usa violenza: “La giusta risposta a chi manifestasse il desiderio di compiere una strage in nome della verità non sarebbe attaccare la verità additandone i pericoli sociali, ma, semmai, osservare che certezze non suffragate dai fatti possono sortire esiti disastrosi, il che non è per nulla un argomento contro la verità, ma, proprio al contrario, il più forte argomento a favore della verità e della realtà”4. TELEVISIONE Qui ci misuriamo con quanto male questo pensiero di decostruzione della realtà abbia fatto proprio nella lettura socio-politica di questi anni. Si è costruita una ‘fabbrica del consenso’ basata sulla semplice adesione a un dire che non avesse nessuna base di verità, di oggettiva dimostrazione della realtà. Questo è stato il populismo mediatico di chi agitava lo spettro del comunismo, quando questo era ormai finito. Questo è l’attuale populismo che proclama sue contro verità, senza un briciolo di dimostrazione. Questo è il vacuo blaterare dei talk show, dove ognuno dice il suo parere, senza che ci siano fatti da mostrare, senza che il giornalista, che dovrebbe rappresentare il controllo dell’opinione pubblica, porti dati di verità; ma, come non possiamo dubitare che “La televisione ha avuto un ruolo centrale nel plasmare la coscienza politica delle persone e per formare la nostra opinione pubblica. Non tanto per i contenuti (...) quanto perché un concetto di maggioranza come democrazia, maggioranza come verità, maggioranza come bene sociale, ha preso il sopravvento su quei concetti illuministici e moderni, che vedevano nella tutela dei diritti delle minoranze la vera missione della democrazia, nella divisione dei poteri la garanzia essenziale contro il totalitarismo, nella ricerca della verità, anche in contrapposizione all’opinione più diffusa, una necessità e un dovere”6. Il libro di Feccero ci permette di tornare, da un’altra prospettiva, al discorso che contrappone il moderno, come quella visione razionale e illuminista che nel pensiero ricercante la verità trova la sua ragion d’essere, e il postmoderno, il quale ha preteso di spazzare via questi concetti, accusati di essere borghesi e repressivi, in favore di una supposta libertà del pensiero laterale, che invece ci ha portato a non saper più distinguere i dati dalle opinioni, e a dover dare ragione a colui che sa alzare la voce più forte, “e attribuiamo al concetto di maggioranza e non di verità, un valore essenziale”7. La televisione pedagogica della RAI pubblica con un solo canale, che ha cercato finalmente di unificare il paese, nella sua lingua, insegnata, attraverso il video, ai tanti rimasti ancora analfabeti; nella sua cultura, con gli sceneggiati tratti dai grandi romanzi italiani ed europei, e il teatro di Pirandello e di Eduardo, e il melodramma, allestito appositamente 2 Ivi, p. 63. 3 Ivi, p. 87. 4 Ivi, p. 91. 5 Ivi, p. 112. 6 Carlo Freccero, Televisione, Torino, Bollati Boringhieri, 2013, p. 11-12. 7 Ivi, p. 14. POLITICA 46 2+2=4, allora non possiamo più ascoltare il ministro uscente che ci dice che i conti sono in ordine e il ministro entrante che invece parla di buco nel bilancio, lasciandoci in balia di verità che nessuno controlla e adusi al consenso verso chi ‘parla meglio’. Del resto, anche i maggiori fautori di questo pensiero decostruzionista, Lyotard Derrida Foucault, che voleva essere liberatorio, alla fine hanno visto l’abisso in cui si era gettato il post-moderno, e sono tornati all’Illuminismo, alla verità socratica contro il mito nietzchiano, al sapere aude kantiano, perché solamente chi avrà ansia di conoscenza potrà dire “quel re è nudo”. L’emancipazione, da cui era partito il pensiero post-moderno, ci ha condotto a un mondo indistinto, dove, in mancanza di una realtà conoscibile, prevale qualsiasi fascinosa mitologia. “Dire addio alla verità è non solo un dono senza controdono che si fa al ‘Potere’, ma soprattutto la revoca della sola chance di emancipazione che sia data all’umanità, il realismo, contro l’illusione e il sortilegio. Ecco l’importanza del sapere: (...), il non volersi rassegnare a essere minorenni (indipendentemente dall’età anagrafica), per quanto, come scriveva ancora Kant, sia tanto comodo essere minorenni”5. SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | SCIENZE POLITICHE E SOCIALI negli studi televisivi, e gli show, che presentavano il meglio di quanto l’arte attoriale e canora producessero. Una dimensione che ha sempre distinto la televisione europea da quella americana, da subito nata come televisione commerciale. Ora però, e soprattutto in Italia, “l’aspetto più evidente della televisione generalista di oggi è il suo interesse ossessivo per la futilità del quotidiano, l’abbandono totale dell’informazione a favore del gossip: in breve, il suo passaggio dalla dimensione pubblica alla dimensione privata”8. La fase di passaggio è stata rappresentata dall’apertura del mercato televisivo. Sostanziale è la parola mercato: un prodotto culturale è stato commercializzato, ed è divenuto funzionale a quel sistema economico liberista che dagli anni ottanta si è affermato come pensiero unico nel mondo. Illusoria è stata l’idea che il concetto predominante fosse quello di libertà: alla fine degli anni settanta sono nate le televisioni “libere”, ma subito si è visto che la loro controinformazione non ha fatto altro che dare voce a miriadi di imbonitori di vario genere (il web sta percorrendo lo stesso solco? ai posteri l’ardua sentenza!); finché il grosso della torta è stato fagocitato da chi aveva i mezzi economici e gli appoggi politici per appropriarsene, e divenire un grande monopolista, in barba alle sentenze della Corte costituzionale, del mercato concorrenziale, e della libertà. Il liberismo economico rompe la centralità della produzione e del lavoro, per puntare tutto sui consumi: l’individuo diventa un consumatore, estraneo alle logiche del gruppoclasse, ma pienamente integrato nella maggioranza omologata, dall’alto al basso, dagli stessi identici consumi, che la televisione, e la pubblicità che la condiziona, trasformano in valori. E la tv verità, che prende piede dopo la caduta del muro di Berlino e l’inchiesta mani pulite, piano piano si trasforma nel talk show, nell’inutile vaniloquio di politici e non, che possono dire tutto e il contrario di tutto, senza preoccuparsi di smentite o contraddittori, comunque vanificati in quell’unica melassa televisiva. “In questo modo l’istanza di rinnovamento espressa dalla maggioranza del paese viene strumentalizzata per conseguire il risultato opposto. Sul modello dell’audience e della maggioranza è costruito anche il populismo politico berlusconiano”9. Si arriva quindi al reality. La televisione diventa autoreferenziale: non guarda più al mondo esterno, guarda a se stessa, l’unica realtà “vera” è quella che appare in televisione, e l’individuo perde la dimensione dell’essere, la dimensione del limite, e sogna di poter anche lui “apparire” in tv e svoltare la propria esistenza. L’argomentazione di Freccero ha già trovato anche le sue icastiche rappresentazioni nei film Videocrazy10 e Reality11, che mostrano proprio come il sogno di “apparire” distrugga infine l’esistenza delle persone. Fino alla distruzione del pensiero ‘politico’: ormai “la politica non parla alla ragione, ma all’emotività. Non richiede un proces8 Ivi, p. 23. 9 Ivi, p. 67. 10 Regia di Erik Gandini, 2009. 11 Regia di Matteo Garrone, 2012. so di comprensione, ma di identificazione. Il politico si trova a svolgere un ruolo di star, condiviso con altri figuranti del mondo dello spettacolo”12, e ogni possibilità di autonomia critica si perde tra le urla che caratterizzano i talk show. La notizia si consuma rapidamente e non viene approfondita; sono “reali” solamente le notizie di cui parla la tv, e chi ne detiene i meccanismi determina anche le priorità di quello di cui si discute e di quello che “deve” essere percepito come fondamentale; alla verità, al sapere, si sostituiscono l’opinione e il sondaggio, questi determinano il discorso politico, questi rendono l’uomo politico non più portatore di valori “convincenti”, ma succube a sua volta dell’opinione della maggioranza, a cui tutti si adeguano, una volta che è stata “formata” da chi gestisce la “verità” televisiva; si perde la dimensione storica, e chi perde il passato perde anche il futuro, e si finisce col vivere in questo eterno presente privo di senso. Tutto questo non può non incidere sul modello di democrazia, che si svuota dei suoi valori dialettici; tutto questo è stato determinato dalla televisione e da chi ha “saputo” impossessarsene, a dispetto di chi ieri ne ha sottovalutato le potenzialità, e di chi oggi sogna il grande balzo nella rete; ma la rete come tale non esiste: i dibattiti e i modelli della rete sono quelli proposti dall’agenda televisiva. “Ho sempre pensato che la spinta decisiva a scavalcare il muro e poi ad abbatterlo, fosse costituita per i cittadini dell’Est non tanto dal desiderio di libertà, quanto dall’avvento della televisione commerciale. Il muro separava fisicamente e materialmente due modelli di vita. Da un lato il modello comunista in cui erano garantiti i bisogni essenziali, ma non c’era possibilità di accedere al superfluo, dall’altro il liberismo occidentale in cui il minimo non è garantito, ma in cui tutti possono aspirare al massimo dei consumi”13. 1. Provocazione: Il crollo del Muro e dell’Unione sovietica e di regimi che abbiamo avversato, salutato con entusiasmo come apertura verso libere democrazie, ha di fatto aperto altri mercati, altre possibilità di speculazione finanziaria e di arricchimento selvaggio e corrotto. 2. Provocazione: battere così ossessivamente sulla crisi economica, addirittura paragonata alla grande crisi del 1929, sta diventando (esprimo questo dubbio dopo anni di ‘campagne mediatiche’ rivelatisi quanto meno superficiali) il cavallo di Troia per distruggere l’Unione europea, perché un’Europa che diventi una vera forza tra le altre dà fastidio; dà fastidio il suo modello, che ha saputo coniugare il mercato con la solidarietà, con il wellfare. In fondo, l’attacco a questo modello parte da lontano, dall’epoca della Teacher e di Reagan, che hanno imposto l’assoluta libertà del mercato, la deregulation, riportando la teoria economica alla ‘mano invisibile’ di Adam Smith, che da sola “saprebbe” regolare il benessere di ognuno. 12 Ivi, p. 86. 13 Ivi, p. 126. 47 SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 EROI DEL NUOVO MILLENNIO Parliamo di eroi, come ha fatto anche Umberto Eco14, il quale affronta la questione di come l’immaginario collettivo, che prima si fondava su testi e personaggi letterari (Ulisse, Gulliver, Madame Bovary, Werther), ora si fonda sui personaggi che appaiono in tv. Quando ancora la nostra televisione svolgeva un servizio pubblico di formazione e di trasmissione di valori culturali fondativi della civiltà, le giovani generazioni di allora, ma anche quegli adulti, che, per ragioni storico-sociali, non avevano avuto la possibilità di istruirsi, hanno potuto avvicinarsi a tutto un materiale storico-culturale, dal quale altrimenti sarebbero rimasti esclusi. Così tutti, senza distinzione di classe o di reddito, per la prima volta (e purtroppo anche l’ultima), hanno conosciuto le storie della grande letteratura attraverso gli sceneggiati televisivi, si sono avvicinati al teatro di Shakespeare o di Eduardo, hanno preso visione della storia del cinema, dai film muti all’attualità. Ma ora che la televisione è diventata puro intrattenimento, spesso becero e idiota, chi non si avvicina a tutto questo per sua propria spinta e passione, ne rimane irrimediabilmente fuori. Soprattutto l’immaginario che viene veicolato è che basta azzeccare la scatola giusta per diventare ricchi, basta apparire in tv per diventare famosi; zittiti i valori del sano lavoro, delle competenze specifiche, della fatica per arrivare al successo o accontentarsi dei propri limiti; e vediamo queste scorciatoie dove ci hanno portato. Proprio recentemente mi è capitato di vedere, in una delle tante stazioni d’Italia, un mendicante racimolare i pochi spiccioli faticosamente elemosinati per acquistare cosa? un gratta e vinci! Ci sembra questa la giusta conclusione per un paese che ha voluto perdere la propria capacità propulsiva e si è lasciato abbagliare dal messaggio: arricchitevi tutti, è facile, basta solamente un po’ di fortuna! Così anche la mitologia dell’eroe appare completamente mutata. Distinguiamo alcuni eroi dell’immaginario collettivo anni ‘60. Primo fra tutti 007, il James Bond di Sean Connery: un personaggio di classe, esperto viveur, che ha cognizioni dei gusti della vita maggiori del suo capo M, che nella sua lotta contro il male non perde mai il senso della misura e dell’humour britannico, che, certo è esperto di lotta e di arti marziali, ma sconfigge giganti più forti di lui con la “scienza” e l’intelligenza. Esempio topico in Goldfinger la lotta dentro il caveau di Fort Knox con il servo coreano armato di una bombetta a lame taglienti. Il coreano è chiaramente più forte, di stazza e di potenza fisica, inoltre ha questa arma micidiale che lancia a tagliare la testa del nostro eroe: una volta taglia un cavo elettrico ad alta tensione, un’altra si incastra nelle barre di ferro del caveau. Ecco, ora la sequenza che propone il regista è di chiara evidenza: Bond è steso a terra, colpito per l’ennesima volta dalla massa del gigante, che tutto baldanzoso si avvicina sorridente al suo cappello incastrato tra le sbarre di ferro; ma un lampo divampa negli occhi di 007: si slancia sulla gomma del cavo elettrico che manda scintille e lo avvicina alle sbarre nel momento in cui il coreano afferra 14 Selvaggia contro Sciuellen, in “L’Espresso”, 4 ottobre 2012. 48 il suo cappello metallico e resta così fulminato! Bond sa che il metallo è un conduttore elettrico, circostanza che evidentemente il coreano, che confida unicamente sulla sua forza fisica, ignora, e con quel suo scatto di intelligenza (la famosa lampadina di Archimede Pitagorico) dimostra che la cultura può avere la meglio sulla forza bruta. Il Biondo della trilogia del dollaro di Sergio Leone, si batte, è vero, per denaro, ma contro i “cattivi”, e sempre si concede gesti di umanità: salva la donna messicana dalle grinfie di Ramon (Per un pugno di dollari); si allea con il vecchio colonnello che deve vendicare la giovane sorella (Per qualche dollaro in più); si allea con il rubagalline, nonostante abbia cercato di farlo crepare nel deserto, contro il perfido Sentenza (Il buono, il brutto, il cattivo). Eroi dello sport: Mazzola, Rivera, Riva, sono stati i simboli viventi delle loro squadre: per es. Riva non ha mai lasciato Cagliari, pur avendo offerte molto allettanti da società più blasonate. Ma oggi? L’ultimo James Bond è un personaggio caduco, corre, suda, perde tutto il suo storico aplomb, e sconfigge i nemici con la loro stessa brutalità. La critica sostiene che è un personaggio più umano, più proletario; in realtà sembra solamente un personaggio che riproietta certa brutalità, quella privazione di cultura (un non-valore) che oggi sperimentiamo quotidianamente. Anche i Bastardi senza gloria e Django di Quentin Tarantino, sono “buoni” non meno crudeli e spietati dei “cattivi”. Nello sport guardiamo la storia di Armstrong: il grande eroe. Per un decennio ha riempito le cronache con l’immagine del giovane eroe che, sconfitta la malattia, ha saputo dominare la scena ciclistica con imprese da record. Tutto cade. L’eroe ha compiuto le sue imprese solamente grazie a dosi massicce di doping. E il caso Pistorius, il giovane atleta che correva con delle protesi, improvvisamente spara alla sua donna. Fatti che lasciano stupefatti, basiti. Fatti che ci inducono a pensare che si è perso il senso del limite. Anche per chi non ha avuto una vita facile, ma ha dovuto lottare contro le avversità, sembra non bastare la vittoria sul male, ma si vuole di più, si pretende di più e pur di averlo si supera ogni limite. Tanto più questo meccanismo può colpire chi, per un caso fortunato, si ritrova improvvisamente sulla ribalta, senza veri meriti e senza background culturale. P.es. Taricone, il primo vincitore del Grande fratello: improvvisamente famoso, improvvisamente riconosciuto, improvvisamente attore senza alcuna preparazione specifica; improvvisamente si schianta su una montagna, nel fare uno di quegli sport estremi tanto di moda; forse perché ha perso il senso del limite, il limite delle sue possibilità, il limite della realtà con cui ci si confronta, quel limite che invece un Messner aveva sempre presente quando preparava e affrontava le sue imprese al limite della sopravvivenza. Allarghiamo il discorso. come accade che giovani sportivi, i quali hanno già la fortuna di lauti guadagni, siano poi disposti a truccare le partite per guadagnare ancora di più? Ancora SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | SCIENZE POLITICHE E SOCIALI la perdita del senso del limite: bisogna guadagnare sempre di più, bisogna avere sempre di più, bisogna apparire sempre e comunque in forma e vincenti, non importa come! “In primo luogo, il potere mediatico accentua le differenze nel potere sportivo, laddove la bellezza della competizione sportiva richiederebbe che non ci sia troppo squilibrio di forze in campo. In secondo luogo, c’è un problema di corretto funzionamento dell’informazione sportiva. Sarà un caso, ma in Italia le denunce di comportamenti illeciti e di frodi calcistiche (a partire dallo scandalo di Calciopoli) non vengono quasi mai dal giornalismo sportivo. I giornalisti tv sono specializzati per squadra, anziché per attività sportiva, e avendo il potere di influenzare le opinioni dei tifosi, in qualche caso hanno pensato bene di usarlo per convincere gli arbitri a non essere troppo severi con la ‘propria’ squadra di riferimento”15. Il discorso di Tito Boeri è totalmente trasferibile alla situazione socio-politica: un potere mediatico in mano a un’unica persona (il famigerato conflitto d’interessi mai sanato); un’informazione quasi totalmente asservita a quei poteri che la finanziano e la fanno sopravvivere: tutto mischiato in un unico calderone, dove politica, informazione, affari, si tengono la mano per convincere il popolo, disinformato e diseducato, a seguirli in scelte che sono state a vantaggio solo di pochi “eletti”; mentre l’intera società si è impoverita economicamente, culturalmente, moralmente. Gli altri punti evidenziati da Boeri nel calcio, ma tranquillamente traducibili all’intera società, sono: la disattenzione verso i giovani e il ricambio generazionale, come nel calcio le società hanno abbandonato le loro scuole calcio per affidarsi ai grandi campioni stranieri, che richiamano gli abbonamenti alla pay-tv, così la scuola e l’università sono stati impoveriti di valori formativi e culturali; ci troviamo così nel paradosso, già in fondo denunciato da Pasolini (che con la sua sensibilità aveva visto più lontano di tutti noi), di una scolarità di massa che rende le persone più “ignoranti” di quanto fossero i nostri genitori quasi analfabeti. L’eccessiva sperequazione di trattamento economico tra persone che esercitano lo stesso lavoro e tra persone che lavorano nella stessa azienda: si crea così disagio e inefficienza a tutti i livelli, dagli amministratori, spesso divenuti tali non per propri meriti, e che mai subiscono le conseguenze delle loro scelte, anzi vengono premiati con ricche buonuscite; a tutti gli altri che lavorano in condizioni disagiate e senza prospettive di valorizzazione del proprio lavoro. Gli organi di controllo che dipendono dalle stesse società che dovrebbero controllare: questo tanto più evidente nel settore economico, dove le stesse persone siedono nei consigli di amministrazione e nelle istituzioni di controllo. Tutto si riduce a una mancanza di misura: “la misura è un’arte, e richiede una visione d’insieme a largo spettro. Intanto si misura, sì; ma rispetto a che cosa? Per misurare si richiede uno strumento e soprattutto è essenziale un 15 Tito Boeri, Parlerò SOLO di calcio, Bologna, Il Mulino, 2012, p. 3839. riferimento”16. Questo oggi manca. Punti di riferimento. Intanto la figura del padre, come garante di un “sapere” di una “forza” di una “etica”, che formano il fanciullo, a cui l’adolescente avrà il “dovere” di ribellarsi, facendo suoi altri punti di riferimento, primi fra tutti quelli che ci fornisce la storia e la cultura. In questo eterno presente in cui oggi viviamo i giovani non conoscono più la storia, quindi non apprendono più da essa, anzi continuano a ripercorrere gli errori dei padri: schifati da un certo populismo, cadono nelle braccia di un populismo opposto, che altro non è se non il rovescio della stessa medaglia. In un mondo in cui l’essenziale è apparire, sempre e comunque, sembrare giovani (anche se si ha il viso deturpato dal botulino), i giovani non possono più appropriarsi di quegli strumenti di misurazione che li aiutino a crescere e a “misurarsi” con la realtà. Come abbiamo visto, oggi, perfino gli eroi cadono miseramente “all’apparir del vero”. NATIVI DIGITALI Già da diverso tempo si è aperto il dibattito sul significato contingente e allo stesso tempo epocale della cultura digitale. Franco Ferrarotti17 analizza con crudezza la situazione dei nativi digitali, non più educati alla cultura della lettura analogica, sequenziale e quindi storicamente determinata; ma invasi e succubi della cultura dell’immagine, immediata, sempre presente, priva di passato e di futuro, perché immediatamente fagocitata da nuove immagini, quindi le informazioni, pletoriche, non sono filtrate dal sapere ‘riflesso’ dentro di sé, nelle memoria storica, che irrimediabilmente si perde. In questa riflessione nulla si salva, anzi, proprio il web, con la sua straripante ricchezza informativa, viene additato come primo responsabile di questa privazione di concentrazione critica, di memoria, di responsabilità individuale. Invece Francesco Tissoni18 cerca di capire cosa sia e rappresenti questo nuovo web, a cui non si risparmiano critiche, perché nella facilità di interfaccia e nella velocità di ricerca, si nasconde la trappola della scarsa pertinenza e della poca attendibilità dei risultati. L’analisi si sofferma allora sulle nuove forme di web, che cercano di superare questa primigenia passività. Il web 2.0, che include i vari socialnetwork, i blog, tutto questo mondo in cui ognuno può immettere testi, foto, video ecc., condividendoli con i suoi ‘amici’ e comunque con l’intera rete, si propone di sfruttare l’intelligenza collettiva, senza un controllo editoriale, senza una catalogazione vera e propria, ma con semplici tag apposti dagli utenti; tuttavia il controllo dai contenuti si è spostato alla piattaforma, e la piattaforma è tale da condizionare anche il contenuto. Una soluzione sembra essere il web semantico (o web 3.0): una infrastruttura pensata per il recupero intelligente delle informazioni, dove i dati vengono messi in relazione fra loro, 16 A. Pascale-L. Rastello, Democrazia: cosa può fare uno scrittore, Torino, Codice edizioni, 2011, p.13. 17 Franco Ferrarotti, Un popolo di frenetici informatissimi idioti, Chieti, Solfanelli, 2012. 18 L’editoria multimediale nel nuovo web, Milano, Unicopli, 2010. 49 SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 attraverso metadati, ontologie, mappe mentali, tutto un sistema di organizzazione del flusso informativo della rete, che sembra aver trovato un reale sviluppo nella tecnologia dei linked data, in grado di costruire una reale rete di contenuti interconnessi. Un’altra soluzione la propone Roberto Casati19. Il quale ha ragione nel sostenere che si esagera quando si parla di mutazione antropologica, però non possiamo negare che siamo di fronte a un cambiamento socio-culturale, che ci investe tutti, proprio perché questi mezzi sono talmente pervasivi da non poterli ignorare. Però, quando parliamo di “nativi digitali” dobbiamo fare riferimento a chi è ancora infante, a chi nasce in questo momento; per gli altri, per gli adolescenti, a cui soprattutto pensiamo quando facciamo questi discorsi, dobbiamo ancora parlare di “migrazione” al digitale, da un mondo ancora dominato dalla televisione e dal libro. Noi, probabilmente ultima generazione nutritasi di libri e formatasi attraverso il discorso lineare, profondo, restiamo spiazzati di fronte alla nuova modalità reticolare, dove sembra non ci sia più bisogno di connessioni interne, profonde, poiché tutte le connessioni sono nella rete, a portata di click. Per capire questo valga l’esempio dei bambini bilingui. Chi impara una seconda lingua da adulto deve sempre resettare la sua “coscienza” per passare da una lingua all’altra, mentre per i bambini bilingui è naturale e spontaneo fare questo passaggio, in realtà sono in possesso di due lingue-madri: questa non è una mutazione antropologica, ma sicuramente è un radicale cambiamento socio-culturale. Negli ultimi cento anni la velocità del progresso tecnologico è stata tale che anche i nostri genitori hanno dovuto riparametrare il loro approccio al mondo che si riempiva di oggetti prima sconosciuti (automobili, televisione, telefono…). Tuttavia questi oggetti non intaccavano la sfera dell’apprendimento, che restava legata alla linearità del discorso argomentativo. Anzi, la televisione che abbiamo conosciuto noi ha dato la possibilità di apertura conoscitiva, culturale, anche a chi non aveva avuto la fortuna di poter studiare: emblema di questo è la trasmissione Non è mai troppo tardi, che alfabetizzava i tanti analfabeti che, ancora negli anni ’50-’60, erano presenti in Italia. Oggi si parla di analfabetismo di ritorno: adulti che pur essendo andati a scuola, perdono le cognizioni acquisite e la capacità di comprendere discorsi complessi20. Ma questo non attiene alla digitalizzazione, attiene piuttosto a chi da 40 anni subisce una televisione volgare e diseducativa. La difficoltà odierna è invece proprio quella di trovarsi in una fase di passaggio: in cui i più sono “migranti” digitali, hanno imparato una seconda lingua, ma la usano in alternativa alla prima, senza reali scambi tra l’una e l’altra; così siamo tentati, come propone anche Casati, di trovare degli escamotage per riportare i nostri adolescenti sulla via maestra del discorso lineare e profondo. E sicuramente, le proposte di Casati di investire la scuola del suo compito primario di educare all’attenzione e all’apprendimento in profondità, ci 19 Contro il colonialismo digitale, Roma-Bari, Laterza, 2013. 50 trovano assolutamente d’accordo, in quanto si rivolgono a quei “migranti” digitali abbagliati e succubi passivi delle nuove tecnologie. Ma la questione dei veri “nativi digitali” ancora non l’abbiamo davanti: come affronteremo le problematiche di chi sa maneggiare con disinvoltura questa seconda lingua? Forse non sarà più possibile cercare di riportarli alla nostra modalità di apprendimento, ma dovremo farci carico di saper intercettare la loro, che si muoverà nella rete, tra “connessioni neurali” esterne, diffuse, orizzontali. Questa sarà la vera sfida. La peculiarità dell’uomo è sempre stata quella di trasmettere alle generazioni future le conoscenze, i valori, acquisiti nel passato (in questo trovano senso le biblioteche, gli archivi, la storia); come continuare a farlo con chi guarderà ai padri come meno “sapienti”, perché in possesso di una sola lingua? 1. CONCLUSIONE: MULTITASKING Un ragazzo di 12 anni che sul PC fa una ricerca scolastica e nello stesso tempo sul Tablet gioca con un videogioco, quali svantaggi e quali vantaggi potrà avere rispetto al nostro antico modo di apprendimento? Gli svantaggi mi sono chiari: manca la profondità di qualsiasi genere. La profondità storica: si vive in un eterno presente continuamente mutabile, che mai si deposita in una costruzione consistente. La profondità geografica: si vive il qui e ora e molto poco si conosce del resto del mondo. La profondità interiore: si vive il carpe diem, il piacere qui e ora è giocare con un videogioco, e poiché ho gli strumenti a portata di mano faccio anche la mia ricerca scolastica con internet e software complessi; ma cosa me ne resta? Più difficile per chi appartiene alla generazione del pensiero profondo è interpretare i vantaggi di questa nuova modalità di apprendimento. Forse il nostro compito di “padri” dovrebbe essere quello di aiutarli a sviluppare comunque un pensiero capace di analisi, magari non quell’analisi verticale a cui siamo abituati, ma un’analisi orizzontale, che sappia sfruttare le potenzialità del web per crescere una propria conoscenza e coscienza critica, senza perdersi e affogare nell’immenso mare informativo privo di significato. 2. CONCLUSIONE: SENZA ESTETICA NON C’È ETICA “Cominciavamo a capire che la lettura non era una scampagnata in cui si coglievano quasi a caso, or qui or la, i ranuncoli o i bianco spini della poesia, annidata tra il letame delle zeppe strutturali, ma si affrontava il testo come cosa intera, animato di vita a diversi livelli. Pareva che anche la nostra cultura lo avesse imparato. Perché se ne sta dimenticando, perché si sta insegnando ai giovani che per parlare di un testo non occorre un forte armamentario teorico, e una frequentazione a ogni livello? Che la lunga e diuturna fatica di un Contini era dannosa (...) mentre l’unico ideale critico ormai celebrato (di nuovo!) è quello di SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | SCIENZE POLITICHE E SOCIALI una mente libera che liberamente reagisce alle sollecitazioni occasionali che il testo provvede? Personalmente vedo in questa tendenza un riflesso di altri settori della comunicazione, l’adeguarsi della critica ai ritmi e alla rata d’investimento di altre attività che si sono dimostrate di reddito sicuro. Perché la recensione, che obbliga a leggere il libro, se vende di più sulla pagina culturale il commento all’intervista rilasciata dall’autore a un altro giornale? Perché mettere in scena l’Amleto per la TV, come faceva la deprecata TV degli anni sessanta, quando si ha una udienza maggiore facendo partecipare, a pari merito, lo scemo del villaggio e lo scemo del consiglio di facoltà allo stesso talk show? E perché dunque leggere un testo per anni se si può ottenere l’estasi del sublime masticando alcune foglie, senza perdere le notti e i giorni a scoprire il sublime della foglia nelle sublimi macchinazioni della fotosintesi clorofilliana? Perché è questo il messaggio che viene quotidianamente lanciato dagli psicopompi della Nuova Critica Post-Antica: ci ripetono che chi conosce la fotosintesi clorofilliana sarà per tutta la vita insensibile alla bellezza di una foglia, che chi sa qualcosa della circolazione del sangue non saprà più far palpitare d’amore il suo cuore. E questo è falso, e bisognerà dirlo e ridirlo ad alta voce”20. Sbaglio o siamo tornati alla diatriba tra realismo e postmoderno? Al contrasto tra una realtà oggettiva e fattuale, e la pura sensazione, la soggettiva ‘immagine’ del mondo, all’apparenza liberatoria e ‘democratica’, in verità, nuova forma di assoggettamento ai tanti pifferai magici che da varie tribune ci ammanniscono la loro verità, priva di reali riscontri? Si giustifica così anche il titolo del nostro saggio: senza estetica non c’è etica: una etica laica, che si fondi sulla realtà oggettiva, sulla interoperabilità tra soggetti diversi, sulla vera libertà democratica nel rispetto della libertà dell’altro e dei diritti delle minoranze, non può darsi senza la competenza e la capacità estetica dove essa realmente è, competenza e capacità che accomunavano l’intera Polis greca nelle tragiche rappresentazioni, o l’intera popolazione dei Comuni italiani di fronte alle opere di Raffaello o Michelangelo, o la Londra elisabettiana accalcata nel Globe Theatre per le rappresentazioni shakespeariane, o la Milano dell’Ottocento che applaudiva o fischiava i grandi melodrammi nostrani, o i fumosi cinema romani degli anni sessanta dove le immagini di Fellini o Sordi o Visconti ammaliavano gli spettatori, o quelle stanze condominiali dove il popolo si è appassionato ai grandi sceneggiati e show televisivi. Che fare? Siamo ancora nel pieno di quella Sfida al labirinto21 di cui parlava Italo Calvino, e la sconfitta dell’intellettuale che chiude il suo percorso narrativo con le deluse pagine di Palomar22, come la sconfitta di un Pasolini cha abiura la Trilogia della vita23 per chiudere nell’abnorme disumanità 20 Eco, Sulla letteratura, Milano, Bompiani, 2008, p. 185-186. 21 Saggio pubblicato in “Menabò”, 1962. 22 Torino, Einaudi, 1983. 23 Film che caratterizzano la sua produzione degli anni ’70; l’abiura data 1975. delle 120 giornate24, non deve scoraggiarci oltremodo. Forse non a caso questi due intellettuali, in fondo antitetici nelle loro analisi del presente, concludono la loro umana vicenda nella predizione di una disfatta. Allora mi soccorre la ‘storia’ di un altro intellettuale sempre “sconfitto” nella realtà: Altiero Spinelli25, che però nella sua visione del futuro ha “visto” la giusta strada da percorrere: lavorare incessantemente, costantemente per la Federazione Europea, anche se non se ne vedrà il risultato, perché la storia umana è come una staffetta: da loro abbiamo raccolto il testimone, e quel testimone, arricchito, rinnovato, vogliamo trasmettere alle future generazioni. 24 Salò o le 120 giornate di Sodoma, 1975. 25 Fondamentale la sua autobiografia per potenza narrativa e lucidità di pensiero: Come ho tentato di diventare saggio, Bologna, Il Mulino, 1988 51 SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 Media, pubblico e consapevolezza del messaggio MARINO D’AMORE Libera Università degli Studi di Scienze Umane e Tecnologiche di Lugano L.U.de.S. L a comunicazione caratterizza fortemente la nostra quotidianità, il ritmo delle nostre vite, la nostra conoscenza del mondo, azzerando tempi e distanze. Un processo continuo, progressivo che, soprattutto oggi, vede i destinatari del messaggio mediatico assurgere ad un nuovo ruolo più consapevole e attivo: quello dei prosumer, attori mediali che personalizzano l’informazione che ricevono e creano contenuti mediatici propri attraverso aggregatori di contenuti (Youtube, Blip, Brightcove) e social network (Facebook, Twitter, ecc.). Un tale scenario vede la leadership dei vecchi broadcaster generalisti minacciata dalla comparsa improvvisa e dalla proposta innovativa dei nuovi operatori, figlia di contingenze tecnologico-evolutive tanto imprevedibili quanto inarrestabili nel loro imporsi nel panorama mediatico. Tuttavia, almeno per il momento, i primi continuano ad esercitare un’egemonia mediatica, da un punto di vista giornalistico-informativo, soprattutto nei confronti di uno specifico target di pubblico, quello più anziano, numericamente cospicuo legato al mondo televisivo analogico e ancora poco alfabetizzato a quello digitale. In una sorta di divisione socio-mediatica tra apocalittici e integrati (Eco 1964), questa tipologia di audience si colloca tra i primi, tra coloro che, nonostante le innovazioni sopracitate continuano a intrattenere con la comunicazione e l’informazione, sia televisiva sia giornalistica, un rapporto passivo, meramente spettatoriale, connotato da istanze voyeuristiche che, con le dovute eccezioni, finalizzano il consumo al puro gossip, alla chiacchiera da bar, allo stereotipo sociale secondo dinamiche connotate da un provincialismo anacronisticamente obsoleto. Il palesarsi di una tale tendenza ricettiva acritica e superficiale del messaggio mediatico invece di ricevere una censura da parte delle emittenti del medesimo, catalizza un cambiamento sostanziale in questo senso della loro agenda mediatica e dei criteri di notiziabilità con cui selezionare 52 gli avvenimenti da sottoporre al pubblico. Secondo precise e opportune operazioni di marketing gli operatori generalisti tentano in questo modo di tamponare quell’emorragia di pubblico in atto da diverso tempo, migrante verso altri lidi mediatico-comunicativi personalizzati sia a livello contenustico sia a livello temporale, perché ognuno vede quello che vuole quando vuole. Gli ultimi baluardi di una vetero-comunicazione, soprattutto in ambito televisivo, tentano in questo modo di rinnovarsi, di ritagliarsi un’isola felice metabolizzando, almeno apparentemente, la perdita di un’egemonia fino a poco tempo fa incontrastata e lo fanno facendo appello però ad istanze spettatoriali interne legate ad un passato non troppo remoto, racchiuse in un convivio di comari di provincia fatto di giudizi stereotipati e discrezionali, proprio come avveniva e talvolta avviene ancora oggi in alcuni paesi della nostra penisola quando nel cortile di un’abitazione si parla di un tradimento tra coniugi, di un tracollo finanziario di qualche sfortunato o degli abiti succinti di qualche ragazza troppo allegra. Per quanto l’analisi possa apparire semplicistica, il meccanismo che si pone alla base SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | SCIENZE POLITICHE E SOCIALI di questo tipo di comunicazione è questo, segue le medesime dinamiche, gli stessi rivoli per sfociare nel flusso mediatico generalista che si pone quotidianamente davanti ai nostri occhi, un flusso come vedremo eticamente condannabile, ma redditizio, alla luce del nuovo panorama formatosi, sia da un punto di vista economico sia da quello, parlando di pubblico, numerico. Tale tendenza si palesa attraverso varie evidenze che, a loro volta si sostanziano sul versante televisivo nei reality e su quello puramente giornalistico nella vendita sempre costante di giornali di gossip che passano con disinvoltura dal parlare del passato torbido e del nuovo amore di una velina all’intervista con il testimone o il parente dell’autore di un efferato delitto. In questo modo non solo si fa cattiva comunicazione, finalizzata non all’informazione ma al mero rendiconto personale, ma si volgarizza inevitabilmente la decodifica del pubblico, depauperandolo degli strumenti necessari ad una consapevole e critica comprensione del messaggio ricevuto. Ciò che appare palese anche agli osservatori privi di rudimenti cognitivi sociologici, dotati unicamente di buon senso, frutto di mere contingenze esperienziali, è il modo in cui quelle che dovrebbero essere inchieste di cronaca subiscono un tacito processo evolutivo che le modifica sia nella loro morfologia esteriore sia nella sua essenza, in puro e semplice intrattenimento contestualizzato in un semplicistico ambito semantico del gossip fine a se stesso. Così si mistifica quello che è il vero scopo della comunicazione, una comunicazione che viene delegittimata e spogliata di due delle componenti del credo reithiano: educare, informare, intrattenere, postulato che costituisce la finalità prima del servizio pubblico televisivo generalmente inteso, ma che si rende estendibile alla missione comunicativa tout court di cui i media hanno inderogabile responsabilità. Il disattendere in modo tanto evidente le finalità precipue del messaggio comunicativo comporta una distorsione denotativa e connotativa dello stesso, ma soprattutto una recrudescenza di codifiche e decodifiche aberranti, parafrasando Eco e il suo modello semiotico – informazionale (Eco, Fabbri 1965): una distorsione non del messaggio in quanto tale ma della realtà racconta- ta. Infatti vi è una perfetta corrispondenza fra le intenzioni comunicative dell’emittente e ciò che comprende il destinatario, ma una parziale o totale distorsione del contenuto di quello che viene raccontato e quindi interpretato conducendo quindi ad una proporzionale mistificazione semantica del fatto. Tale considerazione evidenzia, qualora ce ne fosse bisogno, che la comunicazione rappresenta un potere, come ha evidenziato Orson Welles in “Quarto Potere”, un potere, appunto, che cresce parallelamente rispetto all’evoluzione della tecnologia che lo caratterizza, racchiuso, almeno fino a poco tempo fa, nelle mani dei detentori di tale tecnologia, strutturati in una sorta di classe dirigente mediatica. Ora tale scenario sembra cambiare, destinato all’obsolescenza per abbracciare un futuro di condivisione e democratizzazione. Come detto ogni grande potere comporta grandi responsabilità e quello mediatico soprattutto se elargito dall’alto, secondo dinamiche top/down, viene accolto dalle audience in modo fideistico e acritico. Qualsiasi inferenza o generalizzazione in questo senso risulta fuorviante e inattendibile, tuttavia per aver meglio chiaro il quadro appena descritto occorre considerare 2 aspetti: - A dispetto di audience alfabetizzate al linguaggio e ai codici mediatici e quindi in possesso di strumenti di decodifica più o meno efficaci, ve ne sono altre che per contingenze culturali non posseggono tali strumenti e che quindi sono maggiormente influenzabili da ogni tipo di messaggio, non essendo in grado di valutarlo criticamente; - Anche le audience alfabetizzate se sottoposte ad un tipo di comunicazione che cela alcuni aspetti denotativo-connotativi del messaggio per evidenziarne altri, saranno evidentemente influenzate a privilegiare questi ultimi nella comprensione del messaggio costruendo una valutazione del suo contenuto se non faziosa quantomeno parziale. Un esempio chiarirà quanto appena esposto: pensiamo alla propaganda di regime del ventennio fascista. I filmati di guerra dell’Istituto Luce tentavano con successo di celare, nel loro racconto dei fatti, le sconfitte sul campo relegandole allo stato di meri intoppi temporanei di un cammino glorioso costellato di vittorie. In questo modo una popolazione poco acculturata, fiaccata dal dolore e dai sacrifici della guerra si aggrappava, per andare avanti, alla fiducia in un futuro migliore, una fiducia velleitaria alimentata da false notizie. Tutto questo sottolinea il caratterizzarsi ineluttabile del fenomeno comunicativo come vero e proprio potere, o quanto meno come una declinazione di quello istituzionale, come testimoniato dai regimi totalitari della prima metà del XX secolo, che utilizzarono media giovani, come il cinema, o appena nati come la radio per costruire e, in seguito, rafforzare il consenso delle masse. Tutto ciò avvenne pianificando strategie comunicative gonfie di retorica, finalizzate allo scopo e gestendo il flusso comunicativo ufficiale grazie addirittura a dei ministeri creati ad hoc: Quello della propaganda in Germania e quello della cultura popolare (minculpop) in Italia. Ora lo scenario è inevitabilmente cambiato, a causa di con53 SCIENZE POLITICHE E SOCIALI | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 tingenze storico-culturali e di una maggiore consapevolezza del pubblico come attore attivo nel processo comunicativo, tuttavia la comunicazione continua a rappresentare un potere che ancora oggi, a volte, se strumentalizzato, riesce a creare una realtà alternativa, quasi mai migliore ma sempre fittizia. Le attuali possibilità comunicative a nostra disposizione sono suscettibili di un impetuosa e imprevedibile evoluzione, caratteristica che costituisce la loro essenza, la loro cifra tecnico-strutturale: ad una improvvisa imposizione nelle scenario comunicativo corrisponde un’altrettanto rapida obsolescenza, secondo dinamiche che seguono percorsi diversi e che riducono progressivamente il lasso di tempo che intercorre tra le due fasi. Oggi la figura spettatoriale è mutata: l’attore passivo e inconsapevole che, fino a qualche lustro fa, guardava tv, ascoltava radio o leggeva giornali accettava i contenuti che consumava in una sorta di religiosa rassegnazione, senza mai metterli in discussione sta scomparendo. Tale tipologia di spettatore si nutriva di essi incondizionatamente, come se provenissero da una divinità mediatico-pagana che elargiva il suo verbo ai suoi adepti, legittimato dal valore e dalla credibilità intrinseca della sua fonte. Il senso di questa modus consumandi si racchiudeva sinteticamente, ma al tempo stesso in modo esaustivo, in un espressione che abbiamo sentito tante volte dai nostri genitori o dai nostri nonni: lo ha detto la televisione! Ora non è più così, o quanto meno il sistema mediatico sta mutando rapidamente e con esso i suoi interpreti. La spettatorialità sta abbandonando quella passività che l’ha connotata trasversalmente per abbracciare una nuova stagione che la vede attiva nel concepire e nel comprendere i propri consumi come mai in passato, all’interno di una consapevolezza che è culturale e sociale e che è racchiusa nella figura dei già citati prosumer: crasi comunicativa tra le figure dei produttori e dei consumatori dei contenuti. Ovviamente una tale investitura presuppone una maggiore alfabetizzazione al panorama mediatico, anche in quello giornalistico sia esso televisivo o meramente cartaceo, frutto di istanze autodidattiche o di corsi di studio di stampo accademico dedicati. Una tale gamma di nuove possibilità comunicative implica, tuttavia, anche nuove responsabilità nei modi e nei contenuti in cui si declinano, responsabilità che costituiscono un denominatore comune per i vecchi e i nuovi operatori del settore, contestualizzata in una sorta di deontologia sia formalizzata in regole precise sia caratterizzata da mere esigenze di buon senso, finalizzate a garantire una comunicazione puntuale, informativa, attendibile, e che risponda positivamente ai criteri di veridicità senza offendere la sensibilità degli utenti. Tale impianto regolatore non sempre viene rispettato e quando viene disatteso da luogo ad aberrazioni comunicative esecrabili e degne di censura da un punto di vista etico-morale. Il riferimento è diretto verso tutte quelle forme d’informazione che antepongono il guadagno, il lucro, e la conquista di un vasto bacino d’utenza alla missione principale per cui sono concepite: rendere edotto su un determinato argomento il destinatario del messaggio. Occorre fare un distinguo. Le generazione mediatiche maggiormente alfabetizzate a questo tipo di comunicazione sono 54 quelle più giovani e in possesso di una proporzionale coscienza critica in grado di discriminare varie tipologie d’informazione e discernere il loro grado di veridicità. Quelle invece che sono più permeabili all’influenza dell’emittente e del messaggio che intende veicolare sono quelle più anziane, gli apocalittici (Eco,1964), infatti un deficit culturale del genere comporta una minore disponibilità di codici per interpretare il messaggio stesso e una conseguente maggiore fiducia, nella sedicente autorevolezza della fonte, che a sua volta investe molto e in modo consapevole, specie in alcuni tipi di giornalismo televisivo, su tale deficit. Tale è la potenza dello strumento comunicativo (McLuhan 1967), una potenza declinabile in maniera benigna, secondo istanze deontologiche, o consapevolmente malevola e sensibilmente decurtata di fondamenti di veridicità. Quest’ultima risulta più vicina a quella sorta di proto-comunicazione mediatica messa in atto dai regimi totalitari del secolo scorso finalizzata alla creazione e alla stabilizzazione di un roccioso consenso popolare, vera base della loro sopravvivenza dopo l’ascesa al potere. Una giornalismo che non è libero ma diventa di regime e che come tale deve evidenziare solo gli accadimenti che contribuiscono all’apologia del regime stesso, celando io suoi insiti elementi di debolezza. Tutto deve essere finalizzato al radicamento e all’esponenziale crescita di quel potere non ottenuto democraticamente e come tale mantenuto: le notizie non devono essere vere ma funzionali a tale scopo. L’informazione, e con essa la comunicazione tout court devono essere libere oltreché conformi al reale e soprattutto coscienti dell’immenso potere che possono esercitare in diversi contesti e nei confronti dei diversi pubblici. Tale potere dovrebbe essere utilizzato responsabilmente per munire le audiences di tutti gli strumenti e i codici necessari a comprendere un determinato messaggio, in modo, secondo le più disparate contingenze, quasi pedagogico, affrontando il futuro mediale con uno sguardo al passato, tentando un rinnovamento anche culturale basato sull’abbattimento di qualsiasi barriera che si opponga ad un proficuo scambio dialogico e ad un’interpretazione critica del messaggio, evitando che l’invasività dei media e la loro malcelata persuasione operata in alcuni casi sugli utenti, di influenzare quest’ultima. La comunicazione, oggi più che mai, rappresenta un’arma molto potente nelle mani di chi può gestirla, un’arma che anche quando sembra essere giunta al suo massimo compimento, strutturale e semantico, ha ancora, insite in sé, una miriade di potenzialità pronte ad esplodere e ad imporsi in qualsiasi momento, secondo contingenze evolutive imprevedibili, fagocitando vecchie tecnologie e contenuti, relegate all’obsolescenza in breve tempo, aprendosi continuamente e con trepidante rapidità al futuro. In virtù di queste sue immense potenzialità deve essere utilizzata con cognizione, responsabilità e buon senso, rispettando le sue finalità precipue: informare il pubblico in modo esaustivo, dettagliato, non fazioso, nel rispetto dei canoni di deontologia e correttezza generalmente intesi. SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | RECENSIONI Un classico ancora più classico tra gli altri classici ERIKA GIUGLIANO Lorenzo Rocci Vocabolario Greco - Italiano (con Web-CD) Società Editrice Dante Alighieri, 2011 D IL NUOVO ROCCI opo settant’anni dalla sua prima edizione, era il 1939, la Società Editrice Dante Alighieri ha riunito un agguerrito team di grecisti, lessicologi e storici che per cinque anni hanno lavorato a rinnovare e valorizzare il Rocci. Tra le notizie culturali è senza dubbio una delle più belle e serie di questo decennio e un sintomo di vitalità e proiezione intelligente verso il futuro della parte migliore del nostro Paese. Insieme al celeberrimo Georges - Calonghi per il latino, il Rocci non ha bisogno di essere presentato alla cultura italiana. È stato e resta il ‘vocabolario di greco’ per eccellenza e in questo senso appartiene alla categoria dei fatti classici, imperituri, una di quelle presenze che sembrano non conoscere la corruzione del tempo, non risentire dell’avanzare delle mode passeggere, non essere toccato dalle fluttuazioni del pensiero e delle tendenze storiche, ma anzi esserne lei condizione della loro stessa possibilità. Il Rocci è stato e resta lo strumento indispensabile sia per chi si avvicina per la prima volta allo studio della lingua greca sia per chi ne ha già una certa padronanza o ne è addirittura uno specialista. È il compagno di tante ore passate dagli studenti sulle versioni, bersaglio di imprecazioni quando sembra non dare ‘quella parola’ di cui proprio non si riesce a carpire il senso, adulato e vezzeggiato quando invece ci fornisce la ‘formula magica’ che permette di risolvere intricati enigmi linguistici dandoci in citazione proprio la frase che abbiamo sotto i nostri occhi e che ci sta facendo dannare. Un tutor fondamentale insomma, soprattutto quando la lingua in questione, ovviamente a torto, ha la fama di essere tremendamente difficile, come il greco antico. Eppure questa lingua ‘difficile’, complicata e ‘contorta’ (e secondo alcuni addirittura inutile) è una delle lingue che più efficacemente assicura a tutti noi un’alta qualità della vita. Non tutti infatti sanno che nel nostro lessico le parole che hanno a che fare con il greco sono 8.354 (13 esotismi non adattati, 3.891 etimi diretti di parole italiane e 4.451 etimi di parole latine diventate poi italiane). Di conseguenza pochi sanno che queste cifre fanno del greco la lingua straniera quantitativamente più rilevante tra quelle che hanno dato parole all’italiano (l’inglese, per esempio, che egemonizza, senza colpa, l’immaginario dei puristi, si colloca solo al secondo posto, a più di 2000 parole di distanza) e non è difficile considerare il ruolo qualitativo che i derivati dal greco hanno sulla natura profonda stessa del sapere e della cultura italiana e, di fatto, mondiale. E non si tratta di vantare termini della filosofia, della letteratura o della psicologia o parole imprescindibili anche ai livelli elementari del sapere come atmosfera, entusiasmo, epoca, epidemia, farmacia, igiene, guscio, analfabeta, scheletro, tegame, a tacere del comunissimo e discorsivissimo magari. Si tratta invece di sapere che è nei secoli XIX e XX, cioè oggi, che il greco (classico, attenzione) ha dato tantissime parole all’italiano e al mondo, perché è in questi anni che abbiamo assunto 55 RECENSIONI | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 circa 3.000 dei 3.891 lessemi citati più su (il che, se è permesso, per una lingua ‘morta’ è una bella performance). E che parole. Perché, ancora una volta a dispetto dei falsi sapienti, il greco classico non ci fornisce parole ‘languide’ o ‘soft’ ma parole che fanno il nucleo delle hard sciences, quei saperi che ci permettono le attuali condizioni di vita progredita (per dire, il telefonino - e la matematica e la fisica che ci permettono di averlo a disposizione). Sta anche qui la ragione per cui quando constatiamo che il greco viene messo in discussione invece di essere valorizzato negli ordinamenti scolastici viene in mente l’Urlo di Munch o il cristiano ‘Dio perdona loro perché non sanno quello che fanno’ e ci si sente in dovere di riprendere e rilanciare quanto osserva Tullio De Mauro quando scrive che «bisogna ammettere che il businness dictionary o l’academic word list parlano greco e parlano latino in Italia e nel mondo, oggi come nei secoli passati, nelle fabbriche e negli uffici, nei laboratori e nella comunicazione, assai più di quanto il mediocre stato degli studi scolastici classici in Italia e in altri paesi possa far pensare. E, si aggiunga, assai più di quanto sospettano coloro che predicano l’abbandono a ogni attenzione alla classicità» (Storia linguistica dell’Italia repubblicana. Dal 1946 ai nostri giorni, Laterza, Roma-Bari, 2014: 136) Non ci sono dubbi sul fatto che la sensibilità culturale di Lorenzo Rocci avvertisse quanto il greco stava dando all’italiano e all’Europa e quanto importante fosse che questo patrimonio entrasse il più in profondità possibile nella coscienza di tutti. Era il 1939 quando Rocci portò a termine la prima edizione del suo vocabolario (poi concluso nel 1943) dopo venticinque anni di lavoro alla macchina da scrivere nel collezionare, ordinare, tradurre circa centomila lemmi del primo vocabolario per lo studio del greco antico completamente concepito in italiano e destinato a diventare il classico che tutti conosciamo. 56 LA NUOVA EDIZIONE La caratteristica della nuova edizione è che segue con grande acume una linea di ideale continuità con l’opera di Rocci, conservandone alcune peculiarità e adeguandone alcuni aspetti alle nuove esigenze dettate dai moderni orientamenti dello studio delle lingue e alle nuove acquisizioni in fatto di fruizione e comprensibilità connessi alla impaginazione e alla grafica dei testi a stampa. Esaminiamo nei dettagli l’entità di questi interventi di ‘restauro’ e moderna riproposizione. Lemmi. L’edizione del 2011 ha conservato il caratteristico raggruppamento dei vocaboli per famiglie, che era uno dei tratti peculiari dell’ordinamento seguito da Rocci nel suo vocabolario. I lemmi all’interno delle famiglie, prima abbreviati, vengono ora riportati tutti in forma integrale. Maggiore attenzione è stata riservata tanto alla verifica delle varianti dialettali quanto all’esatta definizione della natura morfologica della voce, ammettendo come lemmi solo le forme effettivamente attestate. Dove presente, la forma dorica delle voci è stata estesa nella sua completezza e collocata dietro l’articolo, in modo da rendere quest’ultimo più evidente e immediatamente riconoscibile. Traduzione dei lemmi. Le traduzioni dei lemmi, prima difficilmente distinguibili dalle traduzioni di esempi e citazioni a causa del comune uso del carattere corsivo chiaro, ora sono evidenziate in neretto. Sono state sistematicamente aggiornate in modo da eliminare quella patina di arcaismo che spesso rendeva ardua la comprensione dell’enunciato in chiave moderna. Il lessico aggiornato e fluido però non rinnega completamen- te la facies di elegante letterarietà che è unanimemente riconosciuta come una sorta di “valore aggiunto” dell’opera di Rocci. Citazioni. Le traduzioni delle citazioni, che nella vecchia edizione venivano spesso omesse o fornite solo parzialmente, abbreviate con i puntini di sospensione, vengono riportate in maniera completa, almeno per quanto concerne gli autori più letti nella scuola. Anche queste traduzioni sono state sottoposte a un sistematico aggiornamento linguistico per favorire la chiarezza e la facilità di comprensione. Didascalie. Con un ampio lavoro di integrazione, le didascalie esplicative prestano ora maggiore attenzione alle note morfosintattiche, all’analisi delle forme verbali e all’indicazione di costrutti e reggenze. È invece rimasto pressoché inalterato il ricco apparato di didascalie storico-antiquarie, che fa del Rocci un dizionario quasi enciclopedico, capace di soddisfare anche eventuali curiosità sulla cultura e sulla civiltà, non strettamente legate quindi alla comprensione della lingua. SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | RECENSIONI Abbreviazioni. Un analogo intervento di razionalizzazione ha riguardato le abbreviazioni: sono state evitate sovrapposizioni e incoerenze con numerosi casi di sigle usate come abbreviazioni di più termini. Per evitare confusione e ambiguità si è adottato il criterio della corrispondenza univoca, per cui oggi ad ogni sigla corrisponde un solo termine. Un classico che si rinnova dunque, ma senza lasciare che l’irruenza dionisiaca del moderno stravolga completamente quei tratti apollinei di eleganza e raffinatezza che hanno reso questo vocabolario un must per intere generazioni, accompagnando milioni di studenti nel loro iter di formazione sui testi di una civiltà che non smette di parlare e di affascinarci ancora oggi. Siamo convinti che anche Padre Rocci, se vedesse come è stata riplasmata e rinfrescata la sua opera, darebbe la sua benedizione. IL GRECO ANTICO DALLA A ALLA Z Grafica. Notevolissimi sono stati infine gli interventi sulla grafica, che costituiva il principale motivo di critica da parte degli studenti e che ora si presenta completamente rinnovata, adeguata a più moderni standard, con l’adozione di un carattere più chiaro e più leggibile e con dei parametri di impaginazione più vicini al gusto e alle esigenze degli attuali fruitori. Versione elettronica. In ogni copia del nuovo Rocci è presente il bollino con un codice unico che inserito sul sito “Dante Alighieri” dà la possibilità di accedere ai contenuti digitali, mettendo tutti i lemmi del Rocci a portata di un clic. Accanto all’edizione maggiore, la Società Editrice Dante Alighieri ha realizzato anche un dizionario predisposto specificamente per i principianti, come risulta evidente dal titolo stesso: Rocci Εσαγογή - Starter edition (già affettuosamente ribattezzato “il Roccino”), uno strumento di consultazione destinato agli studenti del biennio ginnasiale, soprattutto a quelli del primo anno. Il formato ‘rimpicciolito’ però non ridimensiona né svilisce i pregi dell’edizione principale; sono state conservate infatti tutte le caratteristiche del Rocci maior, dalla grafica ai contenuti: l’accorpamento dei lemmi in famiglie, l’evidenziazione dei significati, l’indicazione delle reggenze, l’impaginazione su due colonne. Padre Rocci non aveva nessuna precedente pubblicazione lessicografica greca di matrice esclusivamente italiana a cui rapportarsi: la mancanza di un diretto antecedente ci fa capire la mole del lavoro che ha svolto per circa venticinque anni, un’impresa quasi titanica (gemella solo all’impresa di Nicola Zingarelli per l’italiano) considerando che agli inizi del XX secolo non c’era la possibilità di reperire informazioni e dati con la facilità di oggi. La sua opera però ha fatto da capostipite a una serie di dizionari che rivelano espressamente il loro debito nei confronti del lavoro decennale svolto dall’infaticabile gesuita. Il primo a proporsi come valida alternativa al vocabolario ‘canonico’ è stato il GI - Vocabolario di greco antico di Franco Montanari, uscito in prima edizione nel 1995 per la Loescher. L’opera è stata accolta subito con favore da parte di chi lo preferiva al vecchio Rocci per la grafica più chiara e l’impaginazione più snella. Lo stesso professore pavese, che ha coordinato un team di trenta collaboratori, ha ribadito la sua riconoscenza verso l’illustre predecessore, che ha rappresentato un punto di riferimento imprescindibile. L’ultima edizione è del 2013, ulteriormente ampliata e rinnovata sotto la veste grafica soprattutto mediante l’uso dei colori e di una simbologia interna volta a rendere più semplice e intuitiva la ricerca e l’individuazione delle accezioni. In appendice sono riportate 15 tavole a colori con piccoli glossari suddivisi per temi (riguardanti alcuni aspetti della cultura e della civiltà greca) e carte geografiche sui periodi della colonizzazione, la dislocazione dei dialetti e i regni ellenistici. Viene inoltre proposto un lessico di base, indispensabile per i principianti, arricchito da una parte pratica che propone una serie di lezioni sull’uso del dizionario e alcuni esercizi che l’insegnante può assegnare agli alunni da svolgere a casa o in classe. Un CD-rom, già presente nella seconda edizione del 2004, completa l’equipaggiamento del GI di questa terza edizione. Per il particolare criterio metodologico adottato si distingue anche il dizionario Greco antico di Renato Romizi, edito nel 2007 da Zanichelli, che struttura il lemmario secondo una scansione etimologica. Come ormai appare fondamentale per ogni pubblicazione di questo tipo, la grafica è stata particolarmente curata per rendere più facile e immediata la consultazione. Il metodo adottato dall’autore prevede che ogni parola venga ‘sezionata’ nei suoi 57 RECENSIONI | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 elementi costitutivi che, analizzati singolarmente, conducano il fruitore al significato della parola stessa, guidandolo attraverso un percorso logico ed etimologico che gli faciliti anche la memorizzazione del lessico. L’altra particolarità sta nelle fonti adoperate, costituite esclusivamente dai testi in prosa. Anche qui è stata riservata una particolare attenzione al lessico di base, di cui vengono evidenziate 2600 voci. Se invece si desidera ampliare ulteriormente i propri orizzonti di ricerca in ambito linguistico e si preferisce un approccio di tipo comparativo, segnaliamo Greco antico, neogreco e italiano. Dizionario dei prestiti e dei parallelismi, a cura di Massimo Peri e Amalia Kolonia, sempre per Zanichelli (2008). Il dizionario comprende circa 12.000 vocaboli greci che ‘inconsapevolmente’ sono già noti al pubblico italiano in quanto si tratta sia di prestiti forniti all’italiano dal greco antico nelle sue varie fasi storiche sia di prestiti che l’italiano stesso ha ceduto al greco (in modo speciale attraverso il dialetto veneto) sia di termini scientifici che si sono ‘infiltrati’ in greco e in italiano mediante altre lingue (francese e inglese in massima parte). Per questo suo carattere composito che abbraccia anche le lingue moderne è un’opera che si rivolge a un pubblico molto vario: dai filologi agli studiosi di storia europea, da chi usa linguaggi specialistici che presentano termini derivanti in gran parte dal greco (medicina, giurisprudenza) a chi si reca in Grecia semplicemente per lavoro o per vacanza. Per Vallardi segnaliamo il Dizionario greco antico plus (2000) a cura di Nedda Sacerdoti e Vittorio Sirtori, con oltre 12.000 voci e 20.000 traduzioni, spiegazioni, precisazioni e indicazioni d’uso, utile per chi ama la sinteticità dell’esplicazione che non rinuncia alla completezza. Ciascun lemma è corredato da esempi esaurienti e articolati che mostrano con immediatezza la parola ‘in azione’ all’interno dell’ enunciato. In più ci sono schede didattiche dedicate all’alfabeto greco, tavole dei numeri, un elenco dei tempi principali dei verbi, l’indicazione dei casi retti dalle preposizioni e delle costruzioni sintat58 tiche particolari e un ampio repertorio alfabetico di personaggi mitologici. Del dizionario è stata realizzata anche una versione tascabile (edita nel 2012) che include 7.000 voci e un repertorio di 4.000 vocaboli dall’italiano; proprio la presenza della doppia sezione grecoitaliano e italiano-greco rende questi dizionari particolarmente adatti ai neofiti. Sulla scia del ‘Roccino’ si pone infine la pubblicazione di Angelo Cardinale Nulla di troppo. Dizionarietto, edito nel 2011 dai Fratelli Ferraro. Questo piccolo lessico essenziale raccoglie in sole 96 pagine i termini di maggiore frequenza che uno studente ginnasiale incontra più spesso in versioni ed esercizi, dando anche la possibilità di consultare una sezione italiano-greco. IL GRECO ONLINE Oggi il web appare una risorsa irrinunciabile per la ricerca di dati e informazioni di svariato tipo e anche la linguistica antica non poteva restare indifferente di fronte ai nuovi strumenti messi a disposizione dalle nuove tecnologie della comunicazione. Tuttavia, per quanto riguarda il greco, c’è ancora molto lavoro da svolgere sul versante italiano che presenta ancora progetti in fase di completamento: d’altronde per un ambito così vasto e complesso è impossibile pretendere una piena esaustività, così come non si può fare a meno di prendere atto che anche gli studi linguistici antichi hanno in comune con internet l’inglese come lingua dominante. Questo aspetto però non costituisce un ostacolo nello studio delle lingue classiche, anzi favorisce un incontro culturale da cui scaturiscono ottime prospettive che arricchiscono la didattica delle lingue straniere moderne e quella delle lingue antiche. Di portata monumentale per la ricchezza dei contenuti è sicuramente Perseus [http://www.perseus.tufts.edu/ hopper/], che trasferisce sulla rete il contenuto di quattro CD-rom dedicati allo studio della lingua e della cultura greca antica. Il fornitissimo database contiene: • il testo greco e la traduzione inglese di 31 autori della grecità classica, dai • • • • • • lirici ai tragici agli storici, con alcuni passi commentati; un repertorio di 25.000 immagini collegate a diversi articoli di approfondimento; un atlante interattivo della Grecia antica e moderna; una versione elettronica dell’Intermediate Greek-English Lexicon di Liddell e Scott; un’enciclopedia ipertestuale sul mondo antico; una collezione di studi moderni sul mondo greco; una bibliografia di oltre 2.600 titoli. La forma ipertestuale consente di passare da un argomento all’altro in maniera agevole e immediata. La consultazione del Greek-English Lexicon evidenzia in modo chiaro i vantaggi, sia in termini di economicità che di intuitività d’uso, dell’impiego del supporto elettronico rispetto a quello tradizionale: la finestra che si apre cliccando su un lemma del dizionario riproduce fedelmente la pagina dell’edizione a stampa; da qui, cliccando sui termini evidenziati in blu, si accede a una scheda morfologica che fornisce tutte le informazioni grammaticali riguardanti la parola selezionata. Tramite il dizionario inoltre si ha la possibilità di accedere ad altri sussidi messi a disposizione dal sito. Partendo da un testo in prosa, ad esempio, è possibile aprire strumenti di consultazione come grammatiche, articoli, commenti di altri autori in cui compare la citazione di quel passo. Questa rete di collegamenti rende pertanto il sito fruibile da una vasta gamma di utenti, dallo studente in difficoltà a individuare una data forma verbale o flessiva allo specialista impegnato nella ricerca di parallelismi contestuali e morfosintattici. L’unico dizionario online concepito in italiano è Greco Antico [http: // www. grecoantico. com], che raccoglie oltre 15.000 vocaboli e 1000 frasi idiomatiche e modi di dire. Il lemmario si è definito grazie al contributo di alcuni classicisti coordinati dal dott. Enrico Olivetti che collaborano a titolo gratuito. Di ogni lemma viene fornito il significato principale ed è presente anche la SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | RECENSIONI sezione dall’italiano, risultando quindi particolarmente adatto ai principianti. LA LESSICOGRAFIA SCIENTIFICA La problematicità del rapporto tra mezzi di comunicazione e messaggi da essi veicolati non è oggetto di ricerca esclusivo dei linguisti moderni: ne discutevano già Tucidide e Platone, con quest’ultimo in particolare che aveva forti riserve sui testi scritti, ma non si può negare che il passaggio dalla cultura orale a quella scritta sia stata vissuta come una vera e propria rivoluzione tecnologica. I mezzi di comunicazione e di trasmissione della cultura che ci mette a disposizione il progresso moderno hanno rappresentato anche per noi una rivoluzione che è giunta a un ulteriore stadio: si è passati dal supporto cartaceo a quello ottico, elettronico e ipertestuale. Ogni trasformazione indubbiamente comporta delle perdite che vengono tuttavia compensate da alcuni vantaggi: lo stesso Platone, pur avversando la produzione scritta, se ne servì per trasmettere i contenuti del suo sistema filosofico. In origine la grammatica nel mondo greco si trovava in una posizione subordinata rispetto alla filosofia e alla retorica fino a quando non ha raggiunto lo status di disciplina autonoma in età alessandrina, quando gli studi filologici subirono uno sviluppo notevolissimo e si avvertì la necessità di studiare e conservare il patrimonio letterario dei secoli precedenti sentito come un valore da tutelare e tramandare. Durante l’età ellenistica gli orizzonti culturali si ampliano, si entra in contatto con realtà linguistiche diverse grazie ai nuovi mondi aperti dalle conquiste di Alessandro, il greco classico del V secolo si modifica e diventa κοινή, mentre i dialetti vanno scomparendo. L’obiettivo dei grammatici ellenistici era quello di definire i canoni dell’έλλενισμός cioè della corretta espressione della lingua greca, offuscata dal trascorrere dei secoli. Pfeiffer affermava che la propensione a riflettere sulle parole e la loro origine era “una tendenza innata della mente greca”, pertanto il lavoro svolto dai grammatici per recuperare il signifi- cato originario dei testi dell’età classica era avvertita come un’esigenza assolutamente naturale dettata dal mutato contesto storico. Anche se la riflessione sul significato delle parole a la loro origine sembra riguardare solo l’ambito poetico, storiografico e filosofico, c’è motivo di credere che la speculazione metalinguistica possa collocarsi anche in epoche ancora più antiche, come dimostrano alcuni studi sul sillabario della lineare B che conterrebbe un sillabogramma di origine artificiale, mentre gli altri segni erano connessi al patrimonio culturale e all’ambiente naturale cretese ed egeo. I nuovi indirizzi di ricerca linguistica non si pongono in rottura con l’esperienza degli antichi, anzi li proseguono ponendosi in una linea di ideale continuità. Nel XX secolo un nuovo filone degli studi etimologici è inaugurato da Boisaq con il DELG (Dictionnaire étymologique de la Langue grecque) improntato ai principi della linguistica comparativa che fa risalire l’origine di alcune parole ad ambienti semitici o egiziani. I nuovi esiti di questa ricerca non dovevano però essere scissi dallo scrupolo filologico nel vaglio delle fonti. Il dizionario di Boisaq apparve solo un anno prima che Padre Rocci portasse a termine il suo dizionario. Le proposte etimologiche non selettive di Boisaq hanno rappresentato un punto di rifermento anche per i lavori di Hjalmar Frisk e Pierre Chantraine, attivi negli anni ’50, cui si aggiunge la pubblicazione di Robert Beekes del 2010, disponibile parzialmente online sul sito degli Indo-European Etymological Dictionaries (http://www.ieed.nl/). Frisk pensa all’etimologia del greco in chiave indoeuropea, Chantraine segue la storia di ciascun termine all’interno della tradizione linguistica greca senza trascurare anche gli esiti riscontrabili nel neogreco. Beekes si focalizza sull’aspetto etimologico in chiave indoeuropea con attenzione alla fonologia e alla morfologia delle parole pre-greche. Il miceneo verrà decifrato solo due anni dopo la morte di Padre Rocci (1952) e la linguistica comparativa era agli albori quando intraprese la sua opera. La scarsa conoscenza dell’inglese non gli permise di consultare il LiddellScott-Jones; un altro lessico molto diffuso agli inizi del ‘900 era il Dictionnaire grec-français di Bailly, che tuttavia rimase uno strumento inadeguato fino alla revisione curata da Chantraine negli anni ’50. In Italia le opere che precedono la pubblicazione del dizionario di Rocci sono tutte ricalcate su pubblicazioni straniere, soprattutto tedesche, di cui costituiscono adattamenti o traduzioni: segnaliamo in particolare il vocabolario di greco di Francesco Ambrosoli (edito per la prima volta da Loescher nel 1866) che per circa un ventennio fu il più usato dagli studenti dei licei classici del Regno d’Italia; negli anni ’80 tuttavia fu scalzato dall’opera di Benedetto Bonazzi, monaco benedettino campano, autore di un dizionario grecoitaliano che arrivò a venticinque edizioni; nel 1923, a cura di Emidio Martini e Domenico Bassi, apparve una versione italiana del dizionario scolastico realizzato dal filologo tedesco Friedrich Wilhelm Carl Gemoll, edito nel 1908. Rispetto ai suoi predecessori, l’opera di Padre Rocci tende a essere maggiormente indipendente dalle pubblicazioni estere, pur senza respingere i nuovi contributi provenienti dalla lessicografia straniera. Questo era dunque lo scenario in cui operò Rocci negli anni in cui andava realizzando il suo dizionario: un’opera che inquadrata nel contesto dell’epoca rivela immediatamente tutta la sua grande originalità. 59 N. 1 - NOVEMBRE 2014 RICERCHE Le ricerche e gli articoli scientifici ospitati in questa sezione sono sottoposti prima della pubblicazione alle procedure di peer review adottate, che prevedono il giudizio in forma anonima di almeno due “blind referees”. SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | CHIMICA L’ambiente di conservazione dei documenti grafici: riferimenti normativi e metodologie per la prevenzione del rischio SALVATORE LORUSSO E ANDREA NATALI Dipartimento di Beni Culturali, Alma Mater Studiorum Università di Bologna (sede di Ravenna) Fra i compiti essenziali dello Stato vi è la conservazione dei beni culturali, una parte dei quali è costituito da documenti grafici (essenzialmente materiale cartaceo e membranaceo) collocati in biblioteche e archivi. Per la conservazione di questi documenti occorre attuare una serie di misure anche per impedirne il deterioramento. Un approccio recente è fondato sulla prevenzione dei rischi (risk management) a cui questi beni sono esposti, alla base delle ricerche sul “sistema: manufatto-ambiente-biota” del Laboratorio Diagnostico per i Beni Culturali del Dipartimento di Beni Culturali dell’Università di Bologna. Questi studi (in particolare quelli relativi ai documenti grafici dell’Archivio di Stato di Roma, Firenze, Rimini, dell’Archivio della Camera di Commercio di Ravenna, delle Biblioteche statali di Roma, della Biblioteca Classense di Ravenna), hanno contribuito a fornire una definizione più chiara e affidabile sulla valutazione ambientale in tali unità culturali ma, più in generale, in tutti gli ambienti “indoor” dove è fondamentale affrontare le problematiche relative al benessere del sistema manufattoambiente-biota anche in termini di ricadute economiche. 1. L’AMBIENTE CONFINATO È noto come il benessere del bene culturale, nel caso specifico dei documenti grafici, dipenda dall’ambiente di collocazione-conservazione. In un ambiente confinato, come appunto un archivio o una biblioteca (e più specificamente le sale di consultazione, le sale espositive, i depositi, le teche per i manufatti di particolare pregio), i fattori che maggiormente influenzano lo stato di conservazione del manufatto sono essenzialmente: l’illuminazione, l’umidità, la temperatura e la qualità dell’aria (1-5). I materiali di natura organica risultano essere i meno resistenti di fronte ad ambienti molto aggressivi. A parità di con- dizioni esogene, la resistenza dei manufatti varia in funzione della composizione chimica e della struttura del materiale costituente. Una distinzione fra fattori ambientali di degrado di origine naturale e fattori di origine antropica non può considerarsi valida in assoluto, in quanto il clima «naturale» è continuamente alterato dalle attività umane, come pure lo sono le interrelazioni tra i diversi fattori ambientali. I beni conservati in luoghi chiusi o confinati non sono esenti dai fattori di degrado esterni, ma li subiscono in maniera indiretta. L’aggressione dovuta agli inquinanti atmosferici dipende prevalentemente dalla velocità di scambio 63 CHIMICA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 Tab. 1. Parametri ambientali parametro ambientale unità di misura dove effettuare la misura intervallo di misura temperatura °C sale di consultazione, sale espositive, depositi, teche, scaffalature, armadi - rilevazione continua: acquisizione dati ogni 30’ - rilevazione istantanea: controllo periodico umidità relativa % umidità specifica g/kg sale di consultazione, sale espositive, depositi, teche , scaffalature, armadi - rilevazione continua: acquisizione dati ogni 30’ - rilevazione istantanea: controllo periodico livello di illuminazione lux sale di consultazione, sale espositive, depositi, teche, scaffalature - rilevazione continua o istantanea a seconda del caso d’aria esterno-interno e dall’affluenza dei visitatori (6). Lo studio del microclima non può prescindere dall’analisi dei dati climatici esterni. Inoltre non si può non tener conto dei fattori geografici come l’ubicazione sul territorio e l’esposizione della struttura architettonica di conservazione, all’interno della quale è opportuno effettuare un’indagine relativa a: dimensione, forma e materiali edilizi usati; tipologia costruttiva e soprattutto tecnica degli impianti (7). La comparazione delle variazioni climatiche esterne con le condizioni e l’orientamento dei locali, i materiali costitutivi usati e, in genere, la possibilità di scambio di flussi d’aria interna ed esterna rilevano il grado di protezione offerto dalla struttura architettonica stessa nonché il livello di coibentazione termica. 2. IL CONTROLLO DELL’AMBIENTE Come si è fatto presente in precedenza, fra i parametri ambientali che vanno ad influenzare nel tempo le condizioni di un manufatto cartaceo conservato in ambiente confinato, causandone il deterioramento, vi sono: la temperatura, l’umidità, la ventilazione, la luce. I fenomeni fisici che hanno luogo nei microambienti comportano: • il trasferimento di energia termica per convenzione; • il trasferimento di energia termica per irraggiamento; • il trasferimento di massa; • gli scambi radioattivi prodotti da sorgenti luminose. Le grandezze fisiche che normalmente vengono controllate sono dunque (tab. 1) • la temperatura dell’aria; • l’umidità relativa dell’aria1; • l’umidità specifica2; 1 L’umidità relativa è il rapporto percentuale fra la quantità di vapore contenuto in una massa d’aria e la quantità massima di vapore che la stessa massa può contenere a parità di temperatura e pressione. È opportuno far presente che la percentuale di umidità relativa dipende dalla temperatura. Un esempio numerico può servire a chiarire il fenomeno: un metro cubo d’aria alla temperatura di 20°C, contenendo 10 grammi di vapore, ha un umidità relativa del 50%. Lo stesso metro cubo di aria contenente gli stessi 10 grammi di vapore, se portato alla temperatura di 10°C diventa saturo, cioè la sua umidità relativa diventa del 100%. 2 L’umidità specifica è la quantità di vapore, espressa in grammi, contenuta in un chilogrammo di aria. È ottenuta dal rapporto tra la massa di vapore acqueo e la massa di aria umida che lo contiene. È espressa in g di vapore 64 • il livello di illuminazione. Da quanto precedentemente accennato, risulta fondamentale, al fine di contenere il degrado fisico dei materiali costituenti i documenti grafici, mantenere costantemente sotto controllo i principali parametri ambientali. 2.1. Parametri termoigrometrici Il monitoraggio microclimatico, all’interno degli ambienti destinati alla conservazione del materiale archivistico, è una delle operazioni fondamentali da compiere al fine di attuare una idonea opera di prevenzione. A tal riguardo è necessario effettuare il controllo strumentale dei parametri ambientali, allo scopo di individuare e modificare, nel caso, quelle situazioni microclimatiche che influiscono negativamente sullo stato di conservazione dei libri e dei documenti. Ne deriva l’importanza di indicare valori microclimatici appropriati. D’altra parte la metodica di un progetto per lo studio del microclima non può prescindere dall’analisi dei valori atmosferici esterni durante le escursioni giornaliere, stagionali e annuali. L’installazione di apparecchiature per l’acquisizione continua dei dati deve essere rivolta alla misura della temperatura, dell’umidità relativa e dell’energia raggiante per permettere una visione completa nel tempo dell’andamento microclimatico degli ambienti in esame (7). L’acquisizione continua consiste in una registrazione dei dati misurati ad intervalli di tempo indicati dalla normativa vigente. La misurazione istantanea dei parametri ambientali consiste invece nella rilevazione dei dati nella fase iniziale del monitoraggio per stabilire quali parametri siano suscettibili di modifica e per verificare periodicamente l’idoneità di siacqueo per kg di aria umida. La misura di questa grandezza fisica è molto importante in particolare per quanto riguarda i materiali cartacei e membranacei che costituiscono i documenti oggetto della sperimentazione. Questi materiali possiedono strutture di tipo poroso e/o natura idrofila tali da risultare profondamente sensibili agli effetti dell’umidità. Essa può essere causa o costituire concausa di alterazioni/degradazioni fisiche (rigonfiamenti, deformazioni, cambiamenti della flessibilità e della resistenza meccanica), chimiche (reazioni dovute ai gas acidi inquinanti dell’atmosfera, reazioni di idrolisi e la maggior parte di quelle di ossidoriduzione, di scambio, ecc) e biologiche (sviluppo di muffe, batteri e microrganismi in genere). SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | CHIMICA tuazioni microclimatiche di cui è nota una certa stabilità. Le escursioni annuali, caratterizzate da variazioni lente e diluite nel tempo, possono determinare modificazioni meno traumatiche sul materiale librario rispetto alle più rapide escursioni diurne e stagionali (causate, ad esempio, da una violenta illuminazione artificiale o da un eccessivo riscaldamento e raffreddamento dell’ambiente): se nella prima eventualità il materiale può riuscire ad adattarsi gradualmente alle variazioni del microclima, nella seconda si possono determinare gravi modificazioni di carattere chimico-fisico. Nel caso di locali ampi o di interi edifici risulta anche indispensabile la conoscenza del tasso di umidità presente nelle murature. Un controllo completo del microclima deve quindi prevedere tutte le comparazioni tra clima esterno e clima interno, il monitoraggio dei valori ambientali costante nel tempo, la rilevazione dei valori termoigrometrici all’interno delle scaffalature e nondimeno la misurazione della percentuale di acqua presente nel materiale cartaceo. Per quanto riguarda i valori di umidità, va detto che esistono fondamentali differenze tra costruzioni antiche e moderne: negli edifici antichi l’umidità rilevabile tende ad essere costantemente di invasione e presenta carattere cronico; negli edifici nuovi, per contro, la tendenza è verso una umidità di costruzione che ha carattere transitorio. L’umidità presente negli edifici antichi può provenire sia dal sottosuolo per ascensione capillare che dall’aria per condensazione. L’umidità per ascensione capillare risulta caratterizzata da: • indipendenza dalle stagioni; • ridotta capacità di ascendenza sulle murature; • impregnazione dell’intero spessore della muratura, da una parete all’altra; • assorbimento dell’acqua dal terreno; • eliminazione relativamente rapida. L’umidità per condensazione ha invece le seguenti caratteristiche: • si manifesta ogni anno alla medesima stagione; • si verifica a qualsiasi altezza dell’edificio; • bagna le pareti in superficie e si combina con elementi inquinanti; • assorbe vapore acqueo dall’aria per raffreddamento del vapore contenuto; • si può eliminare velocemente producendo calore e ventilazione, ma si ripresenta. La soluzione più efficace per garantire la conservazione di qualsiasi materiale organico, quindi anche i documenti grafici, appare l’installazione di un impianto di climatizzazione in grado di assicurare la stabilità dei valori termoigrometrici. Ma se tale soluzione è facilmente praticabile negli edifici moderni, per quelli di antica costruzione risulta notevolmente problematica, sia perché assente dalla progettazione originaria, sia per i vincoli di tutela cui sono sottoposti gli edifici storici (7). Anche nel caso in cui l’installazione potrebbe essere effettuata, le spese correnti annuali si dimostrano troppo alte per i bilanci della maggior parte degli archivi e delle biblioteche. Lo spegnimento dei sistemi ad intervalli, usato per risparmiare, provoca grossi danni microbiologici. In ogni modo, l’esperienza fatta nei musei e nelle gallerie, così come in alcune biblioteche, ha dimostrato come un controllo soddisfacente possa essere ottenuto solo in edifici progettati per tale scopo. Ciò nonostante, alcune precauzioni possono contribuire a migliorare le condizioni effettive, al fine di preservare le collezioni: a) la struttura dell’edificio deve godere di una buona manutenzione, in modo tale da eliminare problemi dovuti ad infiltrazioni d’acqua attraverso pareti e finestre o alla risalita dell’umidità dai piani umidi; b) nel caso di variazioni pronunciate delle condizioni termoigrometriche, l’edifico dovrebbe essere isolato termicamente per ridurre tali oscillazioni. Tale isolamento è d’obbligo prima di pensare all’installazione di un sistema totale di condizionamento; c) l’impiego di armadi a freddo, del tipo di quelli impiegati nell’industria alimentare, può servire per creare dei locali freddi per l’immagazzinamento dei materiali trattenuti dopo il trasferimento su altri supporti, del materiale poco consultato, ecc.. 2.2. Illuminazione In relazione all’irraggiamento (naturale ad opera del sole ed artificiale a causa delle varie fonti di illuminazione), si fa presente la necessità di proteggere il materiale cartaceo dai raggi ultravioletti, dagli infrarossi e dalle radiazioni visibili (4,7). A tal fine la carta va esposta a intensità luminose piuttosto basse, comprese fra 50-150 lux3 a secondo dei casi (1), e vanno inoltre rispettate le seguenti condizioni: • non esporre direttamente gli oggetti ad alcuna radiazione; • eliminare, per quanto possibile, le radiazioni UV con idonei filtri; • mettere filtri UV su tutte le finestre, comprese quelle dei laboratori di restauro; • effettuare un immagazzinamento perpendicolare alle finestre, in modo tale che la luce non colpisca direttamente i materiali posti sugli scaffali e, quando è possibile, eliminare completamente la luce del giorno; • usare lampade fluorescenti a catodo freddo4; • fornire tutte le finestre di tende avvolgibili o adoperare altri sistemi, per ridurre l’intensità di illuminazione; • usare interruttori a tempo nei magazzini al fine di evitare illuminazioni non necessarie; • non porre mai fonti luminose all’interno delle teche; • filtrare con idonee schermature la luce solare. 3 Il lux (lumen/m3) è l’unità di misura di illuminamento. Nel rilevare che i dati della letteratura indicano fondamentalmente i valori massimi di illuminamento, e che l’intensità del sole in estate è pari a 60.000 lux, l’intensità pari a 50 lux risulta molto ridotta. 4 Ovvero al sodio, ad alogeni o ad alogenuri. 65 CHIMICA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 Quando il manufatto viene conservato in teche espositive con superfici vetrate, generalmente, si produce il cosiddetto “effetto serra”, derivante dall’imprigionamento dell’energia raggiante che colpisce le superfici vetrate all’interno delle bacheche. In questi casi è opportuno attenersi alle seguenti precauzioni (3,7): • usare lampade fluorescenti a catodo freddo posizionate in modo che il flusso luminoso abbia un’incidenza molto lieve sul materiale esposto; • schermare il flusso luminoso con una lastra di plexiglas di almeno 1 cm di spessore; • assicurare la ventilazione all’interno della bacheca tramite fori praticati sul piano di appoggio orizzontale; • realizzare dei fori laterali per l’inserimento dei cilindri di spugna opportunamente bagnati al fine di umidificare, ove necessario, l’ambiente interno; • controllare il microclima nelle teche espositive; • ridurre il tempo di accensione dei corpi illuminati, limi• tandolo al periodo di effettiva fruizione; controllare costantemente il clima delle sale. 2.3. La qualità dell’aria 2.3.1. La polvere E’ inoltre fondamentale, per una corretta conservazione, effettuare periodicamente le operazioni di spolveratura, volte a rimuovere sia dai documenti e dai libri sia dagli ambienti di conservazione, la polvere che vi si è depositata e tutto ciò di cui essa può essere veicolo. Non pochi sono infatti i danni causati dalla polvere che si deposita sui manufatti: essa ha una composizione molto eterogenea e variabile, a seconda dell’ubicazione degli archivi e delle biblioteche e in relazione alle condizioni stagionali. E’ noto che la polvere può contenere anche del ferro e, in presenza di elevati valori di umidità o di acqua allo stato liquido, questo metallo può portare alla formazione di macchie giallo-brune, spesso visibili sui bordi superiori dei documenti. Particolarmente problematiche per la conservazione del materiale archivistico e bibliografico sono le zone urbane e industriali per la presenza di gas carbonici, solforati e azotati nonché di cenere, fuliggine, particelle di catrame, sali, ecc. L’esame microbiologico della polvere rivela, inoltre, il suo elevato contenuto di spore batteriche e fungine e di uova di insetti. La spolveratura permette l’allontanamento degli agenti microbiologici e, talvolta, l’interruzione del ciclo vitale delle specie entomatiche arrestandone così l’azione dannosa. Per questo motivo essa dovrebbe essere eseguita possibilmente in primavera, stagione di maggiore vulnerabilità degli agenti biologici. Tale operazione, oltre ad eliminare un pericoloso veicolo di alterazioni fisiche, chimiche e biologiche, permette di eseguire uno scrupoloso e periodico controllo dei singoli documenti e volumi, un’accurata ispezione dei locali e il tempestivo rilevamento dei danni incipienti. In Italia esistono due D.P.R. che, nell’ambito del Regolamento delle Biblioteche Pubbliche e Statali, si occupano della questione della spolveratura (4): 66 il D.P.R. n.1501 del 5 settembre 1967, che fissa i tempi di esecuzione di questo tipo di intervento (ogni due anni per gli archivi e le biblioteche minori e cinque per quelli più grandi); il D.P.R n. 417 del 5 luglio 1995, che non contempla una periodicità per la spolveratura ma bensì per i controlli sul materiale conservato. In ogni caso, per stabilire la periodicità e le modalità della spolveratura, occorre tenere conto dei seguenti fattori: a) ubicazione dell’archivio o della biblioteca (zona industriale, campagna, centro urbano, ecc..); b) dimensioni dell’archivio o della biblioteca; c) intensità delle attività che si svolgono nell’Istituto di conservazione (più intensa è l’attività, maggiore è l’apporto di agenti inquinanti); d) esistenza e tipologia di sistemi di aerazione dei locali e presenza o meno di sistemi di filtrazione dell’aria; e) eventuale presenza di materiale documentale o librario infetto che potrebbe contaminare l’aria circostante; f) tipologia degli arredi e delle scaffalature (scaffali aperti o chiusi, lignei o metallici, alti fino al soffitto o bassi fino a toccare terra). Come misura preventiva è opportuno che vengano eseguiti, da parte del personale addetto, regolari controlli del materiale e degli ambienti di conservazione allo scopo di evidenziare situazioni a rischio (attacchi microbici, infestazioni, condizioni di elevata umidità, ecc..) per le quali è necessario intervenire tempestivamente. Si deve inoltre fare attenzione alla presenza, sugli scaffali e sotto i documenti ed i libri, di polvere di rosura che è indice di una infestazione in atto e all’esistenza di macchie colorate e/o di formazioni polverulente sintomi probabili, invece, di infezioni microbiche. E’ opportuno anche verificare la presenza di danneggiamenti alle scaffalature (alterazioni nella verniciatura, ossidazioni di elementi metallici, fori di sfarfallamento, ecc..) e alle murature (presenza di fessure nelle quali potrebbero annidarsi insetti o topi, macchie sull’intonaco che potrebbero essere indice di infiltrazioni d’acqua, ecc..). Per la spolveratura si possono prevedere due tipi di intervento: • uno ordinario, a frequenza biennale che non prevede il prelevamento dei documenti o dei libri dalle scaffalature e che può essere eseguito, meglio se dallo stesso personale dell’Istituto di conservazione, manualmente, con panni morbidi e pennelli, o meccanicamente tramite piccoli aspirapolvere; • uno straordinario, che viene eseguito dopo un’accurata verifica da parte dell’Amministrazione che ne deve accertare la necessità; è opportuno che tale verifica avvenga almeno, e non oltre, ogni 5 anni. Questo tipo di spolveratura deve essere molto accurato ed effettuato sia manualmente, dove necessario, che meccanicamente. Il personale incaricato dell’archivio o della biblioteca deve segnalare quanti e quali documenti o libri devono essere sottoposti a spolveratura manuale o meccanica. I criteri da seguire per selezionare tale materiale sono: • controllo dello stato di conservazione fisica dei documenti SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | CHIMICA in tutte le loro parti costitutive: carte, piatti della legatura, coperte, cuciture, capitelli, sigilli, filze, ecc... Se anche uno solo di questi elementi si trova in precarie condizioni5, è necessario considerare l’opportunità di ricorrere a una spolveratura manuale o di segnalare il reperto per un suo restauro. Materiale particolare (codici miniati, mappe, mappamondi, ecc..), anche se in ottime condizioni di conservazione ma comunque impolverato, va sempre sottoposto ad una spolveratura manuale; • segnalazione e verifica, da parte di tecnici esperti, dello stato di conservazione dal punto di vista biologico. Se materiali infetti vengono sottoposti a trattamenti di disinfezione/disinfestazione, è necessario far sempre seguire la spolveratura a queste operazioni; • controllo preventivo del materiale documentale o librario pervenuto tramite acquisti, donazioni, lasciti, ecc..; • valutazione delle condizioni igrometriche dei documenti. Se il contenuto percentuale d’acqua dei materiali risulta superiore al 10% è necessario far seguire una deumidificazione, poiché con tali percentuali di umidità potrebbe esserci il rischio di una insorgenza di fenomeni di biodeterioramento. La spolveratura, tenendo presente la delicatezza e il valore del materiale da trattare, deve essere effettuata possibilmente all’interno dell’archivio o della biblioteca, in un locale appositamente predisposto, al fine di evitare l’insorgere di traumi fisico-meccanici durante gli eventuali spostamenti dei documenti o dei libri da un luogo all’altro. Il trasferimento del materiale dagli scaffali al locale predisposto deve avvenire in carrelli o contenitori chiusi per evitare la dispersione di polvere e di eventuali agenti biologici. Qualora il materiale debba essere spostato per interventi di disinfezione, la spolveratura può essere effettuata presso sedi diverse da quella dell’Istituto di conservazione. Durante le operazioni di spolveratura devono essere effettuati controlli da parte del personale tecnico dell’archivio o della biblioteca al fine di verificare l’efficacia e la corretta esecuzione dell’intervento (4). E’ auspicabile che ogni volta che un operatore prelevi un documento o un libro dallo scaffale riscontrando la presenza di polvere, si intervenga tempestivamente con una spolveratura superficiale eseguita manualmente (7). 2.3.2. Le sostanze inquinanti aerodisperse Gli ambienti destinati alla conservazione del materiale archivistico e librario, come si è precedentemente detto, devono essere tutelati e controllati anche per quanto riguarda le sostanze inquinanti aerodisperse, tenendo presente, come peculiarità sostanziale, che in questi ambienti si ha la presenza discontinua e talvolta massiccia di fruitori e visitatori 5 Il concetto di precarietà può essere meglio spiegato menzionando evenienze quali: carte feltrose o palesemente fragili; elementi della cucitura (catenelle, nervi, capitelli, filze) spezzati o staccati dal corpo del documento o del libro che possono determinare la sfascicolazione e/o la perdita di materiale; carte e coperte che presentano accentuate lacerazioni e fessurazioni; documenti con cuciture talmente serrate e rigide da rendere difficoltosa la loro apertura e così via. ai quali non è possibile imporre determinati comportamenti, come può accadere in altri settori, come ad esempio quello industriale. Devono inoltre essere garantite condizioni sufficientemente confortevoli dal punto di vista del ricambio d’aria e di benessere per i materiali da conservare. Infatti numerosi inquinanti hanno la possibilità di interagire con essi a concentrazioni inferiori e per tempi superiori a quelli che in genere si considerano accettabili per la salute umana: ciò richiederebbe standard di qualità dell’aria particolarmente vincolanti. Mentre è possibile in linea generale stimare le sostanze inquinanti qualitativamente, la loro concentrazione negli ambienti confinati può risultare estremamente variabile a seconda delle diverse zone e/o situazioni strutturali degli edifici. In linea di massima si possono avere inquinanti aerodispersi, come già accennato in precedenza, costituiti da (6-7): • materiale particellare di varia origine e natura (PST); • gas e vapori, organici e inorganici (SO2, NOx, CO, CO2, O3, formaldeide, composti organici volatili); fibre, pollini, batteri, spore fungine. In un ambiente confinato, alle sostanze indesiderate provenienti dall’aria esterna si aggiungono quelle dovute alla presenza dei visitatori: ad esempio il vapore d’acqua, dovuto sia alla respirazione che alle funzioni fisiologiche di termoregolazione mediante traspirazione. Esaminando le possibili veicolazioni di inquinanti all’interno dell’ambiente, si possono distinguere vari meccanismi. L’accumulo di inquinanti sarà dovuto al bilancio di diversi fattori: • apporto dall’esterno, ovvero ricambio d’aria, infiltrazioni, ingresso di visitatori; • apporto dall’interno, ovvero cessione dai materiali, attività di visitatori, attività interne; • rimozione, ovvero ricambio d’aria, ex filtrazioni, deposizione, trasformazioni o reazioni di sostanze, azione dei sistemi di pulizia e/o filtrazione. Le soluzioni tecniche per il contenimento delle concentrazioni degli inquinanti aerodispersi dovranno tener conto delle loro caratteristiche chimico-fisiche. Data la possibile variabilità spaziale e temporale della presenza di inquinanti, può risultare necessario prevedere sistemi aventi tempi di funzionamento e di potenzialità variabili al fine di ottimizzare le efficienze di abbattimento e contenere i consumi energetici. In linea di massima, privilegiando soluzioni semplici e di facile applicabilità, si possono schematizzare le seguenti possibilità: • azioni di prevenzione, scelta dei materiali di rivestimento degli ambienti, particolari modalità di accesso, ambienti tecnologici attrezzati di entrata, minimizzazione di disomogeneità termiche e di correnti d’aria, ecc..; • azioni di rimozione, captazione e abbattimento, mediante sistemi di filtrazione ad alta efficienza, del PST; sistemi di adsorbimento degli inquinanti gassosi; sistemi combinati. 67 CHIMICA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 Tab. 2. Condizioni climatiche per ambienti di conservazione di documenti grafici e caratteristiche degli alloggiamenti (UNI 10586) Materiale Documento grafico: informazione registrata su un supporto costituito essenzialmente da materiale cartaceo e membranaceo Tipologia di locale Valori termoigrometrici e massime escursioni giornaliere illuminazione Locale di deposito 14-20 °C 75 lx di media e minore di 150 lx durante l’accesso 50-60 % 2°C 50-65 % qualora la differenza tra i valori presenti in tali locali ed i locali di deposito sia maggiore di 4 °C per la temperatura e del 5 % per l’umidità relativa, i documenti grafici devono essere preventivamente acclimatati con gradualità Minore di 150 lx per la lettura e minore di 50 lx per l’esposizione (in ogni caso vanno eliminate le radiazioni UV e IR) Locale di consultazionelettura ed esposizione 18-23 °C Locale di fotoriprodu-zione e di restauro Per i valori termoigrometrici e di illuminamento vale quanto indicato per i locali di consultazione. Sono ammesse deroghe solo per il tempo necessario alle operazioni Locale di accesso e di servizio Le condizioni ambientali devono essere tali da non influenzare negativamente quanto richiesto per le altre tipologie di locale, anche in condizione di massimo afflusso di personale e visitatori 3. RIFERIMENTI NORMATIVI PER LA CONSERVAZIONE DEI DOCUMENTI GRAFICI 3.1. Evoluzione nel tempo degli intervalli ottimali relativi ai valori termoigrometrici per la conservazione dei documenti grafici Prima di trattare in maniera approfondita le indicazioni termoigrometriche presenti nella normativa vigente, si è ritenuto opportuno presentare un breve percorso “storico” riguardante le indicazioni relative agli intervalli ritenuti ottimali dei valori termoigrometrici per la conservazione dei documenti grafici succedutesi nel tempo (8). In una lettera ai Direttori delle Biblioteche Pubbliche Governative datata 30/12/1941 Gallo, Direttore del Regio Istituto di Patologia del Libro, consigliava come limiti minimi e massimi per la corretta conservazione dei materiali all’interno delle biblioteche6 valori di “umidità relativa compresi fra il 40 ed il 65% a condizione che la temperatura media non superi i 18 o 20°”. Inoltre si consigliava di “Lasciare piuttosto bassa, durante l’inverno, la temperatura dei magazzini librari e comunque di non superare col riscaldamento artificiale i 14° allo scopo di compensare le più alte temperature delle altre stagioni entro i limiti prossimi ai 18-20°” . L’indicazione riprendeva le conclusioni degli studi svoltisi a Londra negli anni precedenti che consigliavano di mantenere l’umidità relativa sotto il 72% e riadattava, alle nostre latitudini, i valori indicati nel 1936 dalla Guida di uno dei più autorevoli corpi tecnici americani che si occupava di condizionamento atmosferico (The American Society of Heating and Ventilatine Engineers) che consigliava valori di umidità relativa compresi fra 40-70%. Più recentemente, nell’Allegato E della Carta della Con- 6 Quanto fatto presente è applicabile anche agli archivi. 68 5% Condizionamento e ventilazione Devono essere assicurati da 5 a 7 ricircoli d’aria ogni ora Qualità dell’aria La concentrazione delle seguente sostanze deve essere mantenuta entro i seguenti limiti: SO2 < 10 μg · m-3; NOX < 10 μg · m-3; O3 < 2 μg · m-3; Polvere < 50 μg · m-3 servazione e del restauro degli oggetti d’arte e di cultura7 del 1987 relativo a “La conservazione e il restauro del libro” (9), vengono indicati i valori termoigrometrici ambientali e, in particolare, i limiti considerati per la conservazione dei beni librari quali oggetti composti da vari materiali (carta, pergamena, papiro, legno, metallo, cuoio, cartone, spago, pelle allumata, tessuti, ecc…): T = 16 - 20°C; UR = 40 - 65% Nel 1995, nell’ambito di una ricerca su alcune biblioteche statali romane (10), si è fatto presente l’opportunità di indicare la media dei valori massimi e minimi, presenti in un numero significativo di pubblicazioni scientifiche sullo specifico argomento relativo alla conservazione dei manufatti cartacei. Infine nel documento redatto dal Gruppo di studio, coordinato dall’estensore del presente documento, su “Prevenzione” nell’ambito della Commissione Ministeriale nominata nel 1997 su “La conservazione del patrimonio librario nazionale”, vengono riportati – quali valori per la conservazione del patrimonio librario – i seguenti valori ottenuti effettuando la media dei dati massimi e minimi riscontrati in pubblicazioni scientifiche a livello internazionale : T = 16 - 21°C UR = 44 - 54%. 3.2. La norma UNI 10586 “Condizioni climatiche per ambienti di conservazione di documenti grafici e caratteristiche degli alloggiamenti” Per quanto riguarda i riferimenti normativi inerenti alla 7 Nella Carta della Conservazione e del restauro degli oggetti d’arte e di cultura del 1987 è presente anche un Allegato F “La conservazione e il restauro dei beni archivistici”, nel quale sono fornite indicazione riguardanti gli interventi di restauro dei documenti d’archivio (9). SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | CHIMICA conservazione dei supporti scrittori, si prendono in considerazione le normative stabilite dall’Ente Italiano di Unificazione-UNI e, in particolare, la norma UNI 10586 “Condizioni climatiche per ambienti di conservazione di documenti grafici e caratteristiche degli alloggiamenti” (1) del settembre 1997 (tab.2). La UNI 10586, che è una norma specifica per gli ambienti di conservazione dei documenti grafici e si riferisce ai materiali cartacei e membranacei conservati in archivi, biblioteche ed altri luoghi preposti alla conservazione, indica le condizioni ambientali di conservazione per i depositi (destinati essenzialmente alla conservazione e alla custodia abituale dei manufatti, non aperti al pubblico, ma solo a personale addetto) e quelle per i locali di consultazione, di lettura e di esposizione, in cui la presenza del manufatto si suppone occasionale e di breve durata. Tale norma, quindi, distingue le condizioni di conservazione in base alla destinazione d’uso dei locali8: deposito, consultazione ed esposizione, fotoriproduzione e restauro, accesso e servizio. Indica, inoltre, che nei locali di deposito devono essere attuate tutte le misure di prevenzione e manutenzione adeguate ad evitare infezioni, infestazioni ed accumulo di polvere; vieta che in tali locali siano presenti condutture idrauliche esposte al fine di evitare condensazioni ed eventuali perdite. Proibisce l’apertura di porte o finestre per effettuare il ricambio d’aria salvo condizioni di emergenza: cioè quando, per avaria dell’impianto di ventilazione e condizionamento, la temperatura del locale dovesse superare i 25 °C e la temperatura esterna fosse compresa tra 15-25 °C. 3.2.1. L’alloggiamento dei documenti Per quanto riguarda l’alloggiamento dei documenti sono fornite delle indicazioni generali che riguardano le scaffalature che devono avere i seguenti requisiti: • resistenza meccanica adeguata al carico, in particolare il carico deve essere maggiore del 75% del massimo carico ammesso in condizioni di servizio continuo ed in generale non eccedere 1 kN per singolo ripiano; • mancanza di particolari costruttivi potenzialmente dannosi per i documenti (spigoli taglienti, ostacoli); • i documenti per i quali è prevista la collocazione eretta devono essere mantenuti verticali mediante l’utilizzo di fermalibri o sostegni, la pressione laterale sui singoli documenti non deve essere superiore ai 350 Pa9; • consentire con facilità l’estrazione e il reinserimento dei documenti grafici evitando sollecitazioni meccaniche agli stessi; • dimensioni tali da contenere interamente i documenti senza farli sporgere; • realizzate con materiali che non rilascino, per evaporazione o contatto, sostanze che possano essere dannose per i documenti conservati, in particolare sostanze acide e/o ossidanti; • non ostacolare la ventilazioni, in particolare la distanza minima delle scaffalature dalle murature deve essere di 25 cm; • i documenti non provvisti di legature o la cui legatura richieda protezione a causa di particolare pregio e/o cattive condizioni di conservazione devono essere conservati all’interno di contenitori di forma adeguata che permettano l’inserimento e l’estrazione dei documenti senza produrre apprezzabili sollecitazioni meccaniche. Le superfici destinate a venire a contatto con i documenti devono essere costituite o rivestite di carta la cui composizione chimica corrisponda a quella indicata dalla Normativa UNI 10333. Per quanto riguarda l’illuminazione, la norma sottolinea che il danno causato dalla luce è cumulativo e, quindi, devono essere considerati l’intensità, la durata e la distribuzione spettrale delle fonti di illuminazione nei locali di deposito. Deve essere esclusa l’illuminazione solare diretta. Gli impianti di illuminazione devono essere preferibilmente a fluorescenza, con filtri in grado di eliminare le radiazioni con lunghezze d’onda minori di 400 nm e maggiori di 760 nm. L’impianto di condizionamento e ventilazione nei locali di deposito deve continuamente assicurare, come indicato in tabella, da 5 a 7 ricircoli d’aria orari, in ogni punto dei locali stessi. Il ricambio dell’aria deve essere compreso tra il 1020% della massa circolante. L’impianto deve essere munito di indicatori ed attuatori che possano segnalare e correggere eventuali scostamenti. Per quanto attiene alla qualità dell’aria, la concentrazione delle sostanze ritenute dannose per i documenti presenti nell’aria deve essere mantenuta entro i limiti indicati in tabella. L’impianto di condizionamento e ventilazione deve essere in grado di mantenere continuamente tali livelli mediante dispositivi filtranti rispondenti alle norme UNI mantenuti efficienti (1). 8 La norma 10586 indica anche gli intervalli in cui devono essere registrati i valori termoigrometrici (<30 min) e fornisce in Appendice le modalità da tener presente per misurazioni e registrazioni. 9 La pressione di 350 Pascal corrisponde orientativamente a quella che si esercita su di un libro poggiato orizzontalmente, sovrapponendovi un libro di identico formato dello spessore di 45 mm. Si fa presente che, dal confronto dei valori relativi ai diversi ambienti di collocazione, si ricavano valori termoigrometrici comuni. È possibile, quindi, indicare per i documenti grafici, prescindendo dalle destinazioni d’uso dei locali o qualora tale distinzione non fosse attuabile, le seguenti condizioni ambientali di conservazione (8): per tutte le tipologie di locali → T=18-20 °C, UR =50-60%, ΔT=2°C, ΔUR=5% (valori comuni UNI 10586 per locali di deposito, consultazione ed esposizione, fotoriproduzione e restauro, accesso e servizio) La norma inoltre stabilisce i valori relativi all’illuminazione, ai ricambi d’aria ed alle concentrazioni massime di sostanze ritenute dannose per la conservazione dei documenti grafici. 69 CHIMICA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 4. RIFERIMENTI NORMATIVI PER LA SICUREZZA IN ARCHIVI E BIBLIOTECHE 4.1. La sicurezza dei beni culturali La necessità di offrire agli addetti ai lavori indicazioni e suggerimenti per la più completa applicazione delle numerose e articolate norme in materia di sicurezza nei luoghi di lavoro ed i “recepimenti” delle direttive europee nel settore hanno prodotto numerose norme tecniche L’applicazione, in particolare, delle norme sulla sicurezza dei lavoratori agli edifici che ospitano beni culturali quali musei, gallerie, archivi ha comportato e comporta, come è facile immaginare, ulteriori difficoltà in relazione alla duplice istanza che tali istituti devono soddisfare: la conservazione del materiale collocato e la fruizione da parte del pubblico e degli operatori. Tali difficoltà si accrescono quando, ed è molto frequente nel caso di archivi e biblioteche, tali istituti sono ospitati in edifici storico-artistici che, per struttura e per vincoli storico-artistici, non possono essere oggetto di particolari e significativi interventi di ristrutturazione e rifunzionalizzazione (10). In Italia le disposizioni relative alla salute e la sicurezza sul lavoro sono regolamentate dal Decreto Legislativo n. 81 del 9 aprile 2008, noto come Testo unico in materia di salute e sicurezza sul lavoro, entrato in vigore il 15 maggio 2008, e dalle relative disposizioni correttive, ovvero dal Decreto legislativo 3 agosto 2009 n. 106 e da successivi ulteriori decreti. In questo documento si presentano le norme che riguardano in maniera più diretta la sicurezza negli archivi, riportando i vari titoli del Decreto Legislativo 19 settembre 1994, n. 626, Attuazione delle direttive 89/391/CEE, 89/654/ CEE, 89/655/CEE, 89/656/CEE, 90/269/CEE, 90/270/CEE, 90/394/CEE, 90/679/CEE riguardanti il miglioramento della sicurezza e della salute dei lavoratori sul luogo di lavoro ed entrando nello specifico in alcune parti, ritenute più significative, del D.P.R. 30 giugno 1995, n. 418, Norme di sicurezza antincendio per i edifici di interesse storico-artistico destinati a biblioteche ed archivi (11-12). 4.2. Il Decreto Legislativo 19 settembre 1994, n. 626 Al fine di fornire, in maniera non esauriente, una idea sulle argomentazioni affrontate nel Decreto Legislativo 19 settembre 1994, n. 626, precedentemente nominato, le quali rappresentano campi da tenere in considerazione quando si affrontano tematiche inerenti alla sicurezza, di seguito sono indicati i vari titoli in cui si suddivide tale Decreto (11): • servizio di prevenzione e protezione; • prevenzione incendi, evacuazione dei lavoratori, pronto soccorso; • sorveglianza sanitaria; • consultazione e partecipazione dei lavoratori; • informazione e formazione dei lavoratori; • disposizioni concernenti la pubblica amministrazione; • statistiche degli infortuni e delle malattie professionali; 70 • • • • • • • • • • • • luoghi di lavoro; uso delle attrezzature di lavoro; uso dei dispositivi dì protezione individuale; movimentazione manuale dei carichi; uso dì attrezzature munite di videoterminali; protezione da agenti cancerogeni; obblighi del datore di lavoro; sorveglianza sanitaria; protezione da agenti biologici; obblighi del datore di lavoro; sorveglianza sanitaria; sanzioni. Negli allegati al decreto vengono inoltre forniti elenchi, specifiche e misure che regolano i vari aspetti delle attività svolte negli istituiti soggetti al decreto10. 4.3. La sicurezza antincendio Per quanto riguarda la sicurezza antincendio si prende in considerazione il D.P.R. 30 giugno 1995, n. 418, Norme di sicurezza antincendio per gli edifici di interesse storico-artistico destinati a biblioteche ed archivi (Gazzetta Ufficiale 7 ottobre 1995, n.235). Il decreto individua cinque obiettivi prioritari (12): 1) l’incolumità dei visitatori; 2) la salvaguardia del materiale conservato; 3) l’integrità dell’immobile rispetto alle ipotesi di incendi e l’impossibilità di decise trasformazioni dell’identità storico-artistica dell’immobile stesso; 4) l’identificazione dei responsabili per le attività e per la sicurezza; 5) la formazione del personale addetto alla sicurezza. I fondamentali obiettivi sopracitati si possono raggiungere con interventi finalizzati a: • non alterare l’identità storico-artistica dell’immobile con la realizzazione di murature taglia fuoco, porte antincendio, scale di sicurezza interne ed esterne; • salvaguardare l’immobile e tutelare il patrimonio conservato con l’eliminazione e/o la riduzione delle possibili cause di incendio attraverso la razionalizzazione e il controllo periodico degli impianti elettrici, l’eliminazione di centrali termiche interne, l’istallazione di impianti di protezione dalle scariche atmosferiche, l’installazione di sistemi di rilevazione dei fumi; • garantire la sicurezza degli utenti attraverso la limitazione 10 Tali specifiche riguardano: casi in cui è consentito lo svolgimento diretto da parte del datore di lavoro dei compiti di prevenzione e protezione dai rischi; prescrizioni di sicurezza e di salute per i luoghi di lavoro; schema indicativo per l’inventario dei rischi ai fini dell’impiego di attrezzature di protezione individuale; elenco indicativo e non esauriente delle attrezzature di protezione individuale; elenco indicativo e non esauriente delle attività e dei settori di attività per i quali può rendersi necessario mettere a disposizione attrezzature di protezione individuale; elementi di riferimento; prescrizioni minime; elenco di sistemi, preparati e procedimenti; elenco esemplificativo di attività lavorative che comportare la presenza di agenti biologici; segnale di rischio biologico; elenco degli agenti biologici classificati; specifiche sulle misure di contenimento e contenimento; specifiche per processi industriali SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | CHIMICA della presenza nelle sale, facendo riferimento alla disponibilità delle vie di fuga, e attraverso l’ideazione e la realizzazione di piani di evacuazione. Nel decreto sono state codificate le figure del responsabile delle attività e del responsabile tecnico addetto alla sicurezza (12). In appendice sono riportate alcune parti ritenuti particolarmente importanti del decreto. 5. IL PERCORSO METODOLOGICO SPERIMENTALE PER LO STUDIO DELL’INFLUENZA DELLE VARIABILI AMBIENTALI IN AMBIENTI CONFINATI (BIBLIOTECHE, ARCHIVI) 5.1. Le direttive della ricerca A conclusione di questa prima parte della presente monografia e in procinto di trattare nella seconda parte specifici casi di studio, di seguito viene tracciato e descritto il percorso metodologico sperimentale messo a punto nelle biblioteche e negli archivi presi in esame. Si fa presente comunque che tale metodologia può ritenersi applicabile al controllo delle variabili ambientali in qualsiasi ambiente confinato (13-14). Le direttive tracciate e seguite nel corso della ricerca sono: A. la valutazione storico-strutturale dell’edificio, contenitore di manufatti; B. la conoscenza dei manufatti; C. il controllo dell’ambiente; D. l’analisi del benessere del sistema “manufatto-contenitore-fruitore”. Ci si prefigge così di fornire, quale obiettivo della ricerca, per ciascuna tipologia di edificio/contenitore di documenti grafici, indici di attenzione e di rischio in base ai quali tracciare la sequenza degli interventi da effettuare in base alla gravità delle situazioni riscontrate nonché opportune raccomandazioni intese al raggiungimento e al mantenimento di un alto livello di qualità di vita e di lavoro nelle Unità Culturali oggetto di indagine. 5.2. Gli stadi metodologici A. La valutazione storico-strutturale dell’edificio Per quanto riguarda il controllo della stabilità strutturale dell’edificio sono stati presi i seguenti aspetti analitico-conoscitivi: • Individuazione La fase preliminare riguarda l’individuazione delle Unità Culturali (biblioteca, archivio) e i corrispondenti dati dal punto di vista logistico, tipologico e dell’afferenza. • Analisi storico-strutturale L’analisi storico-strutturale, a sua volta, è correlata a diversi tipi di indagine che prendono in considerazione il manufatto dal punto di vista sia storico che strutturale. Riferimenti storici e contestualizzazione urbana L’analisi storico-urbanistica ha come obiettivo la contestualizzazione del monumento (biblioteca, archivio) nel tempo e nello spazio, fornendo una immagine d’insieme della sua evoluzione storica e delle sue principali trasformazioni in relazione al contesto urbano. In questo senso si è proceduto allo studio della collocazione del monumento nella gerarchia urbana (anche in prospettiva diacronica), alla valutazione del suo rapporto con il potere cittadino e/o ecclesiastico e, infine, all’analisi dello sviluppo dell’abitato in relazione alle trasformazioni del monumento (e viceversa), dal punto di vista strutturale, architettonico e funzionale. Cronologia delle variazioni/modifiche nel corso del tempo Al fine di fornire un quadro il più possibile completo degli interventi architettonici subiti dall’edificio nel tempo e di caratterizzare i materiali e le tecniche costruttive utilizzate nei vari periodi storici, viene condotto uno studio storicoarchivistico. Documentazione grafica La documentazione grafica risulta essere un semplice supporto, puramente indicativo dello sviluppo planimetrico di ogni biblioteca e/o archivio. B. La conoscenza del manufatto • Individuazione del patrimonio documentale In questa fase della ricerca si individua il patrimonio documentale di contenuto nell’unità culturale; si elencano i fondi e le acquisizioni che costituiscono tale patrimonio. • Caratterizzazione del materiale documentale «Il bene culturale, oltre il suo valore artistico e il suo contenuto culturale, si qualifica con il materiale di cui è costituito» (3). Per questo motivo i materiali che costituiscono i beni culturali in generale e, nella fattispecie, i beni archivistico-librari, possono essere raggruppati per settori merceologici, in funzione della tipologia materica che li compone. La caratterizzazione del materiale, della sua origine e delle sue caratteristiche intrinseche diventano essenziali per il successivo studio volto alla conservazione del bene. • Valutazione dello stato di conservazione Più in particolare, per quanto concerne la conoscenza dei documenti grafici conservati, vengono svolte su documenti opportunamente scelti, con l’impiego di tecniche non distruttive, non invasive e non manipolative11, alcune indagini diagnostiche al fine di valutare le eventuali alterazioni-degradazioni dei manufatti e la loro leggibilità corrispondentemente alle condizioni dell’ambiente di conservazione (13-14). C. Il controllo dell’ambiente • Monitoraggio microclimatico Il monitoraggio microclimatico serve a valutare le condizioni di conservazione dei materiali costituenti i manufatti che sono oggetto di fruizione da parte del pubblico e di lavo11 Corrispondentemente alle varie problematiche che si presenteranno, di seguito si fa cenno ad alcune di esse: fotografia analogica e digitale, riflettografia, colorimetria, analisi d’immagine. 71 CHIMICA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 ro per i dipendenti. Esso si compone di diversi tipi di indagini volte a verificare il rispetto dei valori registrati in riferimento alle normative che riguardano la conservazione dei suddetti materiali e la salute dei frequentatori della biblioteca. Il monitoraggio delle condizioni ambientali viene effettuato sia nei locali destinati alla lettura e alla consultazione sia in quelli destinati alla conservazione dei manufatti. E’ fondamentale, infatti, in generale per la corretta conservazione di beni di interesse storico-artistico ed in particolare per i materiali delle raccolte e delle collezioni, per lo più costituiti da sostanze organiche e perciò intrinsecamente deperibili, l’osservanza di condizioni ambientali tali da limitare i processi di degrado. La regolazione e il controllo della temperatura e dell’umidità dell’ambiente svolgono un ruolo determinante al fine della corretta conservazione del patrimonio documentale e librario. Vengono svolte, quindi, campagne di misurazione di temperatura e umidità relativa, effettuando rilevamenti ogni trenta minuti. Gli andamenti nel tempo sono rappresentati in grafici e i valori ottenuti vengono confrontati con quelli riportati dalla normativa UNI 10586 del 1997 “Condizioni climatiche per ambienti di conservazione di documenti grafici e caratteristiche degli alloggiamenti”. Nel caso di ambienti di grandi dimensioni si effettua una verifica preliminare dell’uniformità dei parametri oggetto di indagine mediante misure istantanee e, successivamente, si individuano i punti in cui effettuare le misure in continuo. • La qualità dell’aria Il particellato sospeso totale (PST) Fra i vari agenti relativi alla qualità dell’aria, risulta particolarmente importante il particellato (16-17): al riguardo, viene effettuato il prelievo e la quantificazione del Particellato Sospeso Totale (PST) e della frazione PM10 mediante due prelevatori di polveri: il primo, fisso, per valutare la quantità di PST in locali opportunamente scelti; il secondo, portatile, è collegato ad un operatore e permette di valutare la quantità di polveri inalata. Analizzando le polveri presenti nei filtri è anche possibile fornire una valutazione qualitativa delle stesse. Gli aspetti biologici La valutazione delle concentrazioni dei singoli contaminanti biologici (virus, batteri, funghi e attinomiceti in forma vegetativa e sporale, cellule algali, polline, insetti, acari con i loro frammenti ed escrementi) avviene attraverso la messa a punto di sistemi di monitoraggio ambientale che consistono nella raccolta sistematica di campioni ambientali a cui seguono analisi colturali quantitative e qualitative per l’identificazione delle specie biologiche presenti. In generale, il prelievo di queste particelle biologiche è basato sugli stessi principi che regolano il campionamento del particellato chimico-fisico. 72 D. L’analisi del benessere del sistema “manufatto-contenitore-fruitore” • La valutazione dei consumi energetici La valutazione dell’efficienza degli impianti tecnici all’interno delle biblioteche e degli archivi è effettuata sulla base di sopralluoghi nei locali aperti al pubblico e nei locali tecnici, finalizzati sia a valutare visivamente lo stato degli impianti stessi che a raccogliere informazioni riguardanti la loro gestione e il loro utilizzo da parte degli operatori degli archivi e del personale incaricato della manutenzione. Sulla base degli elementi raccolti, utilizzando anche dati medi provenienti dalla letteratura tecnica specializzata, vengono valutati i consumi medi degli edifici ed analizzata, con l’ausilio delle campagne di misure termoigrometriche e di qualità dell’aria interna, l’adeguatezza degli impianti esistenti (a livello di potenzialità, regolazione, manutenzione) alle esigenze del pubblico, del personale e dei manufatti contenuti. • Il controllo delle condizioni di sicurezza degli ambienti L’analisi valuterà la rispondenza dei vari sistemi alle normative vigenti. In particolare la valutazione è indirizzata al rispetto delle norme inerenti la sicurezza antincendio per gli edifici di interesse storico-artistico destinati a biblioteche ed archivi (D.P.R. 30 giugno 1995, n. 418) e la sicurezza e la salute dei lavoratori sul luogo di lavoro (Decreto Legislativo 19 settembre 1994, n. 626). 5.3. Analisi dei risultati • Valutazione complessiva di carattere qualitativo e semiquantitativo Dalle analisi e dai controlli effettuati è possibile pervenire alla valutazione complessiva dello stato di conservazione della biblioteca e/o archivio, facendo riferimento sia al contenitore (edificio) e contenuto (manufatto conservato) sia alle condizioni ambientali. • Indici di attenzione e indici di rischio Al fine di poter fornire una immediata valutazione dei vari aspetti riconducibili ai diversi campi di indagine, si è ritenuto opportuno stabilire una sequenza di valori di gravità (da 0 a 3) evidenziati mediante un indice di attenzione (IA): • valore 0 = valore di attenzione nullo: la situazione al momento non richiede controlli né approfondimenti strumentali; • valore 1 = valore di attenzione medio: la situazione richiede controlli periodici, anche se al momento non vi sono segnali di pericolosità; • valore 2 = valore di attenzione elevato: si richiedono analisi ulteriori; • valore 3 = valore di attenzione elevatissimo: si richiedono interventi immediati, data la criticità della situazione rilevata. La suddetta indicazione (IA) conduce, quando le indagini analitiche risultano significative, alla formulazione di un indice di rischio (IR) secondo tale sequenza crescente: • valore 0 = condizioni di rischio nullo SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | CHIMICA • valore 1 = condizioni di rischio possibile: interventi di mitigazione/attenuazione • valore 2 = condizioni di rischio grave: interventi urgenti di attenuazione • valore 3 = condizioni di rischio gravissimo: pronto intervento. Il quadro totale di tali indici permetterà, inoltre, di indirizzare eventuali interventi rivolti alla prevenzione ed alla tutela del sistema manufatto/contenitore/fruitore verso le situazioni più gravi (13). • Correzioni e raccomandazioni Sulla base della valutazione complessiva dello stato di conservazione della biblioteca e/o archivio e della formulazione dei relativi indici di attenzione e di rischio, vengono indicate le opportune correzioni e raccomandazioni rivolte alla tutela dei manufatti e alla salvaguardia del biota nell’ambito dell’intero sistema oggetto di studio. 6. LA PREVENZIONE DEL RISCHIO Fra i compiti essenziali dello Stato, come stabilisce l’Art. 9 della Costituzione: “La Repubblica promuove lo sviluppo della cultura e la ricerca scientifica e tecnica. Tutela il paesaggio e il patrimonio storico e artistico della Nazione”, vi è la conservazione dei beni culturali. “I beni culturali – come fatto presente, nel 1967, dalla “Commissione di indagine parlamentare per la tutela e la valorizzazione delle cose di interesse storico, artistico e del paesaggio” (Commissione Franceschini) – sono testimonianza materiale avente valore di civiltà e strumento di umana elevazione”. Una parte cospicua di tali beni, collocato in Archivi e biblioteche, pubblici e privati, è costituito da documenti grafici che, quindi, devono essere idoneamente conservati. La conservazione dei beni culturali e, in questo caso, delle informazioni registrate su un supporto costituito essenzialmente da materiale cartaceo e membranaceo (come stabilisce la Norma UNI 10586), comporta il mettere in pratica le attività “necessarie per assicurare la conservazione ed impedire il deterioramento” come riporta il “Codice dei Beni Culturali e del Paesaggio” (D.Lgs. n. 42/2004) e quindi: “una coerente, coordinata e programmata attività di studio, prevenzione, manutenzione e restauro”. In particolare la coerente, coordinata e programmata attività di studio, presente nella definizione di conservazione, è collegata alle attività di conoscenza storico-materica del bene e, quindi, riguarda sia la formazione che la ricerca1. Ne deriva l’importanza del corretto intervento conservativo che prevede: la classificazione e la catalogazione, l’anamnesi storica, le indagini diagnostico-analitiche, il monitoraggio ambientale e, nel caso, gli interventi di prevenzione, manutenzione, restauro. In particolare si ritiene fondamentale far presente che la prevenzione diventa, quindi, basilare nella programmazione di tutte le operazioni finalizzate alla conservazione del bene stesso mediante opportuni trattamenti, progetti o piani di intervento. Un approccio recente per la risoluzione di tali problema- tiche si basa sull’utilizzo della prevenzione dei rischi (risk management) cui i beni culturali sono sottoposti. Si riducono così i conseguenti rischi, agendo prima che un evento traumatico per i beni culturali possa verificarsi e assicurando al bene culturale un ambiente di conservazione idoneo e condizioni adeguate alla sua fruizione (15-26). Un aspetto che risalta particolarmente è che la prevenzione e, quindi, la sicurezza ha sempre fatto fatica a concretizzarsi nel tessuto italiano, dando maggiore spazio e visibilità all’intervento sul singolo oggetto. Nel 2001 l’ “Atto di indirizzo, sui criteri tecnico-scientifici e sugli standard di funzionamento e sviluppo dei musei” (D. Lgs. n.112/98 art. 150 comma 6), ha definito la sicurezza come: “Un approccio pragmatico integrato che, [...], si basa su una analisi del rischio mirata ed una conseguente strategia di sicurezza che comprende misure preventive, protettive ed organizzative capaci di perseguire quegli obiettivi, anche in occasione delle emergenze correlate alle situazioni di rischio considerate.” Tale approccio è alla base delle ricerche riconducibili allo studio del “sistema: manufatto-ambiente-biota” che, da anni, vengono svolte nel Laboratorio Diagnostico per i Beni Culturali del Dipartimento di Beni Culturali dell’Università di Bologna (16-26). I suddetti studi, in particolare quelli relativi ai documenti grafici collocati in Archivi (Archivio di Stato di Roma, Firenze e Rimini, Archivio della Camera di Commercio di Ravenna) e Biblioteche (8 Biblioteche Statali di Roma, Biblioteca Classense di Ravenna) hanno contribuito a fornire una definizione più chiara ed affidabile sulla valutazione ambientale in tali Unità culturali ma, più in generale, in tutti gli ambienti “indoor” dove è fondamentale affrontare le problematiche relative al benessere del sistema: manufatto-ambiente-biota. In definitiva, nei tre casi di studio si è dimostrato che una attività di controllo, prevenzione e manutenzione assicura una gestione efficace degli impianti energetici, limita gli sprechi ed evita situazioni di rischio per i beni esposti senza influire sul benessere dei visitatori. Si fa presente, in conclusione, che il rispetto dei valori stabiliti dalla Normativa e, quindi, l’osservanza di idonee politiche di conservazione possono comportare anche un risparmio energetico per l’Unità Culturale nella quale il bene culturale è collocato e, quindi, ricadute economiche positive. BIBLIOGRAFIA UNI 10586, 1997, Condizioni climatiche per ambienti di conservazione di documenti grafici e caratteristiche degli alloggiamenti Bernardi A.,2004, Conservare opere d’arte. Il microclima negli ambienti museali, Il Prato LORUSSO S. 2000, Conservazione e trattamento dei materiali costituenti i Beni Culturali, Bologna, Pitagora Editrice LORUSSO S. 2006, Caratterizzazione, tecnologia e conservazione dei manufatti cartacei, Bologna, Pitagora Editrice 73 CHIMICA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 MINISTERO PER I BENI E LE ATTIVITÀ CULTURALI, Ufficio Centrale per i Beni Librari, Istituti Culturali e Editoria, 1997, Gruppo di Studio su «La prevenzione» nell’ambito della commissione per la Conservazione del Patrimonio Librario Nazionale CAMUFFO D., FASSINA V., HAVERMANS J., 2010, Basic environmental mechanism. Affecting cultural heritage, Nardini LORUSSO S. 2000, L’ambiente di conservazione dei beni culturali, Bologna, Pitagora Editrice LORUSSO S., NATALI A. 2002, La conservazione dei documenti grafici: alcune considerazioni sui parametri climatici secondo la normativa vigente, Scienza e Tecnica, 383-384, 2-7 MINISTERO PER I BENI CULTURALI E AMBIENTALI, 1987, Carta della conservazione e del restauro degli oggetti d’arte e di cultura. GENOVA M., LORUSSO S. 1994, Biblioteca Nazionale Centrale e Biblioteca Casanatense a Roma: valutazioni ambientali ed energetiche, Rapporto finale CISE- DSM-95-78. CENTRO REGIONALE PER LA PROGETTAZIONE ED IL RESTAURO E PER LE SCIENZE NATURALI ED APPLICATE AI BENI CULTURALI, 2002, La sicurezza dei beni culturali nel Decreto Legislativo 19 settembre 1994, n. 626, Palermo, Edizioni Guida CENTRO REGIONALE PER LA PROGETTAZIONE ED IL RESTAURO E PER LE SCIENZE NATURALI ED APPLICATE AI BENI CULTURALI, 2002, Norme di sicurezza antincendio per gli edifici di interesse storico-artistico destinati a biblioteche ed archivi D.P.R. 30 giugno 1995, n. 418, Palermo, Edizioni Guida LORUSSO S., et al. 2002, Indagine sulle biblioteche pubbliche statali in Roma, Accademie e Biblioteche d’Italia, 1-2, 127-145 LORUSSO S. 2002, La diagnostica per il controllo del sistema: manufatto-ambiente. Alcune applicazioni nel settore dei beni culturali, Bologna, Pitagora Editrice LORUSSO S.; NATALI A.; MATTEUCCI C.; PALLA F., 2014, La gestione del rischio nel settore dei beni culturali: musei, biblioteche, archivi. Milano Mimesis Editore. NATALI A., LORUSSO S., Le polveri presenti in ambienti confinati: gli archivi, Atti Convegno Nazionale AIAr, Innovazioni tecnologiche per i beni culturali in Italia, Caserta, 16-17-18 Febbraio 2005 GIGLIONI C., NATALI A., 2009, Laser scattering methodology for measuring particulates in the air. CONSERVATION SCIENCE IN CULTURAL HERITAGE. vol. 9, pp. 157-169 ISSN: 1974-4951 LORUSSO S., NATALI A., MATTEUCCI C., L’ambiente di conservazione dei documenti grafici: il caso di studio dei codici veneziani e ravennati inediti, Atti del 11° Congresso Nazionale sulle Prove non Distruttive Monitoraggio Diagnostica, Milano 13-14-15 ottobre 2005 BRUCKLE I., 2001, The practice of looking in paper conservation, The Paper Conservator, 25 LORUSSO S., NATALI A., La qualità dell’aria in am74 bienti confinati, “Quaderni di Scienza della Conservazione” n. 4, Pitagora Editrice, Bologna, 2004, 215-238 LORUSSO S., NATALI A., MATTEUCCI C., SAVIGNI R. 2008. Diagnosis and digitization of Dantesque Code “Phillipps 9589”. CONSERVATION SCIENCE IN CULTURAL HERITAGE, vol. 8-08; p. 49 – 63 FABBRI B., 2012, “Science and Conservation for Museum Collections”, Nardini editore LORUSSO S.; MATTEUCCI C.; NATALI A. 2007. Anamnesi storica, indagini analitico-diagnostiche e monitoraggio ambientale: alcuni casi di studio nel settore dei beni culturali. BOLOGNA: Pitagora Editrice. (vol., pp. 288) PALLA F, 2013, Bioactive molecules: innovative contributions of biotechnology to the restoration of cultural heritage, CONSERVATION SCIENCE IN CULTURAL HERITAGE, n. 13. Mimesis editore Milano. LORUSSO S., NATALI A.,. 2007. Lo studio e il controllo del “sistema: ambiente/manufatto di interesse storico-documentale” Casi di studio. In: MARIAGRAZIA PLOSSI; ANTONIO ZAPPALA’ A CURA DI. Libri e Documenti / Le scienze per la conservazione e il restauro. MARIANO DEL FRIULI: Edizioni della Laguna. MITSUSHIMA KEIES K., 1978, The unique qualities of paper as an artifact in conservation treatment, in The Paper Conservator, 3 APPENDICE In appendice si riportano alcuni articoli ritenuti significativi del D.P.R. 30 giugno 1995, n. 418, Norme di sicurezza antincendio per gli edifici di interesse storico-artistico destinati a biblioteche ed archivi (Gazzetta Ufficiale 7 ottobre 1995, n.235). PRESCRIZIONI TECNICHE Art. 3 1. È vietato, nei locali di cui all’ art.l12, tenere ed usare fiamme libere, fornelli o stufe a gas, stufe elettriche con resistenza in vista, stufe a kerosene, apparecchi a incandescenza senza protezione, nonché depositare sostanze che possono, per la loro vicinanza, reagire tra loro provocando incendi e/o esplosioni 2. Il carico d’incendio delle attività di cui all’art. 1, certificato all’atto della richiesta del certificato di prevenzione 12 L’art. 1. fa riferimento ai beni immobili soggetti alla legge 1 giugno 1939, n. 1089 che nelle Disposizioni Generali all’art. 1 indica: “Sono soggette alla presente legge le cose, immobili e mobili, che presentano interesse artistico, storico, archeologico o etnografico, compresi: - le cose che interessano la paleontologia, la preistoria e le primitive civiltà; - le cose di interesse numismatico; - i manoscritti, gli autografi, i carteggi, i documenti notevoli, gli incunaboli, nonché i libri, le stampe e le incisioni aventi carattere di rarità e di pregio. Vi sono pure compresi le ville, i parchi e i giardini che abbiano interesse artistico”. SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | CHIMICA incendi, non può essere incrementato introducendo negli ambienti nuovi elementi di arredo combustibili con esclusione del materiale librario e cartaceo la cui quantità massima dovrà essere in dimensionati, in ogni caso predeterminata. 3. Negli atri, nei corridoi di disimpegno, nelle scale e nelle rampe il carico d’incendio esistente costituito dalle strutture, certificato come sopra, non potrà essere modificato con l’apporto di ulteriori arredi e di materiali combustibili. 4. Per le attività di cui al comma l dell’art.l13 di nuova istituzione o per gli ampliamenti da realizzare negli edifici sottoposti nella loro globalità a tutela ai sensi della legge n. 1089/1939, il carico d’incendio relativo agli arredi e al materiale depositato, con esclusione delle strutture e degli infissi combustibili, non dovrà superare i 50 kg/m2 in ogni singolo ambiente. 5. Gli elementi di arredo combustibili introdotti negli ambienti successivamente alla data di entrata in vigore della presente norma, con esclusione del materiale esposto, debbono risultare omologati nelle seguenti classi di reazione al fuoco: i materiali di rivestimento dei pavimenti debbono essere di classe non superiore a 2.IM14; gli altri materiali di rivestimenti e i materiali suscettibili di prendere fuoco su ambo le facce debbono essere di classe 1.IM; i mobili imbottiti debbono essere di classe 1 IM. Art. 4. Sale di consultazione e lettura 1. Gli ambienti destinati a sala di consultazione e lettura devono essere provvisti di un sistema organizzato di vie di uscita per il deflusso rapido ed ordinato degli occupanti verso spazi scoperti o luoghi sicuri in caso di incendio o di pericolo di altra natura. 2. A tal fine deve essere realizzato il percorso più breve per raggiungere le uscite: tale percorso deve avere in ogni punto larghezza non inferiore a 0,90 m, essere privo di ostacoli, segnalato con cartelli conformi al decreto del Presidente della Repubblica 524/1982 e provvisto, ad intervalli regolari, di cartelli recanti le istruzioni sul comportamento che in caso di incendio dovranno tenere gli occupanti, così come specificato al successivo art. 10. 3. I percorsi di esodo, di lunghezza non superiore a 30 m, devono essere dimensionati, in funzione del massimo affollamento ipotizzabile, per una capacità di deflusso non superiore a sessanta persone. 13 Ci si riferisce alle attività svolte nei locali degli edifici adibiti ad archivi e biblioteca. 14 Il valore della classe è determinato tramite prove di resistenza a combustione del manufatto effettuate con tempi di contatto rispettivamente di 20 secondi, 80 secondi, 140 secondi. Al manufatto è attribuita la classe 3.IM se si ha esito positivo solo per la prima prova; la classe 2.IM se si ha esito positivo per le prime due prove; la classe 1.IM se si ha esito positivo a tutte e tre le prove. Se una delle prove dà esito negativo, non si procede all’effettuazione della/e successiva/e. Se il manufatto non supera la prima prova (20 secondi.) non va classificato. L’attribuzione della classe viene data sulla base dello stesso risultato ottenuto su due serie di provette. Nel caso in cui si abbiano risultati discordi viene effettuata una prova su una terza serie di provette. L’attribuzione della classe viene data sulla base del peggior risultato ottenuto nelle tre serie. 4. Il conteggio delle uscite può essere effettuato sommando la larghezza di tutte le porte (di larghezza non inferiore a 0,90 m) che immettono su spazio scoperto o luogo sicuro. La misurazione della larghezza delle uscite va eseguita nel punto più stretto dell’uscita. 5. Ove il sistema di vie d’uscita non risponda alle anzidette caratteristiche dimensionali si deve procedere alla riduzione dell’ affollamento eventualmente con l’ausilio di sistemi che limitino il numero delle persone in ingresso. Art. 5. Depositi 1. Nei depositi il materiale ivi conservato deve essere posizionato all’interno del locale in scaffali e/o contenitori metallici consentendo passaggi liberi non inferiori a 0,90 m tra i materiali ivi depositati. 2. Le comunicazioni tra questi locali ed il resto dell’ edificio debbono avvenire tramite porte REI15 120 munite di congegno di autochiusura. 3. Nei depositi il cui carico d’incendio è superiore a 50 Kg/ m2 debbono essere installati impianti di spegnimento automatico collegati ad impianti di allarme16. 4. Nei locali dovrà essere assicurata la ventilazione naturale pari a 1/30 della superficie in pianta o n. 2 ricambi ambiente/ora con mezzi meccanici. Art. 6. Impianti elettrici 1. Gli impianti elettrici devono essere realizzati secondo le prescrizioni della legge 1 marzo 1968, n. 186 (pubblicata nella G.U.R.I. del 23 marzo 1968, n. 77) e della legge 5 marzo 1990, n. 46 (pubblicata nella G.U.R.I. del 12 marzo 1990, n. 59) e rispettive integrazioni e modificazioni. 2. Nelle sale di lettura e negli ambienti, nei quali è prevista la presenza del pubblico, deve essere installato un sistema di illuminazione di sicurezza per garantire l’illuminazione delle vie di esodo e la segnalazione delle uscite di sicurezza per il tempo necessario a consentire l’evacuazione di tutte le persone che si trovano nel complesso. 3. L’edificio deve essere protetto contro le scariche atmosferiche17. Art. 7. Ascensori e montacarichi 1. Gli ascensori e montacarichi di nuova installazione debbono rispettare le norme antincendio previste nei decreti del Ministro per il coordinamento delle politiche comunitarie del 28 novembre 1987, n. 586 e del 9 dicembre 1987, l. 587 (pubblicato nella Gazzetta Ufficiale del 25 marzo 1988, n. 71) e, per quanto compatibile, nel decreto del Ministro dell’interno del 16 maggio 1987, I. 246 (pubblicato nella 15 La dizione “REI” identifica l’attitudine di un elemento da costruzione a conservare, sotto l’azione del fuoco per un tempo determinato, la stabilità (R), la tenuta (E) e l’isolamento termico (I). 16 Nel decreto è riportato il simbolo mq per metro quadrato e non m2 come la simbologia riconosciuta prevede 17 Le installazioni ed i dispositivi di protezione contro le scariche atmosferiche devono essere periodicamente controllati e comunque almeno una volta ogni due anni, per accertarne lo stato di efficienza. 75 CHIMICA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 Gazzetta Ufficiale del 27 giugno 1987, n. 148) e successive integrazioni e modificazioni. Art. 8. Mezzi antincendio 1. Deve essere prevista l’installazione di un estintore portatile con capacità estinguenti non inferiore a 13 A ogni 150 m2 di superficie di pavimento; gli estintori debbono essere disposti in posizione ben visibile, segnalata e di facile accesso. 2. L’impianto idrico antincendio deve essere realizzato da una rete, possibilmente chiusa ad anello, dotata di attacchi UNI 45 utilizzabili per il collegamento di manichette flessibili o da naspi18. La rete idrica deve essere dimensionata per garantire una portata minima di 240 l/min per ogni colonna montante con più di due idranti e, nel caso di più colonne, per il funzionamento contemporaneo di 2 colonne. L’alimentazione idrica deve essere in grado di assicurare l’erogazione ai due idranti idraulicamente più sfavoriti di 120 l/min. cadauno, con una pressione residua al bocchello di 2 bar per un tempo di almeno 60 minuti. Gli idranti di regola devono essere collocati ad ogni piano in prossimità degli accessi, delle scale, delle uscite, dei locali a rischio e dei depositi; la loro ubicazione deve comunque consentire di poter intervenire in ogni ambiente dell’attività. Nel caso di installazione di naspi, ogni naspo deve essere in grado di assicurare l’erogazione di 35 l/min. alla pressione di 1,5 bar al bocchello; la rete che alimenta i naspi deve garantire le predette caratteristiche idrauliche per ciascuno dei due naspi in posizione idraulicamente più sfavorevole contemporaneamente in funzione, con una autonomia di 60 min. Deve essere inoltre prevista una rete di idranti UNI 70 esterna al fabbricato. In prossimità dell’ingresso principale, in posizione segnalata e facilmente accessibile dai mezzi di soccorso dei Vigili del Fuoco, deve essere installato un attacco di mandata per autopompe. 3. Devono essere installati impianti fissi di rivelazione automatica di incendio. Questi debbono essere collegati mediante apposita centrale a dispositivi di allarme ottici e/o acustici percepibili in locali presidiati. 4. Nei locali deve essere installato almeno un sistema di allarme acustico in grado di avvertire i presenti delle condizioni di pericolo in caso di incendio. Tale sistema deve essere attivato a giudizio del responsabile dell’ attività o di un suo delegato. I dispositivi sonori devono avere caratteristiche e sistemazioni tali da poter segnalare il pericolo a tutti gli occupanti. Il comando del funzionamento dei dispositivi sonori deve essere sistemato in uno o più luoghi posti sotto il controllo del personale. Nei locali aperti al pubblico deve essere previsto un impianto di altoparlanti da utilizzare in condizioni di emergenza per dare le necessarie istruzioni ai presenti. È ammessa l’assenza di detto impianto in attività che occupano un unico piano, in cui l’affollamento, il numero dei locali e le loro caratteristiche siano tali da permettere altre soluzioni egualmente affidabili. Gli impianti devono disporre di almeno due alimentazioni elettriche, una di riserva all’altra. Un’alimentazione almeno deve essere in 18 Macchine che servono ad avvolgere le tubature degli idranti 76 grado di assicurare la trasmissione da tutti gli altoparlanti per 30 minuti consecutivi come minimo. Le apparecchiature di trasmissione devono essere poste “in luogo sicuro” noto al personale e facilmente raggiungibile dal personale stesso. PRESCRIZIONI PER LA GESTIONE Art. 9. Gestione della sicurezza 1. Il soggetto che, a qualsiasi titolo, ha la disponibilità di un edificio disciplinato dal presente regolamento, deve nominare il responsabile delle attività svolte al suo interno (direttore della biblioteca, dell’archivio o dell’istituto) e il responsabile tecnico addetto alla sicurezza. 2. Il responsabile dell’attività deve provvedere affinché nel corso della gestione non vengano alterate le condizioni di sicurezza e in particolare: - non siano superati gli affollamenti massimi previsti per gli ambienti destinati a sale di consultazione e lettura; - siano mantenute sgombre da ogni ostacolo ed agibili le vie di esodo; - siano rispettate le disposizioni di esercizio in occasione di manutenzioni e sistemazioni. 3. Il responsabile tecnico addetto alla sicurezza deve intervenire affinché: a) siano mantenuti efficienti i mezzi antincendio e siano eseguite con tempestività le manutenzioni o sostituzioni necessarie. Siano altresì condotte periodicamente verifiche degli stessi mezzi con cadenza non superiore a sei mesi ed annotate nel registro dei controlli di cui al punto 4.; b) siano mantenuti costantemente in buono stato tutti gli impianti presenti nell’edificio. Gli schemi aggiornati di detti impianti nonché di tutte le condotte, fogne e opere idrauliche, strettamente connesse al funzionamento dell’ edificio, ove in dotazione all’Istituto, devono essere conservati in apposito fascicolo. In particolare per gli impianti elettrici deve essere previsto che un addetto qualificato provveda, con la periodicità stabilita dalle specifiche normative CEI, al loro controllo e manutenzione ed a segnalare al responsabile dell’ attività eventuali carenze e/o malfunzionamento, per gli opportuni provvedimenti. Ogni loro modifica o integrazione dovrà essere annotata nel registro dei controlli e inserita nei relativi schemi. In ogni caso tutti gli impianti devono essere sottoposti a verifiche periodiche con cadenza non superiore a tre anni; c) siano tenuti in buono stato gli impianti di ventilazione, di condizionamento e riscaldamento ove esistenti, prevedendo in particolare una verifica periodica degli stessi con cadenza non superiore ad un anno. Le centrali termiche e frigorifere devono essere condotte da personale qualificato in conformità con quanto previsto dalle vigenti normative; d) sia previsto un servizio organizzato composto da un numero proporzionato di addetti qualificati, in base alle dimensioni e alle caratteristiche dell’attività, esperti nell’uso dei mezzi antincendio installati; e) siano eseguite per il personale addetto all’attività periodiche riunioni di addestramento e di istruzioni sull’uso SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | CHIMICA dei mezzi di soccorso e di allarme, nonché esercitazioni di sfollamento dell’attività. 4. Il responsabile tecnico addetto alla sicurezza di cui al comma 1 deve altresì curare la tenuta di un registro ove sono annotati tutti gli interventi ed i controlli relativi all’efficienza degli impianti elettrici dell’illuminazione di sicurezza e dei presidi antincendio, nonché all’osservanza della normativa relativa ai carichi d’incendio nei vari ambienti dell’edificio e nelle aree a rischio specifico. Art. 10. Piani di intervento e istruzioni di sicurezza 1. Nelle attività di cui al comma 1 dell’art.l devono essere predisposti adeguati piani di intervento da porre in atto in occasione delle situazioni di emergenza ragionevolmente prevedibili. Il personale addetto deve essere edotto sull’intero piano e, in particolare, sui compiti affidati ai singoli. 2. Detti piani, definiti caso per caso in relazione alle caratteristiche dell’ attività, devono essere concepiti in modo che in tali situazioni: - siano avvisati immediatamente i presenti in pericolo evitando, per quanto possibile, situazioni di panico; - con l’ausilio del personale addetto, sia eseguito tempestivamente lo sfollamento dei locali secondo un piano prestabilito nonché la protezione del materiale bibliografico; - sia richiesto l’intervento dei soccorsi (Vigili del Fuoco, Forze dell’ ordine, ecc.); - sia previsto un incaricato che sia pronto ad accogliere i soccorritori con le informazioni del caso, riguardanti le caratteristiche dell’ edificio; - sia attivato il personale addetto, secondo predeterminate sequenze, ai provvedimenti del caso, quali interruzione dell’ energia elettrica e verifica dell’intervento degli impianti di emergenza, arresto delle installazioni di ventilazione e condizionamento, azionamento dei sistemi di evacuazione dei fumi e dei mezzi di spegnimento e quanto altro previsto nel piano di intervento. 3. Le istruzioni relative al comportamento del pubblico e del personale in caso di emergenza vanno esposte ben in vista in appositi cartelli, anche in conformità a quanto disposto dal decreto del Presidente della Repubblica 8 giugno 1982, n. 524 e successive modifiche e integrazioni. 4. All’ingresso di ciascun piano deve essere collocata una pianta d’orientamento semplificata che indichi tutte le possibili vie di esodo. 5. All’ingresso dell’attività va esposta una pianta dell’edificio corredata dalle seguenti indicazioni: - scale e vie di esodo; - mezzi di estinzione; - dispositivi di arresto degli impianti di distribuzione del gas, dell’energia elettrica e dell’eventuale impianto di ventilazione e di condizionamento; - eventuale quadro generale del sistema di rivelazione e di allarme; - impianti e locali a rischio specifico. 6. A cura del responsabile dell’ attività dovrà essere predisposto un registro dei controlli periodici relativo all’efficien- za degli impianti elettrici, dell’illuminazione di sicurezza, dei presidi antincendio, dell’ osservanza della limitazione dei carichi d’incendio nei vari ambienti della attività e delle aree a rischio specifico. Tale registro deve essere mantenuto costantemente aggiornato e disponibile per i controlli da parte dell’ autorità competente. DISPOSIZIONI TRANSITORIE E FINALI Art. 12. Norme transitorie 1. Gli edifici storici ed artistici di cui al precedente art. 1, punto 1, sono tenuti ad adeguarsi alle presenti disposizioni non oltre tre anni dalla pubblicazione del presente regolamento nella Gazzetta Ufficiale (12). 77 INGEGNERIA DELL’INFORMAZIONE | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 La tecnologia RFID a supporto della sanità: un progetto per ottimizzare l’anamnesi e la gestione del paziente AGOSTINO GIORGIO Dipartimento di Ingegneria Elettrica e dell’Informazione, Politecnico di Bari L’ avvento dei sistemi informatici a supporto delle procedure medicosanitarie, ha contribuito a migliorare significativamente la qualità dei servizi limitando sprechi e inefficienze, per aumentare la qualità di vita del paziente. Non sempre, però, questi benefici si riflettono direttamente sulla salute di quest’ultimo. Ad esempio, nel caso di un soccorso d’urgenza ad un ferito o ammalato in condizioni gravi e privo di coscienza, è fondamentale accertarsi tempestivamente della storia clinica pregressa del paziente, al fine di evitare ritardi nella diagnosi o la erogazione di cure non idonee che potrebbero aggravare ulteriormente il quadro clinico. In questo contesto si colloca un progetto avviato presso il Laboratorio di Elettronica dei Sistemi Digitali del DEI presso il Politecnico di Bari, che si propone, attraverso il supporto della tecnologia RFID, di snellire drasticamente le procedure di acquisizione dei dati anamnestici, per fronteggiare con più efficacia anche le situazioni più gravi; senza dimenticare, tra l’altro, aspetti importanti come l’integrazione in un sistema informatico preesistente ed il fattore economico. La prima fase del progetto, relativa allo sviluppo del dimostratore ed alla sua validazione tecnica, si è conclusa con successo poiché l’idea progettuale si è dimostrata fattibile, valida ed efficace per gli scopi prefissati. Seguirà una fase di sperimentazione su larga scala, in fase di pianificazione, all’esito della quale sarà possibile individuare ulteriori miglioramenti e perfezionamenti da apportare al sistema. 1. INTRODUZIONE L’effetto dell’informatica e dell’automazione sulle procedure medico-sanitarie si sta manifestando in maniera sempre più ampia, portando notevoli vantaggi per la salute e il bene di tutti i pazienti; si pensi alle applicazioni già oggi sotto gli 78 occhi di tutti: dalla possibilità di prenotare un esame via internet all’uso di tecniche diagnostiche sempre più sofisticate (TAC, Risonanza Magnetica, PET,…), dalla telemedicina alla possibilità di eseguire interventi minimamente invasivi con tecniche endoscopiche. Tra queste innovazioni, un aspetto fondamentale per la cura del paziente è sicuramente il trattamento dei dati. Infatti, la gestione e il controllo della salute sono basati sull’uso, la trasmissione e il confronto di una grande quantità di dati, informazioni e conoscenze eterogenee. Tuttavia, negli ultimi anni il bisogno di scambiare dati è aumentato vertiginosamente, sia all’interno di una struttura sanitaria (tra i diversi soggetti e tra unità operative specializzate), sia tra strutture geograficamente distanti. Tra l’altro, con l’innalzamento dei costi e la complessità dell’organizzazione, ormai è impensabile prescindere da un adeguato sistema informativo, costituito da software di gestione e basi di dati complesse, che garantisca il controllo e l’ottimizzazione dell’organizzazione [1]. Sebbene l’informatizzazione aumenti drasticamente l’efficienza e l’efficacia delle procedure di trattamento dei dati, non ha uguale impatto in termini di miglioramento della qualità delle cure, ovvero della qualità della vita dei pazienti, SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | INGEGNERIA DELL’INFORMAZIONE soprattutto anziani, ammalati cronici e pazienti soggetti ad incidenti e bisognosi di soccorsi urgenti. Allo scopo di far fronte a questa carenza, è stato avviato presso il Politecnico di Bari il progetto di un sistema basato su tecnologia RFID (Radio Frequency IDentification), costituito da una parte hardware ed una parte software in grado di migliorare la qualità dell’assistenza sanitaria e perfettamente integrabile in qualsiasi sistema informatizzato sanitario preesistente. Infatti, utilizzando la tecnologia RFID per l’identificazione del soggetto (paziente), è stato implementato, come primo passo del progetto, l’accesso o (qualora non già esistente) la creazione di un suo database, consentendo la reperibilità quindi, di tutte le informazioni cliniche-anamnestiche pregresse del paziente, senza necessità di una descrizione da parte del medesimo soggetto interessato. L’importanza di poter disporre della storia anamnestica del paziente è cruciale anche per accelerare i tempi di cura e talvolta per ridurne il rischio di vita. Si pensi, per esempio, ad un paziente che deve essere operato d’urgenza e non sa o non può riferire tutte le informazioni anamnestiche che lo riguardano, che sono necessarie prima dell’intervento; tale paziente dovrebbe essere prima sottoposto ad una serie di accertamenti utili a delinearne il quadro clinico (allergie, HIV, epatite, interventi subiti, diabete, cardiopatie, broncopatie, ecc.) e poi subire l’intervento, oppure subire l’intervento senza raccogliere tutte le informazioni di cui sopra – se particolarmente urgente - ma con un elevatissimo rischio anche di mortalità. Le esigenze a cui si va incontro, e quindi i vantaggi offerti dal sistema proposto, spaziano dal semplice snellimento delle procedure di acquisizione dei dati clinici dell’individuo, al poter disporre di tutti i dati clinici/anamnestici relativi a pazienti non in grado di esporli (perché soccorsi e privi di conoscenza oppure perché molto anziani e non ricordano, non autosufficienti, ecc.), alla creazione automatica ed intelligente di un database, in adempimento alle più moderne esigenze di informatizzazione del servizio sanitario. Di seguito verranno descritte le tecnologie a supporto ed, in particolare, le caratteristiche del progetto. 2. CENNI SULLA TECNOLOGIA RFI L’acronimo RFID indica una tecnologia wireless che rappresenta una soluzione innovativa nel campo dell’automazione dei processi [2 – 4]. Sebbene la sua origine non sia recente, è destinata a provocare nei prossimi anni una vera e propria rivoluzione in ogni settore produttivo. Il motivo per cui solamente negli ultimi anni l’RFID si è diffusa è perché nel corso del tempo il suo utilizzo si è modificato e, se fino a poco tempo fa poteva essere considerata una tecnologia ancora in piena evoluzione, attualmente può essere considerata una tecnologia matura e dalle applicazioni davvero numerose ed in molteplici ambiti [5, 7]. La definizione stessa dell’acronimo, “Radio Frequency IDentification” (Identificazione a Radiofrequenza), è molto chiara nel precisare e limitare la tecnologia in questione: • E’ una tecnologia che permette l’identificazione (ossia il riconoscimento univoco) di un oggetto o di un essere vivente. • E’ una tecnologia che sfrutta la radiofrequenza. Alla base del suo funzionamento vi è l’idea di poter identificare, attraverso delle etichette “intelligenti” (dette “tag”, “transponder” o “data-carrier device”) e senza alcuna necessità di collegamento fisico, qualunque oggetto, sia esso un prodotto, un animale o una persona. Tali transponders, a differenza dei predecessori codici a barre, hanno la capacità di memorizzare su di un chip informazioni che possono essere trasmesse, tramite onde radio, ad opportuni dispositivi di lettura (reader o interrogator). I dati vengono infine inviati ad un computer centrale per essere interpretati ed elaborati [2]. Per comprendere la portata di questo meccanismo basti pensare che su di un singolo chip è possibile inserire svariate informazioni (dal codice identificativo seriale, al nome, al cognome, ecc…) e che i reader, a seconda delle applicazioni, sono in grado di captare tag a distanza variabile tra pochi centimetri e qualche metro. 3. CARATTERISTICHE E FUNZIONALITÀ DEL SISTEMA PROPOSTO L’idea alla base del progetto prevede che ad ogni utente (paziente potenziale o effettivo) sia consegnato un tag RFID in formato tessera (come il trasponder in fig. 1), nel quale sono memorizzati i suoi dati anagrafici e clinici [8]. Figura 1: Trasponder RFID in formato tessera utilizzato nel progetto. Sullo sfondo l’antenna del reader in forma circolare. Ipotizzando l’uso del sistema in una postazione di accettazione all’ingresso dell’infrastruttura sanitaria, qualora l’utente sopraggiunga con il tag indosso entro la distanza di rilevamento (meno di un metro nel nostro caso specifico), il sistema avvia una serie di procedure automatiche rapidissime per il riconoscimento univoco dell’individuo e per la ricerca dei suoi dati all’interno del database centrale, dati che, poi, sono visualizzati a video per la fruizione da parte degli operatori sanitari. Per assolvere questi compiti, il sistema è stato ideato secondo lo schema a blocchi in fig. 2. 79 INGEGNERIA DELL’INFORMAZIONE | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 Infatti, assumendo che tipicamente il personale sanitario abbia un livello medio di conoscenza degli strumenti inforINPUT/ OUTPUT mativi, si rende necessaria un’impostazione razionale che ANTEN NA CONTROLLO privilegi gli automatismi piuttosto che il controllo totale delDATABASE lo strumento senza, però, sacrificarne le funzionalità. MODULO RS232 READER RFID INTERFACCIA Nella finestra principale sono condensati tutti i controlli PRINCIPALE necessari alle funzionalità messe a disposizione dal software, come la tabella per la visualizzazione dei dati, i pulsanti per DETTAGLI CARTELLA la gestione dei record e delle informazioni a loro connesse. ANAGRAFICI CLINICA Questi controlli riproducono le funzionalità tipiche di ricerca, eliminazione, modifica, creazione di nuovi record di un Figura 2: schema a blocchi del sistema. database, prescindendo dal particolare formato delle tabelle (Access, SQLServer, MySQL) connesse al sistema. Infatti la Come precedentemente accennato, il sistema è costituito progettazione della classe di controllo tramite i metodi ADO. da una architettura mista hardware/software. La componente NET ed il linguaggio SQL, permette una certa indipendenza hardware è rappresentata da un kit in tecnologia RFID com- dalla fonte dei dati, che in questo ambito si traduce in una prensivo di etichette intelligenti (tags) e un ricevitore (rea- ottima facilità di integrazione con database preesistenti [9]. In aggiunta si contano i pulsanti di connessione e disconder), la cui interazione a distanza, a radiofrequenza, consente il rilevamento (in questo caso il riconoscimenti di persone) nessione dal database e dal dispositivo RFID, come mostrato in fig. 3 e 4. in modo univoco. I pulsanti di controllo del lettore RFID sono solamente Il software, invece, nella sua versione di prova sviluppato in ambiente Visual Studio, si compone in primo luogo di due, e consentono la connessione e la disconnessione dal diun database relazionale che costituisce la banca dati di una spositivo. Le procedure di lettura dei tag, riconoscimento e struttura sanitaria avente all’interno i dati anagrafici e clini- visualizzazione delle informazioni sullo schermo sono gestici dei pazienti, e in secondo luogo di un’interfaccia grafica te autonomamente dal software, il quale richiede al reader di molto intuitiva, per la gestione sia del dispositivo RFID, sia effettuare ciclicamente letture ogni due secondi. A queste interrogazioni il dispositivo risponde essenzialdel data base. Lo schema in fig. 2 rende tecnicamente l’idea del progetto: mente in tre modi differenti: 1. tag non rilevato partendo da sinistra della figura 2 abbiamo la presenza del 2. tag rilevato tag RFID assegnato a ciascun paziente, che si interfaccia al 3. tag non valido o non riconosciuto reader tramite l’apposita antenna; a sua volta il modulo reaUna risposta del tipo “tag non rilevato” si verifica in assender è collegato al PC ed il collegamento è controllato da una za di un trasponder entro la distanza di rilevamento. classe software dedicata. Un messaggio del tipo “tag rilevato”, invece, avvia le proIl flusso di informazioni passa direttamente nel form principale, che provvede poi alla gestione e alla visualizzazione cedure per il riconoscimento e l’eventuale prelievo dei dati, le quali impiegano circa un secondo di elaborazione. Il terzo dei dati attraverso dei form dedicati. Infine, lo stesso modulo principale provvede all’interfaccia messaggio (“tag non valido o non riconosciuto”) comporta la visualizzazione di avvisi di allerta in circostanze di tag codigrafica per l’input/output con l’operatore sanitario. Nonostante il software abbia allo stato attuale un’impo- ficati non correttamente o parzialmente danneggiati. Anche nel caso in cui venga rilevato un tag valido a cui stazione puramente dimostrativa, poiché non ancora sottoposto a sperimentazione su larga scala, l’interfaccia utente non corrisponde nessun riferimento nel database, ovvero nel è stata ideata con l’intento di offrire la massima semplicità caso in cui il paziente venga inserito per la prima volta nella base di dati, quest’ultimo viene aggiornato in modo del tutd’uso e la massima fruibilità delle informazioni. to automatico dal sistema creando, senza alcun intervento umano, un nuovo record che contiene i dati prelevati direttamente dal tag ed, eventualmente, visualizzando le nuove informazioni acquisite. Questa importante caratteristica permette di creare una base dati dinamica che si aggiorna senza l’ausilio di alcun operatore e che rende immediatamente disponibili agli operatori sanitari (medici, paramedici, ecc.) tutte le informazioni aggiornate relative al paziente: dati Figura 3: interfaccia principale dalla quale è possibile controllare tutto il sistema. anagrafici, anamnesi, incluse terapie in TAG RFID 80 DATABASE SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | INGEGNERIA DELL’INFORMAZIONE Figura 4: finestre per esplorazione e la modifica dei dati anagrafici e clinici. corso, patologie, storia clinica, referti degli esami eseguiti, referti specialistici e tutto quanto si ritiene utile inserire nel data base. Inoltre, la rapidità dello scambio dati, insieme all’efficacia di un buon sistema RFID consente al possessore del trasponder, innanzitutto di evitare l’esibizione della tessera, ma anche di soffermarsi nei pressi della postazione di riconoscimento, a tutto vantaggio della tempestività d’intervento nei casi di urgenza Infine, è bene evidenziare che il sistema prevede anche la possibilità di scrittura delle informazioni sui trasponder, quindi qualsiasi nuovo intervento, esame o un più generico, aggiornamento dei dati clinici-anamnestici, può essere sempre registrato sulla tessera in dotazione al paziente. 4. CONCLUSIONI E SVILUPPI FUTURI Il sistema descritto, che intende applicare in maniera efficace la tecnologia RFID alla sanità, è stato progettato, nella sua versione dimostrativa, e testato con successo in tutte le funzionalità previste dalle specifiche comportamentali. Esso è evidentemente suscettibile di perfezionamento a seguito di una fase di sperimentazione su ampia scala, ad oggi in fase di pianificazione, adatta anche a raccogliere dati statistici sull’affidabilità del funzionamento e sull’indice di gradimento da parte degli operatori sanitari, gradimento basato anche sulla facilità d’uso. Peraltro, anche le indicazioni di progetto ottimizzato dei sistemi basati su tecnologia RFID sono ad oggi ancora oggetto di studio e ricerca [10, 11] per cui è sempre opportuno un adeguamento dell’hardware utilizzato alle più attuali specifiche e regole di progetto. Con il dimostratore progettato è stato verificato con successo che il data base è auto-aggiornante, il riconoscimento dei tag avviene in modo sicuro ed affidabile e che effettivamente viene resa disponibile in tempo reale al medico l’anamnesi di qualunque paziente, anche non in grado di riferire o di riferire correttamente circa la sua storia clinica e la sua condizione attuale: terapie in corso, patologie, ecc. Dalle verifiche effettuate in termini di tempi di riconoscimento dei tag e di accesso al data base ovvero alla cartella clinica virtuale con tutti i dati generici e clinici del paziente, risulta che l’utilizzo del sistema descritto consente una drastica diminuzione dei tempi di acquisizione della cartella clinica virtuale da parte del medico, rispetto alla prassi ancora diffusa di acquisire le informazioni generiche ed anamnestiche tramite colloquio con il paziente ovvero con i suoi familiari, e visita medica generica, fasi che richiedono tempi dell’ordine delle varie decine di minuti, fino a 30-40 circa in base alla complessità del paziente. Questa importante agevolazione è possibile in virtù di una pressoché immediata disponibilità dei dati contenuti nella cartella clinica virtuale, consentita dalla tecnologia RFID opportunamente applicata. I tempi necessari per disporre a monitor di tutti i dati anagrafici, clinici, anamnestici e generici del paziente sono dell’ordine di uno/due secondi al più. E’ evidente anche che in una situazione di urgenza, l’immediata disponibilità dell’anamnesi del soggetto garantisce la scelta di una cura efficace e soprattutto tempestiva. Inoltre, la particolare architettura del sistema, nonchè l’estrema semplicità e l’alta automatizzazione dei metodi di riconoscimento del paziente, non sottraggono tempo utile al personale sanitario per l’assimilazione di nuove procedure informatiche, contribuendo ad una integrazione efficace in ogni sistema informativo esistente nella struttura sanitaria. Aspetto da non sottovalutare è anche quello economico. Infatti, i costi dei dispositivi RFID per questo tipo di applicazioni è, tutto sommato, abbastanza contenuto grazie a recenti fenomeni di economia di scala, oltre che da un continuo progresso tecnologico; basti pensare che ormai il prezzo dei trasponder varia da pochi centesimi a qualche euro a seconda della quantità di memoria o della complessità del circuito integrato. Quindi un sistema così concepito è capace di coniugare uno snellimento delle procedure informative con una politica di contenimento dei costi. In definitiva il sistema, perfezionato e diffuso su larga scala, permetterebbe di gestire in modo semplice ed efficace i flussi di dati generici e clinici dei pazienti, affinché siano immediatamente disponibili e sempre aggiornati, apportando un sicuro vantaggio sia per il personale medico sia per i pazienti stessi. Risulta, altresì, evidente che il passaggio dall’attuale prassi ad una gestione del paziente, ed in generale del cittadino avente diritto all’assistenza sanitaria, basata sulla tecnologia RFID secondo lo schema applicativo descritto, può essere ostacolato o almeno rallentato da diverse problematiche che una svolta di questo tipo inevitabilmente pone. 81 INGEGNERIA DELL’INFORMAZIONE | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 Innanzitutto, la necessità di dotare di una connessione a larga banda sia gli ospedali (case di cura, ecc., in generale) sia gli ambulatori di medicina generale. I medici di base, peraltro, devono prendersi cura di dotare i pazienti dei tag RFID, di memorizzare i dati necessari per il riconoscimento e di “aprire” la cartella clinica virtuale mantenendola aggiornata. Stessa cura nella manutenzione/aggiornamento delle cartelle cliniche individuali deve essere adottata da qualunque centro medico specialistico o ospedale o casa di cura che sia, presso cui il cittadino/paziente riceve cure, esegue visite, presenti, insomma, motivi di aggiornamento delle informazioni medico-cliniche che lo riguardano. Altro problema evidentemente collegato al precedente è la necessità di creare un data base, possibilmente internazionale ma almeno nazionale, adatto allo scopo, anche se in questo viene in aiuto la moderna tecnologia cloud che permette l’immagazzinamento di dati in ampi data base accessibili via web browser. Un esempio molto recente è il servizio Healthvault messo a disposizione da Microsoft, che potrebbe ben attagliarsi alle esigenze poste dal nostro sistema e, comunque, vi sono in letteratura studi inerenti l’applicazione della tecnologia cloud in sinergia con quella RFID [12]. A tutto questo si aggiunga la necessità di formare il personale sanitario, ospedaliero e non (vedi medici di base) all’utilizzo di questi nuovi strumenti hardware e software. Infine, tra le problematiche di maggior rilievo, va menzionata anche la necessità che il cittadino/paziente al momento del suo ingresso nella struttura ospedaliera debba indossare il tag RFID e questo deve essere in buone condizioni affinchè avvenga il riconoscimento da parte del reader. La soluzione a questo problema può essere agevolata dalla varietà di dimensioni e forme che può avere un tag RFID e dei materiali con cui può essere realizzato [13] rispetto, per esempio, alla tessera sanitaria/codice fiscale. Resta, tuttavia, un problema da risolvere e di non banale soluzione. Queste problematiche rappresentano sfide per il futuro, da affrontare con determinazione, forti dell’incoraggiamento proveniente dai risultati certamente positivi relativi all’uso della tecnologia RFID in sanità, in termini di miglioramento della gestione del paziente e di qualità dell’assistenza medica, specialmente quella di urgenza. RIFERIMENTI BIBLIOGRAFICI [1] Rossi A., Mori A., Ricci F., Maceratini R., (2001), “Manuale di informatica medica,” Verduci editore, ISBN 8876205756. [2] Want, R, (2006), “RFID Explained: A Primer on Radio Frequency Identification Technologies” DOI: 10.2200/ S00040ED1V01200607MPC001 Morgan and Claypool eBooks [3] Pathak, R. ; Joshi, S., (2009), “Java based software framework and its integration in Mobile Phones using RFID technologies” Internet Multimedia Services Architecture and Applications (IMSAA), IEEE International Conference on DOI: 10.1109/IMSAA.2009.5439467 Page(s): 1 – 6 82 [4] Jia Gao ; Fangli Liu ; Huansheng Ning ; Baofa Wang, (2007), “RFID Coding, Name and Information Service for Internet of Things”, Wireless, Mobile and Sensor Networks, 2007. (CCWMSN07). IET Conference on, Page(s): 36 – 39 [5] Po Yang ; Wenyan Wu ; Moniri, M. ; Chibelushi, C.C. (2013) “Efficient Object Localization Using Sparsely Distributed Passive RFID Tags” Industrial Electronics, IEEE Transactions on Volume: 60 , Issue: 12 DOI: 10.1109/ TIE.2012.2230596 Page(s): 5914 – 5924 [6] Pathak, R. ; Joshi, S., (2009), “Recent trends in RFID and a java based software framework for its integration in mobile phones AH-ICI 2009. First Asian Himalayas International Conference on Internet DOI: 10.1109/AHICI.2009.5340296 Page(s): 1 – 5 [7] Boaventura, A.J.S. ; Carvalho, N.B., (2013), “A Batteryless RFID Remote Control System”, Microwave Theory and Techniques, IEEE Transactions on , Volume: 61 , Issue: 7 DOI: 10.1109/TMTT.2013.2262688 Page(s): 2727 – 2736 [8] Giorgio A., “Innovative medical devices for telemedicine applications”, (2011) chapter in the book “Telemedicine: techniques and applications”, In Tech Editor, ISBN 979-953307-008-6 [9] Vaughn W. R., (2004), “Accesso ai dati con Visual Basic,” Mondadori informatica (CD Rom). [10] Hong Cheng ; Wancheng Ni ; Na Li, (2014), “A systematic scheme for designing RFID systems with high object detection reliability Information Science, Electronics and Electrical Engineering (ISEEE), 2014 International Conference on Volume: 3 DOI: 10.1109/InfoSEEE.2014.6946175 Page(s): 1521 – 1526 [11] Dingwei Wang; Ip, W.H., (2013), “Review on modeling and optimization problems about RFID technology and applications” Control and Decision Conference (CCDC), 2013 25th Chinese DOI: 10.1109/CCDC.2013.6561118 Page(s): 1258 – 1263 [12] Wei Xie ; Lei Xie ; Chen Zhang ; Quan Zhang ; Chaojing Tang, (2013), “Cloud-based RFID authentication RFID (RFID), IEEE International Conference on DOI: 10.1109/RFID.2013.6548151 Page(s): 168 - 175 [13] Fernandez Salmeron, J. ; Molina-Lopez, F. ; Rivadeneyra, A. ; Vasquez Quintero, A. ; Capitan-Vallvey, L.F.; de Rooij, N.F. ; Banqueri Ozaez, J. ; Briand, D. ; Palma, A.J., (2014), “Design and Development of Sensing RFID Tags on Flexible Foil Compatible With EPC Gen 2”, Sensors Journal, IEEE Volume: 14 , Issue: 12 DOI: 10.1109/ JSEN.2014.2335417 Page(s): 4361 – 4371 SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 | STORIA La spedizione di Sapri nelle carte dell’Archivio Segreto Vaticano CHIARA D’AURIA Dipartimento di Studi Umanistici, Università degli Studi di Salerno L’ indagine storica sull’Impresa di Sapri tra le carte dell’Archivio Segreto Vatica1 no trae origine dall’intenzione di verificare quanto e come fosse stata avvertita e percepita la Spedizione di Carlo Pisacane negli ambienti diplomatici pontifici nella penisola italiana. Pur provenendo da una fonte “periferica”, certamente marginale rispetto a quella costituita dai rapporti tra la segreteria di Stato pontificia e le rappresentanze diplomatiche 1 ASV, nel testo. italiane ed europee2, i documenti storici 2 Cfr. P. Pirri, Pio IX e Vittorio Emanuele II dal loro carteggio privato, Roma, Miscellanae Historiae pontificiae, 1941-1961; Commissione Reale Editrice (a cura di), La questione romana negli anni 1860-1861: il Carteggio del conte di Cavour con D. Pantaleoni, C. Passaglia,O. Vimercati, Bologna, Zanichelli, 1929, voll. 1 e 2; M. Gabriele (a cura di), Il carteggio Antonelli-Sacconi (1858-1860), Roma, Istituto per la Storia del Risorgimento italiano, 1962 C. Verducci, Il carteggio Antonelli-Barili, 19591861, in C. Rostagni, Roma, 1973, Rassegna Storica del Risorgimento, 66 (1973) 467-468; R. Ballerini, Pio IX e Napoleone III, in “Civiltà cattolica”, 1889, vol. VIII, 257-269, pp. 402417; N. Bianchi, Storia della diplomazia europea in Italia dall’anno 1814 al 1861 (n. 8 voll.), Unione tipografico-editrice torinese, Torino-Roma-Napoli, 1869-1872; A. Lumbroso, delle nunziature apostoliche consentono la ricostruzione di un contesto ricco di dettagli e notizie, offrendo un’ulteriore conferma circa la propria capillare e meticolosa capacità di informazione alle autorità centrali pontificie, soprattutto relativamente agli eventi considerati pericolosi e rivoluzionari3. Nel loro insieme queste fonti presentano un carattere talvolta molto specifiVittorio Emanuele e Pio IX. Il loro carteggio inedito, in “La tribuna”, Roma, 5 e 11 settembre 1911, nn. 248-253. 3 Così dalla titolazione dei rapporti riservati ufficiali dalle nunziature apostoliche alla segreteria di Stato pontificia in cui sono raccolti i fascicoli sulla Spedizione di Sapri. 83 STORIA | SCIENZE E RICERCHE • N° 1 • NOVEMBRE 2014 co, legato alla funzione principale delle nunziature e al loro ruolo di rappresentanza diplomatica. Sono citati rapporti personali dei delegati apostolici con personalità politiche locali. Numerose sono le descrizioni circa le condizioni, i problemi, le necessità e gli interessi della comunità religiosa, delle congregazioni religiose e degli ordini monastici. Sono trattate questioni di carattere legale e finanziario attinenti le diocesi locali e la sede apostolica centrale. Ma è anche descritto, in un quadro vivace e ricco di riferimenti, il contesto diplomatico della sede della nunziatura: visite, partenze e arrivi di ambasciatori, ministri, alti ufficiali; talvolta, ancora, sono contenute le personali considerazioni sul quadro politico, sull’attività dei movimenti rivoluzionari, della stampa ufficiale e clandestina. Nell’ambito dei rapporti tra nunziature e consolati da una parte e Stato Pontificio dall’altra, spesso si istauravano relazioni caratterizzate da una costante diatriba, a causa dei numerosi contrasti tra Roma e le rappresentanze pontificie in merito alla definizione delle regole cui dovevano attenersi i consoli e i nunzi apostolici. Le loro figure e i loro compiti, infatti, sono oggetto di un’ulteriore indagine storica, poiché gli argomenti trattati nei rapporti riservati ufficiali così come nelle altre missive alla Segreteria di Stato consentono solo ex post di stabilire quali fossero le funzioni, i margini operativi e i privilegi assicurati al personale delle nunziature e dei consolati generali4. In genere queste sedi erano deputate all’organizzazione di una rete di informazioni e di monitoraggio costante sulle attività politiche e diplomatiche del regno presso cui erano accreditate; erano altresì incaricate di dare notizia a Roma circa la diffusione di stampa tendenziosa; infine erano istruite per informare la Segreteria di Stato su eventuali movimenti politici contrari al governo dello Stato presso cui erano accreditate. Lo Stato Pontificio solo nella seconda metà dell’Ottocento aveva stabilito, attraverso una cospicua produzione normativa, gli scopi e le funzioni dei consolati e delle nunziature apostoliche5. In merito ai primi, i consoli generali ed il personale da questi dipendente non erano rappresentanti della Sua Maestà Pontificia. Non godevano perciò di alcuna immunità, ma erano soggetti alla giustizia della nazione in cui operavano. Erano altresì patrocinatori di cittadini stranieri che potevano aver bisogno di assistenza nello svolgimento delle attività connesse al commercio ed all’espatrio; potevano, infine, essere chiamati a svolgere le funzioni di consoli in territorio 4 Cfr. A. Silvestro, Nota sul traffico mercantile tra lo Stato Pontificio e la costa istriano-dalmata e sui consolati pontifici in Istria e Dalmazia nel’800 , in “Grada i prilozi za povijest Dal macie” 15, Split 1999, pp. 221246; Notizie sulle sedi consolari nelle Marche pontificie nel secolo 19, in “Quaderni dell’Archivio storico arcivescovile di Fermo”, 1993, n. 13, suppl., parte I e II. 5 Cfr. G. Moroni, Dizionario di erudizione storico-ecclesiastica da S. Pietro sino ai nostri giorni, Venezia, Tipografia emiliana, vol. XVII, voce “consoli pontifici”, pp. 42-51; vol. XLVIII, voce “nunzi apostolici”, pp. 151-155. 84 romano sia sudditi pontifici sia cittadini esteri6. Nel caso delle nunziature, invece, il personale intero era considerato a tutti gli effetti in qualità di corpo diplomatico pontificio, con tutti i privilegi e le immunità concernenti tale incarico. Nelle sedi italiane i consolati generali pontifici (soprattutto quelli sull’Adriatico, il Tirreno ed, in generale, in prossimità dei porti) erano incaricati soprattutto del disbrigo di pratiche concernenti il commercio e le persone e i mezzi con cui esse venivano svolte. Già prima della sosta di Pisacane presso l’isola di Ponza (con il vapore Cagliari che imbarcava il Pisacane stesso e i suoi compagni), le nunziature apostoliche italiane svolsero una consistente attività di informazione alla Segreteria di Stato pontificia e le sedi di Genova e Napoli costituiscono una fonte interessante. Secondo gli indici dell’ASV tutta la documentazione della nunziatura di Napoli era separata da quella della Segreteria di Stato fino all’anno 1860. Poiché la Spedizione di Pisacane si svolse nel 1857, sono stati consultati tutti gli indici tra il 1760 e il 1860, come da catalogazione dell’Archivio, provnienti da Napoli. Infatti l’Archivio della Nunziatura di Napoli è ordinato non secondo la data ma secondo la provenienza dei documenti (quindi secondo i nomi delle città) o l’argomento7. 6 G. Moroni, cit. 7 Cfr. G. Gualdo, Sussidi per la consultazione dell’ASV. Lo schedario Garampi, registri vaticani e lateranensi, in “Rationes Camerae”, Archivio Concistoriale Nuova riveduta e ampliata, CdV, 1989, Collectanea Archivi Vaticani; P. P. Piergentili, I consolati pontifici e le nunziature apostoliche in Italia dalla pace di Zurigo alla presa di Roma (1859-1870). Note di storia degli archivi, acquisizioni, dispersioni archivistiche, in Dall’Archivio Segreto Vaticano. Miscellanea di testi, saggi e inventari, I, Collectanea Archivi Vaticani, n. 6,1Città del Vaticano, 2006; G. Gualdo, Sussidi per la consultazione dell’Archivio Vaticano, Collectanea Archivi Vaticani, n. 17, Città del Vaticano, 1989; A. Mercati, La Biblioteca Apostolica e l’Archivio Vaticano Segreto, in Vaticano, a cura di G. Fallani e M. Escobar, Firenze, 1996; Bibliografia dell’Archivio Vaticano, a cura della Commissione Internazionale per la Bibliografia dell’Archivio Vaticano, I-VIII, Città del Vaticano, 1962-2001; Il Libro del Centenario. L’Archivio Vatic